WO2014032903A1 - Verfahren und informationssystem zum filtern von objektinformationen - Google Patents

Verfahren und informationssystem zum filtern von objektinformationen Download PDF

Info

Publication number
WO2014032903A1
WO2014032903A1 PCT/EP2013/066183 EP2013066183W WO2014032903A1 WO 2014032903 A1 WO2014032903 A1 WO 2014032903A1 EP 2013066183 W EP2013066183 W EP 2013066183W WO 2014032903 A1 WO2014032903 A1 WO 2014032903A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
object information
objects
driver
vehicle
Prior art date
Application number
PCT/EP2013/066183
Other languages
English (en)
French (fr)
Inventor
Dijanist GJIKOKAJ
Andreas Offenhaeuser
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to CN201380045341.4A priority Critical patent/CN104798084A/zh
Priority to US14/421,403 priority patent/US20150239396A1/en
Publication of WO2014032903A1 publication Critical patent/WO2014032903A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the present invention relates to a method for filtering object information, to a corresponding information system and to a corresponding computer program product.
  • DE 101 31 720 A1 describes a head-up display system for displaying an object of a vehicle exterior.
  • the present invention provides a method for filtering object information, furthermore an information system which uses this method and finally a corresponding one
  • a driver of a means of transportation such as a vehicle can be supported when objects are detected and displayed in front of the means of locomotion.
  • an environment of the means of locomotion can be detected with the aid of a sensor and objects in the environment can be detected.
  • the objects can be highlighted for the driver.
  • a means of transportation can generally be understood to mean a device which serves for the transport of persons or goods, such as
  • a vehicle for example, a vehicle, a vehicle, a ship, a rail vehicle, an aircraft or similar means for locomotion.
  • sensors can be used that can resolve and detect objects regardless of the prevailing visibility conditions. Such sensors often have a long range.
  • the range can extend, for example, near the ground from immediately before the means of transportation, in particular the vehicle to a local horizon.
  • a wealth of objects can be captured.
  • a driver may, if all objects were highlighted, be overwhelmed by the high amount of displayed and interpreted objects. At least the driver can see from, for him visible
  • the invention is based on the recognition that a driver of a
  • Means of transport such as a vehicle requires objects that he can recognize himself, not shown highlighted.
  • objects that were detected and detected with a sensor that is very far-reaching for long distances can be compared with objects that also pass through an area visible to the driver in front of the driver
  • Subset of the objects detected by the two sensors are extracted, which are then displayed, for example, in a subsequent step on a display for the driver.
  • a subset of detected objects can be subtracted or excluded, which are detected, for example, by means of a sensor measuring in the visible spectrum, by a reduced amount of
  • the amount of information of the selected or filtered objects can be reduced, which increases the clarity of the display for the driver and in addition to a higher acceptance by the driver also provides an advantage in terms of propulsion safety, since now also a driver an indication of objects can be given, for example, are not in his field of vision.
  • the present invention provides a method for filtering
  • Reading in a second object information that represents at least two objects detected and detected by a second sensor, wherein the second sensor is based on a second sensor principle and at least one of the objects is also represented in the first object information, wherein the first sensor principle differs from the second sensor principle ;
  • Object information are represented.
  • An object information can be understood as a combination of various parameters of a plurality of objects.
  • an object may each have one position, one class, one distance, and / or one
  • the object information may be a result of a Object recognition based on one or more images and one
  • a sensor principle can be understood as a type of recording or recording of a physical quantity to be measured.
  • a sensor principle may include the use of electromagnetic waves in a predetermined spectral range to detect the physical quantity to be measured.
  • a sensor principle may also include the utilization of ultrasound signals for detecting a physical quantity to be measured. It should be a
  • a first sensor may be, for example, a camera.
  • the first sensor may thus be sensitive to visible light, for example.
  • the first sensor may thus be subject to similar optical limitations as a human eye.
  • the first sensor may have a limited field of vision in front of the vehicle occurring fog or rain.
  • a second sensor may, for example, be a sensor that detects much further.
  • the second sensor a direction information and / or a
  • the second sensor may be a radar or lidar sensor.
  • data in the step of reading in a second object information, data may be read in by the second sensor, which is designed to detect objects which are arranged outside a detection range of the first sensor, in particular those at a distance in front of one transportation,
  • a vehicle are arranged, which is greater than a distance of a maximum limit of the detection range of the first sensor before the means of transportation.
  • the method may include a step of determining a distance between an object represented in the filtered object information and the Have means of transport, in particular the vehicle, in particular, the distance to the object is determined, which has the smallest distance to the means of transportation. For example, the object can no longer be detected by the first sensor.
  • the distance may vary depending on current visibility conditions and / or
  • Be visibility conditions of the object For example, fog can degrade a viewing condition.
  • a dark object may also have a worse visibility condition than a bright object.
  • a theoretical visibility of a driver of the means of locomotion can be determined, the visibility being determined to be smaller than the distance between the object and the means of locomotion.
  • the distance can be greater than a theoretically possible visibility.
  • the visibility can also be smaller by a safety factor than the distance.
  • the object may be located outside a real driver's field of vision. The real visibility can be smaller than the theoretical visibility.
  • the first sensor and the second sensor may be configured to be the
  • object information can be read in by the first sensor in the step of reading in a first object information and object information is read in by the second sensor in the step of reading in a second object information, wherein the first sensor measures measured values using signals in a first electromagnetic field
  • Wavelength range and the second sensor provides readings under evaluation of signals in a different from the first electromagnetic wavelength range second electromagnetic wavelength range.
  • the first sensor may receive and evaluate visible light
  • the second sensor may receive and evaluate infrared light
  • the second sensor can also emit, receive and evaluate radar waves, for example.
  • In the infrared spectrum objects can also be bad
  • Visibility conditions for example, be very well resolved in the dark.
  • An infrared sensor may be formed as an active sensor, which illuminates an environment of the vehicle with infrared light or be configured as a passive sensor that receives only emanating from the objects infrared radiation.
  • a radar sensor may be an active sensor that actively illuminates the objects with radar waves and receives reflected radar waves.
  • the method may include a step of displaying the filtered object data on a display device of the vehicle, in particular to highlight objects out of sight of the driver.
  • the filtered object data may be displayed on a field of view display.
  • the filtered objects can be displayed such that a position in the field of view display coincides with a position of the objects in a field of view of the driver.
  • the current visibility of the driver and / or a current braking distance of the means of locomotion can be represented according to a further embodiment of the invention.
  • a further embodiment of the invention for this purpose, for example, in a
  • the braking distance are determined, which is due to a speed of the means of locomotion and possibly other parameters such as a road surface moisture.
  • On the display markings can be displayed that represent the theoretical visibility and / or the current braking distance of the means of transport or vehicle.
  • the driver can decide on his own responsibility, whether he drives the current environmental conditions adapted, but advantageously receives a technical notice in order not to overestimate the driving style and / or the vehicle characteristics in terms of driving safety.
  • Means of transport or vehicle may be according to another
  • a maximum speed can be a target guideline for the travel speed. By displaying the maximum speed, the driver can see that he is driving a deviating, for example, too high a speed. A speed difference to the current speed of the vehicle or vehicle may be displayed. The difference can be highlighted to provide further safety information to the driver.
  • the maximum speed can be output according to a further embodiment of the invention as a setpoint to a cruise control system.
  • a speed control system can adjust the speed of the vehicle or vehicle by means of control commands to the setpoint.
  • the method may include a step of activating a driver assistance system when the driver's visibility is less than a safety value. For example, a reaction time of a brake assist can be shortened in order to be able to decelerate faster in front of a suddenly visible object. Likewise, for example, a field of view display can be activated when the visibility conditions deteriorate.
  • the present invention further provides an object information filtering information system configured to perform the steps of
  • an information system can be understood to mean an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the information system may have an interface, which may be formed in hardware and / or software. In a hardware training, the interfaces, for example
  • system ASICs Part of a so-called system ASICs, which includes a variety of functions of the information system. However, it is also possible that the
  • Interfaces own integrated circuits are or at least partially consist of discrete components.
  • the interfaces may be software modules, for example, on a
  • Microcontroller in addition to other software modules are available.
  • the method presented above can also be used in a stationary system.
  • this can be one or more as "object"
  • Embodiment can be used as a measuring device for the measurement of fog banks, in particular for detecting a tightness of the mist.
  • An advantage is also a computer program product with program code, which on a machine-readable carrier such as a semiconductor memory, a
  • Hard disk space or an optical storage can be stored and used to carry out the method according to one of the embodiments described above, when the program product is executed on a computer or a device.
  • FIG. 1 is an illustration of a vehicle having an information system for filtering object information according to an embodiment of the present invention
  • FIG. 2 is a block diagram of an information system for filtering
  • 3 is a flowchart of a method for filtering
  • Object information according to an embodiment of the present invention.
  • FIG. 1 shows an illustration of a vehicle 100 having an information system 102 for filtering object information according to an embodiment of the present invention.
  • the vehicle 100 has a first sensor 104, a second sensor 106 and a display device 108.
  • other conceivable means of transportation such as a ship or an aircraft may be equipped with corresponding units to implement an embodiment of the present invention.
  • the invention is presented in the present description with reference to an exemplary embodiment as a vehicle, without this choice of the exemplary embodiment being restrictive.
  • the first sensor 104 is formed by a video camera 104, which scans a first detection area 110 in front of the vehicle 100.
  • the video camera 104 captures images in the visible light spectrum.
  • the second sensor 106 is as a
  • Radar sensor 106 is formed, which scans a second detection area 1 12 in front of the vehicle 100.
  • the second detection area 12 is here narrower than the first detection area 1 10.
  • the radar sensor 106 generates radar images by illuminating the second detection area 1 12 with radar waves and reflected waves or reflections from the second detection area
  • the first detection area 1 10 is smaller than the second detection area 1 12, because a visual obstruction 1 14 (also referred to as the visual limit), here, for example, a fog wall 1 14, the first
  • Detection range 1 10 limited.
  • the fog screen 1 14 absorbs much of the visible light and scatters other parts of the light, so that the
  • Video camera 104 objects in the fog wall 1 14 or behind the fog wall 1 14 can not detect.
  • the video camera 104 is subject to the same optical limitations as the human eye.
  • the second detection range 1 12 is theoretically only by a radiated power of the radar sensor 106 limited.
  • the images of the camera 104 and the radar sensor 106 are each processed or processed by means of an image processing unit, not shown. In the process, objects are recognized in the images and a first one in each case
  • Object information representing one or more objects in the camera image and second object information representing one or more objects in the radar image are generated.
  • Object information is stored in the filtering device 102 using a filtering method according to an embodiment of the invention
  • the filtering device 102 outputs filtered object information to the display device 108 to display in the display device objects hidden in or behind the fog screen 14. Objects that are not hidden, a driver of the vehicle 100 can detect independently. These are not highlighted.
  • FIG. 2 is a block diagram of an information system 102 for filtering object information for use in one embodiment of the present invention.
  • the information system 102 corresponds to the
  • the information system comprises a first means 200 for reading in, a second means 202 for reading in and a means 204 for outputting.
  • the first device 200 is configured to read in a first object information 206.
  • Object information 206 represents at least one object detected and detected by a first sensor.
  • the first sensor is based on a first sensor principle.
  • the second means 202 for reading is adapted to read in a second object information 208.
  • the second object information 208 represents at least two objects detected and detected by a second sensor.
  • the second sensor is based on a second sensor principle. At least one of the objects is also represented in the first object information 206.
  • the first sensor principle is different from the second sensor principle.
  • Output device 204 is configured to be a filtered one
  • Output object information 210 The filtered object information 210 represents those objects that are exclusively in the second
  • FIG. 2 shows an information system 102 for
  • Visibility measurement by sensor combination can be 1 in the visible light wave range (eg mono / stereo video) with data from an environment sensor 106 of FIG. 1 outside the visible range (eg RADAR, LIDAR).
  • An object recognition by environment sensor technology can provide a position and / or a speed and / or a size of the object as derived information.
  • the information may be provided on a Human Machine Interface (HMI) (eg HUD) and optionally as networked communication via Car-TO-X (C2X) and / or Car-To-Car (C2C) and / or Car-To-Car. To Infrastructure (C2I).
  • HMI Human Machine Interface
  • C2X Car-TO-X
  • C2C Car-To-Car
  • C2I Car-To-Car
  • the communication can be done in duplex mode.
  • FIG. 3 shows a flow chart of a method 300 for filtering
  • the method 300 includes a first step 302 of reading, a second step 304 of reading and a step 306 of outputting.
  • a first object information 206 is read in, which represents at least one object detected and detected by a first sensor, the first sensor being based on a first sensor principle.
  • a second object information 208 is read in which represents at least two objects detected and detected by a second sensor, the second sensor being based on a second
  • filtered object information 210 is output that represents those objects that are represented only in the second object information 208.
  • This additional filtered information 210 may be used, for example, to optimize HMI systems. For example, then no redundant information regarding the
  • Transverse and longitudinal guide shown. This leads to a reduction of the flood of information on the driver and thereby to a lower utilization of the cognitive resources. These released cognitive resources make a decisive contribution to reducing the severity of accidents in critical situations. For example, in a night vision system instead of the additional one
  • HUD Head-Up Display
  • the information gained can be found, for example, in a
  • Braking distance can be determined. If this braking distance is below the size of the driver's sight distance obtained by the system, information can be output via the HMI based on the calculated values, which informs the driver about his maximum safe speed. Alternatively or additionally, the requested speed control system speed, for example using an ACC or cruise control, can be adjusted automatically using the safe maximum speed.
  • the obtained information 210 can also be used to adapt a
  • FAS driver assistance systems
  • Semiautonomous assistance systems today require an activation by the driver. However, if the driver is not yet aware of the danger because he can not recognize it, the FAS is activated too late. With the help of the driver's visibility established according to the approach presented here, the activation conditions can be modified to take the environmental situation into consideration and, if necessary, to take precautions to maximally reduce an accident.
  • FIG. 4 depicts a representation of objects in front of a vehicle 100 that are filtered using a method of filtering object information according to one embodiment of the present invention.
  • Method of filtering corresponds to the method, as shown in Fig. 3.
  • the vehicle 100 corresponds to a vehicle as shown in FIG. 1.
  • the first sensor 104 and the second sensor 106 are disposed on a front side of the vehicle 100.
  • the second sensor 106 may also be in another, not shown embodiment on another side of the
  • the sensors 104, 106 have in contrast to Fig. 1 depending on a similar detection angle.
  • the first sensor 104 has the first detection area 110. In the first
  • Detection area 1 10 the first object set 01 from here two objects 400, 402 detected.
  • the first set of objects 01 is indicated by a slanted bar from top left to bottom right.
  • the second sensor 106 has the second detection range 1 12.
  • the second object set 02 is detected from here five objects 400, 402, 404, 406, 408.
  • the second set of objects 02 is indicated by a sloping bar from top right to bottom left.
  • the detection areas 1 10, 1 12 are overlapping.
  • An intersection 01 n02 from here the two objects 400, 402 is detected by both sensors 104, 106.
  • the intersection 01 n02 is characterized by diagonally crossed slanted beams.
  • a difference 02 ⁇ 01 from here the three objects 404, 406, 408 is detected exclusively by the second sensor 106.
  • the difference set 02 ⁇ 01 is the object set OT and characterized by a square frame.
  • the detection area 110 of the first sensor 104 has a blurred vehicle-facing boundary 412 due to a visual obstruction.
  • a driver of the vehicle 100 has a similarly limited visibility 410 due to the visual obstruction.
  • the object 402 can barely be identified by the driver.
  • the object 402 can just be detected by the sensor 104, since the front boundary is farther away from the vehicle 100 than the object 402.
  • the object 404 is arranged closest to the vehicle 100 from the object set OT. A distance to the object 404 is determined and used as theoretical visibility 414.
  • Actual Visibility 410 and Theoretical Visibility 414 are not directly consistent, but are similar.
  • the theoretical visibility 414 is greater than the actual visibility 410.
  • the actual visibility 410 may be estimated using a safety factor.
  • the objects 404, 406, 408 of the object set OT can not be seen by the driver. Therefore, the objects 404, 406, 408 can advantageously be displayed on the display device of the vehicle 100, for example a head-up display. This allows the driver to record important information that he would otherwise not receive. In order not to burden the driver, the objects 400, 402 of the object set 01 are not displayed.
  • environment sensor 104 which operates in the visible light range, the same viewing conditions as the driver subject. Object recognition thus identifies the objects 400, 402 which are within sight of the driver. This leads to the object set 01. If the object detection takes place on data that is outside of the human visible range, objects can be observed regardless of the (human) visibility. Objects 400 to 408, which are detected in this way, form the object set 02 here.
  • the OT objects can not be recognized by the driver even if they cover or sense the light wave spectrum.
  • the object OT min 404 of the set OT which has the smallest distance 414 to the ego vehicle 100, can thus be considered approximately as the theoretically maximum visibility of the driver, even if this is only partially correct.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Abstract

Die Erfindung betrifft ein Verfahren (300) zum Filtern von Objektinformationen (206, 208), wobei eine erste Objektinformation (206) und eine zweite Objektinformation (208) eingelesen werden, wobei die erste Objektinformation (206) zumindest ein, von einem ersten Sensor (104) erfasstes und erkanntes Objekt (400, 402) repräsentiert und die zweite Objektinformation (208) zumindest zwei von einem zweiten Sensor (106) erfasste und erkannte Objekte (400, 402, 404, 406, 408) repräsentiert, wobei der erste Sensor (104) auf einem ersten Sensorprinzip basiert und der zweite Sensor (106) auf einem zweiten Sensorprinzip basiert, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet, wobei zumindest eines der Objekte (400, 402) in der zweiten Objektinformation (208) auch in der ersten Objektinformation (206) repräsentiert ist, wobei eine gefilterte Objektinformation (210) ausgegeben wird, die diejenigen Objekte (404, 406, 408) repräsentiert, die in der zweiten Objektinformation (208) und nicht in der zweiten Objektinformation (206) repräsentiert sind.

Description

Beschreibung Titel
Verfahren und Informationssystem zum Filtern von Objektinformationen Stand der Technik
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Filtern von Objektinformationen, auf ein entsprechendes Informationssystem sowie auf ein entsprechendes Computerprogrammprodukt.
Bei schlechten Sichtverhältnissen kommt es weltweit im Straßenverkehr häufig zu Unfällen. Diese sind oft dadurch geschuldet, dass der Fahrzeugführer die Lage nicht richtig einschätzt und seine sowie die physikalischen Fähigkeiten (Bremswege etc.) des Fahrzeugs überschätzt.
Die DE 101 31 720 A1 beschreibt ein Head-Up Display System zur Darstellung eines Objekts eines Fahrzeugau ßenraums.
Offenbarung der Erfindung
Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Filtern von Objektinformationen, weiterhin ein Informationssystem, das dieses Verfahren verwendet sowie schließlich ein entsprechendes
Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt.
Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
Bisherige Systeme (z. B. Night-Vision) erkennen Objekte selbstständig und zeigen diese dem Fahrzeugführer auf einem Bildschirm an. Ob der Fahrer das Objekt auch ohne Assistenzsystem erkennen kann, spielt hierbei keine Rolle. Dies hat zur Folge, dass dem Fahrer unnötig viele Informationen (Informationsflut) übermittelt werden. Auch bei schlechter Sicht kann ein Fahrer eines Fortbewegungsmittels wie beispielsweise eines Fahrzeugs unterstützt werden, wenn Objekte vor dem Fortbewegungsmittel erkannt und angezeigt werden. Dazu kann unter Zuhilfenahme eines Sensors eine Umgebung des Fortbewegungsmittels erfasst werden und Objekte in der Umgebung erkannt werden. Die Objekte können für den Fahrer hervorgehoben dargestellt werden. Unter einem Fortbewegungsmittel kann hierbei allgemein ein Gerät verstanden werden, das zum Fortbefördern von Personen oder Gütern dient, wie
beispielsweise ein Fahrzeug, ein Förderzeug, ein Schiff, ein Schienenfahrzeug, ein Flugzeug oder ein ähnliches Mittel zur Fortbewegung.
Dies führt zu einer zusätzlichen kognitiven Belastung des Fortbewegungsmittelsbzw. Fahrzeugführers, da die realen Objekte und die angezeigten Objekte durch den Fahrer erkannt und verarbeitet werden müssen. Des Weiteren kann die Akzeptanz solcher Assistenzsysteme sinken, falls der Fahrer den subjektiven
Eindruck gewinnt, dass das Assistenzsystem keinen Mehrwert hat.
Um eine solche negative Wirkung zu vermeiden, können Sensoren verwendet werden, die unabhängig von herrschenden Sichtverhältnissen Objekte auflösen und erkennen können. Solche Sensoren weisen oft eine große Reichweite auf.
Die Reichweite kann beispielsweise in Bodennähe von unmittelbar vor dem Fortbewegungsmittel, insbesondere dem Fahrzeug bis zu einem lokalen Horizont reichen. Innerhalb der Reichweite kann eine Fülle an Objekten erfasst werden. Ein Fahrer kann, wenn alle Objekte hervorgehoben dargestellt würden, durch die dadurch hohe Menge der angezeigten und zu interpretierenden Objekte überfordert werden. Zumindest kann der Fahrer vom, für ihn sichtbaren
Verkehrsgeschehen abgelenkt werden.
Die Erfindung basiert auf der Erkenntnis, dass ein Fahrer eines
Fortbewegungsmittels wie eines Fahrzeugs Objekte, die er selbst erkennen kann, nicht hervorgehoben dargestellt benötigt. Hierzu können beispielsweise Objekte, die mit einem für große Entfernungen sehr weit auflösenden Sensor erfasst und detektiert wurden, mit Objekten verglichen werden, die auch durch einen den vom Fahrer einsehbaren Bereich vor der neben dem
Fortbewegungsmittel-Sensor erkennbar sind. Insofern braucht lediglich eine
Teilmenge der durch die beiden Sensoren erfassten Objekte extrahiert werden, die dann beispielsweise in einem nachfolgenden Schritt auf einer Anzeige für den Fahrer angezeigt werden.
Vorteilhafterweise kann von einer Gesamtmenge der mit einem weitreichenden Sensor erfassten Objekte eine Teilmenge erkannter Objekte abgezogen bzw. ausgeschlossen werden, die beispielsweise mittels eines im sichtbaren Spektrum messenden Sensors erkannt werden, um eine verringerte Menge von
beispielsweise nachfolgend darzustellenden Objekten zu erhalten. Hierdurch kann die Informationsmenge der ausgewählten bzw. ausgefilterten Objekte verringert werden, was die Übersichtlichkeit bei der Anzeige für den Fahrer erhöht und neben einer höheren Akzeptanz durch den Fahrer auch einen Vorteil in Bezug auf die Fortbewegungsmittelsicherheit liefert, da nun auch einem Fahrer ein Hinweis auf Objekte gegeben werden kann, die beispielsweise nicht in seinem Sichtbereich liegen.
Die vorliegende Erfindung schafft ein Verfahren zum Filtern von
Objektinformationen, wobei das Verfahren die folgenden Schritte aufweist:
Einlesen einer ersten Objektinformation, die zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt repräsentiert, wobei der erste Sensor auf einem ersten Sensorprinzip basiert;
Einlesen einer zweiten Objektinformation, die zumindest zwei von einem zweiten Sensor erfasste und erkannte Objekte repräsentiert, wobei der zweite Sensor auf einem zweiten Sensorprinzip basiert und zumindest eines der Objekte auch in der ersten Objektinformation repräsentiert ist, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet; und
Ausgeben einer gefilterten Objektinformation, die diejenigen Objekte
repräsentiert, die in der zweiten Objektinformation und nicht in der ersten
Objektinformation repräsentiert sind.
Unter einer Objektinformation kann eine Kombination verschiedener Parameter einer Mehrzahl an Objekten verstanden werden. Beispielsweise kann einem Objekt je eine Position, eine Klasse, eine Entfernung und/oder ein
Koordinatenwert zugeordnet sein. Die Objektinformation kann ein Ergebnis einer Objekterkennung basierend auf einem oder mehreren Bildern und einer
Verarbeitungsvorschrift repräsentieren. Unter einem Sensorprinzip kann eine Art der Erfassung oder Aufzeichnung einer zu messenden physikalischen Größe verstanden werden. Beispielsweise kann ein Sensorprinzip die Ausnutzung von elektromagnetischen Wellen in einem vorbestimmten Spektralbereich zur Erfassung der zu messenden physikalischen Größe umfassen. Alternativ kann ein Sensorprinzip auch die Ausnutzung von Ultraschallsignalen zur Erfassung einer zu messenden physikalischen Größe umfassen. Dabei sollte ein
Unterschied zwischen dem ersten und zweiten Sensorprinzip feststellbar sein, der sich beispielsweise in der Erfassung oder Auswertung eines Sensorsignals auszeichnet. Die Erfassung oder Auswertung der von den beiden Sensoren erfassten physikalischen Größen sollte sich folglich unterscheiden. Ein erster Sensor kann beispielsweise eine Kamera sein. Der erste Sensor kann somit beispielsweise empfindlich für sichtbares Licht sein. Der erste Sensor kann somit ähnlichen optischen Einschränkungen unterliegen, wie ein menschliches Auge. Beispielsweise kann der erste Sensor ein eingeschränktes Sichtfeld bei vor dem Fahrzeug auftretendem Nebel oder Regen aufweisen. Ein zweiter Sensor kann beispielsweise ein deutlich weiter erfassender Sensor sein. Beispielsweise kann der zweite Sensor eine Richtungsinformation und/oder eine
Entfernungsinformation zu einem Objekt bereitstellen. Beispielsweise kann der zweite Sensor ein Radar oder Lidar Sensor sein.
Gemäß einer vorteilhaften Ausführungsform der vorliegenden Erfindung können im Schritt des Einlesens einer zweiten Objektinformation Daten von dem zweiten Sensor eingelesen werden, der ausgebildet ist, um Objekte zu erfassen, die au ßerhalb eines Erfassungsbereichs des ersten Sensors angeordnet sind, insbesondere die in einem Abstand vor einem Fortbewegungsmittel,
insbesondere einem Fahrzeug angeordnet sind, der größer ist als ein Abstand einer maximalen Grenze des Erfassungsbereichs des ersten Sensors vor dem Fortbewegungsmittel. Eine solche Ausführungsform der vorliegenden Erfindung bietet den Vorteil einer besonders günstigen Auswahl der zu extrahierenden Objekte, da die unterschiedlichen Reichweiten bzw. Erfassungsweiten der Sensoren besonders vorteilhaft ausgenutzt werden können.
Das Verfahren kann einen Schritt des Bestimmens einer Distanz zwischen einem in der gefilterten Objektinformation repräsentierten Objekt und dem Fortbewegungsmittel, insbesondere dem Fahrzeug aufweisen, wobei insbesondere die Distanz zu demjenigen Objekt bestimmt wird, das die geringste Entfernung zu dem Fortbewegungsmittel aufweist. Das Objekt kann von dem ersten Sensor beispielsweise gerade nicht mehr erfasst werden. Die Distanz kann abhängig von aktuellen Sichtbedingungen und/oder
Sichtbarkeitsbedingungen des Objekts sein. Beispielsweise kann Nebel eine Sichtbedingung verschlechtern. Beispielsweise kann auch ein dunkles Objekt eine schlechtere Sichtbarkeitsbedingung aufweisen, als ein helles Objekt. Es kann eine theoretische Sichtweite eines Fahrers des Fortbewegungsmittels bestimmt werden, wobei die Sichtweite kleiner als die Distanz zwischen dem Objekt und dem Fortbewegungsmittel bestimmt wird. Somit kann als Distanz zwischen dem Objekt und dem Fahrzeug ein Abstand bestimmt werden, der größer als die Sichtweite ist. Die Distanz kann größer als eine theoretisch mögliche Sichtweite sein. Die Sichtweite kann auch um einen Sicherheitsfaktor kleiner sein als die Distanz. Das Objekt kann sich au ßerhalb einer reellen Sichtweite des Fahrers befinden. Die reale Sichtweite kann kleiner sein, als die theoretische Sichtweite. Der erste Sensor und der zweite Sensor können ausgebildet sein, um die
Objektinformationen unter Auswertung von Signalen aus verschiedenen
Wellenlängenbereichen elektromagnetischer Wellen bereitzustellen. Dabei kann beispielsweise im Schritt des Einlesens einer ersten Objektinformation eine Objektinformation vom ersten Sensor eingelesen werden und bei dem im Schritt des Einlesens einer zweiten Objektinformation eine Objektinformation vom zweiten Sensor eingelesen werden, wobei der erste Sensor Messwerte unter Anwendung von Signalen in einem ersten elektromagnetischen
Wellenlängenbereich und der zweite Sensor Messwerte unter Auswertung von Signalen in einem vom ersten elektromagnetischen Wellenlängenbereich unterschiedlichen zweiten elektromagnetischen Wellenlängenbereich bereitstellt.
Beispielsweise kann der erste Sensor sichtbares Licht empfangen und auswerten und der zweite Sensor kann Infrarotlicht empfangen und auswerten. Der zweite Sensor kann auch beispielsweise Radarwellen aussenden, empfangen und auswerten. Im Infrarot-Spektrum können Objekte auch bei schlechten
Sichtbedingungen, beispielsweise bei Dunkelheit sehr gut aufgelöst werden.
Radarwellen können auch beispielsweise Nebel nahezu ungehindert passieren. Ein Infrarotsensor kann als aktiver Sensor ausgebildet sein, der eine Umgebung des Fahrzeugs mit Infrarotlicht beleuchtet oder auch als ein passiver Sensor ausgestaltet sein, der lediglich von den Objekten ausgehende Infrarotstrahlung empfängt. Ein Radarsensor kann ein aktiver Sensor sein, der die Objekte aktiv mit Radarwellen beleuchtet und zurückgeworfene Radarwellen empfängt.
Das Verfahren kann einen Schritt des Anzeigens der gefilterten Objektdaten auf einer Anzeigeeinrichtung des Fortbewegungsmittels aufweisen, insbesondere um Objekte außerhalb der Sichtweite des Fahrers hervorgehoben darzustellen. Insbesondere können die gefilterten Objektdaten auf einer Sichtfeldanzeige angezeigt werden. Dabei können die gefilterten Objekte so dargestellt werden, dass eine Position in der Sichtfeldanzeige mit einer Lage der Objekte in einem Blickfeld des Fahrers übereinstimmt.
Die aktuelle Sichtweite des Fahrers und/oder ein aktueller Bremsweg des Fortbewegungsmittels kann gemäß einer weiteren Ausführungsform der Erfindung dargestellt werden. Hierzu kann beispielsweise in einem
vorausgegangenen Schritt der Bremsweg bestimmt werden, der durch eine Geschwindigkeit des Fortbewegungsmittels und evtl. weiterer Parameter wie einer Fahrbahnfeuchtigkeit bedingt ist. Auf der Anzeigeeinrichtung können Markierungen eingeblendet werden, die die theoretische Sichtweite und/oder den aktuellen Bremsweg des Fortbewegungsmittels oder Fahrzeugs repräsentieren. Damit kann der Fahrer eigenverantwortlich entscheiden, ob er den aktuellen Umweltbedingungen angepasst fährt, erhält jedoch vorteilhafterweise einen technischen Hinweis, um sie Fahrweise und/oder die Fahrzeugeigenschaften in Bezug auf die Fahrtsicherheit nicht zu überschätzen.
Eine an die Sichtweite angepasste Maximalgeschwindigkeit des
Fortbewegungsmittels oder Fahrzeugs kann gemäß einer anderen
Ausführungsform dargestellt werden. Eine Maximalgeschwindigkeit kann ein anzustrebender Richtwert für die Fortbewegungsmittelgeschwindigkeit sein. Durch die Darstellung der Maximalgeschwindigkeit kann der Fahrer erkennen, dass er eine abweichende, beispielsweise zu höhe Geschwindigkeit fährt. Es kann eine Geschwindigkeitsdifferenz zu der aktuellen Geschwindigkeit des Fortbewegungsmittels oder Fahrzeugs angezeigt werden. Die Differenz kann hervorgehoben werden, um eine weitere Sicherheitsinformation für den Fahrer bereitzustellen.
Die Maximalgeschwindigkeit kann gemäß einer weiteren Ausführungsform der Erfindung als Sollwert an eine Geschwindigkeitsregelanlage ausgegeben werden. Eine Geschwindigkeitsregelanlage kann die Geschwindigkeit des Fortbewegungsmittels oder Fahrzeugs durch Steuerkommandos an den Sollwert anpassen. Dadurch kann das Fortbewegungsmittel oder Fahrzeug
beispielsweise selbstständig die Geschwindigkeit verringern, wenn die Sichtweite sinkt.
Das Verfahren kann einen Schritt des Aktivierens eines Fahrerassistenzsystems aufweisen, wenn die Sichtweite des Fahrers kleiner ist, als ein Sicherheitswert. Beispielsweise kann eine Reaktionszeit eines Bremsassistenten verkürzt werden, um vor einem plötzlich sichtbar werdenden Objekt schneller abbremsen zu können. Ebenso kann beispielsweise eine Sichtfeldanzeige aktiviert werden, wenn die Sichtbedingungen schlechter werden.
Die vorliegende Erfindung schafft ferner ein Informationssystem zum Filtern von Objektinformationen, das ausgebildet ist, um die Schritte des
erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Informationssystems kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Unter einem Informationssystem kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Informationssystem kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise
Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Informationssystems beinhaltet. Es ist jedoch auch möglich, dass die
Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem
MikroController neben anderen Softwaremodulen vorhanden sind. Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann das vorstehend vorgestellte Verfahren auch in einem stationären System eingesetzt werden. Beispielsweise kann hierdurch als„Objekt" ein oder mehrerer
Nebeltropfen erkannt werden, wodurch sich eine derart ausgestaltete
Ausführungsform als Messgerät zur Vermessung von Nebelbänken, insbesondere zur Erfassung einer Dichtigkeit des Nebels einsetzen lässt.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem
Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
Fig. 1 eine Darstellung eines Fahrzeugs mit einem Informationssystem zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 2 ein Blockschaltbild eines Informationssystems zum Filtern von
Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 3 ein Ablaufdiagramm eines Verfahrens zum Filtern von
Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und eine Darstellung von Objekten vor einem Fahrzeug, die unter
Verwendung eines Verfahrens zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gefiltert werden. In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt eine Darstellung eines Fahrzeugs 100 mit einem Informationssystem 102 zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 100 weist einen ersten Sensor 104, einen zweiten Sensor 106 und eine Anzeigeeinrichtung 108 auf. Alternativ kann jedoch auch ein anderes denkbares Fortbewegungsmittel wie beispielsweise ein Schiff oder ein Flugzeug mit entsprechenden Einheiten ausgestattet sein, um ein Ausführungsbeispiel der vorliegenden Erfindung zu implementieren. Aus Gründen der Übersichtlichkeit wird in der vorliegenden Beschreibung jedoch die Erfindung anhand eines Ausführungsbeispiels als Fahrzeug vorgestellt, ohne dass diese Wahl des Ausführungsbeispiels einschränkend zu verstehen ist.
Der erste Sensor 104 ist durch eine Videokamera 104 gebildet, die einen ersten Erfassungsbereich 1 10 vor dem Fahrzeug 100 abtastet. Die Videokamera 104 erfasst Bilder im sichtbaren Lichtspektrum. Der zweite Sensor 106 ist als ein
Radarsensor 106 ausgebildet, der einen zweiten Erfassungsbereich 1 12 vor dem Fahrzeug 100 abtastet. Der zweite Erfassungsbereich 1 12 ist hier schmaler als der erste Erfassungsbereich 1 10. Der Radarsensor 106 erzeugt Radarbilder, indem er den zweiten Erfassungsbereich 1 12 mit Radarwellen beleuchtet und zurückgeworfene Wellen oder Reflexionen aus dem zweiten Erfassungsbereich
1 12 empfängt. Der erste Erfassungsbereich 1 10 ist kleiner als der zweite Erfassungsbereich 1 12, weil eine Sichtbehinderung 1 14 (auch als Sichtgrenze bezeichnet), hier beispielsweise eine Nebelwand 1 14, den ersten
Erfassungsbereich 1 10 begrenzt. Die Nebelwand 1 14 absorbiert einen Großteil des sichtbaren Lichts und streut andere Anteile des Lichts, sodass die
Videokamera 104 Objekte in der Nebelwand 1 14 oder hinter der Nebelwand 1 14 nicht erfassen kann. Damit unterliegt die Videokamera 104 den gleichen optischen Einschränkungen, wie das menschliche Auge. Die
elektromagnetischen Wellen des Radarsensors 106 durchdringen die Nebelwand 1 14 nahezu ungehindert. Dadurch ist der zweite Erfassungsbereich 1 12 theoretisch nur durch eine abgestrahlte Leistung des Radarsensors 106 begrenzt. Die Bilder der Kamera 104 und des Radarsensors 106 werden jeweils mittels einer nicht abgebildeten Bildverarbeitungseinheit be- oder verarbeitet. Dabei werden Objekte in den Bildern erkannt und jeweils eine erste
Objektinformation, die ein oder mehrere Objekte im Kamerabild repräsentiert, und eine zweite Objektinformation, die ein oder mehrere Objekte im Radarbild repräsentiert, erzeugt. Die erste Objektinformation und die zweite
Objektinformation werden in der Vorrichtung zum Filtern 102 unter Verwendung eines Verfahrens zum Filtern gemäß einem Ausführungsbeispiel der
vorliegenden Erfindung gefiltert. Die Vorrichtung zum Filtern 102 gibt eine gefilterte Objektinformation an das Anzeigegerät 108 aus, um im Anzeigegerät Objekte anzuzeigen, die in oder hinter der Nebelwand 1 14 verborgen sind. Objekte, die nicht verborgen sind, kann ein Fahrer des Fahrzeugs 100 eigenständig erkennen. Diese werden nicht hervorgehoben.
Fig. 2 zeigt ein Blockschaltbild eines Informationssystems 102 zum Filtern von Objektinformationen zur Verwendung in einem Ausführungsbeispiel der vorliegenden Erfindung. Das Informationssystem 102 entspricht dem
Informationssystem aus Fig. 1 . Das Informationssystem weist eine erste Einrichtung 200 zum Einlesen, eine zweite Einrichtung 202 zum Einlesen und eine Einrichtung 204 zum Ausgeben auf. Die erste Einrichtung 200 ist dazu ausgebildet, eine erste Objektinformation 206 einzulesen. Die erste
Objektinformation 206 repräsentiert zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt. Der erste Sensor basiert auf einem ersten Sensorprinzip. Die zweite Einrichtung 202 zum Einlesen ist dazu ausgebildet, eine zweite Objektinformation 208 einzulesen. Die zweite Objektinformation 208 repräsentiert zumindest zwei, von einem zweiten Sensor erfasste und erkannte Objekte. Der zweite Sensor basiert auf einem zweiten Sensorprinzip. Zumindest eines der Objekte ist auch in der ersten Objektinformation 206 repräsentiert. Das erste Sensorprinzip ist verschieden von dem zweiten Sensorprinzip. Die
Einrichtung 204 zum Ausgeben ist dazu ausgebildet, eine gefilterte
Objektinformation 210 auszugeben. Die gefilterte Objektinformation 210 repräsentiert diejenigen Objekte, die ausschließlich in der zweiten
Objektinformation 208 repräsentiert sind. Mit anderen Worten zeigt Fig. 2 ein Informationssystem 102 zur
Sichtweitenmessung durch Sensorkombination. Beispielsweise können Daten einer Umfeldsensorik 104 aus Fig. 1 im Wellenbereich des sichtbaren Lichts (z. B. Mono-/Stereovideo) mit Daten einer Umfeldsensorik 106 aus Fig. 1 au ßerhalb des sichtbaren Bereichs (z. B. RADAR, LIDAR) kombiniert werden. Eine Objekterkennung durch Umfeldsensorik kann eine Position und/oder eine Geschwindigkeit und/oder eine Größe des Objekts als abgeleitete Informationen bereitstellen. Die Information kann auf einem Human-Machine-Interface (HMI) (z. B. HUD) und optional als vernetzte Kommunikation über Car-TO-X (C2X) und/oder Car-To-Car (C2C) und/oder Car-To-Infrastructure (C2I) bereitgestellt werden. Dabei kann die Kommunikation im Duplex-Modus erfolgen.
Fig. 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum Filtern von
Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren 300 weist einen ersten Schritt 302 des Einlesens, einen zweiten Schritt 304 des Einlesens und einen Schritt 306 des Ausgebens auf. Im ersten Schritt 302 des Einlesens wird eine erste Objektinformation 206 eingelesen, die zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt repräsentiert, wobei der erste Sensor auf einem ersten Sensorprinzip basiert. Im zweiten Schritt 304 des Einlesens wird eine zweite Objektinformation 208 eingelesen, die zumindest zwei von einem zweiten Sensor erfasste und erkannte Objekte repräsentiert, wobei der zweite Sensor auf einem zweiten
Sensorprinzip basiert und zumindest eines der Objekte auch in der ersten Objektinformation 206 repräsentiert ist, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet. Im Schritt 306 des Ausgebens wird eine gefilterte Objektinformation 210 ausgegeben, die diejenigen Objekte repräsentiert, die nur in der zweiten Objektinformation 208 repräsentiert sind.
Diese zusätzlich gewonnenen gefilterten Informationen 210 können zum Beispiel zur Optimierung von HMI Systemen zur Anwendung kommen. Beispielsweise werden dann keine redundanten Informationen bezüglich der
Quer- und Längsführung (Fahrzeugführung) dargestellt. Dies führt zu einer Reduzierung der Informationsflut auf den Fahrer und hierdurch zu einer geringeren Auslastung der kognitiven Ressourcen. Diese freigewordenen kognitiven Ressourcen tragen in den kritischen Situationen entscheidend zur Verminderung der Unfallschwere bei. Zum Beispiel kann bei einem Nachtsichtsystem statt des zusätzlichen
Bildschirms mit dem Nachtsicht-Bild der Umgebung ein HUD (Head-Up Display) verwendet werden. Dieses HUD blendet nur dann Informationen 210 ein, wenn Sie vom Fahrer in der aktuellen Situation (Nebel, Nacht, Staub, Smog, ...) nicht erkannt werden können.
Die gewonnenen Informationen können zum Beispiel bei einer
sichtweitenabhängigen Geschwindigkeitsüberwachung verwendet werden. Aus der aktuellen Fahrzeuggeschwindigkeit kann der momentane maximale
Bremsweg ermittelt werden. Liegt dieser Bremsweg unterhalb der, vom System gewonnen Größe Fahrersichtweite, kann per HMI eine Information auf Basis der berechneten Werte ausgegeben werden, die den Fahrer darüber informiert welches seine sichere Maximalgeschwindigkeit ist. Alternativ oder ergänzend kann die gestellte Geschwindigkeitsregelanlagengeschwindigkeit, beispielsweise unter Verwendung eines ACC bzw. Tempomats, automatisch unter Verwendung der sicheren Maximalgeschwindigkeit angepasst werden.
Die gewonnenen Informationen 210 können auch zur Anpassung einer
Aktivierungsbedingung von Fahrerassistenzsystemen (FAS) verwendet werden. Semiautonome Assistenzsysteme setzen heutzutage noch eine Aktivierung durch den Fahrer voraus. Ist der Fahrer sich der Gefahr jedoch noch gar nicht bewusst, da er sie nicht erkennen kann, wird das FAS zu spät aktiviert. Mithilfe der gemäß dem hier vorgestellten Ansatz ermittelten Fahrersichtweite können die Aktivierungsbedingungen modifiziert werden, um die Umgebungssituation zu berücksichtigen und falls nötig Vorkehrungen treffen, um einen Unfall dennoch maximal zu mindern.
Fig. 4 zeigt eine Darstellung von Objekten vor einem Fahrzeug 100, die unter Verwendung eines Verfahrens zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gefiltert werden. Das
Verfahren zum Filtern entspricht dabei dem Verfahren, wie es in Fig. 3 gezeigt ist. Das Fahrzeug 100 entspricht einem Fahrzeug, wie es in Fig. 1 gezeigt ist. Der erste Sensor 104 und der zweite Sensor 106 sind an einer Vorderseite des Fahrzeugs 100 angeordnet. Der zweite Sensor 106 kann jedoch auch in einem anderen, hier nicht dargestellten Ausführungsbeispiel an einer anderen Seite des
Fahrzeugs als der Vorderseite angeordnet sein. Die Sensoren 104, 106 weisen im Gegensatz zu Fig. 1 je einen ähnlichen Erfassungswinkel auf. Der erste Sensor 104 weist den ersten Erfassungsbereich 1 10 auf. In dem ersten
Erfassungsbereich 1 10 wird die erste Objektmenge 01 aus hier zwei Objekten 400, 402 erfasst. Die erste Objektmenge 01 ist durch einen Schrägbalken von links oben nach rechts unten gekennzeichnet. Der zweite Sensor 106 weist den zweiten Erfassungsbereich 1 12 auf. In dem zweiten Erfassungsbereich 1 12 wird die zweite Objektmenge 02 aus hier fünf Objekten 400, 402, 404, 406, 408 erfasst. Die zweite Objektmenge 02 ist durch einen Schrägbalken von rechts oben nach links unten gekennzeichnet. Die Erfassungsbereiche 1 10, 1 12 sind überlappend. Eine Schnittmenge 01 n02 von hier den zwei Objekten 400, 402 wird von beiden Sensoren 104, 106 erfasst. Die Schnittmenge 01 n02 ist durch schräg gekreuzte Schrägbalken gekennzeichnet. Eine Differenzmenge 02\01 von hier den drei Objekten 404, 406, 408 wird ausschließlich von dem zweiten Sensor 106 erfasst. Die Differenzmenge 02\01 ist die Objektmenge OT und durch einen quadratischen Rahmen gekennzeichnet. Der Erfassungsbereich 1 10 des ersten Sensors 104 weist aufgrund einer Sichtbehinderung eine unscharfe fahrzeugabgewandte Begrenzung 412 auf. Ein Fahrer des Fahrzeugs 100 hat aufgrund der Sichtbehinderung eine ähnlich eingeschränkte Sichtweite 410. Das Objekt 402 kann von dem Fahrer gerade noch ausgemacht werden. Das Objekt 402 kann von dem Sensor 104 gerade noch erfasst werden, da die vordere Begrenzung weiter von dem Fahrzeug 100 entfernt ist, als das Objekt 402. Das Objekt 404 ist aus der Objektmenge OT am nächsten am Fahrzeug 100 angeordnet. Eine Entfernung zu dem Objekt 404 wird bestimmt und als theoretische Sichtweite 414 verwendet. Die tatsächliche Sichtweite 410 und die theoretische Sichtweite 414 stimmen nicht direkt überein, sind jedoch ähnlich. Die theoretische Sichtweite 414 ist größer als die tatsächliche Sichtweite 410. Die tatsächliche Sichtweite 410 kann unter Verwendung eines Sicherheitsfaktors geschätzt werden. Die Objekte 404, 406, 408 der Objektmenge OT kann der Fahrer nicht sehen. Daher lassen sich die Objekte 404, 406, 408 auf der Anzeigevorrichtung des Fahrzeugs 100, beispielsweise einem Head-up Display vorteilhaft darstellen. So kann der Fahrer wichtige Informationen aufnehmen, die er anderenfalls nicht erhalten würde. Um den Fahrer nicht zu belasten, werden die Objekte 400, 402 der Objektmenge 01 nicht dargestellt.
Zusammenfassend ist anzumerken, dass Umfeldsensorik 104, die im Bereich des sichtbaren Lichtes arbeitet, denselben Sichtbedingungen wie der Fahrer unterliegt. Durch Objekterkennung werden somit die Objekte 400, 402 identifiziert, die in Sichtweite des Fahrers liegen. Dies führt zur Objektmenge 01 . Findet die Objekterkennung auf Daten statt, die außerhalb des für Menschen sichtbaren Bereichs liegen, können Objekte unabhängig von den (menschlichen) Sichtverhältnissen beobachtet werden. Objekte 400 bis 408, die auf diese Weise erkannt werden, bilden hier die Objektmenge 02.
Nach dem hier vorgestellten Ansatz erfolgt eine Symbiose der Daten und eine Zuordnung der Objekte in der Menge 01 und der Menge 02 zueinander. Solche Objekte 404 bis 408, die in der Menge 02 vorhanden sind, aber in 01 keine Repräsentation haben, bilden die Objektmenge OT. Diese stellt somit alle Objekte 404 bis 408 dar, die vom Videosensor 104 nicht erkannt werden. Da der Videosensor 104 und der Mensch annähernd den gleichen Bereich des
Lichtwellenspektrums abdecken bzw. sensieren können, sind die Objekte OT somit auch für den Fahrer nicht erkennbar.
Das Objekt OTmin 404 der Menge OT, welches den geringsten Abstand 414 zum Egofahrzeug 100 hat, kann somit näherungsweise als die theoretisch maximale Sichtweite des Fahrers betrachtet werden, auch wenn das nur bedingt richtig ist.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Verfahren (300) zum Filtern von Objektinformationen (206, 208), wobei das Verfahren (300) die folgenden Schritte aufweist:
Einlesen (302) einer ersten Objektinformation (206), die zumindest ein, von einem ersten Sensor (104) erfasstes und erkanntes Objekt (400, 402) repräsentiert, wobei der erste Sensor (104) auf einem ersten Sensorprinzip basiert;
Einlesen (304) einer zweiten Objektinformation (208), die zumindest zwei von einem zweiten Sensor (106) erfasste und erkannte Objekte (400, 402, 404, 406, 408) repräsentiert, wobei der zweite Sensor (106) auf einem zweiten Sensorprinzip basiert und zumindest eines der Objekte (400, 402, 404, 406, 408) auch in der ersten Objektinformation (206) repräsentiert ist, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet; und
- Ausgeben (306) einer gefilterten Objektinformation (210), die diejenigen Objekte (404, 406, 408) repräsentiert, die in der zweiten
Objektinformation (208) und nicht in der ersten Objektinformation (206) repräsentiert sind.
Verfahren (300) gemäß Anspruch 1 , bei dem im Schritt des Einlesens (304) einer zweiten Objektinformation (208) Daten von dem zweiten Sensor (106) eingelesen werden, der ausgebildet ist, um Objekte (400, 401 , 404, 406, 408) zu erfassen, die außerhalb eines Erfassungsbereichs (1 10) des ersten Sensors (104) angeordnet sind, insbesondere die in einem Abstand vor einem Fortbewegungsmittel (100), insbesondere einem Fahrzeug (100), angeordnet sind, der größer ist als ein Abstand einer maximalen Grenze (1 14) des Erfassungsbereichs des ersten Sensors (106) vor dem
Fortbewegungsmittel (100). Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Bestimmens einer Distanz (414) zwischen einem in der gefilterten Objektinformation (210) repräsentierten Objekt (404) und einem
Fortbewegungsmittel (100), insbesondere einem Fahrzeug (100), insbesondere wobei die Distanz (414) zu demjenigen Objekt (404) bestimmt wird, das die geringste Entfernung zu dem Fortbewegungsmittel (100) aufweist.
Verfahren (300) gemäß Anspruch 3, bei dem im Schritt des Bestimmens ferner eine Sichtweite (410) eines Fahrers des Fortbewegungsmittels (100) bestimmt wird, wobei als Distanz (414) zwischen dem Objekt (404) und dem Fortbewegungsmittel (100) ein Abstand bestimmt wird, der größer als die Sichtweite (410) ist.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (302) einer ersten Objektinformation (206) eine Objektinformation vom ersten Sensor (104) eingelesen wird und bei dem im Schritt des Einlesens (304) einer zweiten Objektinformation (208) eine Objektinformation vom zweiten Sensor (106) eingelesen wird, wobei der erste Sensor Messwerte unter Anwendung von Signalen in einem ersten elektromagnetischen Wellenlängenbereich und der zweite Sensor
Messwerte unter Auswertung von Signalen in einem vom ersten
elektromagnetischen Wellenlängenbereich unterschiedlichen zweiten elektromagnetischen Wellenlängenbereich bereitstellt.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Anzeigens der gefilterten Objektdaten (210) auf einer
Anzeigeeinrichtung (108) des Fortbewegungsmittels (100), insbesondere um Objekte (404, 406, 408) außerhalb der Sichtweite (410) des Fahrers darzustellen.
Verfahren (300) gemäß Anspruch 6, bei dem im Schritt des Bereitstellens eine aktuelle Sichtweite (410, 414) des Fahrers und/oder ein aktueller Bremsweg des Fortbewegungsmittels (100) dargestellt wird.
8. Verfahren (300) gemäß einem der Ansprüche 6 bis 7, bei dem im Schritt des Bereitstellens eine an die Sichtweite (410, 414) angepasste
Maximalgeschwindigkeit des Fahrzeugs (100) dargestellt wird.
9. Verfahren (300) gemäß Anspruch 8, bei dem im Schritt (306) des Ausgebens die Maximalgeschwindigkeit als Sollwert an eine
Geschwindigkeitsregelanlage ausgegeben wird.
10. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Aktivierens eines Fahrerassistenzsystems, wenn eine Sichtweite (410, 414) des Fahrers kleiner ist, als ein Sicherheitswert.
1 1 . Informationssystem (102), das Einheiten aufweist, die ausgebildet sind, um die Schritte eines Verfahrens (300) gemäß einem der Ansprüche 1 bis 10 durchzuführen.
12. Computer-Programmprodukt mit Programmcode zur Durchführung des
Verfahrens (300) nach einem der Ansprüche 1 bis 10, wenn das
Programmprodukt auf einer Vorrichtung ausgeführt wird.
PCT/EP2013/066183 2012-08-31 2013-08-01 Verfahren und informationssystem zum filtern von objektinformationen WO2014032903A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380045341.4A CN104798084A (zh) 2012-08-31 2013-08-01 用于过滤对象信息的方法和信息系统
US14/421,403 US20150239396A1 (en) 2012-08-31 2013-08-01 Method and information system for filtering object information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012215465.5A DE102012215465A1 (de) 2012-08-31 2012-08-31 Verfahren und Informationssystem zum Filtern von Objektinformationen
DE102012215465.5 2012-08-31

Publications (1)

Publication Number Publication Date
WO2014032903A1 true WO2014032903A1 (de) 2014-03-06

Family

ID=48948401

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/066183 WO2014032903A1 (de) 2012-08-31 2013-08-01 Verfahren und informationssystem zum filtern von objektinformationen

Country Status (4)

Country Link
US (1) US20150239396A1 (de)
CN (1) CN104798084A (de)
DE (1) DE102012215465A1 (de)
WO (1) WO2014032903A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10380451B2 (en) 2014-11-06 2019-08-13 Gentex Corporation System and method for visibility range detection

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10131042B2 (en) 2013-10-21 2018-11-20 Milwaukee Electric Tool Corporation Adapter for power tool devices
DE102015224553A1 (de) * 2015-12-08 2017-06-08 Robert Bosch Gmbh Verfahren, Computerprogramm, Speichermedium und Elektronische Steuereinheit zum Betreiben eines Fahrzeugs
DE102017203037A1 (de) 2017-02-24 2018-08-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren, System, Computerprogrammprodukt, computerlesbares Medium zum Anpassen einer Fahrdynamik eines Fahrzeugs, sowie Fahrzeug umfassend das System zum Anpassen der Fahrdynamik des Fahrzeugs
DE102017223431B4 (de) * 2017-12-20 2022-12-29 Audi Ag Verfahren zum Assistieren eines Fahrers eines Kraftfahrzeugs bei einem Überholvorgang; Kraftfahrzeug; sowie System
DE102019120778A1 (de) 2019-08-01 2021-02-04 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in einer Umgebung
DE102020209353A1 (de) 2020-07-24 2022-01-27 Ford Global Technologies, Llc Steuern eines Fahrzeugs unter Berücksichtigung der Sensorreichweite

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1067399A2 (de) * 1999-06-24 2001-01-10 Robert Bosch Gmbh Verfahren zur Sichtweitenbestimmung
EP1437615A1 (de) * 2003-01-10 2004-07-14 Hella KG Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
EP1504276B1 (de) * 2002-05-03 2012-08-08 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
DE102005006290A1 (de) * 2005-02-11 2006-08-24 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs durch Fusion eines Infrarot- und eines Visuell-Abbilds
US7797108B2 (en) * 2006-10-19 2010-09-14 Gm Global Technology Operations, Inc. Collision avoidance system and method of aiding rearward vehicular motion
WO2009095487A1 (de) * 2008-01-31 2009-08-06 Continental Teves Ag & Co. Ohg Fahrerassistenzsystem
US8629981B2 (en) * 2008-02-01 2014-01-14 Palo Alto Research Center Incorporated Analyzers with time variation based on color-coded spatial modulation
US8411245B2 (en) * 2009-02-06 2013-04-02 Gentex Corporation Multi-display mirror system and method for expanded view around a vehicle
TWI413024B (zh) * 2009-11-19 2013-10-21 Ind Tech Res Inst 物件偵測方法及系統
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
KR20120051208A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1067399A2 (de) * 1999-06-24 2001-01-10 Robert Bosch Gmbh Verfahren zur Sichtweitenbestimmung
EP1437615A1 (de) * 2003-01-10 2004-07-14 Hella KG Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANCA DISCANT ET AL: "Sensors for Obstacle Detection - A Survey", ELECTRONICS TECHNOLOGY, 30TH INTERNATIONAL SPRING SEMINAR ON, IEEE, PI, 1 May 2007 (2007-05-01), pages 100 - 105, XP031203614, ISBN: 978-1-4244-1217-4 *
KIYOSUMI KIDONO ET AL: "Visibility Estimation under Night-time Conditions using a Multiband Camera", INTELLIGENT VEHICLES SYMPOSIUM, 2007 IEEE, IEEE, PI, 1 June 2007 (2007-06-01), pages 1013 - 1018, XP031127079, ISBN: 978-1-4244-1067-5 *
TOMAS HENRIKSSON: "Driver Assistance Systems with focus on Automatic Emergency Brake", MASTER THESIS, KTH, 1 February 2011 (2011-02-01), XP055084966, Retrieved from the Internet <URL:http://kth.diva-portal.org/smash/get/diva2:618217/FULLTEXT01.pdf> [retrieved on 20131022] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10380451B2 (en) 2014-11-06 2019-08-13 Gentex Corporation System and method for visibility range detection

Also Published As

Publication number Publication date
DE102012215465A1 (de) 2014-03-06
US20150239396A1 (en) 2015-08-27
CN104798084A (zh) 2015-07-22

Similar Documents

Publication Publication Date Title
WO2014032903A1 (de) Verfahren und informationssystem zum filtern von objektinformationen
DE102017113747B4 (de) Dynamische anpassung von radarparametern
DE102012214852B4 (de) Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102020100080A1 (de) Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem
DE102018105951B4 (de) Verfahren zum dynamischen anzeigen von bildern auf einer elektronischen anzeigevorrichtung eines fahrzeugs
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
EP1339561A1 (de) Anordnung und verfahren zur überwachung des umfelds eines fahrzeugs
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE102012217936A1 (de) Kollisionsvermeidungssignal
DE102009029439A1 (de) Verfahren und Vorrichtung zur Darstellung von Hindernissen in einem Einparkhilfesystem von Kraftfahrzeugen
WO2014108561A1 (de) Verfahren und vorrichtung zum überwachen eines umfelds eines fahrzeugs und verfahren zum durchführen einer notbremsung
EP2788224A1 (de) Verfahren und vorrichtung zur erkennung einer bremssituation
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
DE102017109073A1 (de) Informationsanzeigevorrichtung
DE102012203909A1 (de) Filterverfahren und Filtervorrichtung für Sensordaten
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
DE102017219056A1 (de) Verfahren und Vorrichtung zum Detektieren zumindest eines verdeckten Objekts im Straßenverkehr für ein Fahrzeug unter Verwendung eines passiven Fahrzeugsensors
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102019102672A1 (de) Intersensorisches lernen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13745822

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14421403

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13745822

Country of ref document: EP

Kind code of ref document: A1