DE102015214743A1 - Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung - Google Patents

Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung Download PDF

Info

Publication number
DE102015214743A1
DE102015214743A1 DE102015214743.6A DE102015214743A DE102015214743A1 DE 102015214743 A1 DE102015214743 A1 DE 102015214743A1 DE 102015214743 A DE102015214743 A DE 102015214743A DE 102015214743 A1 DE102015214743 A1 DE 102015214743A1
Authority
DE
Germany
Prior art keywords
sensor
objects
environment map
environment
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015214743.6A
Other languages
English (en)
Inventor
Simon Steinmeyer
Daniel Mossau
Marek Musial
Oliver Birbach
Patrick Glässer
Tim Kubertschak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Volkswagen AG
Original Assignee
Audi AG
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Volkswagen AG filed Critical Audi AG
Priority to DE102015214743.6A priority Critical patent/DE102015214743A1/de
Priority to PCT/EP2016/066650 priority patent/WO2017021119A1/de
Priority to CN201680057632.9A priority patent/CN108140323B/zh
Priority to US15/749,994 priority patent/US11348342B2/en
Priority to EP16750104.8A priority patent/EP3332400B1/de
Priority to KR1020187006220A priority patent/KR102114759B1/ko
Publication of DE102015214743A1 publication Critical patent/DE102015214743A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations

Abstract

Die Erfindung betrifft ein Verfahren zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug (50), umfassend die folgenden Schritte: Erfassen (101) eines Umfeldes (40) des Kraftfahrzeugs (50) mit mindestens einem Sensor (2), Erkennen (102) von Objekten (81) in von dem mindestens einen Sensor (2) erfassten Messdaten (20), Fusionieren (115) der erkannten Objekte (81) und deren Objektpositionen in einer Umfeldkarte (80), wobei in der Umfeldkarte (80) hinterlegten Objekten (81) eine Existenzwahrscheinlichkeit zugeordnet wird oder ist, und wobei die Existenzwahrscheinlichkeit eines hinterlegten Objektes (81) reduziert wird, wenn beim Erfassen an der Position des hinterlegten Objektes ein Freibereich (86, 86.1) gemessen wird, wobei den in der Umfeldkarte (80) hinterlegten Objekten (81) jeweils ein Orientierungsattribut (60) zugeordnet und in der Umfeldkarte (80) hinterlegt ist, und für einen Bereich im Sensorbereich (83.1, 83.2, 83.3) des mindestens einen Sensors (2), in dem ein Freibereich (86, 86.1) gemessen wird, die Existenzwahrscheinlichkeit eines Objektes (81), welches in dem mit dem Bereich korrespondierenden Bereich in der Umfeldkarte (80) hinterlegt ist, in Abhängigkeit des zugeordneten Orientierungsattributs (60) reduziert wird. Ferner betrifft die Erfindung die zugehörige Vorrichtung 1.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
  • Moderne Kraftfahrzeuge bieten eine Fülle von Assistenzsystemen, welche den Fahrer beim Führen des Kraftfahrzeugs unterstützen. Ein solches Assistenzsystem ist beispielsweise ein Einparkassistent, welcher zur Unterstützung des Einparkens zusätzliche Informationen, beispielsweise den Abstand zu benachbarten Kraftfahrzeugen oder Hindernissen optisch oder akustisch bereitstellt und bei Kollisionsgefahr ein Warnsignal ausgibt. Ferner sind auch halbautomatische und vollautomatische Einparkassistenten bekannt.
  • Um Hilfsfunktionen, die den Abstand zu benachbarten Kraftfahrzeugen oder Hindernissen angeben und/oder überwachen, bereitstellen zu können, müssen die Einparkassistenten stets über den Zustand des Umfeldes des Kraftfahrzeuges informiert sein. In der Regel wird dazu das Umfeld mit Hilfe von Sensoren, beispielsweise mittels Ultraschall, Radar, Laser etc. erfasst. Anhand der Sensordaten werden anschließend, beispielsweise über Mustererkennungsverfahren, Objekte in dem Umfeld erkannt und bezüglich ihrer Position in dem Umfeld ausgewertet und/oder in einer Umfeldkarte zum späteren Abruf hinterlegt.
  • Aus der DE 10 2007 056 622 A1 sind ein Verfahren zum Erkennen einer Parklücke bekannt. Dabei wird zur Ermittlung einer geeigneten Parklücke für ein Fahrzeug mittels Sensoren zur Vermessung von Lücken zwischen seitlich vom Fahrzeug erkannten Objekten, bei dem die Sensoren zur Vermessung von Lücken zwischen seitlich vom Fahrzeug erkannten Objekten sowohl rechts als auch links vom Fahrzeug aktivierbar sind, bei Stillstand des eigenen Fahrzeugs überprüft, ob sich die Signale der Sensoren während des Stillstandes ändern. Bei einer Weiterfahrt nach einem Stillstand des eigenen Fahrzeuges wird die Erkennung einer geeigneten Parklücke oder einer beginnenden Parklücke auf einer Fahrzeugseite als ungültig verworfen, wenn sich während des vorangegangenen Stillstandes des eigenen Fahrzeuges die Signale der Sensoren auf dieser Fahrzeugseite geändert haben.
  • Aus der DE 10 2009 012 435 B4 ist eine Vorrichtung und ein Verfahren zum Detektieren eines freien Parkplatzes bekannt. Dazu ist vorgesehen, eine Bildsequenz durch Erfassen der Bilder von freien Parkplätzen mit einer Fahrzeugrückblickbilderfassungseinrichtung oder -kamera zu erfassen, die Ansicht hinter dem Fahrzeug bzw. Automobil unter Verwendung von Punktkorrespondenzen in der Bildsequenz dreidimensional zu rekonstruieren und metrische Informationen über die 3D-Strukturen anhand der bekannten Kamerahöhe wiederzugewinnen und freie Parkplätze durch Schätzen der Positionen von benachbarten Fahrzeugen zu detektieren. Dabei ist auch eine Bewertung der Genauigkeit beim Schätzen der Eckpunkte und Orientierungen der benachbarten Fahrzeuge vorgesehen.
  • Ein Nachteil der vorgenannten Vorrichtungen und Verfahren ist, dass Messartefakte nicht als solche erkannt werden. Dies ist besonders schwerwiegend, wenn Objekte oder Teile von Objekten, die in einer Umfeldkarte hinterlegt sind, auf Grund von Messartefakten gelöscht werden, obwohl sie an ihrer ursprünglichen Position noch unverändert existieren. Ein solcher Messartefakt tritt beispielsweise bei Impuls-Echo-Messverfahren dann auf, wenn die Oberfläche eines Objekts so ausgerichtet ist, dass ein Großteil der Leistung, welche von einem Sensor ausgesandt wird, nicht in Richtung des Sensors zurück, sondern vom Sensor weg reflektiert wird. Da der Sensor aus der Richtung des Objekts bzw. von der Stelle des Objekts keine Reflexion misst, kommt es zu einer Fehlinterpretation der Messdaten. Der vom Objekt oder einem Teil des Objekts eingenommene Bereich in der Umgebung des Sensors, d. h. des Fahrzeugs, wird als Freibereich eingestuft. In einer auf die Messung folgenden Fusionierung der Messdaten wird dann an der Position des Objektes oder des Teils des Objekts fälschlicherweise ein Freibereich angenommen, wodurch eine dem Objekt oder Teil des Objekts zugeordnete Existenzwahrscheinlichkeit reduziert wird oder das Objekt oder der Teils des Objekts als nicht mehr existent angenommen wird.
  • Der Erfindung liegt somit das Problem zugrunde, ein Verfahren und eine Vorrichtung zum Erfassen eines Umfeldes zu schaffen, bei dem die Datenfusionierung verbessert ist.
  • Die technische Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 17 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Grundidee der Erfindung
  • Der Erfindung liegt der Gedanke zugrunde, Bereiche, in denen im Umfeld positionierte Objekte eine Oberfläche aufweisen, welche auf Grund ihrer Orientierung das von einem Sensor ausgesandte Messsignal nicht zum Sensor zurück reflektieren, beim Fusionieren der Messdaten nicht berücksichtigt werden. Die Kernidee der Erfindung ist dabei, erkannten Objekten in dem Umfeld mindestens ein Orientierungsattribut zuzuordnen. Dazu werden Objekte in den von dem Umfeld von mindestens einem Sensor erfassten Messdaten erkannt und für die erkannten Objekte jeweils Orientierungsattribute geschätzt. Bei der Datenfusionierung wird dann die Existenzwahrscheinlichkeit eines in der Umfeldkarte hinterlegten Objektes in Abhängigkeit des Orientierungsattributes reduziert.
  • Beispielsweise kann ein erfindungsgemäßes Orientierungsattribut eine Oberflächenorientierung sein. Die Oberflächenorientierungen werden für erkannte Objekte geschätzt, mit den erkannten Objekten verknüpft und in einer Umfeldkarte hinterlegt. Wird bei einem anschließenden Erfassen des Umfeldes für einen Bereich im Messbereich eines Sensors ein Freibereich gemessen, so wird überprüft, ob in dem korrespondierenden Bereich in der Umfeldkarte ein Objekt hinterlegt ist. Ist ein Objekt für den Bereich des Sensorbereichs in der Umfeldkarte hinterlegt, so wird ein Anmesswinkel zu diesem hinterlegten Objekt geschätzt. Dieses bedeutet, dass der Anmesswinkel bei einem Ausgedehnten Objekt zu dem Teil des Objekts bestimmt wird, der sich in dem gemessenen Freibereich befindet. Anschließend wird die mit dem hinterlegten Objekt verknüpfte mindestens eine Oberflächenorientierung aus der Umfeldkarte abgerufen. Aus dem geschätzten Anmesswinkel und der mindestens einen Oberflächenorientierung, beispielsweise einer Oberflächennormale, des hinterlegten Objektes wird dann ein Differenzwinkel bestimmt. Überschreitet der bestimmte Differenzwinkel einen Schwellwert, so wird die Existenzwahrscheinlichkeit des Objektes beim Fusionieren nicht reduziert oder einen geringeren Betrag reduziert, und die Messdaten in dem Bereich verworfen.
  • Der Vorteil der Erfindung liegt darin, dass Messartefakte, die fälschlich Freibereiche anzeigen, welche auf Grund von Reflexionen, die beispielsweise an Objektoberflächen unter einem spitzen Winkel auftreten, erkannt und beim Fusionieren entsprechend berücksichtigt werden, beispielsweise vorzugsweise verworfen werden. Sie können somit das Pflegen der Umfeldkarte nicht beeinträchtigen oder verfälschen. Das Berücksichtigen von Orientierungsattributen der erkannten Objekte, wie beispielsweise Oberflächenorientierungen, ermöglicht es, in einer Messung die Orientierung der Oberfläche eines in der Umfeldkarte hinterlegten Objektes abzuschätzen und somit einen für eine Messung ungünstigen Winkel zu identifizieren. Bereiche, die auf Grund eines an einer Objektoberfläche vollständig vom Sensor weg reflektierten Messsignals als Freibereiche erscheinen, werden dann nicht als Freibereiche fehlinterpretiert. Die zugehörigen Messdaten werden beim Fusionieren verworfen und das Objekt ist weiterhin mit der gleichen Existenzwahrscheinlichkeit in der Umfeldkarte hinterlegt.
  • Dadurch ist die Abbildung des Umfeldes des Kraftfahrzeugs in der Umfeldkarte verbessert, wodurch Assistenzsysteme, welche auf die Umfeldkarte zurückgreifen zuverlässiger und sicherer arbeiten können.
  • Definitionen
  • Ein Sensor soll im Folgenden einen Messfühler bezeichnen, der geeignet ist, Objekte in einem Umfeld eines Kraftfahrzeugs ortsaufgelöst zu erfassen. Ein Sensor kann beispielsweise ein Ultraschallsensor, ein Radarsensor, ein Infrarotsensor, ein Bilderfassungssystem (TopView/AreaView etc.) oder ein Laserscanner sein.
  • Ein Messartefakt ist ein Messergebnis, welches lediglich auf Grund der Eigenschaften der verwendeten Messmethode entstanden ist. Im Folgenden bezeichnet ein Messartefakt insbesondere ein Messergebnis eines nach zu einem Impuls-Echo-Verfahrens arbeitenden Sensor, das durch ein größtenteils oder vollständig vom Sensor weg reflektiertes anstatt zurückreflektiertes Sendesignal entstanden ist und deshalb fälschlich als Freibereich erscheint. Der Begriff Echo wird hier in einem umfassenden Sinn verstanden und beschränkt sich nicht ausschließlich auf akustische Signale. Auch zurückreflektierte elektromagnetische Wellen eines ausgesandten Radarimpulses bei einem Radarsensor, ein reflektierter Lichtimpuls bei einem LIDAR-Sensor stellen beispielsweise Echos im Sinne der vorliegenden Beschreibung dar. LIDAR ist hierbei die Abkürzung des englisch sprachigen Ausdrucks „Laser detection and ranging“.
  • Ein Freibereich ist ein Bereich im Umfeld des Kraftfahrzeugs, in dem sich keine Objekte bzw. Hindernisse befinden. Beispielsweise stellen eine leere Straße oder ein leerer Parkplatz einen solchen Freibereich dar.
  • Ein Orientierungsattribut ist eine mit einem Objekt oder einem Teil des Objekts verknüpfte Eigenschaft, welche die Orientierung des Objektes oder von Teilen des Objekts beschreibt. Beispielsweise können eine Oberflächenorientierung oder eine Oberflächennormale ein solches Orientierungsattribut darstellen. Einem Objekt können dabei mehrere Orientierungsattribute zugeordnet werden. Unterschiedlichen Stellen oder Positionen der Oberflächenkontur eines Objekts kann vorteilhafterweise jeweils ein Orientierungsattribut zugeordnet sein.
  • Eine Oberflächenkontur ist eine Umrisslinie eines Objektes, welche das Objekt von seiner Umgebung abgrenzt. Jedem Punkt oder Abschnitt auf der Außenseite der Oberflächenkontur lässt sich dabei eine Oberflächennormale zuordnen. Ein solcher Punkt oder Abschnitt ist somit ein Teil des Objekts.
  • Ein Anmesswinkel ist der Winkel, unter dem ein vom Sensor ausgesandtes Messsignal auf eine Oberfläche eines im Umfeld positionierten Objektes oder einen Teil des Objekts trifft. Trifft das Messsignal beispielsweise senkrecht auf die Oberfläche, so beträgt der Anmesswinkel definitionsgemäß beispielsweise 0°, verläuft die Ausbreitungsrichtung des Messsignal hingegen parallel zur Oberfläche, so beträgt der Anmesswinkel definitionsgemäß dann 90°.
  • Ein Vektor der von dem Messsensor zu der vermessenen Position der Oberfläche des Objekts verläuft wird als Anmessvektor bezeichnet.
  • Die Güte eines Sensors ist ein Wert, der die Qualität des Sensors im Vergleich zu anderen Sensoren gleicher oder unterschiedlicher Art ausdrückt. Beispielsweise kann eine Ortsauflösung eines Sensors eine solche Güte ausdrücken. Hierbei steigt beispielsweise eine Güte eines Sensors mit einer Ortsauflösungsfähigkeit. D. h. je feiner das Umfeld ortsaufgelöst erfasst werden kann, desto höher ist die Güte bezüglich der Ortsauflösung.
  • Das Schätzen einer Größe umfasst das Ermitteln dieser Größe, auch wenn kein Schätzverfahren verwendet wird.
  • Der Ausdruck „Erkennen eine eines Objekts“ soll ausdrücken, dass für eine Position oder einen Bereich im Umfeld anhand von Messdaten eines Sensors eine Existenz oder Existenzwahrscheinlichkeit für die Existenz eines Hindernisses festgestellt wird. Hierbei ist es unerheblich zu ermitteln, ob so erkannte Objekte zu demselben Gegenstand im Umfeld gehören oder nicht. Zunächst werden somit Objektpositionen ermittelt. Bei einigen Ausführungsformen wird jede so ermittelte Hindernisposition oder Objektposition als ein Objekt aufgefasst. Dieses gilt insbesondere häufig für Ausführungsformen, bei denen die Objektpositionen in einer zellulären Karte abgelegt werden. Einem Bereich des Umfelds ist hierbei eine Zelle der zellulären Karte zugeordnet. Abhängig von der verwendeten Messmethode und einem verwendeten Auswerteverfahren werden bei einigen Ausführungsformen anhand der Messwerte ermittelte Objektpositionen jedoch auch zu einem Objekt zusammengefasst, welches dann in der Karte abgelegt wird. Auch hierbei kann es sich um eine zelluläre Karte handeln. Die Tatsache, dass eine Zusammenfassung von verschiedenen erfassten Objektpositionen, die demselben realen Gegenstand im Umfeld zuzuordnen sind, in der Karte nicht erfolgt ist, und die Objektpositionen somit als einzelne Objekte behandelt werden ist für die Erfindung unbeachtlich. Wesentlich ist nur, dass der Objektposition ein Orientierungsattribut zuordenbar ist. Befindet sich im Umfeld beispielsweise ein Hindernis in Form einer entlang einer Straße gerade verlaufenden und senkrecht zur Fahrbahnoberfläche orientierte flachen Wand, wird man entlang der Ausdehnung an verschiedenen Positionen über eine Laufzeitmessung die Existenz der Wand feststellen können und somit eine Reihe von Objektpositionen ermitteln. Aufgrund des gradlinigen Verlaufs kann man allen diesen Objektpositionen als ein Orientierungsattribut jeweils denselben Normalenvektor zur Wandfläche zuordnen. Ob in der Karte die Objektpositionen als einzelne Objekte mit jeweils einem Orientierungsattribut in Form des Normalenvektors behandelt werden oder in der Karte die Ausdehnung der Wand und Ihre Position gemeinsam mit dem Normalenvektor hinterlegt sind, ist für die Erfindung unerheblich. Wichtig ist es, dass für eine Position, an der eine Objektposition in der Karte hinterlegt ist, ein Orientierungsattribut ermittelt werden kann, wenn ein nachfolgende Messung für diese Position einen Freibereich anzeigt.
  • In einer Umfeldkarte werden Objekten und/oder Objektpositionen in der Regel Existenzwahrscheinlichkeiten zugeordnet. In einfachen Umfeldkarten gibt es nur die Werte „existent“ und „nicht existent“, welche beispielsweise über die Zahlen „1“ und „0“ ausgedrückt werden. Andere Umfeldkarten kennen Abstufungen.
  • Als Sensorbereich wird der Messbereich eines Sensors bezeichnet. Der Messbereich ist der Bereich der Umgebung, über den eine Messung des Sensors Umfeldinformationen liefert.
  • Bevorzugte Ausführungsformen
  • Insbesondere wird somit ein Verfahren zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug geschaffen, umfassend die folgenden Schritte: Erfassen eines Umfeldes des Kraftfahrzeugs mit mindestens einem Sensor, Erkennen von Objekten in von dem mindestens einen Sensor erfassten Messdaten, Fusionieren der erkannten Objekte und deren Objektpositionen in einer Umfeldkarte, wobei in der Umfeldkarte hinterlegten Objekten eine Existenzwahrscheinlichkeit zugeordnet wird oder ist, und wobei die Existenzwahrscheinlichkeit eines hinterlegten Objektes reduziert wird, wenn beim Erfassen an der Position des hinterlegten Objektes ein Freibereich gemessen wird, wobei den in der Umfeldkarte hinterlegten Objekten jeweils mindestens ein Orientierungsattribut zugeordnet und in der Umfeldkarte hinterlegt ist, und für einen Bereich im Sensorbereich des mindestens einen Sensors, in dem ein Freibereich gemessen wird, die Existenzwahrscheinlichkeit eines Objektes, welches in dem mit dem Bereich korrespondierenden Bereich in der Umfeldkarte hinterlegt ist, in Abhängigkeit des mindestens einen zugeordneten Orientierungsattributs des hinterlegten Objekts reduziert wird.
  • Ferner wird vorteilhafterweise eine Vorrichtung zum Ausführen des Verfahrens nach einem der vorangegangenen Ansprüche geschaffen, umfassend: mindestens einen Sensor zum Erfassen eines Umfeldes eines Kraftfahrzeuges, eine Objekterkennungseinrichtung zum Erkennen von Objekten, eine Fusionseinrichtung zum Fusionieren der erkannten Objekte und deren Objektpositionen in einer Umfeldkarte, wobei die Fusionseinrichtung ausgebildet ist, in der Umfeldkarte hinterlegten Objekten eine Existenzwahrscheinlichkeit zuzuordnen und die Existenzwahrscheinlichkeit eines hinterlegten Objektes zu reduzieren, wenn beim Erfassen an der Position des hinterlegten Objektes ein Freibereich gemessen wird, und eine Steuerung, wobei die Fusionseinrichtung eine Artefakterkennungseinrichtung umfasst, wobei die Artefakterkennungseinrichtung ausgebildet ist, den in der Umfeldkarte hinterlegten Objekten mindestens ein Orientierungsattribut zuzuordnen, und für einen Bereich im Sensorbereich des mindestens einen Sensors, in dem ein Freibereich gemessen wird, die Existenzwahrscheinlichkeit eines Objektes, welches in dem mit dem Bereich korrespondierenden Bereich in der Umfeldkarte hinterlegt ist, in Abhängigkeit des mindestens einen zugeordneten Orientierungsattributs zu reduzieren.
  • Die den einzelnen Objekten zugeordneten Orientierungsattribute können bereits in der Umfeldkarte hinterlegt sein, sie können aber auch auf Grundlage der aktuellen Messungen erst erzeugt werden. In einer vorteilhaften Ausführungsform ist deshalb vorgesehen, dass das Orientierungsattribut auf Grundlage der vom Sensor erfassten Messdaten geschätzt wird. Dies hat den Vorteil, dass selbst wenn neue Objekte, welche noch nicht in der Umfeldkarte hinterlegt sind, erkannt werden, diesen neuen Objekten ebenfalls Orientierungsattribute für die Kartierung zugeordnet werden können. Zum Schätzen können dabei verschiedene Methoden zur Anwendung kommen, beispielsweise Mustererkennungsverfahren, lineare Regressionsmethoden oder auch statistische Verfahren.
  • Beim Schätzen des Orientierungsattributes kann es von Vorteil sein, nicht nur eine oder wenige Objektpositionen eines Objektes für das Schätzen der Orientierung heranzuziehen, sondern auch benachbarte Objektpositionen mit zu berücksichtigen. Deshalb ist in einer weiteren vorteilhaften Ausführungsform vorgesehen, dass beim Schätzen des Orientierungsattributs benachbarte Objektpositionen mit berücksichtigt werden. Hierbei müssen die benachbarten Objektpositionen nicht demselben Objekt zugeordnet sein. D.h., auch wenn beispielsweise die verzeichneten Objektpositionen in einer Karte als einzelne Objekte aufgefasst werden, können die benachbarten Objektpositionen für das Schätzen des Orientierungsattributs herangezogen werden. Eine Oberflächenkontur in der Umgebung kann von einem Gegenstand oder mehreren nebeneinander angeordneten Gegenständen gebildet sein. Häufig werden jedoch benachbarte erkannte Objekte oder Objektpositionen anhand von Reflexionen an unterschiedlichen Stellen desselben Gegenstands herrühren. Die Oberflächenkontur lässt sich anhand der erkannten Objektpositionen ermitteln unabhängig davon, ob eine Zuordnung der erkannten Objektpositionen zu Objekten korrekt erfolgt ist, die mit realen Gegenständen korrespondieren, oder nicht.
  • Neben dem Schätzen des Orientierungsattributes für erkannte Objekte in aktuell erfassten Messdaten besteht auch die Möglichkeit, Orientierungsattribute für bereits in der Umfeldkarte hinterlegte Objekte zu schätzen. Deshalb ist in einer vorteilhaften Ausführungsform der Erfindung vorgesehen, dass jeweils mindestens ein Orientierungsattribut zusätzlich oder alternativ auf Grundlage der in der Umfeldkarte hinterlegten Objekte geschätzt wird und das geschätzte Orientierungsattribut den hinterlegten Objekten jeweils zugeordnet wird. Dies kann beispielsweise von Vorteil sein, wenn in Zeiten, in denen Rechenleistung im Kraftfahrzeug zur Verfügung steht oder ansonsten ungenutzt bleibt, für in der Umfeldkarte hinterlegte Objekte Orientierungsattribute bestimmt werden können. Dies kann sich beispielsweise als vorteilhaft bei der Ortsauflösung oder Anzahl der Orientierungsattribute erweisen. In Zeiten, in denen viel Rechenleistung nachgefragt wird, beispielsweise beim Einparken mittels eines Einparkassistenten, kann dann auf die vorher geschätzten Orientierungsattribute zurückgegriffen werden. Dadurch werden Engpässe bei der Rechenleistung vermieden oder zumindest gering gehalten.
  • Liegen Messdaten von mehreren Sensoren vor, so ist die Güte eines jeden der Sensoren entscheidend für die Qualität der von diesem Sensor erfassten Messdaten. So hat ein Sensor mit einer größeren Ortsauflösung meistens eine größere Qualität als ein Sensor mit einer geringeren Ortsauflösung. Die Qualität kann aber beispielsweise auch von einer aktuellen Umweltsituation, beispielsweise des Wetters, abhängig sein.
  • So wird ein optisch arbeitender Sensor trotz möglicher höherer Ortauflösung bei Nebel schlechtere Ergebnisse liefern als beispielsweise ein Radarsensor, für den der Nebel vernachlässigbar ist. Deshalb ist in einer besonders vorteilhaften Ausführungsform vorgesehen, dass beim Schätzen des mindestens einen Orientierungsattributs eine Güte des mindestens einen Sensors berücksichtigt wird.
  • Ebenso vorteilhaft und wünschenswert kann es sein, nicht eine einzelne Messung als Grundlage für das Schätzen des Orientierungsattributes eines erfassten Objektes zu nehmen, sondern mehrere, zeitlich nacheinander erfasste, Messungen zu verwenden. In einer vorteilhaften Ausführungsform ist deshalb vorgesehen, dass mehrere für ein erkanntes und/oder in der Umfeldkarte hinterlegtes Objekt geschätzte Orientierungsattribute zu einem Orientierungsattribut fusioniert werden.
  • Ist dies nicht möglich, so hat es sich als vorteilhaft erwiesen, stets die letzte Schätzung für das Orientierungsattribut als die aktuell gültige Schätzung anzunehmen. Deshalb ist in diesem Fall vorgesehen, dass für ein erkanntes Objekt nur das Orientierungsattribut in der Umfeldkarte hinterlegt wird, welches zeitlich als letztes geschätzt wurde. Somit steht trotz weniger Messdaten stets ein aktuelles Abbild des Umfeldes des Kraftfahrzeugs zur Verfügung.
  • Beim Schätzen des Orientierungsattributes kann es vorteilhaft sein, größere, das Objekt in seinen Eigenschaften besser beschreibende, Zusammenhänge mit einzubeziehen. Deshalb ist in einer weiteren vorteilhaften Ausführungsform vorgesehen, dass zu jedem erkannten Objekt eine Oberflächenkontur geschätzt wird und das Orientierungsattribut auf Grundlage der geschätzten Oberflächenkontur geschätzt wird, wobei für jedes erkannte Objekt, zu dem sich keine Oberflächenkontur schätzen lässt, das Orientierungsattribut auf Grundlage eines für dieses Objekt bestimmten Anmesswinkels geschätzt wird. Somit ist stets gewährleistet, dass jedem erkannten Objekt, auch wenn es nur sehr wenige Messdaten zu diesem erkannten Objekt gibt, ein Orientierungsattribut zugeordnet ist oder wird.
  • Auch hier kann die Qualität der Schätzung verbessert werden, wenn man nicht nur eine einzige, sondern mehrere Messungen in die Schätzung mit einbezieht. Deshalb hat es sich als vorteilhaft erwiesen, eine Ausführungsform zu realisieren, bei der vorgesehen ist, dass die Oberflächenkontur eines erkannten Objektes durch Zusammenfassen mehrerer zeitlich aufeinander folgenden Messungen geschätzt wird.
  • Besonders vorteilhaft ist eine Ausführungsform bei der mehrere Sensoren beim Erfassen des Umfeldes des Kraftfahrzeugs zum Einsatz kommen. Deshalb ist in einer solchen Ausführungsform vorgesehen, dass das Umfeld des Kraftfahrzeugs von mindestens einem weiteren Sensor nach einem anderen Messverfahren erfasst wird, und die erfassten Messdaten beim Schätzen des Orientierungsattributs berücksichtigt werden. Hier kann ebenfalls wieder eine Güte der verwendeten Sensoren bei der Schätzung des Orientierungsattributes berücksichtigt werden. Es ist dann auch vorteilhafterweise möglich, Orientierungsattribute, welche mit Hilfe eines Sensors, der nach einem Messverfahren arbeitet, bestimmt worden sind, beim Fusionieren der Messdaten, welche mit einem anderen Sensor, der nach einem anderen Messverfahren arbeitet, zu berücksichtigen. So kann beispielsweise das Orientierungsattribut eines erkannten Objektes auf Grundlage von Messdaten, welche mittels eines Laserscanners erfasst worden sind, bestimmt werden. Wird das Orientierungsattribut zu diesem erkannten Objekt erfindungsgemäß in der Umfeldkarte hinterlegt, so kann bei einer darauffolgenden Messung, beispielsweise mittels eines Ultraschallsensors, auf das hinterlegte Orientierungsattribut zugegriffen werden.
  • Als besonders vorteilhaft hat es sich dabei erwiesen, wenn die von dem mindestens einen weiteren Sensor erfassten Messdaten beim Schätzen des Orientierungsattributs gewichtet berücksichtigt werden. Als Parameter, welche bei der Gewichtung berücksichtigt werden können, kommen beispielsweise eine Güte der verwendeten Sensoren oder ein Zeitpunkt der erfassten Messdaten in Frage.
  • Besonders vorteilhaft hat es sich erwiesen, wenn das Orientierungsattribut eine Oberflächenorientierung ist. Eine solche Oberflächenorientierung erlaubt es besonders gut, das Reflexionsverhalten eines von einem Sensor ausgesandten Impuls an einer zugehörigen Oberfläche abzuschätzen und somit Messartefakte zu identifizieren, welche auf Grund einer größtenteils oder vollständig vom Sensor weg führenden Reflexion entstehen. Insbesondere bei Ultraschallsensoren tritt dieses Problem häufig auf, aber auch bei optischen Sensoren wie Laserscannern oder Radarsensoren tritt dieses Problem auf.
  • Dabei ist der Vorteil, dass eine Ausführungsform realisiert werden kann, bei der vorgesehen ist, dass der Oberflächenorientierung eine Oberflächennormale zugeordnet wird oder ist. Eine Bestimmung von Oberflächen von erkannten Objekten, welche für das Erfassen eine ungünstige Orientierung aufweisen, ist dann besonders einfach.
  • In einer besonders vorteilhaften Ausführungsform ist deshalb vorgesehen, dass die Existenzwahrscheinlichkeit des hinterlegten Objektes beim Fusionieren nicht reduziert wird, wenn ein aus einem Anmesswinkel und der Oberflächennormalen gebildeter Differenzwinkel einen Schwellwert überschreitet. Somit kann auf einfache Weise anhand der in der Umfeldkarte hinterlegten Oberflächennormalen abgeschätzt werden, ob es zu einer ungünstigen Reflexion gekommen ist oder nicht. Als Richtwert für ultraschallbasierte Messungen hat sich ein Schwellwert für den Differenzwinkel von etwa 45° als vorteilhaft erwiesen. Für laserscannerbasiertes Erfassen des Umfeldes ist der Schwellwert des Differenzwinkels etwas größer, er liegt hier bei etwa 65° bis 70°.
  • Die zurückreflektierte Intensität einer Laufzeitmessung, wie es eine Impuls-Echo-Messung ist, hängt neben den Winkelverhältnissen zwischen der Ausbreitungsrichtung des ausgesandten Impulses und der Oberflächenorientierung des Hindernisses auch von der Signalabschwächungen zwischen Messsensor und Hindernis sowie Hindernis und Messsensor nach der Reflexion ab. Selbst bei einem gerichtet ausgesandten Impuls findet in der Regel eine räumliche Aufweitung des ausgesandten Impulses auf, so dass die Intensität pro Reflexionsfläche abnimmt. Zusätzlich treten weitere Abschwächungseffekt auf, die in der Regel eine Abhängigkeit von der zurückgelegten Strecke aufweisen. D.h. der an einem Gegenstand im Umfeld auftreffende Impuls ist hinsichtlich der Intensität bereits abgeschwächt. Nach der Reflexion bleibt häufig ein Bündelungscharakter des Impulses nicht erhalten. Eine Rückreflexion erfolgt häufig in einen breiten Winkelbereich. Dieses geht damit einher, dass mit dem Abstand von dem reflektierenden Hindernis die lokal zu messende Intensität weiter abnimmt. Die erfasste Intensität nimmt somit bei ansonsten gelichbleibenden geometrischen Verhältnissen mit dem Abstand zwischen Sensor und Hindernis oder Objekt ab. Da ungünstige Orientierungen des Hindernisses auch zu einer Reduktion der reflektierten Intensität führen, verstärken sich die beiden Prozesse. Daher sieht eine vorteilhafte Ausführungsform der Erfindung vor, dass der verwendete Schwellwert für eine Winkelgröße, beispielsweise den Differenzwinkel zwischen Anmessvektor und Oberflächenorientierung abhängig von dem ermittelten Abstand der Position des in der Karte hinterlegten Objekts von dem Messsensor ermittelt oder gewählt wird. Beispielsweise kann der Schwellwert für den maximalen Differenzwinkel zwischen Anmessvektor und Oberflächennormal bis zu dem Freibereiche als Freibereiche bei der Fusionierung an einer Objektposition in einer Karte berücksichtigt werden, anhand einer Schwellwertfunktion, die von dem Abstand abhängig ist, ermittelt werden. Bei kleinen Abständen ist der Schwellwert für den Differenzwinkel größer als bei größeren Abständen. Bei ganz geringen Abständen von beispielswiese 25 cm ist beispielsweise bei Ultraschallsensoren eine ausgesandte Impulsintensität so hoch, dass auch von sehr flach gestreiften Objekten (Anmesswinkel gemessen gegen die Oberflächennormale nahe 90°) in der Regel ein Echoimpuls zurückreflektiert wird, der erfassbar ist.
  • Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
  • 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug;
  • 2 eine schematische Darstellung einer weiteren Ausführungsform der Vorrichtung zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug;
  • 3 eine schematische Darstellung von Messdaten eines Umfeldes eines Kraftfahrzeugs;
  • 4a eine schematische Darstellung von übereinandergelegten Messdaten des Umfeldes des Kraftfahrzeugs und dem korrespondierenden Ausschnitt der Umfeldkarte aus 3 zu einem späteren Zeitpunkt;
  • 4b eine schematische Darstellung wie in 4a, jedoch sind lediglich die Messdaten des Umfeldes des Kraftfahrzeugs dargestellt;
  • 5 eine schematische Darstellung von Messdaten des Umfeldes des Kraftfahrzeugs wie in 3 zur Erläuterung der Erfindung;
  • 6a eine schematische Darstellung von Messdaten des Umfeldes des Kraftfahrzeugs wie in 5 zu einem späteren Zeitpunkt zur Erläuterung der Erfindung;
  • 6b eine schematische Darstellung von übereinandergelegten Messdaten und in der Umfeldkarte hinterlegten Objekten für die gleiche Situation wie die in 6a gezeigte zur Erläuterung einer Bestimmung eines Differenzwinkels;
  • 6c eine schematische Darstellung zur Erläuterung einer Bestimmung eines Differenzwinkels;
  • 7 ein schematisches Ablaufdiagramm des Verfahrens.
  • In 1 ist eine Ausführungsform der Vorrichtung 1 zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug 50 gezeigt. Die Vorrichtung 1 umfasst mindestens einen Sensor 2, eine Objekterkennungseinrichtung 3, eine Fusionseinrichtung 4 und eine Steuerung 5. Die Steuerung 5 kann auf einen Speicher 6, in dem eine Umfeldkarte mit Objekten, Objektpositionen und Orientierungsattributen, hinterlegt ist, zugreifen. Die Fusionseinrichtung 4 umfasst eine Artefakterkennungseinrichtung 7 und kann ebenfalls auf den Speicher 6 zugreifen. Optional umfasst die Vorrichtung 1 weitere Sensoren 8, 8‘.
  • Das erfindungsgemäße Verfahren wird nun wie folgt in der Vorrichtung 1 ausgeführt. Der mindestens eine Sensor 2 erfasst das Umfeld des Kraftfahrzeugs 50. Die vom mindestens einen Sensor 2 erfassten Messdaten 20 werden dann von der Steuerung 5 an die Objekterkennungseinrichtung 3 weitergeleitet. Die Objekterkennungseinrichtung 3 erkennt in den Messdaten 20 Objekte und zu den erkannten Objekten gehörige Objektpositionen. Ebenfalls erkennt die Objekterkennungseinrichtung 3 Freibereiche, in denen sich keinerlei Objekte befinden. Die Objekte, die Objektpositionen und die Positionen der Freibereiche werden als Daten 30 über die Steuerung 5 weiter an die Artefakterkennungseinrichtung 4 geleitet. Die Artefakterkennungseinrichtung 4 überprüft anschließend, ob an Positionen der Freibereiche Objekte in der Umfeldkarte hinterlegt sind. Dazu führt die Artefakterkennungseinrichtung 4 eine entsprechende Abfrage im Speicher 6 durch. Ist ein Objekt hinterlegt, so ruft die Artefakterkennungseinrichtung 4 das zu diesem Objekt hinterlegte Orientierungsattribut ab. Beispielsweise kann ein solches Orientierungsattribut eine Oberflächennormale des erkannten Objektes sein. Nach dem Abrufen schätzt die Artefakterkennungseinrichtung 4 einen Anmesswinkel des mindestens einen Sensors 2 zum erkannten Objekt und bestimmt aus dem geschätzten Anmesswinkel und der abgerufenen mindestens einen Oberflächennormalen einen Differenzwinkel. Überschreitet der bestimmte Differenzwinkel einen Schwellenwert, der beispielsweise von dem verwendeten mindestens einen Sensor abhängig ist, so werden die Messdaten, die zum Freibereich gehören, bei der Datenfusion nicht mit berücksichtigt. Die erkannten Objekte und deren Objektpositionen werden hingegen durch Fusionieren mit den bereits hinterlegten Objekten in der Umfeldkarte hinterlegt.
  • In 2 ist schematisch eine weitere Ausführungsform der Vorrichtung 1 gezeigt. Sie entspricht zum Großteil der Ausführungsform, welche in 1 gezeigt ist. Gleiche Bezugszeichen bezeichnen dabei gleiche Merkmale. Die Artefakterkennungseinrichtung 4 umfasst jedoch zusätzlich eine Schätzeinrichtung 10.
  • Die Schätzeinrichtung 10 führt an erkannten Objekten in den Daten 30, welche der Artefakterkennungseinrichtung 4 von der Steuerung 5 zugeleitet wurden, Schätzungen über jeweils mindestens ein Orientierungsattribut durch. Beispielsweise sei hier wieder eine Oberflächennormale als Orientierungsattribut angenommen. Zu jedem erkannten Objekt schätzt die Schätzeinrichtung 10 mindestens eine Oberflächennormale, beispielsweise, indem erst eine Oberflächenkontur des erkannten Objektes geschätzt wird, und anschließend zu dieser Oberflächenkontur mindestens eine Oberflächennormale geschätzt wird. In der Regel haben die geschätzten Oberflächenkonturen, die ausgedehnt sind, an unterschiedlichen Positionen unterschiedliche Oberflächennormale. Einem Objekt oder einer Oberflächenkontur können daher mehrere Oberflächenmomente zugeordnet sein. Die Zuordnung ist positionsabhängig. Alternativ oder zusätzlich können entsprechende Oberflächenkonturen und Oberflächennormale auch für in der Umfeldkarte hinterlegte Objekte geschätzt werden. Die geschätzten Oberflächennormalen werden dann den erkannten Objekten zugeordnet und zusammen mit diesen in der Umfeldkarte verknüpft und im Speicher 6 abgelegt. Auf diese Weise können sie zum späteren Erkennen von Messartefakten vorgehalten und wieder abgerufen werden.
  • 3 zeigt ein typisches Umfeld 40 eines Kraftfahrzeugs 50 beim Anfahren einer Parklücke 41. Die Darstellung basiert auf experimentell erfassten Messdaten. Das Kraftfahrzeug 50 nähert sich dabei einer Parklücke 41 und erfasst das Umfeld 40 mittels eines Laserscanners 85 und mehreren Ultraschallsensoren 82.1, 82.2, 82.3. Die Ultraschallsensoren 82.1, 82.2, 82.3 weisen dabei jeweils einen Sensorbereich 83.1, 83.2, 83.3 auf, den sie aktuell vermessen. Im Vergleich zu den Ultraschallsensoren 82.1, 82.2, 82.3 weist der Laserscanner 85 eine größere Reichweite auf. Aus den vom Laserscanner 85 und den Ultraschallsensoren 82.1, 82.2, 82.3 erfassten Messdaten des Umfelds 40 wird eine Umfeldkarte 80 erstellt, in der Objekte 81 und Freibereiche 86 hinterlegt sind. Weiterhin gibt es auch Bereiche, welche vom Sensor als nicht zugänglich erkannt worden sind, da sie in den Schatten eines erkannten Objektes fallen. Diese Bereiche sind in 3 als leichte Schraffur dargestellt. Die Freibereiche 86 enthalten keine Schraffur. Bei darauf folgenden Messungen werden die Messdaten der aktuellen Messung mit den Messdaten der bereits in der Umfeldkarte 80 hinterlegten Messungen durch Ausführen des erfindungsgemäßen Verfahrens fusioniert.
  • In 4a ist das gleiche Umfeld 40 bzw. die gleiche Umfeldkarte 80 zu einem späteren Zeitpunkt gezeigt. Dabei sind aktuell erfasste Messdaten und die in der Umfeldkarte 80 hinterlegten Objekte 81 übereinander gelegt dargestellt. Das Kraftfahrzeug 50 hat eine Wegstrecke in der Zeitspanne bis zum späteren Zeitpunkt zurückgelegt und befindet sich zu dem späteren Zeitpunkt direkt parallel neben der Parklücke 41.
  • Der vordere rechte Ultraschallsensor 82.4 des Kraftfahrzeugs 50 erfasst jetzt einen Sensorbereich 83.4, in dem sich eine Rückseite 45 eines parkenden Kraftfahrzeugs 51 befindet. Die Kontur 46 der Oberfläche der Rückseite 45 des parkenden Kraftfahrzeugs 51 ist teilweise so orientiert bzw. weist eine solche Oberflächenorientierung 66 auf, dass das vom Ultraschallsensor ausgesandte Messsignal 71 in einem sehr spitzen Winkel auf die Oberfläche trifft. Da von diesem Teil nur eine sehr geringe oder überhaupt keine Leistung reflektiert wird, erscheint dieser Bereich bei einer Messung irrtümlicherweise als Freibereich 86.1.
  • 4b zeigt die gleiche Situation wie 4a, es sind jedoch lediglich die aktuellen Messdaten dargestellt. Man erkennt deutlich den von dem vorderen rechten Ultraschallsensor 82.4 gemessenen Freibereich 86.1, der auf Grund der in 4a dargestellten Kontur 46 der Rückseite 45 des parkenden Kraftfahrzeugs 51 und der dadurch hervorgerufenen Reflexionsrichtung entsteht.
  • 5 zeigt die gleiche Situation im Umfeld 40 des Kraftfahrzeugs 50 wie in 3. Gleiche Bezugszeichen bezeichnen dabei gleiche Gegenstände. Um die in 4b geschilderten Probleme zu lösen, wird der Kontur 46 der Rückseite 45 des parkenden Kraftfahrzeugs 51 im erfindungsgemäßen Verfahren mindestens ein Orientierungsattribut 60 zugeordnet. Hier sind dem erkannten Objekt Rückseite 45 des Kraftfahrzeugs 51 mehrere Orientierungsattribute zugeordnet, welche jeweils als an der Kontur 46 aufgereihte in unterschiedliche Richtungen weisende Oberflächennormale 61 ausgebildet sind. Die Oberflächennormalen 61 werden beispielsweise über ein Auswerten der Kontur 46 geschätzt.
  • In 6a ist die gleiche Situation wie in 4b gezeigt. Der rechte vordere Ultraschallsensor des Kraftfahrzeugs 50 misst einen Freibereich 86.1. Da der Freibereich 86.1 gemessen wurde, wird nun überprüft, ob ein Objekt 81 für den gleichen Bereich in der Karte hinterlegt ist.
  • Hier ergibt die Überprüfung, dass in der Karte ein Objekt 81 hinterlegt ist, das zur Rückseite 45 des parkenden Kraftfahrzeugs 51 gehört. Dies ist schematisch in 6b dargestellt, in der sowohl die aktuell erfassten Messdaten als auch die in der Umfeldkarte 80 hinterlegten Objekte 81 übereinandergelegt dargestellt sind. Anschließend wird ein Anmesswinkel 64 (siehe dazu auch 6c) oder Anmessvektor 62 zu dem hinterlegten Objekt bezüglich der aktuellen Position des Kraftfahrzeugs 50 bzw. des rechten Ultraschallsensors 82.4 in der Umfeldkarte 80 bestimmt. Das zu dem hinterlegten Objekt 81 mindestens eine hinterlegte Orientierungsattribut 60, hier die Oberflächennormale 61, wird aus der Umfeldkarte 80 abgefragt.
  • Aus dem Anmesswinkel 64 oder dem Anmessvektor 62 und der Oberflächennormalen 61 wird ein Differenzwinkel 63 bestimmt. Überschreitet der Differenzwinkel 63 einen Schwellwert 65, so werden die erfassten Messdaten, die einen Freibereich an der Position des hinterlegten Objekts 81 anzeigen, verworfen und bei einem Fusionieren der aktuellen Daten mit bereits in der Umfeldkarte 80 hinterlegten Daten nicht berücksichtigt, denn sie beruhen lediglich auf einem Messartefakt. Die der Rückseite 45 des parkenden Kraftfahrzeugs 51 zugeordnete Existenzwahrscheinlichkeit wird folglich nicht verändert.
  • 7 zeigt ein schematisches Ablaufdiagramm des Verfahrens zur verbesserten Datenfusionierung bei einer Umfelderfassung. In einem ersten Verfahrensschritt wird mit mindestens einem Sensor ein Umfeld des Kraftfahrzeugs erfasst 101. Anschließend werden in den erfassten Messdaten Objekte erkannt 102. Optional kann nun an den erkannten Objekten jeweils mindestens ein Orientierungsattribut geschätzt werden 103. Besonders vorteilhaft ist dabei das Schätzen mindestens einer Oberflächennormalen als Orientierungsattribut. Werden bei einer Messung nur einzelne Objektpositionen im Umfeld bestimmt oder ist aus anderen Gründen ein Ermitteln eine Oberflächenkontur nicht möglich, so wird bei einer Ausführungsform für jede ermittelte Objektposition das Orientierungsattribut mithilfe des Anmessvektors (vergl. 6c) geschätzt. Es wird angenommen, dass die Reflexion des Messsignals, anhand dessen die Objektposition ermittelt wurde, kollineare zu der Oberflächennormale der Oberfläche des an der ermittelten Position befindlichen Objekts erfolgte. D.h., das Orientierungsattribut ist ein Normalenvektor, der kollinear und entgegengesetzt orientiert zu dem zu dem Anmessvektor von dem Messsensor zu der ermittelten Objektposition ist. Ist das Orientierungsattribut geschätzt 104, so wird es dem jeweiligen erkannten Objekt zugeordnet 105 und anschließend mit der Zuordnung in der Umfeldkarte hinterlegt 106. Bei einem wiederholten Erfassen 107 des gleichen Bereiches in dem Umfeld wird abgefragt, ob in einem gemessenen Bereich ein Freibereich gemessen wurde 108. Wurde ein Freibereich gemessen, so folgen die Verfahrensschritte 109 bis 114. Dabei wird zuerst überprüft, ob für den Bereich, in dem der Freibereich gemessen wurde, ein Objekt in der Umfeldkarte hinterlegt ist 109. Ist ein Objekt hinterlegt, so wird ein Anmesswinkel des mindestens einen Sensors zum hinterlegten Objekt geschätzt 110. Zu dem hinterlegten Objekt wird die hinterlegte Oberflächennormale aus der Umfeldkarte abgerufen 111. Aus dem Anmesswinkel und der hinterlegten Oberflächennormalen wird ein Differenzwinkel bestimmt 112. Anschließend wird geprüft 115, ob der Differenzwinkel einen Schwellwert überschreitet. Bei einer Ausführungsform wird der Schwellwert abhängig vom Abstand gewählt. Dieses bedeutet, dass der Abstand des erkannten und in der Karte hinterlegten Objekts, oder genauer der Abstand von der in der Karte hinterlegten Objektposition vom Sensor bestimmt wird 113 und dann anhand des bestimmten Abstands der Schwellwert ermittelt wird 114. Dieses erfolgt in einigen Ausführungsformen anhand einer Nachschlagetabelle in der zu Abständen oder Abstandsbereichen Schwellwerte hinterlegt sind. Bei anderen Ausführungsformen wird der Schwellwert mittels einer Funktion, die von dem bestimmten Abstand abhängig ist, errechnet. Ergibt der Vergleich von Differenzwinkel und Schwellwert, dass der Schwellwert überschritten ist, so werden die erfassten Messdaten für den Bereich als Messartefakte verworfen 116, sie werden bei der am Schluss des Verfahrens durchgeführten Datenfusionierung 117 nicht mit berücksichtigt. Werden reale Freibereiche gemessen bzw. Objekte in den erfassten Messdaten erkannt, so werden sie mit den bereits hinterlegten Objekten und Freibereichen in der Umfeldkarte fusioniert 117. Anschließend wird das Verfahren von vorne durchgeführt.
  • Bezugszeichenliste
  • 1
    Vorrichtung
    2
    Sensor
    3
    Objekterkennungseinrichtung
    4
    Fusionseinrichtung
    5
    Steuerung
    6
    Speicher
    7
    Artefakterkennungseinrichtung
    8, 8‘
    weitere Sensoren
    10
    Schätzeinrichtung
    20
    Messdaten
    30
    Daten
    40
    Umfeld
    41
    Parklücke
    45
    Rückseite
    46
    Kontur
    50
    Kraftfahrzeug
    51
    parkendes Kraftfahrzeug
    60
    Orientierungsattribut
    61
    Oberflächennormale
    62
    Anmessvektor
    63
    Differenzwinkel
    64
    Anmesswinkel
    65
    Schwellwert
    66
    Oberflächenorientierung
    80
    Umfeldkarte
    81
    Objekt
    82.1
    Ultraschallsensor
    82.2
    Ultraschallsensor
    82.3
    Ultraschallsensor
    82.4
    vorderer rechter Ultraschallsensor
    83.1
    Sensorbereich
    83.2
    Sensorbereich
    83.3
    Sensorbereich
    85
    Laserscanner
    86
    Freibereich
    86.1
    Freibereich
    101–117
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007056622 A1 [0004]
    • DE 102009012435 B4 [0005]

Claims (17)

  1. Verfahren zur verbesserten Datenfusionierung bei der Umfelderfassung in einem Kraftfahrzeug (50), umfassend die folgenden Schritte: a) Erfassen (101) eines Umfeldes (40) des Kraftfahrzeugs (50) mit mindestens einem Sensor (2), b) Erkennen (102) von Objekten (81) in von dem mindestens einen Sensor (2) erfassten Messdaten (20), c) Fusionieren (115) der erkannten Objekte (81) und deren Objektpositionen in einer Umfeldkarte (80), wobei in der Umfeldkarte (80) hinterlegten Objekten (81) eine Existenzwahrscheinlichkeit zugeordnet wird oder ist, und wobei die Existenzwahrscheinlichkeit eines hinterlegten Objektes (81) reduziert wird, wenn beim Erfassen an der Position des hinterlegten Objektes ein Freibereich (86, 86.1) gemessen wird, dadurch gekennzeichnet, dass den in der Umfeldkarte (80) hinterlegten Objekten (81) jeweils mindestens ein Orientierungsattribut (60) zugeordnet und in der Umfeldkarte (80) hinterlegt ist, und für einen Bereich im Sensorbereich (83.1, 83.2, 83.3) des mindestens einen Sensors (2), in dem ein Freibereich (86, 86.1) gemessen wird, die Existenzwahrscheinlichkeit eines Objektes (81), welches in dem mit dem Bereich korrespondierenden Bereich in der Umfeldkarte (80) hinterlegt ist, in Abhängigkeit des zugeordneten Orientierungsattributs (60) reduziert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das mindestens eine Orientierungsattribut (60) auf Grundlage der vom mindestens einen Sensor (2) erfassten Messdaten (20) geschätzt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass beim Schätzen des mindestens einen Orientierungsattributs (60) benachbarte Objektpositionen mit berücksichtigt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass jeweils mindestens ein Orientierungsattribut (60) zusätzlich oder alternativ auf Grundlage der in der Umfeldkarte (80) hinterlegten Objekte (81) geschätzt wird und das geschätzte Orientierungsattribut (60) den hinterlegten Objekten (81) jeweils zugeordnet wird.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass beim Schätzen des mindestens einen Orientierungsattributs (60) eine Güte des mindestens einen Sensors (2) berücksichtigt wird.
  6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass mehrere für ein erkanntes und/oder in der Umfeldkarte (80) hinterlegtes Objekt (81) geschätzte Orientierungsattribute (60) zu einem Orientierungsattribut (60) fusioniert werden.
  7. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass für ein erkanntes Objekt (81) nur das Orientierungsattribut (60) in der Umfeldkarte (80) hinterlegt wird, welches zeitlich als letztes geschätzt wurde.
  8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass zu jedem erkannten Objekt (81) eine Oberflächenkontur (46) geschätzt wird und das mindestens eine Orientierungsattributs (60) auf Grundlage der geschätzten Oberflächenkontur (46) geschätzt wird, wobei für jedes erkannte Objekt (81), zu dem sich keine Oberflächenkontur (46) schätzen lässt, das Orientierungsattribut (60) auf Grundlage eines für dieses Objekt (81) bestimmten Anmesswinkels (64) geschätzt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Oberflächenkontur (46) eines erkannten Objektes (81) durch Zusammenfassen mehrerer zeitlich aufeinander folgenden Messungen geschätzt wird.
  10. Verfahren nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, dass das Umfeld (40) des Kraftfahrzeugs (50) von mindestens einem weiteren Sensor (8, 8‘) nach einem anderen Messverfahren erfasst wird, und die erfassten Messdaten (20) beim Schätzen des mindestens einen Orientierungsattributs (60) berücksichtigt werden.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die von dem mindestens einen weiteren Sensor (8, 8‘) erfassten Messdaten (20) beim Schätzen des mindestens einen Orientierungsattributs (60) gewichtet berücksichtigt werden.
  12. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das mindestens eine Orientierungsattribut (60) eine Oberflächenorientierung (66) ist.
  13. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Oberflächenorientierung (66) eine Oberflächennormale (61) zugeordnet wird oder ist.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Existenzwahrscheinlichkeit des hinterlegten Objektes (81) beim Fusionieren nicht reduziert wird, wenn ein aus einem Anmesswinkel (64) und der Oberflächennormalen (61) gebildeter Differenzwinkel (63) einen Schwellwert (64) überschreitet.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass ein Abstand des Messsensor von der Position in dem Freibereich bestimmt wird, an der in der Umfeldkarte (80) das Objekt (81) hinterlegt ist, und der Schwellwert abhängig von dem bestimmten Abstand ermittelt wird.
  16. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die erkannten Objekte (81) mit Positionen eines globalen Koordinatensystems verknüpft werden.
  17. Vorrichtung (1) zum Ausführen des Verfahrens nach einem der vorangegangenen Ansprüche, umfassend: mindestens einen Sensor (2) zum Erfassen eines Umfeldes (40) eines Kraftfahrzeuges (50), eine Objekterkennungseinrichtung (3) zum Erkennen von Objekten (81), eine Fusionseinrichtung (4) zum Fusionieren der erkannten Objekte (81) und deren Objektpositionen in einer Umfeldkarte (80), wobei die Fusionseinrichtung (4) ausgebildet ist, in der Umfeldkarte (80) hinterlegten Objekten (81) eine Existenzwahrscheinlichkeit zuzuordnen und die Existenzwahrscheinlichkeit eines hinterlegten Objektes (81) zu reduzieren, wenn beim Erfassen an der Position des hinterlegten Objektes (81) ein Freibereich (86, 86.1) gemessen wird, und eine Steuerung (5), dadurch gekennzeichnet; dass die Fusionseinrichtung (4) eine Artefakterkennungseinrichtung (7) umfasst, wobei die Artefakterkennungseinrichtung (7) ausgebildet ist, den in der Umfeldkarte (80) hinterlegten Objekten (81) ein Orientierungsattribut (60) zuzuordnen, und für einen Bereich im Sensorbereich (83.1, 83.2, 83.3) des mindestens einen Sensors (2), in dem ein Freibereich (86, 86.1) gemessen wird, die Existenzwahrscheinlichkeit eines Objektes (81), welches in dem mit dem Bereich korrespondierenden Bereich in der Umfeldkarte (80) hinterlegt ist, in Abhängigkeit des zugeordneten Orientierungsattributs (60) zu reduzieren.
DE102015214743.6A 2015-08-03 2015-08-03 Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung Pending DE102015214743A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102015214743.6A DE102015214743A1 (de) 2015-08-03 2015-08-03 Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
PCT/EP2016/066650 WO2017021119A1 (de) 2015-08-03 2016-07-13 Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
CN201680057632.9A CN108140323B (zh) 2015-08-03 2016-07-13 用于机动车中的环境检测时改进的数据融合的方法和设备
US15/749,994 US11348342B2 (en) 2015-08-03 2016-07-13 Method and device in a motor vehicle for improved data fusion in an environment detection
EP16750104.8A EP3332400B1 (de) 2015-08-03 2016-07-13 Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
KR1020187006220A KR102114759B1 (ko) 2015-08-03 2016-07-13 자동차에서 주변 환경 검출 시 개선된 데이터 융합을 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015214743.6A DE102015214743A1 (de) 2015-08-03 2015-08-03 Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung

Publications (1)

Publication Number Publication Date
DE102015214743A1 true DE102015214743A1 (de) 2017-02-09

Family

ID=56618119

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015214743.6A Pending DE102015214743A1 (de) 2015-08-03 2015-08-03 Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung

Country Status (6)

Country Link
US (1) US11348342B2 (de)
EP (1) EP3332400B1 (de)
KR (1) KR102114759B1 (de)
CN (1) CN108140323B (de)
DE (1) DE102015214743A1 (de)
WO (1) WO2017021119A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019102923A1 (de) * 2019-02-06 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214743A1 (de) 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
CN107150689A (zh) * 2017-03-20 2017-09-12 深圳市保千里电子有限公司 一种汽车辅助驾驶方法及系统
CN108973995B (zh) * 2017-06-05 2020-05-22 上海汽车集团股份有限公司 用于辅助驾驶的环境感知数据处理方法、装置及车辆
US10883839B2 (en) 2018-07-31 2021-01-05 Here Global B.V. Method and system for geo-spatial matching of sensor data to stationary objects
KR102586445B1 (ko) * 2018-08-08 2023-10-06 현대자동차주식회사 주차 보조를 위한 장애물 높이 측정 시스템
DE102018215136B4 (de) * 2018-09-06 2021-03-25 Robert Bosch Gmbh Verfahren zum Auswählen eines Bildausschnitts eines Sensors
US11332124B2 (en) * 2019-01-10 2022-05-17 Magna Electronics Inc. Vehicular control system
JP7323356B2 (ja) 2019-06-28 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援方法
WO2021024305A1 (ja) * 2019-08-02 2021-02-11 オムロン株式会社 レーダ装置及び移動体装置
CN111046803A (zh) * 2019-12-13 2020-04-21 电子科技大学 一种基于卷积神经网络的车辆检测及着地点定位方法
CN111239725B (zh) * 2020-03-05 2022-02-15 成都运为科技有限公司 一种动态自适应多雷达信息融合方法
CN114694123B (zh) * 2022-05-30 2022-09-27 阿里巴巴达摩院(杭州)科技有限公司 交通信号灯感知方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007056622A1 (de) 2007-11-23 2009-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung einer geeigneten Parklücke
DE102012014939A1 (de) * 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Kollisionsvermeidung
DE102012214307A1 (de) * 2012-08-10 2014-02-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
DE102013018721A1 (de) * 2013-11-08 2014-06-18 Daimler Ag Verfahren zur Erkennung wenigstens einer Parklücke für einen Kraftwagen
DE102009012435B4 (de) 2008-03-27 2014-08-28 Mando Corp. Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10360413A1 (de) 2003-12-19 2005-07-14 Robert Bosch Gmbh Vorrichtung zur Kalibrierung eines Bildsensorsystems
DE102004037871B4 (de) 2004-08-04 2006-10-12 Siemens Ag Optisches Modul für ein den Außenvorraum in Fahrtrichtung eines Kraftfahrzeuges erfassendes Assistenzsystem
DE102005026386A1 (de) 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
JP2007333486A (ja) 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
EP1906339B1 (de) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Verfahren zur Erkennung eines Objekts auf einem Bild und Bilderkennungsvorrichtung
JP2010510559A (ja) * 2006-10-30 2010-04-02 テレ アトラス ベスローテン フエンノートシャップ 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置
DE102006061390B4 (de) 2006-12-23 2019-05-16 Volkswagen Ag Umfelderfassungssystem und Umfelderfassungsverfahren eines Kraftfahrzeugs
JP4412337B2 (ja) 2007-03-08 2010-02-10 トヨタ自動車株式会社 周囲環境推定装置及び周囲環境推定システム
US7889888B2 (en) * 2007-06-27 2011-02-15 Raytheon Company System and method for grouping and visualizing data
EP2078926B1 (de) * 2008-01-14 2013-10-16 BlackBerry Limited System und Verfahren zum dynamischen Herunterladen und Anzeigen von Kartendaten
EP2242994A1 (de) * 2008-02-04 2010-10-27 Tele Atlas North America Inc. Verfahren zum kartenabgleich mit sensorerfassten objekten
DE102009040373B4 (de) 2009-09-07 2020-03-12 Volkswagen Ag Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Fahrzeugs und Parkassistenzsystem
JP5560794B2 (ja) * 2010-03-16 2014-07-30 ソニー株式会社 制御装置、制御方法およびプログラム
DE102010030213B4 (de) 2010-06-17 2020-12-17 Robert Bosch Gmbh Einparkhilfesystem für Querparklücken
DE102010045657A1 (de) 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
JP5712900B2 (ja) * 2011-11-08 2015-05-07 トヨタ自動車株式会社 周辺物体検出装置
US9245447B2 (en) 2011-11-21 2016-01-26 Continental Teves Ag & Co. Ohg Method and device for the position determination of objects in road traffic, based on communication signals, and use of the device
CN107533801A (zh) * 2013-11-01 2018-01-02 国际智能技术公司 使用测绘车辆的地图测绘技术
GB2520338A (en) * 2013-11-19 2015-05-20 Nokia Corp Automatic scene parsing
WO2015149009A1 (en) * 2014-03-27 2015-10-01 Georgia Tech Research Corporation Systems and methods for identifying traffic control devices and testing the retroreflectivity of the same
DE102014111127A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
JP2016037149A (ja) * 2014-08-07 2016-03-22 日立オートモティブシステムズ株式会社 車両制御システム、およびこれを備えた行動計画システム
JP6441616B2 (ja) * 2014-08-29 2018-12-19 株式会社ゼンリン 位置特定装置、運転支援装置および制御プログラム
DE102015214743A1 (de) 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007056622A1 (de) 2007-11-23 2009-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung einer geeigneten Parklücke
DE102009012435B4 (de) 2008-03-27 2014-08-28 Mando Corp. Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102012014939A1 (de) * 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Kollisionsvermeidung
DE102012214307A1 (de) * 2012-08-10 2014-02-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
DE102013018721A1 (de) * 2013-11-08 2014-06-18 Daimler Ag Verfahren zur Erkennung wenigstens einer Parklücke für einen Kraftwagen
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019102923A1 (de) * 2019-02-06 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
WO2020160798A1 (de) * 2019-02-06 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine vorrichtung zur sensordatenfusion für ein fahrzeug
DE102019102923B4 (de) 2019-02-06 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug

Also Published As

Publication number Publication date
KR102114759B1 (ko) 2020-05-26
CN108140323B (zh) 2021-05-18
KR20180036772A (ko) 2018-04-09
US11348342B2 (en) 2022-05-31
EP3332400A1 (de) 2018-06-13
US20180300563A1 (en) 2018-10-18
CN108140323A (zh) 2018-06-08
WO2017021119A1 (de) 2017-02-09
EP3332400B1 (de) 2024-02-14

Similar Documents

Publication Publication Date Title
EP3332400B1 (de) Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
DE102012004396A1 (de) Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102005026386A1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
DE102015117379A1 (de) Verfahren zum Erfassen eines dynamischen Objekts in einem Umgebungsbereich eines Kraftfahrzeugs auf Basis von Informationen einer kraftfahrzeugseitigen Ultraschalldetektionseinrichtung, Fahrerassistenzsystem und Kraftfahrzeug
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE102015121353A1 (de) Verfahren zum Erkennen einer möglichen Kollision zwischen einem Kraftfahrzeug und einem Objekt unter Berücksichtigung einer räumlichen Unsicherheit, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018124403A1 (de) Reinigung von fahrzeugsensoren
DE102012100463A1 (de) Vorrichtung und Verfahren zur Ermittlung und Ausgabe von Daten für eine automatische Lichtsteuerung für ein Fahrzeug
DE102013008953A1 (de) Verfahren zum Betreiben einer Radareinrichtung eines Fahrzeugs, insbesondere eines Kraftwagens, sowie Radareinrichtung für ein Fahrzeug, insbesondere einen Kraftwagen
WO2021069137A1 (de) Verfahren und fahrerassistenzsystem zum klassifizieren von objekten in der umgebung eines fahrzeugs
DE102019209846A1 (de) Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102018217746A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
EP2887093B1 (de) Verfahren zum Klassifizieren eines Objekts, Sensoreinrichtung und Kraftfahrzeug
DE102013202915A1 (de) Verfahren und Vorrichtung zum Vermessen einer Parklücke für ein Einparkassistenzsystem eines Kraftfahrzeugs
DE102012206790A1 (de) Verfahren für ein Assistenzsystem eines Fahrzeugs
DE102018002608A1 (de) Verfahren zum Betreiben eines Kraftwagens
DE102015122413B4 (de) Verfahren zum Betreiben eines Ultraschallsensors eines Kraftfahrzeugs, Ultraschallsensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016200656A1 (de) Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges
WO2007057069A1 (de) System zur erfassung von objekten in der umgebung eines kraftfahrzeugs
DE102021000359A1 (de) Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102011088401A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102020206152A1 (de) Vorrichtung zur Bestimmung, ob eine Parklücke in einem seitlichen Frontbereich und/oder Heckbereich eines Fahrzeugs für das Fahrzeug geeignet ist, ein Fahrerassistenzsystem mit solch einer Vorrichtung sowie ein Fahrzeug mit solch einem Fahrerassistenzsystem
DE102020206001A1 (de) Verfahren und Vorrichtung zur Klassifizierung der Höhe eines über Ultraschall erkannten Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: PATENTANWAELTE BRESSEL UND PARTNER MBB, DE

R016 Response to examination communication