DE102011014699A1 - Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug - Google Patents
Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug Download PDFInfo
- Publication number
- DE102011014699A1 DE102011014699A1 DE102011014699A DE102011014699A DE102011014699A1 DE 102011014699 A1 DE102011014699 A1 DE 102011014699A1 DE 102011014699 A DE102011014699 A DE 102011014699A DE 102011014699 A DE102011014699 A DE 102011014699A DE 102011014699 A1 DE102011014699 A1 DE 102011014699A1
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- motor car
- dimensional
- determined
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 title abstract 2
- 238000001514 detection method Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 abstract 1
- 230000007613 environmental effect Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Verfahren zum Betrieb eines Fahrerassistenzsystems (2) zum Schutz eines Kraftfahrzeugs (1), insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs (1), insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet werden, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird, wobei als Sensor eine ein zweidimensionales Bild (14) wenigstens eines Teils (8, 9, 10, 11) der Umgebung des Kraftfahrzeugs (1) liefernde Kamera (4, 5, 6, 7), insbesondere eine Weitwinkelkamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs (1) aufgenommen Bildern (14) mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern (14) sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden.
Description
- Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs, insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs, insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet wird, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird. Daneben betrifft die Erfindung noch ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.
- Fahrerassistenzsysteme für Kraftfahrzeuge sind bekannt und erfreuen sich zunehmender Beliebtheit. Im Allgemeinen nutzen Fahrerassistenzsysteme üblicherweise die Daten verschiedener Sensoren des Kraftfahrzeugs, um daraus eine für den Fahrer nützliche Information zu generieren oder gar selbst einen Fahreingriff auszuführen, um den Fahrer zu entlasten oder zu schützen. Zudem sind auch Fahrerassistenzsysteme bekannt, die andere Fahrzeugsysteme parametrieren oder dergleichen.
- Von besonderem Interesse ist dabei auch der Nahbereichsschutz des Kraftfahrzeugs, so dass beispielsweise Fahrerassistenzsysteme zum Einparken bereits in vielen Kraftfahrzeugen Verwendung finden, um unter anderem auch eine Kollision mit anderen Kraftfahrzeugen zu vermeiden.
- Ein Fahrerassistenzsystem der eingangs genannten Art ist aus der
DE 10 2008 028 222 A1 bekannt. Darin wird vorgeschlagen, aktive Sensoren, die eine Signalwelle emittieren, zu verwenden, um einen Abstand eines Fahrzeugs von einem Hindernis und eine Höhe des Hindernisses relativ zu dem Fahrzeug zu bestimmen. Abhängig von dem Abstand und von der Höhe kann entweder eine Information beispielsweise an den Fahrer des Kraftfahrzeugs ausgegeben werden oder automatisch ein Eingriff in die Führung des Fahrzeugs vorgenommen werden. Um tatsächlich zu bewerten, ob ein in der Umgebung des Kraftfahrzeugs detektiertes Hindernis eine Gefahr darstellt, werden auch einige andere Parameter, beispielsweise die Geschwindigkeit des Fahrzeugs, der Auffahrwinkel eines Rades des Fahrzeugs und die Fahrspurtrajektorienprädiktion berücksichtigt. So können Beschädigungen des Fahrzeugs aufgrund von Hindernissen, z. B. Bordsteinen, vermieden werden, deren Höhe kleiner als der Abstand einer Stoßstange des Fahrzeugs von der Fahrbahn ist. - Nachteilhafterweise werden bei dem bekannten Fahrerassistenzsystem zusätzliche Sensoren benötigt, die eine aktive Vermessung der Umgebung erlauben, beispielsweise jeweils am Radkasten vorgesehene Ultraschallsensoren. Die Installation dieser Sensoren bringt einen zusätzlichen Montage- und Kostenaufwand mit sich; zudem werden aktive Sensoren verwendet, die zusätzliche Energie benötigen.
- Der Erfindung liegt daher die Aufgabe zugrunde, eine dem gegenüber verbesserte, passive Möglichkeit anzugeben, verlässlich eine Gefährdung für das Kraftfahrzeug im Nahbereich darstellende Objekte detektieren zu können.
- Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass als Sensor eine ein zweidimensionales Bild wenigstens eines Teils der Umgebung des Kraftfahrzeugs liefernde Kamera, insbesondere eine Weitwinkel-Kamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs aufgenommenen Bildern mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden.
- Die Erfindung schlägt also vor, mit Kameras, bevorzugt Weitwinkel-Kameras, ein Passivsystem zu nutzen, so dass keine Emission von Energie wie Schall oder elektromagnetischen Wellen zur Erfassung notwendig ist. Hierbei ist es grundsätzlich sinnvoll, wenn wenigstens zwei unterschiedliche Bereiche des Umfelds des Kraftfahrzeugs abdeckende Kameras verwendet werden, wobei mit besonderem Vorteil vier Kameras verwendet werden können, die dann beispielsweise dem Vorfeld des Kraftfahrzeugs, dem Bereich hinter dem Kraftfahrzeug und den beiden seitlichen Bereichen zugeordnet sind. Werden Weitwinkel-Kameras verwendet, so lässt sich somit die gesamte Umgebung des Kraftfahrzeugs durch die sich ergänzenden Erfassungsbereiche der Kameras abdecken. Es ergibt sich hier die weitere, besonders vorteilhafte Möglichkeit, Kameras zu nutzen, die ohnehin bereits im Kraftfahrzeug genutzt werden, beispielsweise für andere Fahrerassistenzsysteme bzw. Funktionen. So können beispielsweise durch das Fahrerassistenzsystem der Erfindung Kameras eines sog. „Top-View”-Systems mitgenutzt werden, das einen Aufblick auf das Kraftfahrzeug und umgebende Objekte von oben zeigen sollen. Daneben oder alternativ ist es denkbar, die Kameras ferner im Rahmen eines Einparkassistenten und/oder eines Stauassistenten zu nutzen. Es müssen also nicht dedizierte Kameras zur Ermittlung der dreidimensionalen Positionsdaten vorgesehen werden, sondern es können ohnehin vorhandene Systeme im Kraftfahrzeug vorteilhaft mitgenutzt werden.
- Die Kameras liefern zweidimensionale Bilder, die mittels eines Motion-Stereo-Verfahrens ausgewertet werden. Das Motion-Stereo-Verfahren basiert grundsätzlich auch auf dem Stereo-Prinzip, wobei im Unterschied zu einem üblichen Stereo-Verfahren die zwei Perspektiven der zu erfassenden Szene nicht zeitgleich, sondern zeitlich hintereinander aufgenommen werden. Die Bedingung, zwei unterschiedliche Perspektiven zu erhalten, die dann entsprechend wie Stereo-Bilder ausgewertet werden können, ist dabei, dass sich das Kraftfahrzeug bewegen muss, das bedeutet, die Aufnahmeorte müssen unterschiedlich sein und auch erkannt werden. Hierzu kann beispielsweise vorgesehen sein, dass die Aufnahmeorte der Bilder anhand von Odometriedaten des Kraftfahrzeugs ermittelt werden. Das bedeutet, es werden grundsätzlich bekannte und gängige Odometrieverfahren eingesetzt, um die relativen Positionen der Aufnahmeorte in Erfahrung zu bringen. Hierbei können beispielsweise ESP-Sensoren genutzt werden, die die Weiterbewegung der einzelnen Räder des Kraftfahrzeugs verfolgen, welche dann durch Daten von Beschleunigungssensoren ergänzt werden, wobei sich eine Filterung gegen Störungen anschließen kann.
- Motion-Stereo-Verfahren sind im Stand der Technik bereits weithin bekannt und umfassen meist sog. „Matching”-Verfahren, die dasselbe Umgebungsmerkmal in den unterschiedlichen Bildern beschreibende, korrespondierende Punkte auffinden sollen. Sind erst die demselben Umgebungsmerkmal in beiden Bildern beschreibenden Punkte bekannt, so kann wie im Stereo-Prinzip üblich, eine dreidimensionale Position ermittelt werden. Es kann also vorgesehen sein, dass im Rahmen des Motion-Stereo-Verfahrens in den beiden Bildern korrespondierende Punkte anhand der Aufnahmeorte und/oder eines auf den Bilddaten arbeitenden Korrespondenzalgorithmus identifiziert werden und für die korrespondierenden Punkte eine dreidimensionale Position bestimmt wird.
- In besonders vorteilhafter Ausgestaltung der vorliegenden Erfindung kann vorgesehen sein, dass das detektierte Objekt anhand seiner Positionsdaten in ein dreidimensionales, insbesondere als Belegungskarte ausgebildetes Umfeldmodell eingetragen wird. Derartige Umfeldmodelle sind grundsätzlich bekannt und können beispielsweise derart ausgestaltet sein, dass das gesamte erfassbare Umfeld des Kraftfahrzeugs in gleich große Würfel aufgeteilt wird, denen beispielsweise zugeordnet werden kann, ob sie durch ein Objekt belegt sind, frei sind oder ob ihr Zustand unbekannt ist. Den Würfeln können auch weitere Informationen zugeordnet sein, beispielsweise, durch welche Art von Objekt sie belegt sind und/oder die Sicherheit der entsprechenden Information. Ein derartiges Umfeldmodell bietet den Vorteil, dass es ebenso durch andere Fahrerassistenzsysteme mit ausgewertet werden kann, die ebenso Informationen über das Umfeld des Kraftfahrzeugs benötigen, beispielsweise Einparkassistenten oder dergleichen. Die in dem Umfeldmodell enthaltenen Daten werden dann, gegebenenfalls in vorab erkannten und/oder definierten interessierenden Bereichen, auf Hindernisse, beispielsweise Randsteine, ausgewertet. Hieraus wird dann wie üblich der Gefährdungswert ermittelt und der Fahrer kann gewarnt werden bzw. ein Fahreingriff, insbesondere eine Bremsung, kann vorgenommen werden.
- In zweckmäßiger Weiterbildung der vorliegenden Erfindung kann vorgesehen sein, dass in den zweidimensionalen Bildern wenigstens ein Kantenverläufe beschreibender Polygonzug ermittelt wird, wobei anhand des Polygonzuges ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden. In diesem Fall werden letztlich auch die einzelnen zweidimensionalen Bilder ausgewertet, um so beispielsweise eine Plausibilisierung zu ermöglichen. Wie bereits beschrieben wurde, werden in Motion-Stereo-Verfahren üblicherweise korrespondierende Punkte über entsprechende Korrespondenzalgorithmen aufgefunden, die, wie im Übrigen auch die Bestimmung der Aufnahmeorte, gewissen Fehlertoleranzen unterworfen sein kann. Dann kann aus den zweidimensionalen Bildern gewonnene zusätzliche Information vorteilhaft genutzt werden, um die Qualität der Gesamtauswertung zu verbessern. Hierzu können beispielsweise Kanten, unter die auch Hell-Dunkel-Übergänge fallen, in den zweidimensionalen Bildern ermittelt werden, so dass sich insgesamt Polygonzüge ergeben, die beispielsweise mit sich ergebenden Begrenzungen in den dreidimensionalen Positionsdaten und/oder im Umfeldmodell abgeglichen werden können. Die Polygonzüge können jedoch auch genutzt werden, um bereits von vornherein interessierende Bereiche (Regions of Interest) zu definieren, sei es bezüglich der Anwendung des Motion-Stereo-Verfahrens oder auch bezüglich eines Algorithmusses, der die dreidimensionalen Positionsdaten bzw. das Umfeldmodell auswertet, um potentiell gefährdende Hindernisse aufzufinden und zu bewerten.
- In einer zweckmäßigen Ausgestaltung kann vorgesehen sein, dass wenigstens eine an einem Außenspiegel angeordnete Kamera und/oder eine an einer Frontschürze des Kraftfahrzeuges angeordnete Kamera und/oder eine an einer Heckklappe des Kraftfahrzeugs angeordnete Kamera verwendet werden. An diesen Positionen angeordnete Weitwinkel-Kameras können den größten Teil des relevanten Umgebungsbereichs abdecken. Soll hauptsächlich das seitliche Umfeld betrachtet werden, kann es dabei ausreichend sein, nur zwei Kameras zu verwenden, die jeweils an den Außenspiegeln angeordnet sind. Ergänzt werden kann dies dann durch entsprechend den Bereich vor und hinter dem Kraftfahrzeug abdeckende Kameras.
- Sind dreidimensionale Positionsdaten von mögliche Hindernisse darstellenden Objekten im Umfeld des Kraftfahrzeugs bekannt, beispielsweise in dem Umfeldmodell, so können diese wie grundsätzlich bekannt zu einem Gefährdungswert ausgewertet werden, wobei insbesondere der Abstand eines Objekts zum Kraftfahrzeug bzw. zu einem Rad des Kraftfahrzeugs sowie eine Bestimmung der Höhe des Objekts im Bezug auf den Reifenaufstandpunkt zweckmäßige, zu betrachtende Parameter sind. Hierbei kann bereits eine Auswahl relevanter Objekte erfolgen. Die Objekte werden dann hinsichtlich einer möglichen Beschädigung des Kraftfahrzeugs ausgewertet, wo beispielsweise zusätzlich zur Höhe des Objekts relativ zu einem Reifenaufstandpunkt eines Rades des Kraftfahrzeugs und dem Abstand zwischen einer Außenkante eines Rades des Kraftfahrzeugs und dem Objekt als weitere Parameter die Geschwindigkeit des Kraftfahrzeugs, der Auffahrwinkel eines Rades des Kraftfahrzeugs zu einer Seite des Objekts und/oder eine Prädiktion der weiteren Trajektorie des Kraftfahrzeugs (Fahrschlauch) berücksichtigt werden. Je höher die Geschwindigkeit des Kraftfahrzeugs ist, desto kritischer ist die Höhe des Objekts zu bewerten. Auch der Auffahrwinkel ist relevant, nachdem sich beispielsweise ein hohes Hindernis bei einem senkrechten Auffahren eher bewältigen lässt als bei einem schrägen Auffahren oder dergleichen. Durch die Vorhersage der Fahrspur der Räder im Rahmen der Trajektorienprädiktion kann ermittelt werden, ob das Rad überhaupt auf das Objekt auftrifft und wenn ja, wie das Rad auf das Objekt auftrifft. Als weiterer Parameter kann auch die Höhe des oder der Räder des Kraftfahrzeugs betrachtet werden, die in Kontakt mit dem Objekt treten. Je höher das Rad ist, desto höhere Hindernisse können ohne Beschädigung befahren werden.
- Ergebnis der eben dargestellten Betrachtung ist wenigstens ein Gefährdungswert, in dessen Abhängigkeit Maßnahmen ergriffen werden können, beispielsweise eine Information an den Fahrer ausgegeben werden, die beispielsweise eine Warnung und/oder eine Lenkempfehlung umfassen kann. Die Information kann wie grundsätzlich bekannt optisch, akustisch und/oder haptisch ausgegeben werden. Möglich ist auch als Maßnahme ein automatischer Fahreingriff in die Fahrzeuglängs- und -querdynamik. Ersichtlich besteht eine Vielzahl von Möglichkeiten, um die aus den Kameradaten gewonnenen Informationen vorteilhaft zu nutzen.
- Neben dem Verfahren betrifft die vorliegende Erfindung auch ein Kraftfahrzeug, umfassend ein Fahrerassistenzsystem zum Schutz eines Kraftfahrzeugs vor Beschädigungen, welches zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. Sämtliche Ausführungen bezüglich der erfindungsgemäßen Verfahren lassen sich analog auf das erfindungsgemäße Kraftfahrzeug übertragen, so dass auch damit die erfindungsgemäßen Vorteile erreicht werden können. Insbesondere umfasst ein solches Kraftfahrzeug üblicherweise eine Steuereinrichtung, die dem Fahrerassistenzsystem zugeordnet ist, welche beispielsweise die Auswertung der zweidimensionalen Bilder der ebenso vom Kraftfahrzeug umfassten Kamera übernehmen kann. Geeignete Odometriesensoren liefern Informationen über die Aufnahmeorte.
- Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:
-
1 ein erfindungsgemäßes Kraftfahrzeug, -
2 eine Skizze zum Ablauf des erfindungsgemäßen Verfahrens, und -
3 eine Skizze zur Nutzung von Informationen über Polygonzüge bei der Auswertung der Bilder. -
1 zeigt eine Prinzipskizze eines erfindungsgemäßen Kraftfahrzeugs1 . Es umfasst ein Fahrerassistenzsystem2 zum Schutz des Kraftfahrzeugs1 , insbesondere der Räder, vor Beschädigungen. Der Betrieb des Fahrerassistenzsystems2 wird dabei von einer Steuereinrichtung3 gesteuert, die im Übrigen zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. - Das Kraftfahrzeug
1 umfasst ferner vier Kameras4 ,5 ,6 und7 , die hier als Weitwinkel-Kameras ausgebildet sind. Die Kamera5 ist an der Frontschürze des Kraftfahrzeugs1 angeordnet, die Kamera7 an einer Heckklappe des Kraftfahrzeugs1 , während die Kameras4 und6 am linken und am rechten Außenspiegel des Kraftfahrzeugs1 befestigt sind. So decken die Erfassungsbereiche8 ,9 ,10 und11 den größten Teil des Nahbereich-Umfelds des Kraftfahrzeugs1 ab. Die Bilder der Kameras4 bis7 werden der Steuereinrichtung3 zur weiteren Auswertung zur Verfügung gestellt, beispielsweise über einen Fahrzeugbus oder eine andere Datenverbindung. Ferner erhält die Steuereinrichtung3 Daten einer Odometriesensorik12 , aus denen die relativen Positionen des Kraftfahrzeugs1 bei der Aufnahme zweidimensionaler Bilder durch die Kameras4 bis7 ermittelt werden kann. - Ferner steht die Steuereinrichtung
3 , insbesondere über einen Fahrzeugbus, in Verbindung mit weiteren Fahrzeugsystemen13 , beispielsweise anderen Fahrerassistenzsystemen, Ausgabemitteln oder auch Steuergeräten, beispielsweise einem Bremsensteuergerät oder einem Lenksteuergerät, über die Einfluss auf die Längs- und Querführung des Kraftfahrzeugs1 genommen werden kann. - Es sei an dieser Stelle angemerkt, dass die Bilder der Kameras
4 bis7 auch für weitere Fahrerassistenzsysteme ausgewertet und verwendet werden, hier ein sog. „Top-View-System”, welches die Darstellung des Kraftfahrzeugs und umgebender Objekte in einer Draufsicht erlaubt, eine Einparkhilfe und ein Stauassistenzsystem. - Hierzu werden aus den Bildern der Kameras
4 bis7 ermittelte dreidimensionale Positionsdaten von Objekten in der Umgebung des Kraftfahrzeugs1 in ein dreidimensionales Umfeldmodell eingetragen, das hier als Belegungskarte ausgebildet ist und beispielsweise in der Steuereinrichtung3 , aber auch an anderer Stelle im Kraftfahrzeug1 , abgelegt sein kann. Um dreidimensionale Positionsdaten aus den zweidimensionalen Bildern der Kameras4 bis7 zu erhalten, wird im Rahmen des erfindungsgemäßen Verfahrens ein Motion-Stereo-Verfahren eingesetzt, wie es im Stand der Technik grundsätzlich bekannt ist. - Das erfindungsgemäße Verfahren zum Betrieb des Fahrerassistenzsystems
2 soll im Folgenden mit Bezug auf2 näher erläutert werden. - Die Bilder
14 der Kameras4 bis7 werden dabei auf zweierlei Art ausgewertet. Zum einen sollen in einem Schritt15 im Rahmen des Motion-Stereo-Verfahrens dreidimensionale Positionsdaten von in der Umgebung des Kraftfahrzeugs1 , konkret in einem der Erfassungsbereiche8 bis11 , befindlichen Objekten ermittelt werden. Hierzu werden zeitlich aufeinanderfolgend aufgenommene Bilder der Kameras4 bis7 betrachtet, wobei sich das Kraftfahrzeug1 zwischen den Aufnahmezeitpunkten bewegt hat, das bedeutet, die jeweils gemeinsam betrachteten Kamerabilder14 sind an unterschiedlichen Aufnahmeorten aufgenommen worden. Die relativen Aufnahmeorte wenigstens zweier zur Ermittlung dreidimensionaler Positionsdaten gemeinsam zu betrachtender Bilder können durch die Odometriedaten16 der Odometriesensorik12 auf bekannte Art und Weise bestimmt werden. - Unter Berücksichtigung der Aufnahmeorte und/oder eines Korrespondenzalgorithmus werden im Rahmen des Motion-Stereo-Verfahrens miteinander korrespondierende Punkte in den unterschiedlichen Bildern aufgefunden, die das gleiche Umgebungsmerkmal zeigen. Ist diese Korrespondenz erst bekannt, so ist es möglich, dreidimensionale Positionsdaten zu dem entsprechenden Bildpunkt und damit zu den Objekten in der Umgebung des Kraftfahrzeugs
1 zu erhalten. - Vorliegend werden die dreidimensionalen Positionsdaten dann in einem Schritt
17 in ein Umfeldmodell eingetragen, das hier als eine Belegungskarte ausgebildet ist. Die erfassbare Umgebung des Kraftfahrzeugs1 wird dabei in gleich große Volumina, beispielsweise Würfel oder dergleichen eingeteilt, denen zugeordnet wird, ob sie belegt sind, frei sind oder ob ihr Belegungszustand unbekannt ist. Selbstverständlich sind jedoch auch andere Umfeldmodelle denkbar, beispielsweise solche, in denen Objekte bereits grundsätzlich in ihrer Gesamtheit klassifiziert und betrachtet werden oder in denen betrachtete Volumina unterschiedlich groß sind. In jedem Fall ist das Umfeldmodell dazu geeignet, daraus die einzelnen Objekte in der Umgebung des Kraftfahrzeugs1 zu extrahieren. - Nachdem das Motion-Stereo-Verfahren zur Bestimmung der dreidimensionalen Positionsdaten jedoch gewissen Fehlern unterworfen sein kann, werden die Bilder
14 im vorliegenden Falle parallel in einem Schritt18 auch zweidimensional ausgewertet, in dem Kanten, insbesondere Hell-Dunkel-Übergänge, detektiert werden, gegebenenfalls nur in relevanten Bereichen. Als Ergebnis ergeben sich Polygonzüge, die genutzt werden können, um die dreidimensionalen Positionsdaten und/oder das Umfeldmodell zu plausibilisieren und gegen zu testen. Dies sei durch die Skizze in3 näher erläutert, die beispielhaft einen Belegungsverlauf19 in einer zur Fahrtrichtung Z des Kraftfahrzeugs senkrechten, vertikalen Ebene (XY) zeigt. Ersichtlich ergibt sich ein Höhensprung20 , der einem Randstein zuzuordnen sein könnte. Existiert nun an dieser Stelle auch eine senkrecht hierzu verlaufende Kante21 des Polygonzuges, können folglich die dreidimensionalen Positionsdaten plausibilisiert und/oder ergänzt werden. - Es sei an dieser Stelle angemerkt, dass die Berücksichtigung der ermittelten Polygonzüge im Schritt
15 und auch im Schritt17 erfolgen kann. Weiter sei darauf hingewiesen, dass die zweidimensionale Auswertung in Schritt18 auch verwendet werden kann, um interessierende Bereiche entweder für die Ermittlung der dreidimensionalen Positionsdaten, aber auch für die nun folgende Auswertung des Umfeldmodells bereitzustellen. - In einem Schritt
22 werden nun die durch das Umfeldmodell beschriebenen Objekte als potentielle Hindernisse für das Kraftfahrzeug1 ausgewertet, um einen Gefährdungswert zu bestimmen, der letztlich angibt, wie groß die Gefahr einer Beschädigung des Kraftfahrzeugs1 durch das Hindernis ist. Dabei werden in einem ersten Schritt relevante Objekte ausgewählt, beispielsweise aufgrund ihrer Höhe relativ zum Reifenaufstandspunkt des Kraftfahrzeugs1 . Sodann wird beurteilt, ob die relevanten Objekte Gefährdungen für das Kraftfahrzeug1 darstellen. Hierbei werden zusätzliche Informationen berücksichtigt, nämlich der Abstand des Objekts von einer Außenkante des Kraftfahrzeugs1 , die Geschwindigkeit des Kraftfahrzeugs1 , die weitere Trajektorie des Kraftfahrzeugs1 , insbesondere seiner Räder, der Auffahrwinkel eines betreffenden Rades auf das Objekt und nicht zuletzt die Höhe des entsprechenden Rades, da aus diesen Größen abgeschätzt werden kann, ob tatsächlich eine Beschädigung des Kraftfahrzeugs1 zu befürchten steht. - In einem Schritt
23 wird dann überprüft, ob der Gefährdungswert ein oder mehrere Schwellwerte übersteigt, an die Maßnahmen geknüpft sind. Diese Maßnahmen werden dann in einem Schritt24 ausgeführt, wobei solche Maßnahmen beispielsweise eine Information des Fahrers, insbesondere eine Warnung und/oder eine Lenkanweisung, und/oder gar einen Lenkeingriff selber umfassen können. Eine Vielzahl grundsätzlicher aus dem Stand der Technik bekannter Maßnahmen kann hier eingesetzt werden. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102008028222 A1 [0004]
Claims (8)
- Verfahren zum Betrieb eines Fahrerassistenzsystems (
2 ) zum Schutz eines Kraftfahrzeugs (1 ), insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs (1 ), insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet werden, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird, dadurch gekennzeichnet, dass als Sensor eine ein zweidimensionales Bild (14 ) wenigstens eines Teils (8 ,9 ,10 ,11 ) der Umgebung des Kraftfahrzeugs (1 ) liefernde Kamera (4 ,5 ,6 ,7 ), insbesondere eine Weitwinkelkamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs (1 ) aufgenommen Bildern (14 ) mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern (14 ) sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmeorte der Bilder (
14 ) anhand von Odometriedaten des Kraftfahrzeugs (1 ) ermittelt werden. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass im Rahmen des Motion-Stereo-Verfahrens in den beiden Bildern (
14 ) korrespondierende Punkte anhand der Aufnahmeorte und/oder eines auf den Bilddaten arbeitenden Korrespondenzalgorithmus identifiziert werden und für die korrespondierenden Punkte eine dreidimensionale Position bestimmt wird. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das detektierte Objekt anhand seiner Positionsdaten in ein dreidimensionales, insbesondere als Belegungskarte ausgebildetes Umfeldmodell eingetragen wird.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass in den zweidimensionalen Bildern (
14 ) wenigstens ein Kantenverläufe beschreibender Polygonzug (21 ) ermittelt wird, wobei anhand des Polygonzuges (21 ) ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens zwei, insbesondere vier, unterschiedliche Bereiche (
8 ,9 ,10 ,11 ) des Umfelds des Kraftfahrzeugs (1 ) abdeckende Kameras (4 ,5 ,6 ,7 ) verwendet werden. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens eine an einem Außenspiegel angeordnete Kamera (
4 ,6 ) und/oder eine an einer Frontschürze des Kraftfahrzeugs (1 ) angeordnete Kamera (5 ) und/oder eine an einer Heckklappe des Kraftfahrzeugs (1 ) angeordnete Kamera (7 ) verwendet werden. - Kraftfahrzeug (
1 ), umfassend ein Fahrerassistenzsystem (2 ) zum Schutz des Kraftfahrzeugs (1 ) vor Beschädigungen, ausgebildet zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011014699.7A DE102011014699B4 (de) | 2011-03-22 | 2011-03-22 | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011014699.7A DE102011014699B4 (de) | 2011-03-22 | 2011-03-22 | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102011014699A1 true DE102011014699A1 (de) | 2012-09-27 |
DE102011014699B4 DE102011014699B4 (de) | 2015-10-29 |
Family
ID=46831580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011014699.7A Active DE102011014699B4 (de) | 2011-03-22 | 2011-03-22 | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011014699B4 (de) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011087894A1 (de) * | 2011-12-07 | 2013-06-13 | Robert Bosch Gmbh | Verfahren und Fahrzeugassistenzsystem zur aktiven Warnung und/oder zur Navigationshilfe zur Vermeidung einer Kollision eines Fahrzeugkarosserieteils und/oder eines Fahrzeugrades mit einem Objekt |
DE102012219735A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten |
US20140368655A1 (en) * | 2013-06-14 | 2014-12-18 | Audi Ag | Method for operating a driver assist system for maneuvering and/or parking a motor vehicle |
DE102013214305A1 (de) | 2013-07-22 | 2015-01-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Vermeidung einer Kollision eines Fahrzeuges mit mindestens einem Objekt, Fahrerassistenzsystem und Fahrzeug |
EP2873577A2 (de) | 2013-11-19 | 2015-05-20 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug |
CN104691415A (zh) * | 2013-12-07 | 2015-06-10 | 惠州市德赛西威汽车电子有限公司 | 全景泊车辅助装置 |
DE102014205202A1 (de) * | 2014-03-20 | 2015-09-24 | Volkswagen Aktiengesellschaft | Kraftfahrzeug mit ultraschallbasierter Abstandsmessung bei langsamer Fahrt |
EP2942253A2 (de) | 2014-05-06 | 2015-11-11 | Audi Ag | Kraftfahrzeug |
DE102014006547A1 (de) | 2014-05-06 | 2015-11-12 | Audi Ag | Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung |
DE102016111079A1 (de) * | 2016-06-17 | 2017-12-21 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem |
DE102016215840A1 (de) | 2016-08-23 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen |
CN107826168A (zh) * | 2016-09-15 | 2018-03-23 | 大众汽车有限公司 | 用于求取机动车的位置的测距方法、控制设备和机动车 |
DE102017207483A1 (de) * | 2016-12-15 | 2018-06-21 | Continental Teves Ag & Co. Ohg | Steuervorrichtung für ein fahrzeug, bremsensteuergerät und verfahren zur steuerung eines fahrzeugs |
DE102015203016B4 (de) | 2015-02-19 | 2019-08-01 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld |
DE102014107155B4 (de) * | 2013-05-23 | 2021-01-28 | GM Global Technology Operations LLC | Verbessertes Frontbordstein-Visualisierungssystem |
US11035678B2 (en) | 2016-08-26 | 2021-06-15 | Here Global B.V. | Automatic localization geometry detection |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10059900A1 (de) * | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Darstellung von bildhafter Umgebungsinformation |
DE102004047130A1 (de) * | 2004-09-27 | 2006-04-13 | Daimlerchrysler Ag | Umgebungsmodellierung für autonome mobile Systeme |
DE60020420T2 (de) * | 1999-02-16 | 2006-05-04 | Mitsubishi Denki K.K. | Situationsdarstellungs-Anzeigesystem |
DE102009016562A1 (de) * | 2009-04-06 | 2009-11-19 | Daimler Ag | Verfahren und Vorrichtung zur Objekterkennung |
DE102008028222A1 (de) | 2008-06-13 | 2009-12-17 | Volkswagen Ag | Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs |
US20100085427A1 (en) * | 2008-10-07 | 2010-04-08 | Industrial Technology Research Institute | Image-based vehicle maneuvering assistant method and system |
-
2011
- 2011-03-22 DE DE102011014699.7A patent/DE102011014699B4/de active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60020420T2 (de) * | 1999-02-16 | 2006-05-04 | Mitsubishi Denki K.K. | Situationsdarstellungs-Anzeigesystem |
DE10059900A1 (de) * | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Darstellung von bildhafter Umgebungsinformation |
DE102004047130A1 (de) * | 2004-09-27 | 2006-04-13 | Daimlerchrysler Ag | Umgebungsmodellierung für autonome mobile Systeme |
DE102008028222A1 (de) | 2008-06-13 | 2009-12-17 | Volkswagen Ag | Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs |
US20100085427A1 (en) * | 2008-10-07 | 2010-04-08 | Industrial Technology Research Institute | Image-based vehicle maneuvering assistant method and system |
DE102009016562A1 (de) * | 2009-04-06 | 2009-11-19 | Daimler Ag | Verfahren und Vorrichtung zur Objekterkennung |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011087894A1 (de) * | 2011-12-07 | 2013-06-13 | Robert Bosch Gmbh | Verfahren und Fahrzeugassistenzsystem zur aktiven Warnung und/oder zur Navigationshilfe zur Vermeidung einer Kollision eines Fahrzeugkarosserieteils und/oder eines Fahrzeugrades mit einem Objekt |
DE102012219735A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten |
DE102014107155B4 (de) * | 2013-05-23 | 2021-01-28 | GM Global Technology Operations LLC | Verbessertes Frontbordstein-Visualisierungssystem |
EP2857275A3 (de) * | 2013-06-14 | 2015-06-24 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken |
US20140368655A1 (en) * | 2013-06-14 | 2014-12-18 | Audi Ag | Method for operating a driver assist system for maneuvering and/or parking a motor vehicle |
CN104228683A (zh) * | 2013-06-14 | 2014-12-24 | 奥迪股份公司 | 用于运行调车和/或泊车用的驾驶员辅助系统的方法 |
CN104228683B (zh) * | 2013-06-14 | 2016-08-24 | 奥迪股份公司 | 用于运行调车和/或泊车用的驾驶员辅助系统的方法 |
DE102013214305A1 (de) | 2013-07-22 | 2015-01-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Vermeidung einer Kollision eines Fahrzeuges mit mindestens einem Objekt, Fahrerassistenzsystem und Fahrzeug |
DE102013019371A1 (de) | 2013-11-19 | 2015-05-21 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug |
EP2873577A2 (de) | 2013-11-19 | 2015-05-20 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug |
CN104691415A (zh) * | 2013-12-07 | 2015-06-10 | 惠州市德赛西威汽车电子有限公司 | 全景泊车辅助装置 |
CN104691415B (zh) * | 2013-12-07 | 2017-02-01 | 惠州市德赛西威汽车电子股份有限公司 | 全景泊车辅助装置 |
DE102014205202A1 (de) * | 2014-03-20 | 2015-09-24 | Volkswagen Aktiengesellschaft | Kraftfahrzeug mit ultraschallbasierter Abstandsmessung bei langsamer Fahrt |
DE102014006547A1 (de) | 2014-05-06 | 2015-11-12 | Audi Ag | Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung |
EP2942253A3 (de) * | 2014-05-06 | 2016-11-30 | Audi Ag | Kraftfahrzeug |
DE102014006546A1 (de) | 2014-05-06 | 2015-11-12 | Audi Ag | Kraftfahrzeug |
EP2942253A2 (de) | 2014-05-06 | 2015-11-11 | Audi Ag | Kraftfahrzeug |
DE102015203016B4 (de) | 2015-02-19 | 2019-08-01 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld |
DE102016111079A1 (de) * | 2016-06-17 | 2017-12-21 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem |
DE102016215840A1 (de) | 2016-08-23 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen |
US11035678B2 (en) | 2016-08-26 | 2021-06-15 | Here Global B.V. | Automatic localization geometry detection |
CN107826168A (zh) * | 2016-09-15 | 2018-03-23 | 大众汽车有限公司 | 用于求取机动车的位置的测距方法、控制设备和机动车 |
US10466064B2 (en) | 2016-09-15 | 2019-11-05 | Volkswagen Ag | Odometry method for determining a position of a motor vehicle, control device and motor vehicle |
CN107826168B (zh) * | 2016-09-15 | 2020-04-28 | 大众汽车有限公司 | 用于求取机动车的位置的测距方法、控制设备和机动车 |
DE102017207483A1 (de) * | 2016-12-15 | 2018-06-21 | Continental Teves Ag & Co. Ohg | Steuervorrichtung für ein fahrzeug, bremsensteuergerät und verfahren zur steuerung eines fahrzeugs |
EP3554922B1 (de) * | 2016-12-15 | 2022-06-08 | Conti Temic microelectronic GmbH | Steuervorrichtung für ein fahrzeug, bremsensteuergerät und verfahren zur steuerung eines fahrzeugs |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
Also Published As
Publication number | Publication date |
---|---|
DE102011014699B4 (de) | 2015-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011014699B4 (de) | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug | |
EP3386825B1 (de) | Verfahren zum erkennen einer möglichen kollision zwischen einem kraftfahrzeug und einem objekt unter berücksichtigung einer räumlichen unsicherheit, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug | |
DE102014107917A1 (de) | Verfahren und Vorrichtung zum Vermeiden einer Kollision eines ein Kraftfahrzeug und einen Anhänger umfassenden Gespanns mit einem Hindernis | |
DE102010030213A1 (de) | Einparkhilfesystem für Querparklücken | |
DE102014210043A1 (de) | Verfahren zur Durchführung eines Einparkvorgangs eines Fahrzeugs in eine Querparklücke, sowie entsprechendes Computerprogramm und Einparkassistent | |
DE102006033145A1 (de) | Verfahren und Vorrichtung zur Vermeidung und/oder Minderung der Folgen von Kollisionen | |
DE102010028342A1 (de) | Parksystem für ein Fahrzeug | |
DE102013114563A1 (de) | Verfahren zum Durchführen eines Einparkvorgangs eines Kraftfahrzeugs in eine Querparklücke, Parkassistenzsystem und Kraftfahrzeug | |
DE102010047161A1 (de) | Verfahren und Vorrichtung zur Unterstützung eines Parkvorgangs eines Fahrzeugs | |
DE102011116822A1 (de) | Überwachungssystem zur Überwachung des Umfeldes von Fahrzeugen, insbesondere von Kraft- und/oder Nutzfahrzeugen | |
DE102011086245A1 (de) | Verfahren zur Unterstützung eines Fahrers bei einem Einparkmanöver | |
DE102010023164A1 (de) | Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor der Anwesenheit eines Objektes in der Umgebung, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102016117712A1 (de) | Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102010056438A1 (de) | Verfahren und Fahrerassistenzsystem zum automatischen Führen eines Kraftfahrzeugs und Kraftfahrzeug | |
DE102012018112A1 (de) | Verfahren zum Bestimmen der Ausrichtung einer Parklücke, Parkassistenzsystem und Kraftfahrzeug | |
DE102014111012A1 (de) | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102013021827A1 (de) | Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr durch Ausgeben eines nicht-optischen Warnsignals, Kollisionswarnungssystem und Kraftfahrzeug | |
DE102015112313A1 (de) | Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs mit Lagekorrektur, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102009058488A1 (de) | Verfahren zum Unterstützen beim Führen eines Kraftfahrzeugs | |
DE102011003231A1 (de) | Verfahren zum automatischen Durchführen eines Fahrmanövers | |
EP2694356B1 (de) | Parkassistenzsystem mit seitenbegrenzungsdetektion | |
DE102010050573A1 (de) | Verfahren zum Vermeiden von seitlichen Kollisionen eines Kraftfahrzeugs mit fahrzeugexternen Hindernissen, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102012024879A1 (de) | Fahrerassistenzsystem zum zumindest partiellen Abbremsen eines Kraftfahrzeugs, Kraftfahrzeug und entsprechendes Verfahren | |
WO2014090247A1 (de) | Videobasierte erkennung von hindernissen auf einer fahrbahn | |
DE102017205245A1 (de) | Freibereichsfusion für Fahrerassistenzsysteme |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |