DE102011086442A1 - Fahrassistenzsystem mit Anzeige von Umfeldansichten - Google Patents

Fahrassistenzsystem mit Anzeige von Umfeldansichten Download PDF

Info

Publication number
DE102011086442A1
DE102011086442A1 DE201110086442 DE102011086442A DE102011086442A1 DE 102011086442 A1 DE102011086442 A1 DE 102011086442A1 DE 201110086442 DE201110086442 DE 201110086442 DE 102011086442 A DE102011086442 A DE 102011086442A DE 102011086442 A1 DE102011086442 A1 DE 102011086442A1
Authority
DE
Germany
Prior art keywords
environment
vehicle
driver
representation
representations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201110086442
Other languages
English (en)
Inventor
Volker NIEMZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE201110086442 priority Critical patent/DE102011086442A1/de
Publication of DE102011086442A1 publication Critical patent/DE102011086442A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/028Guided parking by providing commands to the driver, e.g. acoustically or optically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation

Abstract

Die Erfindung betrifft Fahrassistenzsysteme, die zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer ausgebildet sind, und betrifft insbesondere solche Fahrassistenzsysteme, bei dem basierend auf einer Umfeldsensorik (117, 125) des Fahrzeugs (100) unterschiedliche Umfelddarstellungen verfügbar sind. Eine Ausführungsform eines erfindungsgemäßen Verfahrens in einem Fahrassistenzsystem (114) umfasst die folgenden Schritte: Bereitstellen einer Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems (114); Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.

Description

  • Stand der Technik
  • Die Erfindung betrifft Fahrassistenzsysteme, die zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer ausgebildet sind, und betrifft insbesondere solche Fahrassistenzsysteme, bei dem basierend auf einer Umfeldsensorik des Fahrzeugs unterschiedliche Umfelddarstellungen verfügbar sind.
  • Fahrassistenzsysteme dienen der Unterstützung des Fahrers in bestimmten Fahrsituationen. Ein Fahrassistenzsystem kann beispielsweise eines oder mehrere der folgende Subsysteme umfassen: ein ABS (Antiblockiersystem), ESP (elektronisches Stabilitätsprogramm), ACC ("Adaptive Cruise Control", Abstandsregeltempomat), einen Parkassistenten zum assistierten Ein- und/oder Ausparken, etc. Die Funktionalität bspw. eines Einparkassistenten kann etwa umfassen, dass eine Parklücke bei der Vorbeifahrt vermessen und der Fahrer anschließend in die Parklücke geführt wird. Das Führen kann dabei in passiver Form geschehen, d. h. der Fahrer bekommt Lenkwinkelvorgaben sowie Losfahr- und Anhaltebefehle übermittelt. Der Einparkassistent kann aber das Einparken auch aktiv übernehmen, wobei der Fahrer lediglich Losfahr- bzw. Anhaltevorgaben erhält und die Quer- und/oder Längsführung automatisch durch das System vorgenommen wird; hierbei wird das Brems- und Antriebssystems des Fahrzeugs automatisch durch das Fahrerassistenzsystem angesteuert.
  • Fahrassistenten verfügen i. d. R. über eine Umfeldsensorik zur Erfassung eines Fahrzeugumfeldes. Zur Umfeldsensorik kann bspw. ein Kamerasystem gehören, welches eine oder mehrere Kameras umfasst, die beispielsweise im Heckbereich (Rückfahrkamera/s), Frontbereich (Frontkamera/s), und/oder Seitenbereich (z.B. jeweils eine Seitenkamera im linken bzw. rechten Seitenspiegel) verbaut ist / sind. Weitere oder andere Einbaupositionen sind ebenfalls verwirklicht und/oder denkbar. Jede einzelne Kamera kann zur Erfassung unterschiedlicher Ansichten des Fahrzeugumfeldes ausgebildet sein, indem die Kamera schwenkbar angebracht ist, über eine Zoomfunktion verfügt, etc.
  • Zusätzlich oder alternativ zu einer automatischen Auswertung (z.B. für eine Objektdetektion) können die erfassten Ansichten auf einer Anzeigeeinheit, einem HMI ("Human-Machine-Interface", Mensch-Maschine-Schnittstelle) ausgegeben werden, um dem Fahrer zu einem besseren Überblick zu verhelfen und/oder bei der Nahfeldnavigation zu assistieren.
  • Ein Kamerasystem mit mehreren und/oder verstellbaren Kameras kann dementsprechend unterschiedliche Ansichten bzw. Darstellungen des Umfelds des Fahrzeugs bereitstellen. Beispiele für unterschiedliche Anzeigemodi zur Ausgabe an den Fahrer sind etwa "Rear-View" (eine Ansicht einer rückwärtigen Umgebung des Fahrzeugs entweder in einem normalen Kameramodus, oder in einem Modus mit einem erweiterten Sichtbereich, z.B. 180°-Optik), "Top-View" (Umfelddarstellung aus einer Vogelperspektive), "Trailer-Hitch-Mode" (Anzeige eines Bildausschnitts einer Rückfahrkamera mit Bezug zu einer Anhängerkupplung, um bei Rangiervorgängen mit einem Anhänger zu assistieren); etc.
  • Zur Auswahl einer geeigneten Ansicht muss der Fahrer über eine entsprechende Bedienschnittstelle bspw. des HMI die gewünschte Ansicht und/oder den gewünschten Anzeigemodus auswählen. Hierdurch kann der Fahrer relevante Umfeldbereiche/Szenarios visualisieren. Die Fahrer verlassen sich häufig sehr stark auf die entsprechende Assistenzfunktion, d. h. sie konzentrieren sich hauptsächlich auf die momentan dargestellte / ausgewählte Ansicht auf dem Monitor, Display, oder dgl. Das kann jedoch zu problematischen Situationen bis hin zu Unfällen führen. Wird z.B. in einem "Morph Mode" vom gesamten Fahrzeugumfeld lediglich ein kleiner Bildausschnitt um eine Anhängerkupplung herum ausgegeben, können Objekte wie etwa potentielle Hindernisse, aber auch Fahrbahnmarkierungen oder dergleichen in größerer Entfernung oder an anderer Stelle nicht erkannt werden.
  • Die DE 10 2007 044 536 A1 beschreibt eine Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs, welches neben Mitteln zur Aufnahme von Bildern auch Mittel zur Bestimmung beispielsweise einer früheren Position des Kraftfahrzeugs umfasst. Die Wiedergabe eines Umgebungsausschnitts kann selbsttätig in Abhängigkeit von einer früheren Position des Kraftfahrzeuges angepasst werden. Beispielsweise kann eine als Aufnahmemittel dienende Kamera verschwenkt werden oder es kann auf eine andere Kamera umgeschaltet werden, und/oder ein wiedergegebener Bildausschnitt kann angepasst werden. Die Anpassung des Umgebungsausschnitts kann beispielsweise auch in Abhängigkeit von der Fahrgeschwindigkeit des Kraftfahrzeugs vorgenommen werden, in Abhängigkeit von einer zukünftigen Position des Fahrzeugs, vom aktuellen Lenkwinkel, einer Position des Fahrzeugs in Bezug auf elektronisches Kartenmaterial, etc. Auch ein Zoomfaktor bzw. Öffnungswinkel kann in Abhängigkeit von derartigen Parametern verändert werden.
  • Das vorstehend skizzierte System kann dem Fahrer einen verbesserten Überblick über die Umfeldsituation verschaffen, indem das System automatisch bestimmte Umfeldszenarien anzeigt. Allerdings wird dadurch nicht das Problem endgültig gelöst, wie dem Fahrer situationsabhängig die bestmögliche Unterstützung zu seiner Orientierung über das Fahrzeugumfeld bereitgestellt werden kann.
  • Offenbarung der Erfindung
  • Nach dem Voranstehenden ist es eine Aufgabe der Erfindung, ein Fahrassistenzsystem und ein Betriebsverfahren für ein Fahrassistenzsystem vorzuschlagen, welches dem Fahrer basierend auf vorhandener Umfeldsensorik situationsabhängig die bestmögliche Unterstützung zu seiner Orientierung über das Fahrzeugumfeld bereitstellt.
  • Erfindungsgemäß wird ein Verfahren in einem Fahrassistenzsystem zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer vorgeschlagen. Basierend auf einer Umfeldsensorik des Fahrzeugs sind unterschiedliche Umfelddarstellungen verfügbar. Das Verfahren umfasst die folgenden Schritte: Bereitstellen einer Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems; Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
  • Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen, zusätzlich oder alternativ aber auch etwa ein Ultraschallsystem, Radarsystem, etc.. Die Umfelddarstellungen können etwa auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes umfassen, die zur Ausgabe auf eine Anzeigeeinheit vorgesehen sind. Andere Umfelddarstellungen könnten etwa Visualisierungen von Ultraschalldaten, Radardaten, etc. sein.
  • Die Zustandsinformation kann den Aktivierungszustand beispielsweise einer Auspark-Funktion oder einer Einpark-Funktion, und/oder eines anderen Subsystems des Fahrassistenten betreffen. Zusätzlich oder alternativ kann die Zustandsinformation den Aktivierungszustand einer aktiven oder passiven Längsführung und/oder Querführung des Fahrzeugs betreffen.
  • Die Auswahl einer bestimmten Umfelddarstellung aus der Mehrzahl der verfügbaren unterschiedlichen Umfelddarstellungen kann neben der Zustandsinformation zusätzlich auch auf der Auswertung von Sensordaten basieren, die das Fahrzeug und/oder das Fahrzeugumfeld betreffen. Die Sensordaten können beispielsweise Videodaten des Kamerasystems betreffen, Ultraschalldaten einer Ultraschallsensorik, Radardaten eines Radarsystems, Infrarotdaten eines Infrarotsystems, und/oder Daten eines sonstigen Sensorsystems zur Umfelderfassung mindestens eines Teils eines Fahrzeugumfeldes beispielsweise nach hinten, vorne oder in seitlichen Bereichen um das Fahrzeug herum. Die Sensordaten können ganz oder teilweise dieselben Daten umfassen, die auch den ausgegebenen Umfelddarstellungen zugrundeliegen.
  • Zusätzlich oder alternativ können die für die Auswahl berücksichtigten Sensordaten solche Daten umfassen, die nicht das Umfeld, sondern das Fahrzeug selbst betreffen, beispielsweise Positionsdaten des Fahrzeugs, wie etwa geografische Positionsangaben wie sie von einem GPS-Sensor zur Verfügung gestellt werden, Positionsdaten bzgl. einer Einordnung des Fahrzeugstandortes in elektronisches Kartenmaterial, Positionsdaten relativ zu Positionsmarken im Fahrzeugumfeld, beispielsweise in einem Parkhaus, auf einem Parkplatz, etc. Zusätzlich oder alternativ können beispielsweise Geschwindigkeitsdaten oder Lenkwinkeldaten (allg. Daten, die einen Lenkungszustand des Fahrzeugs angeben), mit einbezogen werden.
  • Bei bestimmten Ausführungsformen des erfindungsgemäßen Verfahrens erfolgt die Auswahl einer Umfelddarstellung basierend auf einer Detektion einer Struktur in den Sensordaten. Bei dieser Struktur kann es sich etwa um ein Objekt handeln, welches z.B. in Videoansichten identifiziert bzw. detektiert wurde, wobei das Objekt etwa ein potentielles Hindernis, ein parklückenbegrenzendes Objekt, ein bewegtes Objekt wie ein Passant, Fahrradfahrer, anderes Fahrzeug etc. umfassen kann. Die Struktur kann weiterhin eine detektierte Parklückenbegrenzung, Fahrspur, Fahrbahnmarkierung, und/oder eine überfahrbare oder nicht-überfahrbare, erhabene oder lediglich als Kennzeichnung vorhandene Fahrbahnbegrenzung bzw. -abgrenzung umfassen. Die ausgewählte Umfelddarstellung kann beispielsweise die detektierte Struktur dem Fahrer anzeigen, um ihn auf das potentielle Hindernis, die Markierung etc. aufmerksam zu machen.
  • Die ausgegebene Steuerungsinformation kann eine automatische Umschaltung auf die ausgewählte Umfelddarstellung umfassen. Zusätzlich oder alternativ kann die Steuerungsinformation eine Ausgabe eines Hinweises auf die ausgewählte Umfelddarstellung an den Fahrer umfassen. Der Hinweise kann beispielsweise auf einer optischen Anzeige erfolgen, etwa indem die ausgewählte Darstellung durch Blinken, farblich und/oder auf andere Weise hervorgehoben wird, und/oder kann akustisch erfolgen, indem etwa der Fahrer mittels Lautsprecher darauf hingewiesen wird, dass nunmehr die Ansicht einer Rückfahrkamera, Seitenkamera, eine Top-View-Ansicht, etc. angezeigt wird bzw. werden sollte. Gegebenenfalls kann der Fahrer nach dem Hinweis selbst entscheiden, ob er sich eine oder die vorgeschlagene Anzeige ausgeben lässt.
  • Die Steuerungsinformation kann auch mehrere Umfelddarstellungen betreffen. So können die verfügbaren Umfelddarstellungen priorisiert, z.B. in einer Reihenfolge geordnet werden und dem Fahrer kann eine derartige Reihenfolge zur Anzeige ausgegeben oder vorgeschlagen werden. Mehrere Darstellungen können parallel auf einem Anzeigeschirm ausgegeben werden, wobei die nach Auswahl des Systems wichtigste Darstellung beispielsweise größer, und/oder auf andere Weise gegenüber den weiteren Darstellungen hervorgehoben präsentiert werden kann.
  • Erfindungsgemäß wird weiterhin ein Computerprogramm zur Durchführung eines der hierin beschriebenen Verfahren vorgeschlagen, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei der Computereinrichtung kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung, oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
  • Erfindungsgemäß wird weiterhin ein Fahrassistenzsystem vorgeschlagen, welches zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer ausgebildet ist. Eine Umfeldsensorik des Fahrzeugs dient zur Gewinnung unterschiedlicher Umfelddarstellungen. Das Fahrassistenzsystem umfasst die folgenden Komponenten: Eine Komponente zum Bereitstellen einer Zusatzinformation betreffend einen Aktivierungszustands einer Assistenzfunktion des Fahrassistenzsystems; eine Komponente zum Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und eine Komponente zum Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
  • Die Umfeldsensorik kann folgendes umfassen: ein Kamerasystem mit einer oder mehreren Kameras, beispielsweise Rückfahr-, Front-, Seitenkameras, und/oder Kameras an weiteren Einbauorten; ein Ultraschallsystem mit einem oder mehreren Sensoren z.B. im Heckbereich und/oder Frontbereich; einem Radarsystem, einem Lidar-System, Infrarotsystem, etc. Weitere Sensoren, die dem Fahrassistenzsystem zugeordnet sein können, umfassen etwa einen Positionssensor wie einen GPS-Sensor, gegebenenfalls mit zugeordnetem elektronischem Kartenmaterial, Lenkwinkelsensor, Geschwindigkeitsensor.
  • Vorteile der Erfindung
  • Aspekte der Erfindung betreffen die Einbeziehung von Zustandsinformationen bzgl. des Fahrassistenten in eine Steuerung einer automatischen Umschaltung einer Anzeige, um dem Fahrer situationsabhängig einen optimalen Überblick über das relevante Fahrzeugumfeld bereitzustellen. Bei einer (automatischen) Auswahlentscheidung wird ein Zustand (Status, Modus) des Fahrassistenten berücksichtigt, beispielsweise ob der Einparkassistent momentan aktiv ist, ob eine Ausparkfunktion momentan aktiv ist, etc. Dies ermöglicht es dem System, eine Auswahlentscheidung zu treffen, die noch besser an die momentane Fahrsituation angepasst ist, als dies nur durch die Auswertung von Sensordaten möglich ist. Beispiele für solche verbesserten Entscheidungsalgorithmen werden nachfolgend geschildert.
  • Geht etwa die momentane Fahrsituation wie etwa "Einparken", "Ausparken" in die Entscheidung zur Auswahl geeigneter Umfeldansichten mit ein, wird eine verbesserte Unterstützung des Fahrers z.B. im Hinblick auf mögliche Gefahrensituationen möglich. Die tatsächlich relevanten Szenarien können mit gegenüber bisherigen Systemen erhöhter Zuverlässigkeit ausgewählt werden, d. h. die Verfügbarkeit und Verlässlichkeit der Systeme verbessert sich. Der Fahrer kann unmittelbar und auf intuitive Weise über ein relevantes Umfeldszenario informiert werden. Dies kann zu einer erhöhten Akzeptanz beispielsweise eines Einparkassistenten, Ausparkassistenten, allgemein eines Fahrassistenzsystems beitragen.
  • Die Werthaltigkeit der verbauten Komponenten wird gesteigert; dies betrifft beispielsweise die Sensor(sub)-Systeme der verbauten Umfeldsensorik, also etwa des Videosystems, Ultraschallsystems, etc. Gleichzeitig werden für die Erfindung in der Regel keine zusätzlichen Komponenten benötigt; es werden also keine zusätzlichen Einbauorte erforderlich. Somit kann der Gewinn an intuitiv leicht erfassbarer Unterstützung in komplexen Fahrsituationen auf kostengünstige Weise erreicht werden, beispielsweise lediglich durch ein entsprechendes Update der Software einer ECU ("Electronic Control Unit“).
  • Kurze Beschreibung der Zeichnungen
  • Weitere Aspekte und Vorteile der Erfindung werden nunmehr anhand der beigefügten Figuren eingehender beschrieben. Hierbei zeigt:
  • 1 ein mit einem erfindungsgemäßen Fahrassistenzsystem ausgerüstetes Fahrzeug in einer beispielhaften Fahrsituation;
  • 2 eine schematische Darstellung funktionaler Komponenten des Fahrassistenzsystems aus 1; und
  • 3 In Form eines Flussdiagramms eine Arbeitsweise des Fahrassistenzsystems der 2.
  • Ausführungsformen der Erfindung
  • In 1 ist schematisch ein Fahrzeug 100 in einer Fahrsituation dargestellt, die ein Einparken in eine Parklücke 102 zwischen parklückenbegrenzenden Objekten (z.B. Fahrzeugen) 104 und 106 betrifft, die aber auch ein Ausparken aus der Parklücke 102 betreffen kann. Die Parklücke 102 wird weiterhin durch eine Bordsteinkarte 108 begrenzt, und ist darüberhinaus durch eine Fahrbahnmarkierung 110 von einer Fahrbahn 112 abgegrenzt. Der mit dem Bezugszeichen 112 versehene Pfeil gibt gleichzeitig eine Fahrtrichtung des fließenden Verkehrs auf der Fahrbahn 112 an.
  • Das Fahrzeug 100 verfügt über ein Fahrassistenzsystem 114, welches gemäß 1 unter anderem die folgenden Komponenten umfasst: Auf einer ECU 116 ist eine Steuerungssoftware installiert, mittels der ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens implementiert ist. Statt einer zentralen ECU, wie in 1 dargestellt, könnte ein anderes Fahrassistenzsystem auch mehrere verteilte Steuerkomponenten umfassen. Die ECU 116 ist zur Entgegennahme von Sensordaten eines Kamerasystems 117 mit einer Rückfahrkamera 118, einer Frontkamera 120 sowie in Seitenspiegel integrierten Seitenkameras 122, 124 ausgebildet. Zur Umfeldsensorik des Fahrassistenzsystems 114 gehört neben dem Kamerasystem 117 auch ein Ultraschallsystem 125 mit im Heck des Fahrzeugs 100 verbauten Ultraschallsensoren 126, 128. Das Fahrassistenzsystem 114 kann weitere Sensorsysteme umfassen, die in 1 nicht gezeigt sind.
  • Die ECU 116 ist zur Ausgabe von mit den Kameras 118124 gewonnenen Darstellungen der entsprechenden Umfeldbereiche um das Fahrzeug 100 herum ausgebildet, wobei die Umfelddarstellungen auf eine Anzeigeeinheit 130 erfolgen, die zur Anzeige von Informationen an den Fahrer ausgerüstet und ausgerichtet ist. Neben der Anzeige 130 können zusätzliche oder andere Ausgabeeinheiten vorgesehen sein, beispielsweise ein Lautsprecher.
  • Jede der Kameras 118124 kann jeweils eine Monokamera oder auch eine Stereokamera umfassen, die fest oder auch schwenkbar eingebaut sein kann. Jede der Kameras 118124 kann einen festen oder einen einstellbaren Sichtbereich haben, wobei bei letzterem etwa ein optischer und/oder elektronischer (digitaler) Zoom zum Einsatz kommen kann. In 1 ist schematisch angedeutet, dass beispielsweise die Rückfahrkamera 118 zwischen unterschiedlichen Erfassungsbereichen 132, 134 (stufenlos oder in diskreten Schritten) umgeschaltet werden kann, wobei der Erfassungsbereich 132 eine Optik mit einem Erfassungsbereich von nahezu 180° umfasst, d. h. einen weiten Sichtbereich, der nahezu den gesamten Bereich hinter dem Heck des Fahrzeugs 100 abdeckt (Weitwinkelperspektive), während der Sichtbereich 134 einen kleineren Öffnungswinkel von beispielsweise etwa 90° abdeckt, der jedoch zu einer weniger verzerrten Darstellung führt, was insbesondere entferntere Objekte auf der Anzeige 130 intuitiv einfacher erfassbar macht. In 1 ist beispielhaft angedeutet, dass z.B. auch die linke Seitenkamera 122 zwischen einem Weitwinkel-Sichtbereich 136 und einem engeren Sichtbereich 138 umschaltbar sein kann. Zusätzlich oder alternativ können eine oder mehrere der Kameras 118124 schwenkbar entlang einer horizontalen und/oder vertikalen Schwenkachse sein.
  • In 2 ist das Fahrassistenzsystem 114 aus 1 mit weiteren funktionalen Details dargestellt. Die Kameras 118124 sowie Ultraschallsensoren 126, 128 kommunizieren über ein Bussystem 202 mit der ECU 116. Über ein Bussystem 204 ist die ECU 116 mit Ausgabeeinheiten wie der Anzeigeeinheit 130 und einem Lautsprecher 206 verbunden, sowie mit einer Eingabeeinheit 208 zur Entgegennahme von Steuerbefehlen vom Fahrer des Fahrzeugs 100. Bei der Eingabeeinheit 208 kann es sich auch beispielsweise um ein Mikrofon und/oder einen Softkey auf der Anzeigeeinheit 130 handeln. Die Bussysteme 202 und 204 können identisch sein, sie sind jedoch aus Gründen der Übersichtlichkeit in der 2 getrennt dargestellt.
  • Auf der ECU 116 sind ein Einparkassistent 210 sowie ein Ausparkassistent 212 implementiert. Desweiteren liegt eine Auswertungskomponente 214 zur Auswertung der von den Kamerasystem 117 gelieferten Kameraansichten im Hinblick auf Strukturen wie potentielle Hindernisse, Fahrbahnmarkierungen, etc. vor. Eine weitere Auswertungskomponente 216 dient zur Auswertung vom Ultraschallsystem 125 gelieferter Sensordaten zur Objektdetektion. Weiterhin ist eine Zustandskomponente 218 zur Bereitstellung mindestens einer Zustandsinformation vorgesehen, die einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems (FAS) 114 betrifft. Die Einheit 218 kann im einfachsten Fall als dedizierter Speicherbereich in einer der ECU 116 zugeordneten Speicherkomponente (nicht explizit gezeigt) implementiert werden. In einem derartigen Speicherbereich kann beispielsweise ein Flag oder eine Mehrzahl von Flags vorgesehen sein, die gesetzt oder nicht gesetzt sind und auf diese Weise einen Aktivierungszustand bspw. der Komponenten 210, 212 repräsentieren.
  • Weiterhin umfasst die ECU 116 eine Auswahlkomponente 220, die zum Auswählen einer Umfelddarstellung aus den unterschiedlichen, von den Kameras 118124 gelieferten Umfelddarstellungen basierend unter anderem auf der von der Komponente 218 bereitgestellten Zustandsinformation ausgebildet ist. Der Komponente 220 kann ein Speicherbereich 222 zugeordnet sein, der die Abarbeitung einer oder mehrerer Bedingungen zum Treffen einer Auswahlentscheidung anhand vorgegebener Kriterien ermöglicht.
  • Eine weitere Sensordaten-Auswertungskomponente 224 ist zur Auswertung von Sensordaten ausgebildet, die einen Zustand des Fahrzeugs 100 betreffen. Beispielsweise kann die Komponente 224 Daten eines schematisch dargestellten GPS-Sensors 226 oder sonstigen Positionssensors sowie weiterer Sensoren auswerten, für die beispielhaft nur ein Sensor 226 illustriert ist, der beispielsweise ein Geschwindigkeitssensor, Lenkwinkelsensor, etc. sein kann.
  • Die Auswahlkomponente 220 steuert eine Ausgabekomponente 230 an, die entsprechend der Ansteuerung eine oder mehrere der von den Kameras 118124 bereitgestellten Umfeldansichten an die Anzeigeeinheit 130 ausgibt oder für den Abruf durch den Fahrer bereitstellt. Zusätzlich steuert die Ausgabeeinheit 230 die akustische Ausgabeeinheit 208 an.
  • Eine erfindungsgemäße Funktionsweise des Fahrassistenzsystems 114 wird nunmehr anhand des Flussdiagramms 300 in 3 genauer beschrieben. Im Grundsatz dient das Zusammenwirken der in 2 gezeichneten Komponente dazu, in einer bestimmten Fahrsituation eine optimal zur Unterstützung des Fahrers geeignete Umfelddarstellung aus den verfügbaren unterschiedlichen Umfelddarstellungen auszuwählen und dem Fahrer zur Anzeige anzubieten (302).
  • In Schritt 304 stellt die Komponente 218 eine Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems 114 bereit. Wie in 2 illustriert, hält die Komponente 218 insbesondere Informationen darüber, ob der Einparkassistent 210 momentan aktiv ist und/oder der Ausparkassistent 212 aktiv ist. Diese Informationen können beispielsweise durch die Komponenten 210, 212 aktiv der Komponente 218 zugeliefert werden. Die bereitgestellte Zustandsinformation kann von der Komponente 218 der Auswahlkomponente 220, aber auch etwa der Video-Auswertungskomponente 214 zur Verfügung gestellt werden, und kann von diesen beispielsweise aktiv abgerufen werden.
  • In Schritt 306, der parallel zum Schritt 304 abgearbeitet werden kann, stellen die Komponenten 214 und/oder 216 Sensordaten bereit. Diese werden in Schritt 308 etwa in der Auswahlkomponente 220 ausgewertet. Beispielsweise kann die Video-Auswertungskomponente 214 aktiv sein, um vom Kamerasystem 117 zugelieferte Videoansichten auf das Vorhandensein potentieller Hindernisse, Fahrbahnbegrenzungen, -markierungen und dergleichen auszuwerten. Die Komponente 216 kann die Sensorsignale des Sensorsystems 125 auf das Vorhandensein, die Position, Entfernung etc. von Hindernissen im Erfassungsbereich der Sensoren 126, 128 auswerten.
  • In den Schritten 306, 308 können auch Sensordaten der Sensoren 226, 228 in der Komponente 224 ausgewertet und der Auswahlkomponente 220 für den nachgelagerten Schritt 310 zur Verfügung gestellt werden. So kann beispielsweise eine Information des Lenkwinkelsensors 228 in geeigneter Form an die Auswahlkomponente 220 geliefert werden, so dass diese etwa die Bereitstellung einer geeigneten der beiden von den Seitenkameras 122, 124 gelieferten Ansichten initiieren kann.
  • Ob und welche Auswertungen in den Schritten 306, 308 vorgenommen werden, kann ggf. durch Zustandsinformationen gesteuert werden, die im Schritt 304 in der Komponente 218 bereitgestellt werden. Liegt beispielsweise die Zustandsinformation vor, dass der Einparkassistent 210 aktiv ist und/oder eine aktive Längs- bzw. Querführung bei einer Rückwärtsfahrt des Fahrzeugs 100 durchgeführt wird, kann sich eine Detektion potentieller Einparkhindernisse und/oder bewegter Objekte auf die Erfassungsbereiche der Rückfahrkamera 118, sowie gegebenenfalls der Seitenkameras 122, 124 konzentrieren, während der Sichtbereich der Frontkamera 120 vernachlässigt werden kann. Liegt beispielsweise die Zustandsinformation vor, dass der Ausparkassistent 212 aktiv ist und/oder sich das Fahrzeug 100 aktiv oder passiv geführt aus der Parklücke 102 in Vorwärtsfahrt herausbewegt, kann beispielsweise auf eine Erfassung von Hindernissen im Erfassungsbereich der Rückfahrkamera 118 sowie der Ultraschallsensoren 126, 128 verzichtet werden.
  • Im Schritt 310 wird eine der von den Kameras 118124 gelieferten Umfelddarstellungen zur Anzeige auf dem Schirm 130 ausgewählt, und zwar basierend auf der im Schritt 304 bereitgestellten Zustandsinformation sowie unter Einbeziehung der Auswertung der Sensordaten in den Schritten 306, 308. Die Auswahlkomponente 220 wählt basierend auf den bereitgestellten Informationen und unter Abarbeitung von Algorithmen sowie vordefinierten Daten, die im Speicherbereich 222 abgelegt sind, eine der von den Kameras 118124 bereitgestellte Umfelddarstellungen aus, oder entscheidet, dass eine Videoansicht momentan nicht zweckmäßig ist und lässt die Anzeige auf dem Schirm 130 unverändert oder schaltet diesen dunkel.
  • In Schritt 312 gibt die Auswahlkomponente 220 einen Indikator für die auszuwählende Umfelddarstellung an die Ausgabekomponente 230 aus, beispielsweise eine Angabe einer der Kameras 118124, ggf. mit einer Angabe einer Schwenkposition der Kamera, und/oder einer Zoomfunktionalität. Die Komponente 230 kann daraufhin beispielsweise eine Videoansicht etwa der Rückfahrkamera 118 auf den Anzeigeschirm 130 durchschalten. Alternativ kann die Komponente 230 die entsprechende Ansicht lediglich bereitstellen, so dass der Fahrer über ein entsprechendes Kommando die bereitgestellte Ansicht aktiv auf den Anzeigeschirm 130 holen kann. Die Ausgabekomponente 230 kann einen Hinweis auf die ausgegebene oder bereitgestellte Ansicht etwa akustisch über den Lautsprecher 206 ausgeben, beispielsweise über eine Sprachausgabe wie "Achtung linker Seitenbereich".
  • In 3 ist illustriert, dass das Verfahren 300 in Schritt 314 endet. Das Verfahren kann entweder zyklisch getriggert werden (302), und/oder wenn sich beispielsweise eine Fahrsituation des Fahrzeugs 100 ändert, beispielsweise wenn der Einparkassistent 210 oder Ausparkassistent 212 zwar weiterhin aktiv ist, aber von einer Vorwärts- in eine Rückwärtsfahrt gewechselt wird, ein Geschwindigkeitsschwellwert überschritten oder unterschritten wird, eine Objektdetektion erfolgt, etc. Hierzu kann das Verfahren (in 3 nicht dargestellt) zyklisch eine Statusabfrage beispielsweise der Zustandsinformationen in der Komponente 218 durchführen. Beim erneuten Durchlaufen der Abfolge 300 kann sodann eine andere Ansicht ausgewählt und bereitgestellt werden. Es kann ein Algorithmus vorgesehen sein, um ein zu häufiges Umschalten bis hin zu einem Flackern der Anzeige auf dem Schirm 130 zu verhindern.
  • Nachfolgend werden konkrete Beispielssituationen anhand des in den Figuren illustrierten Fahrerassistenzsystems 114 diskutiert. Unter Bezugnahme auf 1 sei zunächst angenommen, dass Fahrzeug 100 würde rückwärts in die Parklücke 102 einparken. Hierbei würde (Schritt 304) die Komponente 218 eine Zustandsinformation speichern, die bspw. angibt, dass der Einparkassistent 210 aktiv ist und beispielsweise eine aktiv oder passiv geführte Rückwärtsfahrt in die Parklücke 102 hinein durchgeführt wird. Hierbei könnte bei Fehlen weiterer Randbedingungen wie etwa Hindernissen in der Parklücke 102 auf der Anzeigeeinrichtung 130 eine Top-View-Ansicht vergleichbar der Darstellung in 1 wiedergegeben werden, um so dem Fahrer den Fortgang des Einparkens übersichtlich anzuzeigen. Die Top-View-Ansicht würde also im Schritt 310 von der Auswahlkomponente 220 als momentan optimale Ansicht ausgewählt werden, und würde von der Auswertungskomponente 214 durch geeignete Verarbeitung der Umfelddarstellungen der Kameras 118124 konstruiert.
  • Bei Fortgang des Einparkvorganges und Annäherung des Fahrzeugs 100 beispielsweise mit dem hinteren oder vorderen rechten Rad an den Bordstein 108 kann zur verbesserten Unterstützung des Fahrers die Auswahlkomponente 220 die Ausgabe der von der rechten Seitenkamera 124 gelieferten Videoansicht initiiert werden, um es dem Fahrer zu ermöglichen, gegebenenfalls eine Rad-Bordstein-Kontakt zu vermeiden. Die Auswahlkomponente 220 zieht bei dieser Entscheidung sowohl die Zustandsinformation heran, dass der Einparkassistent weiterhin aktiv ist, als auch Sensordaten der Kameras 117 und oder Ultraschallsystems 125. Die Kamera 124 könnte geeignet konfiguriert, d. h. verschwenkt und/oder fokussiert werden, um kritische Ausschnittsbereiche der Videoansicht bestmöglich auf der Anzeige 130 präsentieren zu können.
  • Ein anderes Beispiel für einen Trigger, der etwa zur automatischen Umschaltung der Anzeige führen kann, wäre die Übernahme der Einparkfunktion durch den Fahrer. In das Verfahren 300 ginge also unter anderem die Zustandsinformation ein, dass der Einparkassistent deaktiviert wurde; d. h. die Bereitstellung der Zustandsinformation im Schritt 304 bezieht sich hier insbesondere auf eine Änderung des Aktivierungszustandes des Einparkassistenten. Bei diesem Beispiel würde sodann detektiert, dass der Abstand der Bordsteinkante 108 zu zumindest einem Rad des Fahrzeugs 100 einen vorgegebenen Schwellenwert unterschreitet, woraufhin die Auswahlkomponente 220 in Schritt 310 eine von der Kamera 124 gelieferte Seitenansicht automatisch auf die Anzeigeeinheit 130 ausgeben würde.
  • Bei einem nochmals anderen Beispiel sei ebenfalls unter Bezugnahme auf die 1 davon ausgegangen, dass das Fahrzeug 100 aus der Parklücke 102 in Richtung auf die Fahrbahn 112 ausparkt. Die Auswahl der bestmöglich geeigneten Ansicht zur Unterstützung des Fahrers kann hierbei je nach Fahrsituation unterschiedlich sein. Ist beispielsweise der Ausparkassistent 212 aktiviert, wobei das Fahrzeug aber noch steht, könnte eine Top-View-Ansicht (Vogelperspektive) angeboten bzw. auf der Einheit 130 ausgegeben werden. Wird in den Schritten 306, 308 detektiert, dass das Fahrzeug sich innerhalb der Längsparklücke 102 nach rückwärts in Bewegung gesetzt hat, könnte die Auswahlkomponente 220 in Schritt 310 die Umschaltung auf eine Ansicht der Rückfahrkamera 118 initiieren.
  • Wird detektiert, dass das Fahrzeug 100 sich im Ausparkmodus befindet, aber vorwärts bewegt, könnte die Auswahlkomponente 220 die (erneute) Umschaltung auf eine von der Frontkamera 120 gelieferte Ansicht initiieren. Zusätzlich oder alternativ könnte auch eine Ansicht der linken Seitenkamera 122 dargestellt oder angeboten werden, um den Fahrer auf eventuell auf der Fahrbahn 112 vorhandenen Verkehr hinzuweisen. Hierbei wäre gegebenenfalls die Kamera 122 entsprechend auszurichten bzw. zu fokussieren. Ist der Ausparkvorgang beendet, würde sich dies in den in der Komponente 218 repräsentierten Zustandsinformationen wiederspiegeln, in dem der Ausparkassistent 212 als 'deaktiviert' repräsentiert wäre, woraufhin die Auswahlkomponente 220 beispielsweise das Umschalten auf die Ansicht der Frontkamera 120 initiieren könnte oder auch den Anzeigeschirm 130 dunkel schalten könnte.
  • Bei einem wieder anderen Szenario (nicht in 1 dargestellt), bei dem ein Fahrzeug rückwärts aus einer Querparklücke ausparkt, könnte als Umfelddarstellung für die optimale Unterstützung des Fahrers automatisch eine von der Rückfahrkamera gelieferte Videoansicht ausgegeben werden, wobei falls verfügbar eine Weitwinkelperspektive, beispielsweise 180°-Optik konfiguriert würde.
  • In einem weiterem Beispielszenario sei angenommen, dass momentan eine bestimmte Detailansicht angezeigt wird, beispielsweise eine Ansicht einer hinteren Anhängerkupplung, um einen Rangiervorgang mit einem Anhänger zu unterstützen. Unabhängig hiervon hat das Fahrerassistenzsystem durch Auswertung der von der Umfeldsensorik 117, 125 gelieferten Sensordaten festgestellt, dass sich ein potentielles Kollisionsobjekt innerhalb einer festgelegten Mindestdistanz zum Fahrzeug befindet. Die Auswahlkomponente 220 würde feststellen, dass sich das Fahrerassistenzsystem momentan in einem Rangiermodus befindet und daraufhin veranlassen, dass der Fahrer beispielsweise akustisch auf die Situation hingewiesen wird, und/oder etwa eine Ansicht derjenigen Kamera anbieten, die das detektierte potentielle Hindernis anzeigt. Statt eines automatischen Umschaltens könnte auch etwa ein Miniaturbild der entsprechenden Videoansicht auf dem Schirm 130 der Ansicht der Anhängerkupplung überlagert oder beigefügt werden.
  • Die in den Schritten 306 und 308 verarbeiteten Sensordaten können auch Positionsdaten des Fahrzeugs 100 einschließen, beispielsweise GPS-Informationen. In Zusammenhang mit elektronischen Kartenmaterial könnten beispielsweise Situationen diskriminiert werden, bei denen ein Parkassistent aktiv ist und das Fahrzeug entweder bspw. an einer Straße ein- oder ausparkt, oder auf einem Parkplatz ein- oder ausparkt. Beim Ausparken aus einer Parklücke auf eine mit vergleichsweise hoher Geschwindigkeit befahrenen Fahrbahn könnte eine Videoansicht einer Seitenkamera ausgegeben werden, während auf einem Parkplatz mit im allgemeinen niedrigeren Fahrgeschwindigkeiten eine nach seitlich rückwärts gerichtete Ansicht der Kamera 122 ausgegeben werden könnte. Hierdurch kann eine nochmals intuitivere Unterstützung des Fahrers erreicht werden.
  • Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr sind innerhalb des durch die anhängenden Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007044536 A1 [0007]

Claims (10)

  1. Verfahren in einem Fahrassistenzsystem zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer, wobei basierend auf einer Umfeldsensorik (117, 125) des Fahrzeugs (100) unterschiedliche Umfelddarstellungen verfügbar sind, mit den folgenden Schritten: – Bereitstellen (304) einer Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion (210, 212) des Fahrassistenzsystems (114); – Auswählen (310) einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und – Ausgeben (312) einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
  2. Verfahren nach Anspruch 1, wobei die Umfeldsensorik ein Kamerasystem (117) mit einer oder mehreren Kameras (118124) umfasst und die Umfelddarstellungen folgendes umfassen: auf dem Kamerasystem (117) basierende Videoansichten (132, 134, 136, 138) des Fahrzeugumfeldes zur Ausgabe auf eine Anzeigeeinheit (130).
  3. Verfahren nach Anspruch 1 oder 2, wobei die Zustandsinformation den Aktivierungszustand einer Auspark-Funktion (210) oder einer Einpark-Funktion (212) betrifft.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Auswahl der Umfelddarstellung zusätzlich basierend auf Sensordaten erfolgt, die das Fahrzeug (100) und/oder das Fahrzeugumfeld betreffen.
  5. Verfahren nach Anspruch 4, wobei die Sensordaten Videodaten des Kamerasystems (117), Ultraschalldaten, Radardaten und/oder Infrarotdaten bzgl. des Fahrzeugumfeldes umfassen, und/oder Positions-, Lenkwinkel- und/oder Geschwindigkeitsdaten in Bezug auf das Fahrzeug (100) umfassen.
  6. Verfahren nach Anspruch 4 oder 5, wobei die Auswahl einer Umfelddarstellung basierend auf einer Detektion einer Struktur in den Sensordaten erfolgt.
  7. Verfahren nach Anspruch 6, wobei die Struktur ein potentielles Hindernis, ein parklückenbegrenzendes Objekt, eine Parklückenbegrenzung (108), eine Fahrspur, eine Fahrbahnmarkierung, und/oder eine Fahrbahnbegrenzung umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Steuerungsinformation folgendes betrifft: eine automatische Umschaltung auf die ausgewählte Umfelddarstellung und/oder eine Ausgabe eines Hinweises auf die ausgewählte Umfelddarstellung an den Fahrer.
  9. Computerprogramm zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird.
  10. Fahrassistenzsystem, ausgebildet zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer, umfassend eine Umfeldsensorik (117, 125) des Fahrzeugs (100) zur Gewinnung unterschiedlicher Umfelddarstellungen, mit den folgenden Komponenten: – einer Komponente (218) zum Bereitstellen einer Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion (210, 212) des Fahrassistenzsystems (114); – einer Komponente (220) zum Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und – einer Komponente (230) zum Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
DE201110086442 2011-11-16 2011-11-16 Fahrassistenzsystem mit Anzeige von Umfeldansichten Ceased DE102011086442A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201110086442 DE102011086442A1 (de) 2011-11-16 2011-11-16 Fahrassistenzsystem mit Anzeige von Umfeldansichten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201110086442 DE102011086442A1 (de) 2011-11-16 2011-11-16 Fahrassistenzsystem mit Anzeige von Umfeldansichten

Publications (1)

Publication Number Publication Date
DE102011086442A1 true DE102011086442A1 (de) 2013-05-16

Family

ID=48144951

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201110086442 Ceased DE102011086442A1 (de) 2011-11-16 2011-11-16 Fahrassistenzsystem mit Anzeige von Umfeldansichten

Country Status (1)

Country Link
DE (1) DE102011086442A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014213279A1 (de) * 2014-07-09 2016-01-14 Conti Temic Microelectronic Gmbh System zum Erfassen einer Fahrzeugumgebung eines Kraftfahrzeuges

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19741896A1 (de) * 1997-09-23 1999-04-22 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE19801884A1 (de) * 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
DE10043099A1 (de) * 2000-09-01 2002-03-28 Volkswagen Ag Verfahren und Vorrichtung zur Überwachung des rückwärtigen Bereichs eines Kraftfahrzeugs
DE102007044536A1 (de) 2007-09-18 2009-03-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs
DE102010000385A1 (de) * 2009-02-12 2010-08-19 Denso Corporation, Kariya-City Fahrzeugperipherieanzeigevorrichtung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19741896A1 (de) * 1997-09-23 1999-04-22 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE19801884A1 (de) * 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
DE10043099A1 (de) * 2000-09-01 2002-03-28 Volkswagen Ag Verfahren und Vorrichtung zur Überwachung des rückwärtigen Bereichs eines Kraftfahrzeugs
DE102007044536A1 (de) 2007-09-18 2009-03-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs
DE102010000385A1 (de) * 2009-02-12 2010-08-19 Denso Corporation, Kariya-City Fahrzeugperipherieanzeigevorrichtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014213279A1 (de) * 2014-07-09 2016-01-14 Conti Temic Microelectronic Gmbh System zum Erfassen einer Fahrzeugumgebung eines Kraftfahrzeuges

Similar Documents

Publication Publication Date Title
DE102008039136B4 (de) Kamerasystem für ein Fahrzeug und Verfahren zum Steuern eines Kamerasystems
EP2758296B1 (de) Verfahren zur klassifikation von parkszenarien für ein einparksystem eines kraftfahrzeugs
EP2479077B1 (de) Verfahren zum Betrieb eines eine auf einen Überholvorgang bezogene Empfehlung ausgebenden Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102008028303A1 (de) Anzeigesystem und Programm
EP2718172B1 (de) Verfahren zur passiven fahrerassistenz in einem fahrerassistenzsystem
DE102014219110A1 (de) Fahrerassistenzsystem für Kraftfahrzeuge
DE102010051206A1 (de) Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
DE102010043742A1 (de) Verfahren zur Auswahl einer Parklücke bei mehreren zum Einparken geeigneten Parklücken
DE10037130A1 (de) Einpark- und/oder Rangierhilfeeinrichtung für Pkw oder Lkw
EP3437929A1 (de) Sichtsystem mit fahrsituationsbedingter sichtfeld-/sichtbereicheinblendung
DE112016007380T5 (de) Anzeigekontrollvorrichtung, Anzeigevorrichtung und Anzeigekontrollverfahren
WO2013107550A1 (de) Verfahren zum überwachen eines fahrzeugumfeldes
DE102011080928A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102014203138A1 (de) Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zur Assistenz eines Kraftfahrzeug-Fahrers
DE102012208288A1 (de) Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem
EP3479183A1 (de) Verfahren zum betrieb eines kraftfahrzeugs in einer navigationsumgebung und kraftfahrzeug
WO2012171740A1 (de) Nachrüstsatz für Parkführung
DE102013021827A1 (de) Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr durch Ausgeben eines nicht-optischen Warnsignals, Kollisionswarnungssystem und Kraftfahrzeug
DE102013018543A1 (de) Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
DE102014213677A1 (de) Verfahren zum Modifizieren einer Ausgabe eines Fahrerassistenzsystems und Fahrerassistenzsystem
EP2322411B1 (de) Verfahren zur Erkennung einer zum Einparken eines Fahrzeugs geeigneten Parklücke
DE102020110827A1 (de) Einparkhilfevorrichtung und verfahren zur steuerung der einparkhilfevorrichtung
DE102011080720A1 (de) Visualisierung einer Rampenabfahrt
EP2780212B1 (de) Gedächtnisbehaftetes manövrierassistenzsystem
DE102008043755A1 (de) Verfahren und Steuergerät zur Unterstützung eines Fahrers eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0001100000

Ipc: B60R0001000000

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final