DE102011010860A1 - Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug - Google Patents

Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug Download PDF

Info

Publication number
DE102011010860A1
DE102011010860A1 DE102011010860A DE102011010860A DE102011010860A1 DE 102011010860 A1 DE102011010860 A1 DE 102011010860A1 DE 102011010860 A DE102011010860 A DE 102011010860A DE 102011010860 A DE102011010860 A DE 102011010860A DE 102011010860 A1 DE102011010860 A1 DE 102011010860A1
Authority
DE
Germany
Prior art keywords
motor vehicle
image
vehicle
blind region
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011010860A
Other languages
English (en)
Inventor
Patrick Denny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102011010860A priority Critical patent/DE102011010860A1/de
Priority to EP12152028.2A priority patent/EP2487666B1/de
Publication of DE102011010860A1 publication Critical patent/DE102011010860A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

Die Erfindung betrifft ein Verfahren zum Anzeigen von Bildern (30) auf einer Anzeigeeinrichtung (3) in einem Kraftfahrzeug (1). Es wird ein Fahrzeugbild (1') zumindest eines Bereichs des Kraftfahrzeugs (1) bereitgestellt. Ein Bild einer Umgebung (10 bis 13) des Kraftfahrzeugs (1) wird mithilfe zumindest einer Kamera (5a bis 5d) des Kraftfahrzeugs (1) erfasst. Ein Gesamtbild (30) wird auf der Anzeigeeinrichtung (3) angezeigt, welches aus dem Fahrzeugbild (1') und dem Bild der Umgebung (10 bis 13) gebildet wird. Das Gesamtbild (30) beinhaltet zumindest eine der Umgebung zugeordnete Blindregion (14', 16', 18', 19'), zu welcher keine Bilddaten vorliegen. Ein fahrzeugexternes Objekt wird anhand von Sensordaten zumindest eines Sensors (5a bis 5d, 22 bis 27, 28, 29) des Kraftfahrzeugs (1) detektiert, und die Blindregion (14', 16', 18', 19') wird in dem Gesamtbild (30) unter Berücksichtigung des detektierten Objekts dargestellt. Die Erfindung betrifft auch ein Fahrerassistenzsystem (2), wie auch ein Kraftfahrzeug (1).

Description

  • Die Erfindung betrifft ein Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug. Es wird ein Fahrzeugbild zumindest eines Bereichs des Kraftfahrzeugs bereitgestellt. Zumindest eine Kamera des Kraftfahrzeugs erfasst ein Bild einer Umgebung des Kraftfahrzeugs. Es wird ein Gesamtbild auf der Anzeigeeinrichtung angezeigt, welches aus dem Fahrzeugbild und dem Bild der Umgebung gebildet wird. Das Gesamtbild beinhaltet zumindest eine der Umgebung zugeordnete Blindregion, zu welcher keine Bilddaten vorliegen. Die Erfindung betrifft außerdem ein Fahrerassistenzsystem zum Durchführen eines derartigen Verfahrens, wie auch ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.
  • Es ist Stand der Technik, Bilder auf einer Anzeigeeinrichtung eines Kraftfahrzeugs anzuzeigen, welche das Kraftfahrzeug einerseits und seine Umgebung andererseits darstellen. Vorliegend gilt das Interesse insbesondere einer Draufsicht auf das Kraftfahrzeug und seine Umgebung (auch unter der Bezeichnung „bird view” bekannt). Ein Bild, welches eine solche Draufsicht darstellt, kann durch eine Verarbeitung von Bilddaten einer Kamera – oder einer Vielzahl von Kameras – erzeugt werden. In der Regel werden dazu Bilddaten einer Vielzahl von Kameras verarbeitet, die an der Karosserie des Kraftfahrzeugs angebracht sind. Auf der Anzeigeeinrichtung wird dann ein Gesamtbild angezeigt, welches eine Draufsicht auf das Kraftfahrzeug – ein Fahrzeugbild ist in der Regel bereits vorab abgespeichert – und seine Umgebung zeigt – das Bild der Umgebung wird aus den Kameradaten erzeugt.
  • Zur Erfassung der Bilddaten können beispielsweise vier Kameras eingesetzt werden: eine Kamera an dem vorderen Stoßfänger, eine an dem hinteren Stoßfänger, eine an der linken und eine an der rechten Seitenflanke des Fahrzeugs. Es existieren dabei Bereiche in der Umgebung des Fahrzeugs, die durch die Kameras nicht erfasst werden können. Insbesondere können die abgerundeten Eckbereiche des Kraftfahrzeugs nicht erfasst werden, wie auch gegebenenfalls ein sich unmittelbar an die äußere Oberfläche des Fahrzeugs anschließender Nahbereich. Also existieren zu diesen Bereichen keine Bilddaten, und es kann auf der Anzeigeeinrichtung zu diesen Bereichen kein realitätsgetreues Bild dargestellt werden. Dieser Problematik begegnet man im Stand der Technik dadurch, dass in dem angezeigten Bild diese Blindregionen der Umgebung, zu denen keine Bilddaten vorhanden sind, schwarz dargestellt werden. Der Fahrer bekommt somit zu den Blindregionen überhaupt keine Informationen dargestellt und weiß somit auch nicht, ob sich in diesen Bereichen der Umgebung Objekte bzw. Hindernisse befinden oder nicht.
  • Bekanntlich kann auch in dem Gesamtbild das Fahrzeugbild derart verzerrt dargestellt werden, dass in dem angezeigten Gesamtbild das Fahrzeugbild die Blindbereiche der Umgebung überdeckt. Beispielsweise wird das Fahrzeugbild mit einer gegenüber der Umgebung vergrößerten Skalierung dargestellt. Auf diese Weise kann dem Fahrer vorgetäuscht werden, dass der Abstand von in der Umgebung befindlichen Objekten zu dem Kraftfahrzeug kleiner als der tatsächliche Abstand ist, sodass das Risiko einer Kollision reduziert wird.
  • Im Gegenstand gemäß Druckschrift EP 1 179 958 A1 werden die Blindregionen der Umgebung neben dem Kraftfahrzeug oder aber ein vergrößerter Bereich der Umgebung neben dem Kraftfahrzeug farblich dargestellt. Es wird somit dem Fahrer ermöglicht, die Blindbereiche, zu denen keine Bilddaten vorliegen, einfacher als bei schwarzen Blindregionen wahrzunehmen.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung die zumindest eine Blindregion, zu welcher keine Bilddaten der Kamera vorliegen, besonders sinnvoll genutzt werden kann, wobei insbesondere das Risiko einer Kollision auf ein Minimum reduziert werden soll.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1, wie auch durch ein Fahrerassistenzsystem mit den Merkmalen gemäß Patentanspruch 15 sowie durch ein Kraftfahrzeug mit den Merkmalen des Patentanspruchs 16 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung.
  • Ein erfindungsgemäßes Verfahren ist zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug ausgelegt. Es wird ein Fahrzeugbild zumindest eines Bereichs des Kraftfahrzeugs bereitgestellt – dieses Fahrzeugbild kann beispielsweise bereits vorab in einer Speichereinrichtung abgelegt werden. Ein Bild einer Umgebung des Kraftfahrzeugs wird mit zumindest einer Kamera des Kraftfahrzeugs erfasst. Ein Gesamtbild wird auf der Anzeigeeinrichtung angezeigt, welches aus dem Fahrzeugbild und dem Bild der Umgebung – etwa durch eine Überlagerung – gebildet wird. Das Gesamtbild beinhaltet zumindest eine der Umgebung zugeordnete Blindregion, zu welcher keine Bilddaten vorliegen. Erfindungsgemäß ist vorgesehen, dass ein fahrzeugexternes Objekt anhand von Sensordaten zumindest eines Sensors des Kraftfahrzeugs detektiert wird, und die zumindest eine Blindregion in dem Gesamtbild unter Berücksichtigung des detektierten Objekts dargestellt wird.
  • Ein Kerngedanke der Erfindung besteht somit darin, die im Gesamtbild vorhandene Blindregion dazu zu nutzen, den Fahrer über die Anwesenheit des detektierten – und im Gesamtbild gegebenenfalls noch nicht dargestellten Objekts bzw. über die damit verbundene Gefahr zu informieren. Die zumindest eine Blindregion kann somit sinnvoll genutzt werden, indem ihre Darstellung in Abhängigkeit von dem detektierten Objekt verändert wird. Beispielsweise kann nach Erkennen eines Objekts die Farbgebung der Blindregion verändert werden. Mithilfe der ohnehin im Gesamtbild vorhandenen Blindregion wird somit der Fahrer vor der Anwesenheit des Objekts gewarnt, sodass auch ein Risiko einer Kollision auf ein Minimum reduziert wird.
  • Das Fahrzeugbild zeigt vorzugsweise das gesamte Kraftfahrzeug. Somit bekommt der Fahrer auf der Anzeigeeinrichtung das gesamte Kraftfahrzeug angezeigt und kann sich über die Umgebung um das Fahrzeug herum informieren.
  • Die Vorteile der Erfindung kommen insbesondere dann vollständig zum Tragen, wenn das Fahrzeugbild eine Draufsicht auf den zumindest einen Bereich des Kraftfahrzeugs – insbesondere auf das gesamte Kraftfahrzeug – darstellt und Kameradaten der zumindest einen Kamera zu einem Bild der Umgebung verarbeitet werden, welches eine Draufsicht auf die erfasste Umgebung darstellt. Dann wird in dem Gesamtbild die Draufsicht auf den zumindest einen Bereich des Kraftfahrzeugs, wie auch auf die Umgebung dargestellt. Eine solche Draufsicht auf das Kraftfahrzeug und die Umgebung ist besonders benutzerfreundlich: Der Fahrer kann somit besonders einfach auf die Abstände zwischen dem Kraftfahrzeug und den in der Umgebung befindlichen Objekten zurückschließen bzw. eine kritische Situation erkennen. Der Fahrer kann bei einer derartigen Vogelperspektive die jeweiligen Abstände zwischen dem Fahrzeug und jeglichen Gegenständen besser beurteilen. Gerade dann stellt sich jedoch das Problem der Blindregionen der Umgebung; zu einigen Bereichen der Umgebung, die sich unmittelbar an das Kraftfahrzeug anschließen, fehlen nämlich die Kameradaten. Gerade diese Tatsache macht sich die vorliegende Erfindung zunutze, indem die Blindregionen in dem angezeigten Gesamtbild zur Darstellung von Informationen über das detektiert Objekt genutzt werden können.
  • Also wird das fahrzeugexterne Objekt anhand von Sensordaten zumindest eines Sensors des Kraftfahrzeugs detektiert. Diese Detektion erfolgt in einer Ausführungsform anhand von Bilddaten der zumindest einen Kamera als Sensordaten. Dies bedeutet, dass die Bilddaten der zumindest einen Kamera auch dazu genutzt werden können, das fahrzeugexterne Objekt zu detektieren. Bei dieser Ausführungsform erübrigt sich insbesondere der Einsatz eines zusätzlichen Sensors mit den damit verbundenen Nachteilen hinsichtlich der Kosten und des wertvollen Bauraums.
  • Ergänzend oder alternativ kann vorgesehen sein, dass die Detektion des Objekts anhand von Sensordaten eines von der Kamera verschiedenen Sensors erfolgt. Als Sensor kann hier beispielsweise ein Ultraschallsensor und/oder ein Radargerät und/oder ein Laserscanner und/oder ein Infrarotsensor verwendet werden. Es erweist sich als besonders vorteilhaft, wenn zur Detektion des Objekts ein Sensor eines ohnehin im Kraftfahrzeug vorhandenen Fahrerassistenzsystems benutzt wird, etwa ein Ultraschallsensor eines Parkhilfesystems. Wird ein von der Kamera verschiedener Sensor zur Detektion des Objekts verwendet, so kann das Objekt mit einer relativ hohen Genauigkeit erfasst werden und die Entfernung des Objekts und/oder seine relative Geschwindigkeit und/oder seine Bewegungsrichtung kann/können höchstpräzise gemessen werden.
  • Bevorzugt sind im Gesamtbild zumindest zwei Blindregionen vorhanden, zu denen keine Bilddaten der Kamera vorliegen, nämlich insbesondere eine Blindregion rechts des Kraftfahrzeugs – etwa beim vorderen rechten Eckbereich und/oder beim hinteren rechten Eckbereich – und eine Blindregion links des Kraftfahrzeugs – etwa beim vorderen linken Eckbereich und/oder beim hinteren linken Eckbereich des Kraftfahrzeugs. Wird nun ein fahrzeugexternes Objekt detektiert, so kann ausschließlich diejenige Blindregion unter Berücksichtigung des Objekts dargestellt – zum Beispiel gegenüber der anderen Blindregion optisch, insbesondere farbig, hervorgehoben – werden, welche dem detektierten Objekt am nächsten liegt. Wird beispielsweise ein Objekt auf der rechten Seite des Kraftfahrzeugs detektiert, so kann die rechte Blindregion in Abhängigkeit von dem erkannten Objekt dargestellt werden; hier kann beispielsweise die Farbgebung der rechten Blindregion variiert werden.
  • Wie bereits ausgeführt, kann unter Berücksichtigung des Objekts eine Farbgebung der Blindregion im Gesamtbild eingestellt werden. Durch die Veränderung der Farbgebung der Blindregion wird dem Fahrer ermöglicht, diese Blindregion und somit die Anwesenheit des Objekts in der Umgebung zuverlässig wahrzunehmen.
  • Folgende Vorgehensweise erweist sich als besonders vorteilhaft: Es wird ein Gefahrengrad als Maß für die Gefahr einer Kollision zwischen dem Kraftfahrzeug und dem detektierten Objekt bestimmt. Abhängig von dem Gefahrengrad wird dann die zumindest eine Blindregion im Gesamtbild dargestellt. Anhand des Gefahrengrads können die in der Umgebung des Kraftfahrzeugs befindlichen Objekte quasi klassifiziert werden, und die zumindest eine Blindregion kann unter Berücksichtigung dieser Klassifizierung dargestellt werden. Es wird somit dem Fahrer mithilfe des Gesamtbilds eine Information darüber vermittelt, ob die fahrzeugexternen Objekte tatsächlich eine Gefahr darstellen oder nicht.
  • In Abhängigkeit von dem Gefahrengrad kann beispielsweise eine Farbgebung der Blindregion im Gesamtbild variiert werden. Für einen relativ hohen Gefahrengrad kann zum Beispiel eine rote Farbgebung vorgesehen sein, während für eine mittlere Gefahr eine gelbe und für eine relativ geringe Gefahr eine grüne Farbgebung vorgesehen sein kann. Somit kann die tatsächliche Gefahr durch den Fahrer besonders rasch erblickt werden bzw. der Fahrer kann die Situation in der Umgebung anhand des Gesamtbilds einschätzen.
  • Der Gefahrengrad wird bevorzugt unter Berücksichtigung einer relativen Geschwindigkeit des Objekts bezüglich des eigenen Kraftfahrzeugs und/oder unter Berücksichtigung einer Entfernung des Objekts vom Kraftfahrzeug und/oder unter Berücksichtigung einer relativen Bewegungsrichtung des Objekts bezüglich des Kraftfahrzeugs bestimmt. In Abhängigkeit von diesen Größen kann der Gefahrengrad realitätsgetreu bestimmt werden.
  • Beispielsweise wird als Gefahrengrad eine Zeit bis zur Kollision bestimmt, also diejenige Zeit, welche das Objekt voraussichtlich dazu benötigt, das Kraftfahrzeug zu erreichen bzw. mit dem Kraftfahrzeug zu kollidieren. Die Größe „Zeit bis zur Kollision” gibt die tatsächliche Gefahr eindeutig wieder und kann dabei ohne viel Aufwand verwertet und verarbeitet werden.
  • Anhand der Sensordaten kann das detektierte Objekt auch zeitlich verfolgt werden, und die Blindregion kann in dem Gesamtbild unter Berücksichtigung des detektierten Objekts auch dann dargestellt werden, wenn das Objekt in die Blindregion gelangt und somit nicht mehr in dem Gesamtbild zu sehen ist. Diese Ausführungsform erweist sich insbesondere dann als vorteilhaft, wenn das Objekt anhand der Bilddaten der Kamera detektiert wird. Das Objekt kann nämlich anhand der Bilddaten nicht mehr detektiert werden, wenn es in die Blindregion gelangt. Das Objekt kann hier anhand der Bilddaten verfolgt werden, und die jeweils augenblickliche Position des Objekts relativ zum Kraftfahrzeug kann eingeschätzt werden bzw. die Trajektorie der Bewegung des Objekts bezüglich des Kraftfahrzeugs kann extrapoliert werden. Gelangt das Objekt in die Blindregion, so kann die Blindregion im Gesamtbild beispielsweise mit einer roten Farbgebung hervorgehoben werden oder es kann eine blinkende Blindregion dargestellt werden, deren Farbgebung sich mit einer bestimmten Frequenz verändert. Es ist somit möglich, den Fahrer über die Kollisionsgefahr auch dann zu informieren, wenn sich das Objekt bereits in der Blindregion befindet und somit in dem dargestellten Gesamtbild nicht mehr zu sehen ist.
  • Die Blindregion kann auch besonders sinnvoll wie folgt genutzt werden: Die Blindregion kann unter Berücksichtigung eines aktuellen Betriebszustands zumindest einer Komponente des Kraftfahrzeugs dargestellt werden, nämlich insbesondere unter Berücksichtigung eines aktuellen Betriebszustands eines Blinkers und/oder einer Bremsleuchte des Kraftfahrzeugs. Diese Ausführungsform kann beispielsweise dann verwirklicht werden, wenn zum jeweils aktuellen Zeitpunkt kein fahrzeugexternes Objekt detektiert wird. Mit dem Gesamtbild wird dann der Fahrer über den aktuellen Betriebszustand der zumindest einen Komponente des Kraftfahrzeugs informiert, sodass die Einsetzbarkeit bzw. die Funktionalität der Anzeigeeinrichtung im Vergleich zum Stand der Technik erweitert wird.
  • Das Gesamtbild kann eine linke Blindregion und eine rechte Blindregion beinhalten, zu denen keine Bilddaten vorliegen. Bei einem aktivierten linken Blinker kann die linke Blindregion gegenüber der rechten Blindregion optisch – insbesondere farbig – hervorgehoben werden, während bei einem aktivierten rechten Blinker die rechte Blindregion gegenüber der linken Blindregion optisch – insbesondere farbig – hervorgehoben werden kann. Die Hervorhebung kann auch so aussehen, dass die jeweilige Blindregion in dem Gesamtbild dann blinkt bzw. ihre Farbgebung dann mit einer bestimmten Frequenz verändert wird, wenn der zugeordnete Blinker aktiviert ist. Einerseits wird somit der Fahrer mithilfe der Anzeigeeinrichtung über den jeweils augenblicklichen Zustand der Blinker informiert; andererseits ist ein derartiges Gesamtbild optisch besonders ansprechend.
  • Das Gesamtbild kann auch eine hinter dem Fahrzeugbild angeordnete Blindregion beinhalten, zu welcher keine Bilddaten vorliegen. Dann kann beim Aktivieren einer Bremsleuchte des Kraftfahrzeugs die Darstellung dieser hinteren Blindregion verändert werden. Beispielsweise kann beim Aktivieren der Bremsleuchte auch die hintere Blindregion im Gesamtbild aufleuchten, sodass das Aktiviertsein der Bremsleuchte auf der Anzeigeeinrichtung angezeigt wird. Sind beispielsweise zwei Blindregionen hinter dem Fahrzeugbild vorhanden, nämlich eine Blindregion beim hinteren linken Eckbereich und eine Blindregion beim hinteren rechten Eckbereich, so können beim Aktivieren der Bremsleuchte beide Blindregionen aufleuchten. Die hintere Blindregion kann beispielsweise für die Zeitdauer kontinuierlich – zum Beispiel durch eine entsprechende Farbgebung – beleuchtet werden, für welche auch die Bremsleuchte aktiviert ist.
  • Erfindungsgemäß wird darüber hinaus ein Fahrerassistenzsystem für einen Kraftwagen, insbesondere einen Personenkraftwagen, bereitgestellt, welches zum Anzeigen von Bildern ausgebildet ist. Es beinhaltet zumindest eine Kamera zum Erfassen eines Bildes einer Umgebung des Kraftfahrzeugs wie auch eine Recheneinrichtung, in welcher ein Fahrzeugbild zumindest eines Bereichs des Kraftfahrzeugs abgelegt ist, nämlich insbesondere in einem Speicher. Die Recheneinrichtung kann aus dem Fahrzeugbild und dem Bild der Umgebung ein Gesamtbild erzeugen, welches zumindest eine der Umgebung zugeordnete Blindregion beinhaltet, zu welcher keine Bilddaten vorliegen. Das Fahrerassistenzsystem umfasst auch eine Anzeigeeinrichtung zum Anzeigen des Gesamtbilds. Die Recheneinrichtung ist dazu ausgelegt, die Blindregion in dem Gesamtbild unter Berücksichtigung eines anhand von Sensordaten zumindest eines Sensors detektierten Objekts darzustellen.
  • Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug mit einem Fahrerassistenzsystem gemäß einer Ausführungsform der Erfindung; und
  • 2 in schematischer Darstellung ein Gesamtbild, welches auf einer Anzeigeeinrichtung im Kraftfahrzeug angezeigt wird und in welchem Blindregionen einer Umgebung des Kraftfahrzeugs gezeigt sind.
  • Ein Fahrzeug 1, wie es in 1 dargestellt ist, ist ein Personenkraftwagen. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, welches eine Anzeigeeinrichtung 3, eine Recheneinrichtung 4, wie auch vier Kameras 5a bis 5d beinhaltet. Die Recheneinrichtung 4 steuert die Anzeigeeinrichtung 3 an. Die Kameras 5a bis 5d übermitteln erfasste Bilddaten an die Recheneinrichtung 4, nämlich beispielsweise über einen internen Kommunikationsbus des Kraftfahrzeugs 1.
  • Die Anzeigeeinrichtung 3 kann beispielsweise ein LCD-Display sein. Sie kann aber auch ein Projektor sein, mit dessen Hilfe Bilder auf eine Windschutzscheibe 6 projiziert werden können (Head-Up Display).
  • In der Recheneinrichtung 4 ist außerdem ein Fahrzeugbild abgespeichert – und genauer gesagt Daten, die ein Bild des Kraftfahrzeugs 1 repräsentieren –, nämlich in einem Speicher 7.
  • Die Kameras 5a bis 5d sind an einer äußeren Oberfläche des Kraftfahrzeugs 1 angeordnet. Die Anzahl sowie die Anordnung der Kameras 5a bis 5d ist in 1 lediglich beispielhaft dargestellt; je nach Ausführungsform kann die Anzahl der Kameras 5a bis 5d sowie deren Anordnung am Kraftfahrzeug 1 variieren. Im Ausführungsbeispiel ist eine erste Kamera 5a an einem vorderen Stoßfänger des Kraftfahrzeugs 1 angeordnet, während eine zweite Kamera 5b an einem hinteren Stoßfänger angeordnet ist. Eine dritte Kamera 5c ist an der linken Seitenflanke angebracht; sie kann auch in einen linken Außenspiegel 8 integriert sein. Eine vierte Kamera 5d ist an der rechten Seitenflanke angebracht, nämlich im Bereich eines rechten Außenspiegels 9. Auch die vierte Kamera 5d kann in den Außenspiegel 9 integriert sein.
  • Die Kameras 5a bis 5d weisen jeweils einen relativ breiten Erfassungswinkel auf. Sie können so genannte Fischaugenkameras sein. Zum Beispiel kann der jeweilige Erfassungswinkel in einem Wertebereich von 170° bis 190° liegen. Alternativ können auch Kameras mit einem kleineren Erfassungswinkel verwendet werden.
  • Wie aus 1 hervorgeht, erfasst die erste Kamera 5a einen Bereich 10 vor dem Kraftfahrzeug 1, während die zweite Kamera 5b einen Bereich 11 hinter dem Kraftfahrzeug 1 erfasst. Entsprechend erfasst die dritte Kamera 5c einen Bereich 12 links neben dem Fahrzeug 1; die vierte Kamera 5d erfasst einen Bereich 13 rechts neben dem Fahrzeug 1. Die Kameras 5a bis 5d können also im Wesentlichen die gesamte Umgebung des Kraftfahrzeugs 1 um dieses herum erfassen. Jedoch existieren in der Umgebung des Fahrzeugs 1 Regionen, die durch die Kameras 5a bis 5d nicht erfasst werden können. Und zwar kann eine erste Blindregion 14 neben einem vorderen linken Eckbereich 15 des Kraftfahrzeugs 1 durch die Kameras 5a bis 5d nicht erfasst werden. Außerdem kann durch die Kameras 5a bis 5d auch eine zweite Blindregion 16 nicht erfasst werden, die sich neben einem vorderen rechten Eckbereich 17 des Kraftfahrzeugs 1 befindet. Es existieren außerdem Blindregionen 18, 19 neben einem hinteren linken Eckbereich 20 respektive einem hinteren rechten Eckbereich 21 des Kraftfahrzeugs 1.
  • Die Recheneinrichtung 4 kann die durch die Kameras 5a bis 5d erfassten Sensordaten verarbeiten. Wie bereits ausgeführt, existieren die Bilddaten zu den Erfassungsbereichen 10 bis 13, während zu den Blindregionen 14, 16, 18, 19 keine Bilddaten vorliegen. Die Recheneinrichtung 4 kann die Bilddaten zu einem Bild verarbeiten, welches eine Draufsicht auf die Umgebung 10 bis 13 des Kraftfahrzeugs 1 darstellt. Die Recheneinrichtung 4 kann also aus den Bilddaten ein Umgebungsbild erzeugen, welches eine Draufsicht auf die Erfassungsbereiche 10 bis 13 zeigt.
  • Wie bereits ausgeführt, ist in dem Speicher 7 ein Fahrzeugbild des Kraftfahrzeugs 1 abgespeichert. Auch dieses Fahrzeugbild zeigt das Kraftfahrzeug 1 aus einer Vogelperspektive; das Fahrzeugbild zeigt mit anderen Worten eine Draufsicht auf das Fahrzeug 1. Die Recheneinrichtung 4 kann aus dem Umgebungsbild und dem Fahrzeugbild ein Gesamtbild erzeugen, sodass in einem einzigen Gesamtbild sowohl die Umgebung 10 bis 13 als auch das Kraftfahrzeug 1 selbst aus einer Vogelperspektive dargestellt werden. Dieses Gesamtbild kann die Recheneinrichtung 4 auf der Anzeigeeinrichtung 3 anzeigen. Das so erzeugte Bild wird auf der Anzeigeeinrichtung 3 kontinuierlich angezeigt. Dies bedeutet, dass sich das Gesamtbild kontinuierlich an die Umgebung des Kraftfahrzeugs 1 anpasst. Die Bilddaten werden nämlich kontinuierlich durch die Kameras 5a bis 5d erfasst. In dem Gesamtbild wird also die jeweils aktuelle Umgebung 10 bis 13 angezeigt.
  • Das Gesamtbild zeigt also das Kraftfahrzeug 1 einerseits sowie seine Umgebung 10 bis 13 andererseits von oberhalb des Kraftfahrzeugs 1. Die virtuelle Blickrichtung kann hier beispielsweise 90° bezüglich der Erdoberfläche betragen bzw. mit der Fahrzeughochachse zusammenfallen.
  • Zum Fahrerassistenzsystem 2 gehören auch optional weitere Sensoren, nämlich beispielsweise Ultraschallsensoren 22, 23, 24, 25, 26, 27 und/oder Radargeräte 28, 29 und gegebenenfalls auch weitere Sensoren. Die Ultraschallsensoren 22 bis 27 können beispielsweise an den jeweiligen Stoßfängern oder an den Seitenflanken verteilt angeordnet sein. Die Radargeräte 28, 29 können in den jeweiligen Eckbereichen 20, 21 des Kraftfahrzeugs 1 angeordnet sein; sie können beispielsweise hinter dem hinteren Stoßfänger verbaut sein. Alle Sensoren – die Ultraschallsensoren 22 bis 27 und die Radargeräte 28, 29 – übermitteln ihre Sensordaten an die Recheneinrichtung 4, die dann diese Sensordaten verarbeitet.
  • Ein mögliches Gesamtbild 30, welches durch die Recheneinrichtung 4 aus den Bilddaten der Kameras 5a bis 5d und dem abgespeicherten Fahrzeugbild erzeugt werden kann, ist in 2 dargestellt. Dieses Gesamtbild 30 zeigt das Fahrzeugbild 1', wie auch die Umgebung des Kraftfahrzeugs 1. Die Umgebung kann beispielsweise bis zu einer Entfernung von 1 m oder 2 m oder 3 m oder 4 m oder 5 m vom Kraftfahrzeug 1 angezeigt werden. Wie aus 2 hervorgeht, beinhaltet das Gesamtbild 30 der Umgebung zugeordnete Blindregionen 14', 16', 18' und 19'. Zu diesen Blindregionen 14', 16', 18', 19' existieren keine Bilddaten, sodass diese Blindregionen beispielsweise schwarz dargestellt werden können.
  • Im Ausführungsbeispiel ist vorgesehen, dass die Blindregionen 14', 16', 18', 19' unter Berücksichtigung eines fahrzeugexternen Objekts dargestellt werden, welches beispielsweise anhand der folgenden Daten detektiert und verfolgt werden kann:
    • – der Bilddaten der Kameras 5a bis 5d und/oder
    • – der Sensordaten der Ultraschallsensoren 22 bis 27 und/oder
    • – der Sensordaten der Radargeräte 28, 29 und/oder
    • – der Sensordaten eines weiteren Sensors, insbesondere eines Laserscanners und/oder eines Infrarotsensors.
  • Es kann vorgesehen sein, dass ein fahrzeugexternes Objekt anhand der Bilddaten der Kameras 5a bis 5d detektiert und verfolgt wird und das Ergebnis dieser Detektion dann anhand der Sensordaten der Ultraschallsensoren 22 bis 27 und/oder der Radargeräte 28, 29 plausibilisiert wird.
  • Die Recheneinrichtung 4 kann also die jeweils augenblickliche relative Position eines Objekts bezüglich des Kraftfahrzeugs 1 bestimmen und die Blindregionen 14', 16', 18', 19' im Gesamtbild 30 unter Berücksichtigung des Objekts anzeigen. Folgende Ausführungsformen sind hier vorgesehen:
    Es kann diejenige Blindregion 14', 16', 18', 19' gegenüber anderen Blindregionen optisch, etwa durch eine entsprechende Farbgebung, hervorgehoben werden, welche dem detektierten Objekt am nächsten liegt. Wird beispielsweise ein Objekt im Überlappungsbereich der Erfassungsbereiche 10 und 12 – also links vor dem Kraftfahrzeug 1 – detektiert, so kann die vordere linke Blindregion 14' optisch hervorgehoben werden. Sie kann beispielsweise rot markiert werden, während die anderen Blindregionen 16', 18', 19' schwarz oder mit einer anderen Farbgebung dargestellt werden können.
  • Die Recheneinrichtung 4 kann auch eine Zeit bis zur Kollision als Gefahrengrad bestimmen, also diejenige Zeit, die das Objekt voraussichtlich zum Erreichen des Kraftfahrzeugs 1 benötigt. Diese Zeit bis zur Kollision kann in Abhängigkeit von einer relativen Geschwindigkeit, einer Entfernung des Objekts, wie auch seiner relativen Bewegungsrichtung bezüglich des Kraftfahrzeugs 1 berechnet werden. In Abhängigkeit von der aktuellen Zeit bis zur Kollision kann dann die dem Objekt am nächsten liegende Blindregion 14', 16', 18', 19' mit unterschiedlichen Farbgebungen dargestellt werden. Ist die Zeit bis zur Kollision relativ hoch, so kann die entsprechende Blindregion 14', 16', 18', 19' grün dargestellt werden. Ist die Zeit bis zur Kollision relativ gering, so kann diese Blindregion 14', 16', 18', 19' beispielsweise rot dargestellt werden. Bei einer mittleren Zeit bis zur Kollision kann eine gelbe Markierung der Blindregion 14', 16', 18', 19' gewählt werden.
  • Dabei können auch solche Objekte berücksichtigt werden, die sich entweder außerhalb des abgebildeten Umgebungsbereichs oder aber bereits innerhalb der Blindregionen 14, 16, 18, 19 befinden. Dies ist deshalb möglich, weil die Objekte durch die Recheneinrichtung 4 verfolgt werden bzw. die jeweils augenblickliche Position der Objekte bezüglich des Kraftfahrzeugs 1 bekannt ist.
  • Alternativ zur Berechnung der „Zeit bis zur Kollision” kann die Farbgebung der Blindregionen 14', 16', 18', 19' auch alleine in Abhängigkeit von der aktuellen Entfernung des Objektes und/oder einer relativen Geschwindigkeit und/oder der relativen Bewegungsrichtung variiert werden.
  • Es kann auch vorgesehen sein, dass die im Gesamtbild 30 dargestellten Blindregionen 14', 16', 18', 19' auch unter Berücksichtigung des aktuellen Betriebszustands einer Komponente des Kraftfahrzeugs 1 dargestellt werden. Die Recheneinrichtung 4 kann beispielsweise Informationen über den jeweils aktuellen Betriebszustand eines linken und eines rechten Blinkers des Kraftfahrzeugs 1 und/oder einer hinteren Bremsleuchte empfangen. Es ist dann möglich, den jeweils aktuellen Betriebszustand der Blinker und/oder der Bremsleuchte mithilfe des Gesamtbilds 30 auf der Anzeigeeinrichtung 3 anzuzeigen. Wird beispielsweise der linke Blinker aktiviert, so können die linken Blindregionen 14', 18' auch blinken. Dies kann so aussehen, dass zwischen zwei verschiedenen Farbgebungen (beispielsweise gelb und weiß) der Blindregionen 14', 18' hin- und hergeschaltet wird. Wird hingegen der rechte Blinker aktiviert, so können die rechten Blindregionen 16', 19' blinkend dargestellt werden.
  • Wird die Bremse des Kraftfahrzeugs 1 und somit auch die Bremsleuchte aktiviert, so können die hinteren Blindregionen 18', 19' gegenüber den vorderen optisch hervorgehoben werden. Beispielsweise können in diesem Falle die hinteren Blindregionen 18', 19' rot dargestellt werden.
  • Diese Anzeige des aktuellen Betriebszustands der Komponenten des Kraftfahrzeugs 1 kann beispielsweise dann vorgenommen werden, wenn keine fahrzeugexternen Objekte in der Umgebung 10 bis 13 vorhanden sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1179958 A1 [0005]

Claims (16)

  1. Verfahren zum Anzeigen von Bildern (30) auf einer Anzeigeeinrichtung (3) in einem Kraftfahrzeug (1), mit den Schritten: – Bereitstellen eines Fahrzeugbildes (1') zumindest eines Bereichs des Kraftfahrzeugs (1), – Erfassen eines Bildes einer Umgebung (10 bis 13) des Kraftfahrzeugs (1) mit zumindest einer Kamera (5a bis 5d) des Kraftfahrzeugs (1) und – Anzeigen eines Gesamtbildes (30) auf der Anzeigeeinrichtung (3), das aus dem Fahrzeugbild (1') und dem Bild der Umgebung (10 bis 13) gebildet wird, wobei das Gesamtbild (30) zumindest eine der Umgebung (10 bis 13) zugeordnete Blindregion (14', 16', 18', 19') beinhaltet, zu welcher keine Bilddaten vorliegen, gekennzeichnet durch – Detektieren eines fahrzeugexternen Objektes anhand von Sensordaten zumindest eines Sensors (5a bis 5d, 22 bis 27, 28, 29) des Kraftfahrzeugs (1) und – Darstellen der Blindregion (14', 16', 18', 19') in dem Gesamtbild (30) unter Berücksichtigung des detektierten Objekts.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Fahrzeugbild (1') das gesamte Kraftfahrzeug (1) zeigt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Fahrzeugbild (1') eine Draufsicht auf den zumindest einen Bereich des Kraftfahrzeugs (1), insbesondere das gesamte Kraftfahrzeug (1), darstellt, und dass Kameradaten der zumindest einen Kamera (5a bis 5d) zu einem Bild verarbeitet werden, welches eine Draufsicht auf die Umgebung (10 bis 13) des Kraftfahrzeugs (1) darstellt, wobei in dem Gesamtbild (30) die Draufsicht auf den zumindest einen Bereich des Kraftfahrzeugs (1) und auf die Umgebung (10 bis 13) dargestellt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren des Objektes anhand von Bilddaten der zumindest einen Kamera (5a bis 5d) als Sensordaten erfolgt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren des Objektes anhand von Sensordaten eines von der Kamera (5a bis 5d) verschiedenen Sensors (22 bis 27, 28, 29), insbesondere eines Ultraschallsensors (22 bis 27) und/oder eines Radargerätes (28, 29) und/oder eines Laserscanners und/oder eines Infrarotsensors, erfolgt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass unter Berücksichtigung des Objektes eine Farbgebung der Blindregion (14', 16', 18', 19') im Gesamtbild (30) eingestellt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch – Bestimmen eines Gefahrengrades als Maß für die Gefahr einer Kollision zwischen dem Kraftfahrzeug (1) und dem detektierten Objekt und – Darstellen der Blindregion (14', 16', 18', 19') abhängig von dem Gefahrengrad.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Gefahrengrad unter Berücksichtigung einer relativen Geschwindigkeit des Objektes bezüglich des Kraftfahrzeugs (1) und/oder unter Berücksichtigung einer Entfernung des Objektes vom Kraftfahrzeug (1) und/oder unter Berücksichtigung einer relativen Bewegungsrichtung des Objektes bezüglich des Kraftfahrzeugs (1) bestimmt wird.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass in Abhängigkeit von dem Gefahrengrad eine Farbgebung der Blindregion (14', 16', 18', 19') im Gesamtbild (30) variiert wird.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass als Gefahrengrad eine Zeit bis zur Kollision bestimmt wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch – Verfolgen des Objektes anhand der Sensordaten und – Darstellen der Blindregion (14', 16', 18', 19') in dem Gesamtbild (30) unter Berücksichtigung des detektierten Objekts auch dann, wenn das Objekt in die Blindregion (14', 16', 18', 19') gelangt.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Blindregion (14', 16', 18', 19') unter Berücksichtigung eines aktuellen Betriebszustandes zumindest einer Komponente des Kraftfahrzeugs (1), insbesondere eines Blinkers und/oder einer Bremsleuchte, dargestellt wird.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das Gesamtbild (30) eine linke Blindregion (14', 18') und eine rechte Blindregion (16', 19') beinhaltet, zu denen keine Bilddaten vorliegen, wobei bei einem aktivierten linken Blinker die linke Blindregion (14', 18') gegenüber der rechten Blindregion (16', 19') hervorgehoben wird und bei einem aktivierten rechten Blinker die rechte Blindregion (16', 19') gegenüber der linken Blindregion (14', 18') hervorgehoben wird.
  14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass das Gesamtbild (30) eine hinter dem Fahrzeugbild (1') angeordnete Blindregion (18', 19') beinhaltet, zu welcher keine Bilddaten vorliegen, wobei beim Aktivieren einer Bremsleuchte des Kraftfahrzeugs (1) die Darstellung dieser Blindregion (18, 19') verändert wird.
  15. Fahrerassistenzsystem (2) zum Anzeigen von Bildern (30), für ein Kraftfahrzeug (1), mit: – zumindest einer Kamera (5a bis 5d) zum Erfassen eines Bildes einer Umgebung (10 bis 13) des Kraftfahrzeugs (1), – einer Recheneinrichtung, in welcher ein Fahrzeugbild (1') zumindest eines Bereichs des Kraftfahrzeugs (1) abgelegt ist und welche dazu ausgelegt ist, aus dem Fahrzeugbild (1') und dem Bild der Umgebung (10 bis 13) ein Gesamtbild (30) zu erzeugen, welches zumindest eine der Umgebung (10 bis 13) zugeordnete Blindregion (14', 16', 18', 19') beinhaltet, zu welcher keine Bilddaten vorliegen, und – einer Anzeigeeinrichtung (3) zum Anzeigen des Gesamtbildes (30), dadurch gekennzeichnet, dass die Recheneinrichtung dazu ausgelegt ist, die Blindregion (14', 16', 18', 19') in dem Gesamtbild (30) unter Berücksichtigung eines anhand von Sensordaten zumindest eines Sensors (5a bis 5d, 22 bis 27, 28, 29) detektierten Objektes darzustellen.
  16. Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 15.
DE102011010860A 2011-02-10 2011-02-10 Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug Withdrawn DE102011010860A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102011010860A DE102011010860A1 (de) 2011-02-10 2011-02-10 Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
EP12152028.2A EP2487666B1 (de) 2011-02-10 2012-01-23 Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011010860A DE102011010860A1 (de) 2011-02-10 2011-02-10 Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102011010860A1 true DE102011010860A1 (de) 2012-08-16

Family

ID=45560702

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011010860A Withdrawn DE102011010860A1 (de) 2011-02-10 2011-02-10 Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug

Country Status (2)

Country Link
EP (1) EP2487666B1 (de)
DE (1) DE102011010860A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013010233A1 (de) 2013-06-18 2014-12-18 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug
DE102015002145A1 (de) * 2015-02-18 2016-08-18 Audi Ag Verfahren zum Betrieb eines Fahrerinformationssystems in einem Kraftfahrzeug und Kraftfahrzeug
EP3076377A1 (de) * 2015-03-31 2016-10-05 Valeo Schalter und Sensoren GmbH Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
WO2016156099A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum verarbeiten von informationen in einer sensoreinrichtung eines kraftfahrzeugs in einer tendenzanalyse, verfahren zum erzeugen einer umgebungsbereichskarte, computerprogrammprodukt, verarbeitungseinrichtung und kraftfahrzeug
DE102022207932A1 (de) 2022-08-01 2024-02-01 Volkswagen Aktiengesellschaft Sicherheitssystem zum Darstellen der Umgebung eines Kraftfahrzeugs, Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs sowie ein Kraftfahrzeug

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9902322B2 (en) 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts
CN109455177B (zh) * 2018-10-25 2020-12-15 广州小鹏汽车科技有限公司 一种自动泊车的安全距离警示方法及车载终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958A1 (de) 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
DE102004046101B4 (de) * 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102006040605A1 (de) * 2005-09-12 2007-05-03 Aisin AW Co., Ltd., Anjo Einparkhilfeverfahren und Einparkhilfevorrichtung
DE102006049249A1 (de) * 2006-10-19 2008-04-30 Robert Bosch Gmbh Verfahren zum Informieren des Fahrers eines Kraftfahrzeugs
DE102008019461A1 (de) * 2008-04-18 2009-10-22 Daimler Ag Vorrichtung und Verfahren zur Anzeige von Informationen in einem Fahrzeug
DE102008064361A1 (de) * 2008-12-22 2010-06-24 Volkswagen Ag Verfahren und Vorrichtung zur Visualisierung der direkten Umgebung eines Fahrzeugs
DE102009016192A1 (de) * 2009-04-03 2010-10-14 Daimler Ag Verfahren und Vorrichtung zur Fahrerassistenz für ein Fahrzeug mit einer Anzahl von Abstandssensoren und einer Anzeigeeinheit
EP0952459B1 (de) * 1998-04-23 2011-05-25 Volkswagen Aktiengesellschaft Vorrichtung zur Objekterfassung für Kraftfahrzeuge

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
DE102010015079A1 (de) * 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0952459B1 (de) * 1998-04-23 2011-05-25 Volkswagen Aktiengesellschaft Vorrichtung zur Objekterfassung für Kraftfahrzeuge
EP1179958A1 (de) 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
DE102004046101B4 (de) * 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102006040605A1 (de) * 2005-09-12 2007-05-03 Aisin AW Co., Ltd., Anjo Einparkhilfeverfahren und Einparkhilfevorrichtung
DE102006049249A1 (de) * 2006-10-19 2008-04-30 Robert Bosch Gmbh Verfahren zum Informieren des Fahrers eines Kraftfahrzeugs
DE102008019461A1 (de) * 2008-04-18 2009-10-22 Daimler Ag Vorrichtung und Verfahren zur Anzeige von Informationen in einem Fahrzeug
DE102008064361A1 (de) * 2008-12-22 2010-06-24 Volkswagen Ag Verfahren und Vorrichtung zur Visualisierung der direkten Umgebung eines Fahrzeugs
DE102009016192A1 (de) * 2009-04-03 2010-10-14 Daimler Ag Verfahren und Vorrichtung zur Fahrerassistenz für ein Fahrzeug mit einer Anzahl von Abstandssensoren und einer Anzeigeeinheit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013010233A1 (de) 2013-06-18 2014-12-18 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug
DE102013010233B4 (de) 2013-06-18 2018-08-30 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug und Anzeigesystem für ein Fahrzeug
DE102015002145A1 (de) * 2015-02-18 2016-08-18 Audi Ag Verfahren zum Betrieb eines Fahrerinformationssystems in einem Kraftfahrzeug und Kraftfahrzeug
EP3076377A1 (de) * 2015-03-31 2016-10-05 Valeo Schalter und Sensoren GmbH Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
WO2016156099A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum verarbeiten von informationen in einer sensoreinrichtung eines kraftfahrzeugs in einer tendenzanalyse, verfahren zum erzeugen einer umgebungsbereichskarte, computerprogrammprodukt, verarbeitungseinrichtung und kraftfahrzeug
DE102022207932A1 (de) 2022-08-01 2024-02-01 Volkswagen Aktiengesellschaft Sicherheitssystem zum Darstellen der Umgebung eines Kraftfahrzeugs, Verfahren zum Darstellen der Umgebung eines Kraftfahrzeugs sowie ein Kraftfahrzeug

Also Published As

Publication number Publication date
EP2487666B1 (de) 2019-12-18
EP2487666A3 (de) 2012-09-05
EP2487666A2 (de) 2012-08-15

Similar Documents

Publication Publication Date Title
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102017201717A1 (de) Visuelles rückfahrsystem für ein fahrzeug und verfahren zur nutzung desselben
EP2559236B1 (de) Verfahren zum anzeigen eines bildes auf einer anzeigeeinrichtung in einem fahrzeug, fahrerassistenzsystem und fahrzeug
DE102017100004A1 (de) Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102012022336A1 (de) Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
DE102008003662A1 (de) Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
DE102010034139A1 (de) Verfahren zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102010052304A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken aus einer Parklücke und Kraftfahrzeug
DE102016116859A1 (de) Sensoranordnung für ein autonom betriebenes Nutzfahrzeug und ein Verfahren zur Rundumbilderfassung
DE102009029439A1 (de) Verfahren und Vorrichtung zur Darstellung von Hindernissen in einem Einparkhilfesystem von Kraftfahrzeugen
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102011011048A1 (de) Überwachung des Nahbereichs rund um ein Nutzfahrzeug
DE102008046545A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Anordnung zur Überwachung einer Umgebung eines Fahrzeugs
DE102013019371A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102011121473A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
DE102013214305A1 (de) Verfahren zur Vermeidung einer Kollision eines Fahrzeuges mit mindestens einem Objekt, Fahrerassistenzsystem und Fahrzeug
EP2996327B1 (de) Surround-view-system für fahrzeuge mit anbaugeräten
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102010033786A1 (de) Verfahren zur Erfassung und Anzeige seitlich neben und seitlich hinter einem Fahrzeug befindlicher Bereiche und Fahrzeug mit mehreren Bilderfassungseinheiten zur Erfassung seitlich neben und seitlich hinter dem Fahrzeug befindlicher Bereiche
DE102011116771A1 (de) Verfahren zum Anzeigen von Bildinformationen auf einer Anzeigeeinheit eines Fahrzeugs sowie Fahrerassistenzeinrichtung zum Durchführen eines derartigen Verfahrens
DE102013010233A1 (de) Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination