Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung und
Fahrerassistenzsystem
Die Erfindung betrifft ein Verfahren zum Anzeigen von Bildern auf einer
Anzeigeeinrichtung eines Fahrerassistenzsystems in einem Kraftfahrzeug. Die Erfindung betrifft auch ein Fahrerassistenzsystem für ein Kraftfahrzeug; das
Fahrerassistenzsystem dient zum Durchführen des Verfahrens.
Anzeigeeinrichtungen für Kraftfahrzeuge sind aus dem Stand der Technik in vielfältiger Ausgestaltung bekannt. Es werden bekanntlich Displays eingesetzt; es können aber auch Bildprojektoren (so genannte Head-up-Displays) verwendet werden, mit denen Bilder auf eine Windschutzscheibe des Kraftfahrzeugs projiziert werden können.
Es ist auch Stand der Technik, optische Kameras am Kraftfahrzeug einzusetzen, die eine Umgebung des Kraftfahrzeugs erfassen. Anhand der Bilddaten der Kameras kann dann ein Umgebungsbild erzeugt werden, welches das Kraftfahrzeug sowie die
Umgebung aus einer Vogelperspektive (Bird View) zeigt. Für eine solche perspektivische Darstellung werden die Bilddaten aller Kameras - z.B. Bilddaten von zwei, drei oder vier Kameras - gemischt und zusammen verarbeitet. Ein solches Umgebungsbild kann dann auf der Anzeigeeinrichtung dargestellt werden. Anhand eines derartigen
Umgebungsbildes kann der Fahrer dann Rückschlüsse auf die Abstände zwischen dem Kraftfahrzeug und in der Umgebung befindlichen Objekten ziehen. Es können also Kollisionen zwischen dem Kraftfahrzeug und fahrzeugexternen Objekten vermieden werden.
Das Interesse gilt vorliegend insbesondere einem Umgebungsbild, welches anhand von Bilddaten zumindest einer Kamera erzeugt wird und aus einer Vogelperspektive einen Umgebungsbereich neben dem Kraftfahrzeug und vorzugsweise auch zumindest einen Bereich des Kraftfahrzeugs zeigt. Auf diese Weise kann der Umgebungsbereich des Kraftfahrzeugs auf der Anzeigeeinrichtung realitätsgetreu abgebildet werden. Jedoch kann ein solches Umgebungsbild auch anhand von Sensordaten anderer Sensoren erzeugt werden. Beispielsweise können Ultraschalldaten eines Ultraschallsensors zu einem Umgebungsbild verarbeitet werden, welches dann den Umgebungsbereich des Kraftfahrzeugs in schematischer Darstellung zeigt, nämlich beispielsweise mithilfe von
schematischen Symbolen beziehungsweise mithilfe von Grundrissen. In gleicher weise können auch Radardaten eines Radargerätes sowie Daten anderer Sensoren verarbeitet werden.
Au ßerdem ist bekannt, einen Navigationsempfänger (etwa einen GPS-Empfänger) zum Zwecke der Navigation zu verwenden. Ein solcher Navigationsempfänger empfängt Navigationsdaten (GPS-Daten), und das Fahrerassistenzsystem kann anhand der Navigationsdaten die jeweils augenblickliche globale Position des Kraftfahrzeugs bestimmen. Es kann dann ein schematisches Kartenbild auf der Anzeigeeinrichtung dargestellt werden, welches in schematischer Darstellung das Kraftfahrzeug sowie seine Umgebung zeigt. Ein solches Kartenbild wird also anhand der Navigationsdaten erzeugt, nämlich in Abhängigkeit von der aktuellen globalen Position des Kraftfahrzeugs, derart, dass die momentane globale Position und die Umgebung des Kraftfahrzeugs auf einer Karte gezeigt werden. Ein derartiges Kartenbild wird aus zuvor gespeicherten
Kartendaten erzeugt. Diese Kartendaten können entweder in einem Speicher des Fahrerassistenzsystems abgelegt sein oder aber online zur Verfügung stehen, etwa auf einem Host-Server. Ein aus den Kartendaten erzeugtes Bild entspricht quasi einem Bild, wie es aus der Anwendung„Google Maps" (www.maps.QOoqie.con';) oder aber aus „Google Earth" bekannt ist. Prinzipiell kann dieses Kartenbild auch auf echten optischen Bilddaten beruhen, nämlich auf Satellitenbildern. Diese Daten sind jedoch vorgespeichert und werden nicht wie die oben genannten Bilddaten der am Kraftfahrzeug montierten Kameras in Echtzeit aufgenommen.
Zum Zwecke der Navigation werden also auf der Anzeigeeinrichtung Kartenbilder angezeigt, die auf gespeicherten Kartendaten beruhen und welche unter
Berücksichtigung der jeweils augenblicklichen globalen Position des Kraftfahrzeugs erzeugt werden. Dieses Kartenbild beinhaltet also keine echten Informationen über die Umgebung des Kraftfahrzeugs, insbesondere keine Informationen über in der
Umgebung befindliche Objekte und Hindernisse. Es wird in der Regel lediglich die Straße und gegebenenfalls das Kraftfahrzeug selbst angezeigt. Auch fehlt es in der Regel an der erforderlichen Auflösung.
Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung der Fahrer besonders zuverlässig beim Führen des Kraftfahrzeugs unterstützt werden kann, nämlich insbesondere mithilfe einer einzigen Anzeigeeinrichtung.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1 gelöst, wie auch durch ein Fahrerassistenzsystem mit den Merkmalen des Patentanspruchs 16 sowie durch ein Kraftfahrzeug mit den Merkmalen des
Patentanspruchs 17. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung.
Ein erfindungsgemäßes Verfahren ist zum Anzeigen von Bildern auf einer
Anzeigeeinrichtung eines Fahrerassistenzsystems in einem Kraftfahrzeug ausgelegt. Es werden Navigationsdaten durch das Fahrerassistenzsystem empfangen. Zumindest ein Sensor des Fahrerassistenzsystems erfasst Sensordaten über eine Umgebung des Kraftfahrzeugs. Die erfassten Sensordaten werden zu einem Umgebungsbild verarbeitet, welches zumindest einen Umgebungsbereich neben dem Kraftfahrzeug zeigt. Es wird ein Kartenbild auf der Anzeigeeinrichtung angezeigt, welches unter Berücksichtigung der Navigationsdaten aus gespeicherten Kartendaten erzeugt wird. Das Kartenbild wird auf der Anzeigeeinrichtung vergrößert (eingezoomt), und nach Erreichen eines
vorbestimmten Abbildungsmaßstabes (Zoomfaktors) des Kartenbildes wird von dem Kartenbild zu dem Umgebungsbild gewechselt.
Ein Grundgedanken der vorliegenden Erfindung besteht somit darin, von dem
(schematischen) Kartenbild zu dem (echten) Umgebungsbild - dieses wird anhand der Sensordaten des Sensors erzeugt - dann zu wechseln, wenn beim Vergrößern des Kartenbildes ein vorbestimmter Abbildungsmaßstab erreicht bzw. überschritten wird. Die Erfindung begegnet somit dem Umstand, dass das Kartenbild - dieses wird aus vorab gespeicherten Kartendaten erzeugt - nur eine begrenzte Auflösung bietet und dazu keine tatsächlichen Informationen über die Umgebung des Kraftfahrzeugs beinhaltet. Wird nun das Kartenbild vergrößert bzw. eingezoomt, so ist die Auflösung ab einem bestimmten Abbildungsmaßstab so gering, dass dem Fahrer überhaupt keine
Informationen vermittelt werden können. Gerade hier schafft die vorliegende Erfindung eine Abhilfe, indem nach Erreichen des vorgegebenen Abbildungsmaßstabs bzw. einer vorgegebenen Auflösung das Kartenbild zumindest bereichsweise durch das
Umgebungsbild ersetzt wird. Es wird also ab einem bestimmten Abbildungsmaßstab nicht mehr das schematische Kartenbild dargestellt, sondern das Umgebungsbild, welches anhand der echten Sensordaten des zumindest einen Sensors erzeugt wird und somit tatsächliche Umgebung des Kraftfahrzeugs abbildet beziehungsweise
Informationen über die reale Umgebung beinhaltet. Der Fahrer kann dann beispielsweise Rückschlüsse auf jeweilige Abstände zwischen dem Kraftfahrzeug und in der Umgebung
vorhandenen fahrzeugexternen Objekten ziehen und sich über die reale Umgebung des Kraftfahrzeugs informieren.
Auch das Umgebungsbild kann zum Zwecke der Navigation dienen, nämlich nach dem Wechsel der Bilder. Dies bedeutet, dass die Funktion des Navigierens durch das Wechseln der Bilder nicht beeinträchtigt wird, sondern es können dem Fahrer nach wie vor Navigationshinweise mitgeteilt werden. Diese Hinweise können auch in das
Umgebungsbild eingeblendet werden.
Die Sensordaten beinhalten vorzugsweise Bilddaten, welche durch zumindest eine optische Erfassungseinrichtung als einen Sensor erfasst werden. Die optische
Erfassungseinrichtung ist bevorzugt eine Kamera, nämlich insbesondere eine solche, die Licht in einem vom Menschen wahrnehmbaren Spektralbereich detektieren kann. Dann können die Sensordaten - Bilddaten - zu einem solchen Umgebungsbild verarbeitet werden, welches eine perspektivische Ansicht des Umgebungsbereichs und
vorzugsweise auch zumindest eines Bereichs des Kraftfahrzeugs zeigt. Bei dieser Ausführungsform kann dem Fahrer auf der Anzeigeeinrichtung also ein echtes Bild der Umgebung angezeigt werden, welches anhand von echten Bilddaten einer Kamera erzeugt wird. Dies ist besonders benutzerfreundlich; denn der Fahrer bekommt auf seiner Anzeigeeinrichtung die reale Umgebung des Kraftfahrzeugs abgebildet. Er kann auf der Anzeigeeinrichtung quasi die reale Umgebung des Kraftfahrzeugs betrachten. Anhand der Bilddaten kann nämlich ein Umgebungsbild erzeugt werden, welches die Umgebung des Kraftfahrzeugs realitätsgetreu, und nicht nur schematisch abbildet. Der Einsatz einer optischen Erfassungseinrichtung, insbesondere einer Kamera, hat den Vorteil, dass das Umgebungsbild mit einer entsprechend hohen Auflösung erzeugt werden kann. Das Umgebungsbild kann dann auf der Anzeigeeinrichtung auch bei einem relativ großen Abbildungsmaßstab mit guter Qualität dargestellt werden.
Ergänzend oder alternativ können die Sensordaten auch Daten anderer Sensoren umfassen. Zum Beispiel können die Sensordaten auch Ultraschalldaten zumindest eines Ultraschallsensors und/oder Radardaten zumindest eines Radargerätes und/oder Laserdaten zumindest eines Laserscanners beinhalten. Anhand dieser Sensordaten können fahrzeugexterne Objekte in der Umgebung des Kraftfahrzeugs detektiert werden, und in dem Umgebungsbild können dann schematische Symbole dargestellt werden, welche die detektierten Objekte symbolisieren. Der Einsatz dieser Sensoren hat den Vorteil, dass die Verarbeitung der Sensordaten relativ aufwandsarm durchgeführt werden kann und die fahrzeugexternen Objekte dennoch auf der Anzeigeeinrichtung
positionsgetreu und maßstabsgetreu bezüglich eines Abbildes des Kraftfahrzeugs dargestellt werden können, nämlich mithilfe von schematischen Symbolen oder
Grundrissen.
Im Prinzip kann also das Umgebungsbild aus gemischten Bilddaten einer Kamera und Sensordaten zumindest eines anderen Sensors, zum Beispiel eines Abstandssensors, erzeugt werden. Ein solches Umgebungsbild kann somit sowohl ein optisches Abbild der Umgebung - dieses Abbild beruht dann auf den Bilddaten - als auch schematische Symbole beinhalten, welche in Abhängigkeit von den Sensordaten eines
Abstandssensors erzeugt werden.
Nach Erreichen des vorbestimmten Abbildungsmaßstabes wird das Kartenbild zu dem Umgebungsbild gewechselt. Dies bedeutet insbesondere, dass zumindest ein Bereich des Kartenbildes durch einen entsprechenden Bereich des Umgebungsbildes ersetzt wird. Es erweist sich jedoch als besonders vorteilhaft, wenn das gesamte Kartenbild zu dem gesamten Umgebungsbild gewechselt wird.
Unter dem Begriff „Vergrößern" des Bildes wird vorliegend ein„Einzoomen" des Bildes verstanden. Der Begriff „Abbildungsmaßstab" definiert ein Verhältnis zwischen der Größe der optischen Abbildung eines Gegenstandes zu der realen Größe dieses Gegenstandes. Ein Abbildungsmaßstab ist also im Wesentlichen ein Zoomfaktor.
In einer Ausführungsform ist vorgesehen, dass unmittelbar nach dem Wechseln von dem Kartenbild zu dem Umgebungsbild das Umgebungsbild den Umgebungsbereich, und vorzugsweise auch den zumindest einen Bereich des Kraftfahrzeugs, aus derselben Blickrichtung und/oder demselben Blickpunkt zeigt, wie das Kartenbild unmittelbar vor dem Wechseln der Bilder. Unter einer„Blickrichtung" wird hier diejenige Richtung verstanden, aus welcher ein virtueller Betrachter beim Betrachten des Bildes blickt. Es wird somit ein kontinuierlicher bzw. ein stetiger Übergang vom Kartenbild zum
Umgebungsbild erreicht. Hierdurch wird auch sichergestellt, dass nach dem Wechseln der Bilder zumindest überwiegend derselbe Umgebungsbereich des Kraftfahrzeugs abgebildet wird, wie vor dem Wechseln der Bilder. Vorzugsweise ist der
Abbildungsmaßstab unmittelbar vor dem Wechseln mit einer Genauigkeit von +/- 5 % gleich dem Abbildungsmaßstab unmittelbar nach dem Wechseln. Mit anderen Worten ist der Abbildungsmaßstab des Umgebungsbildes unmittelbar nach dem Wechseln vorzugsweise im Wesentlichen gleich dem Abbildungsmaßstab des Kartenbildes unmittelbar vor dem Wechseln. Auf diesem Wege gelingt es, nach dem Wechseln der
Bilder im Wesentlichen denselben Umgebungsbereich wie vor dem Wechseln abzubilden, so dass keine Umbrüche zwischen den Bildern wahrgenommen werden.
Bevorzugt zeigt das Umgebungsbild von oberhalb des Kraftfahrzeugs eine Draufsicht auf den zumindest einen Bereich des Kraftfahrzeugs und den Umgebungsbereich. Das Umgebungsbild zeigt vorzugsweise eine Draufsicht auf das gesamte Kraftfahrzeug und den Umgebungsbereich um das Kraftfahrzeug herum. Dann kann der Fahrer besonders leicht auf die jeweiligen Abstände zwischen dem Kraftfahrzeug und allen
fahrzeugexternen Objekten um das Fahrzeug herum zurück schließen, nämlich anhand des Umgebungsbildes.
Die Sensordaten können beispielsweise fortlaufend erfasst werden, und das
Umgebungsbild kann aus den Sensordaten fortlaufend jeweils neu erzeugt werden. Dies bedeutet, dass das Umgebungsbild die Umgebung des Kraftfahrzeugs quasi in Echtzeit abbilden kann.
Im Umgebungsbild wird das Kraftfahrzeug vorzugsweise ortsfest bzw. stationär auf der Anzeigeeinrichtung gezeigt, während das Abbild des Umgebungsbereichs bevorzugt anhand der Sensordaten jeweils neu erzeugt bzw. angepasst wird. Das Abbild des Kraftfahrzeugs kann auch in einer Speichereinrichtung des Fahrerassistenzsystems vorgespeichert sein. Diese Ausführungsform beruht auf der Tatsache, dass der zumindest eine Sensor in der Regel an einer äu ßeren Oberfläche des Kraftfahrzeugs platziert wird, nämlich beispielsweise an einem Außenbügel oder an einem Stoßfänger, so dass dieser Sensor den Umgebungsbereich des Kraftfahrzeugs, nicht jedoch das Kraftfahrzeug selbst erfassen kann. Das Abbild des Kraftfahrzeugs kann somit in Form von Daten in der Speichereinrichtung abgelegt und dann um das Abbild des
Umgebungsbereichs ergänzt werden - nämlich wenn die Sensordaten zur Umgebung vorliegen.
Anhand eines Vergleichs der Navigationsdaten mit den Sensordaten kann auch eine Kalibrierung vorgenommen werden. Und zwar kann die globale Position des
Kraftfahrzeugs anhand der Sensordaten korrigiert bzw. auf genaues Maß gebracht werden. Gleichfalls kann auch - ergänzend oder alternativ - eine Blickrichtung, aus welcher das Umgebungsbild den Umgebungsbereich zeigt, anhand der
Navigationsdaten korrigiert werden.
Also erfolgt das Wechseln zwischen den Bildern nach Erreichen eines vorbestimmten Abbildungsmaßstabs des Kartenbildes während einer Vergrößerung des Kartenbildes auf der Anzeigeeinrichtung. Das Vergrößern des Kartenbildes und hierdurch das
Wechseln zwischen den Bildern können beispielsweise aufgrund einer Eingabe erfolgen, welche eine Bedienperson an einer Eingabeeinrichtung des Fahrerassistenzsystems vornimmt. Beispielsweise kann eine solche Eingabe an einer Bedieneinrichtung vorgenommen werden. Das Fahrerassistenzsystem empfängt dann diese Eingabe und vergrößert aufgrund dieser Eingabe das angezeigte Kartenbild solange, bis der vorbestimmte Abbildungsmaßstab erreicht wird. Wird dieser erreicht, so wechselt das Fahrerassistenzsystem von dem Kartenbild zu dem Umgebungsbild. Diese
Ausführungsform hat den Vorteil, dass der Fahrer selbst den Abbildungsmaßstab einstellen kann und somit auch selbst über den Wechsel der Bilder entscheiden kann, nämlich durch Vornahme einer Eingabe. Mit dieser Eingabe wird also quasi eine Angabe zu dem Abbildungsmaßstab bzw. zum Zoomfaktor gemacht.
Anhand der Navigationsdaten kann das Fahrerassistenzsystem auch feststellen, dass das Kraftfahrzeug an einem Zielort angekommen ist bzw. in einen vorbestimmten Bereich um dieses Zielort gelangt ist. Wird durch das Fahrerassistenzsystem festgestellt, dass das Kraftfahrzeug an dem Zielort angekommen ist, so können das Vergrößern des Kartenbildes und hierdurch das Wechseln der Bilder durch das Fahrerassistenzsystem automatisch aufgrund dieser Feststellung vorgenommen werden. Dies bedeutet, dass von dem Kartenbild zum Umgebungsbild dann gewechselt wird, wenn das Kraftfahrzeug an einem vorgegebenen Zielort - dieser kann durch den Fahrer vorgegeben werden - ankommt. Es ist nämlich in der Regel erst an einem Zielort erforderlich, mit dem
Kraftfahrzeug - oft auch in sehr engen Verhältnissen - zu rangieren. Gerade dann ist es für den Fahrer sehr vorteilhaft, wenn das Umgebungsbild mit echten Informationen über den Umgebungsbereich auf der Anzeigeeinrichtung angezeigt wird. Der Fahrer kann sich dann an dem Zielort beim Rangieren des Kraftfahrzeugs mit dem Umgebungsbild behelfen; insbesondere kann er anhand des Umgebungsbildes die Hindernisse verfolgen oder aber Rückschlüsse auf die Abstände zwischen den Hindernissen und dem
Kraftfahrzeug ziehen.
Durch das Fahrerassistenzsystem kann auch ein fahrzeugexternes Objekt in der Umgebung des Kraftfahrzeugs detektiert werden, nämlich mithilfe einer
Sensoreinrichtung des Fahrerassistenzsystems. Diese Sensoreinrichtung kann beispielsweise zumindest einen Abstandssensor, insbesondere einen Ultraschallsensor, umfassen. Sie kann auch den zumindest einen Sensor umfassen, mittels welchem die
Sensordaten zur Erzeugung des Umgebungsbildes erfasst werden. Dann können das Vergrößern des Kartenbildes und hierdurch das Wechseln von dem Kartenbild zu dem Umgebungsbild aufgrund der Anwesenheit eines Objektes in der Umgebung des
Kraftfahrzeugs erfolgen, nämlich automatisch durch das Fahrerassistenzsystem. Auf diese Weise wird das tatsächliche Umgebungsbild dann eingeblendet, wenn eine Kollision zwischen dem Kraftfahrzeug und dem Objekt einzutreten droht. Der Fahrer kann dann das fahrzeugexterne Objekt auf der Anzeigeeinrichtung sehen und das Kraftfahrzeug entsprechend derart rangieren, dass die Kollision vermieden wird. Dies kann beispielsweise so aussehen, dass von dem Kartenbild zu dem Umgebungsbild dann gewechselt wird, wenn ein Abstand zwischen dem detektierten Objekt und dem Kraftfahrzeug einen vorgegebenen Grenzwert unterschreitet. Diese Ausführungsform sorgt für die Sicherheit der Fahrzeuginsassen; denn der Fahrer bekommt das
Umgebungsbild dann angezeigt, wenn es tatsächlich aufgrund der Anwesenheit des fahrzeugexternen Objektes in der Umgebung des Kraftfahrzeugs erforderlich ist.
Das Kartenbild wird aus gespeicherten Kartendaten erzeugt. Das Kartenbild kann z.B. ein schematisches Bild sein, welches in schematischer Darstellung das Kraftfahrzeug und einen Umgebungsbereich neben dem Kraftfahrzeug zeigt. Das Kartenbild kann aber auch ein echtes optisches Bild sein, welches auf vorab gespeicherten Bildern beruht, nämlich beispielsweise auf gespeicherten Satellitenbildern. Die im Kartenbild gezeigte Umgebung des Kraftfahrzeugs entspricht somit nicht dem augenblicklichen Zustand der realen Umgebung. Es können auch wahlweise verschiedene Typen des Kartenbildes bereitgestellt werden, nämlich unterschiedliche Arten der Ansichten. Zum Beispiel können - wie bei der Anwendung„Google Maps" - folgende Ansichtarten bereitgestellt werden: eine Kartenansicht, eine Satellitenansicht und eine 3D-Ansicht.
In einer Ausführungsform ist vorgesehen, dass das Kartenbild durch zumindest einen Bereich des Umgebungsbildes ergänzt wird. Dies bedeutet, dass das Kartenbild auch mit zumindest einem Bereich des Umgebungsbildes überlagert bzw. verdeckt werden kann. Dies kann auch vor Erreichen des vorgegebenen Abbildungsmaßstabs erfolgen. Somit können dem Fahrer bestimmte Informationen angezeigt werden, wie beispielsweise in der Umgebung befindliche Hindernisse und/oder Verkehrszeichen und/oder Ampeln und dergleichen.
Als Umgebungsbild kann bevorzugt wahlweise ein erstes oder ein zweites
Umgebungsbild erzeugt und dargestellt werden. Die Wahl zwischen dem ersten und dem zweiten Umgebungsbild kann nach einem vorbestimmten Wahlkriterium erfolgen. Das
erste oder das zweite Umgebungsbild können sich untereinander darin unterscheiden, dass das erste Umgebungsbild den Umgebungsbereich bis zu einer größeren
Entfernung vom Kraftfahrzeug weg zeigt als das zweite Umgebungsbild. Dem Fahrer können somit wahlweise zumindest zwei Arten des Umgebungsbildes angezeigt werden, nämlich ein Umgebungsbild mit einem größeren Umgebungsbereich neben dem
Kraftfahrzeug und ein Umgebungsbild mit einem kleineren Umgebungsbereich neben dem Kraftfahrzeug. Der Fahrer kann somit bedarfsgerecht und situationsabhängig unterstützt werden. Man würde beispielsweise das zweite Umgebungsbild dann anzeigen, wenn die Abstände zwischen dem Kraftfahrzeug und Hindernissen relativ klein sind und der Fahrer relativ schwierige Manöver vorzunehmen hat. Das erste
Umgebungsbild würde man hingegen dann anzeigen, wenn es erforderlich ist, sich einen groben Überblick über einen großen Umgebungsbereich neben dem Kraftfahrzeug zu verschaffen.
Bevorzugt zeigt das erste Umgebungsbild den Umgebungsbereich bis zu einer
Entfernung von dem Kraftfahrzeug weg, welche in einem Wertebereich von 7 m bis 13 m liegt. Diese Entfernung beträgt vorzugsweise 10 m. Insbesondere zeigt das erste Umgebungsbild also eine Draufsicht auf das gesamte Kraftfahrzeug sowie den
Umgebungsbereich um das Kraftfahrzeug herum, nämlich bis zu 10 m vom
Kraftfahrzeug weg. Der Fahrer kann sich somit über einen relativ großen
Umgebungsbereich informieren und auch solche Hindernisse sehen, die sich relativ weit weg vom Kraftfahrzeug befinden.
Das zweite Umgebungsbild hingegen kann den Umgebungsbereich bis zu einer
Entfernung von dem Kraftfahrzeug weg zeigen, welche in einem Wertebereich 50 cm bis 2 m liegt. Diese Entfernung beträgt vorzugsweise 1 m. Anhand eines derartigen
Umgebungsbildes kann der Fahrer mit großer Genauigkeit auf die Abstände zwischen dem Kraftfahrzeug und den jeweiligen Hindernissen zurück schließen, die sich unmittelbar neben dem Kraftfahrzeug befinden. Der Fahrer kann somit auch mit seinem Kraftfahrzeug ganz nah an Hindernissen rangieren, ohne eine Kollision zu verursachen.
Wie bereits ausgeführt, erfolgt die Auswahl zwischen dem ersten und dem zweiten Umgebungsbild anhand eines vorbestimmten Wahlkriteriums. Dieses Wahlkriterium kann beispielsweise beinhalten, dass unmittelbar nach dem Wechsel von dem Kartenbild zum Umgebungsbild das erste Umgebungsbild erzeugt und angezeigt wird, also dasjenige Umgebungsbild, welches den Umgebungsbereich bis zur größeren Entfernung vom
Kraftfahrzeug weg zeigt als das andere Umgebungsbild. Auf diesem Wege gelingt es, einen stufenlosen Übergang von dem Kartenbild zum Umgebungsbild zu schaffen.
Das Wahlkriterium kann auch zum Inhalt haben, dass dann, wenn anhand der
Navigationsdaten ein Ankommen des Kraftfahrzeugs an einem Zielort durch das Fahrerassistenzsystem festgestellt wird, das erste Umgebungsbild erzeugt und angezeigt wird. Kommt das Kraftfahrzeug an einem Zielort an, so wird somit bevorzugt dasjenige Umgebungsbild angezeigt, welches den größeren Umgebungsbereich zeigt. Der Fahrer kann somit am Zielort einerseits Hindernisse im Umgebungsbild
wahrnehmen, die sich relativ weit weg vom Kraftfahrzeug befinden; andererseits kann der Fahrer kollisionsfrei mit dem Kraftfahrzeug rangieren.
Das Wahlkriterium kann auch beinhalten, dass dann, wenn durch eine Sensoreinrichtung des Fahrerassistenzsystems ein fahrzeugexternes Objekt in der Umgebung des
Kraftfahrzeugs detektiert wird, das zweite Umgebungsbild erzeugt und angezeigt wird, also dasjenige Umgebungsbild, welches den Umgebungsbereich bis zur kleineren Entfernung vom Kraftfahrzeug weg zeigt. Dies kann derart erfolgen, dass das zweite Umgebungsbild dann erzeugt und angezeigt wird, wenn ein Abstand zwischen dem Kraftfahrzeug und dem fahrzeugexternen Objekt einen vorgegebenen Grenzwert unterschreitet. Gerade dann benötigt der Fahrer ein genaues Abbild der Umgebung unmittelbar neben dem Kraftfahrzeug bzw. in unmittelbarer Nähe des Kraftfahrzeugs. Auf diese Weise kann der Fahrer auch in engsten Verhältnissen bzw. in engsten Stellen kollisionsfrei rangieren.
In der Ausführungsform, bei welcher die Sensordaten Bilddaten umfassen, werden die Bilddaten durch zumindest eine optische Erfassungseinrichtung erfasst. Es erweist sich als besonders vorteilhaft, wenn die Bilddaten durch zumindest zwei, insbesondere durch zumindest drei, optische Erfassungseinrichtungen erfasst werden. Es können auch insgesamt vier optische Erfassungseinrichtungen vorgesehen sein. Es können also insgesamt mehrere Erfassungseinrichtung eingesetzt werden, nämlich eine
Erfassungseinrichtung an einer linken Seitenflanke und/oder eine Erfassungseinrichtung an einem linken Au ßenspiegel und/oder eine Erfassungseinrichtung an einer rechten Seitenflanke und/oder eine Erfassungseinrichtung an einem rechten Au ßenspiegel und/oder eine Erfassungseinrichtung an einem vorderen Stoßfänger und/oder eine an einem hinteren Stoßfänger des Kraftfahrzeugs oder aber an einer Heckklappe.
Insgesamt kann durch die Erfassungseinrichtungen ein 360 °-Bild der Umgebung um das Kraftfahrzeug herum erfasst werden. Die zumindest eine Erfassungseinrichtung kann
beispielsweise eine Kamera sein, nämlich insbesondere eine CMOS-Kamera
(Complementary Metal Oxid Semiconductor) oder eine CCD-Kamera (Charge-coupled Device).
Vorzugsweise weist die zumindest eine optische Erfassungseinrichtung einen
Erfassungswinkel aus einem Wertebereich von 170 ° bis 195° auf. Also ist die zumindest eine Erfassungseinrichtung vorzugsweise eine Fischaugenkamera. Auf diesem Wege gelingt es, mit lediglich drei oder vier Erfassungseinrichtungen die gesamte Umgebung um das Kraftfahrzeug herum zu erfassen. Das Fahrerassistenzsystem kommt also mit einer relativ geringen Anzahl der Erfassungseinrichtungen aus.
Erfindungsgemäß wird darüber hinaus ein Fahrerassistenzsystem für ein Kraftfahrzeug bereitgestellt. Das Fahrerassistenzsystem umfasst einen Navigationsempfänger zum Empfangen von Navigationsdaten. Es umfasst auch zumindest einen Sensor zum Erfassen von Sensordaten über eine Umgebung des Kraftfahrzeugs. Eine
Anzeigeeinrichtung ist zum Anzeigen von Bildern ausgebildet. Das
Fahrerassistenzsystem kann die Sensordaten zu einem Umgebungsbild verarbeiten, welches zumindest einen Umgebungsbereich neben dem Kraftfahrzeug zeigt. Das Fahrerassistenzsystem kann auch ein Kartenbild unter Berücksichtigung der
Navigationsdaten aus gespeicherten Kartendaten erzeugen und das Kartenbild auf der Anzeigeeinrichtung anzeigen. Das Fahrerassistenzsystem kann das Kartenbild auf der Anzeigeeinrichtung vergrößern und nach Erreichen eines vorbestimmten
Abbildungsmaßstabes des Kartenbildes von dem Kartenbild zu dem Umgebungsbild wechseln.
Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes
Fahrerassistenzsystem.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten
Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem und das Kraftfahrzeug.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind
nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen
Kombinationen oder aber in Alleinstellung verwendbar.
Die Erfindung wird nun anhand einzelner bevorzugter Ausführungsbeispiele, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
Es zeigen:
Fig. 1 in schematischer Darstellung eine Draufsicht auf ein Kraftfahrzeug mit einem
Fahrerassistenzsystem gemäß einer Ausführungsform der Erfindung;
Fig. 2 in schematischer Darstellung ein beispielhaftes Kartenbild;
Fig. 3 in schematischer Darstellung ein beispielhaftes erstes Umgebungsbild;
Fig. 4 in schematischer Darstellung ein beispielhaftes zweites Umgebungsbild; und
Fig. 5 ein Flussdiagramm eines Verfahrens gemäß einer Ausführungsform der
Erfindung.
Ein Kraftfahrzeug 1 , wie es in Fig. 1 dargestellt ist, ist ein Personenkraftwagen. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, welches folgende Komponenten umfasst: eine Anzeigeeinrichtung 3, eine Steuereinrichtung 4, vier Kameras 5a bis 5d, wie auch einen Navigationsempfänger 14, z.B. einen GPS-Empfänger. Die
Steuereinrichtung 4 steuert die Anzeigeeinrichtung 3 an. Die Kameras 5a bis 5d übermitteln erfasste Bilddaten an die Steuereinrichtung 4, nämlich beispielsweise über einen internen Kommunikationsbus des Kraftfahrzeugs 1 . Die Kameras 5a bis 5d sind Sensoren, und die Bilddaten sind Sensordaten im Sinne der vorliegenden Erfindung.
Das Fahrerassistenzsystem 2 kann auch weitere Sensoren zum Erfassen von
Sensordaten umfassen, nämlich zumindest einen Ultraschallsensor und/oder zumindest ein Radargerät und/oder zumindest einen Laserscanner.
Die Anzeigeeinrichtung 3 kann beispielsweise ein LCD-Display sein. Sie kann aber auch ein Bildprojektor sein, mittels dessen Bilder auf eine Windschutzscheibe 6 des
Kraftfahrzeugs 1 projiziert werden können (ein Head-up-Display).
In der Steuereinrichtung 4, nämlich in einem Speicher 7, ist ein Abbild des
Kraftfahrzeugs 1 abgespeichert, und genauer gesagt Daten, die ein Abbild des
Kraftfahrzeugs 1 repräsentieren.
Die Kameras 5a bis 5d sind an einer äu ßeren Oberfläche des Kraftfahrzeugs 1 angebracht. Die Anzahl sowie die Anordnung der Kameras 5a bis 5d ist in Fig. 1 lediglich beispielhaft dargestellt; je nach Ausführungsform kann die Anzahl der Kameras 5a bis 5d sowie deren Anordnung an dem Kraftfahrzeug 1 variieren. Im Ausführungsbeispiel ist eine erste Kamera 5a an einem vorderen Stoßfänger des Kraftfahrzeugs 1 angeordnet, während eine zweite Kamera 5b an einem hinteren Stoßfänger oder aber an einer Heckklappe angeordnet ist. Eine dritte Kamera 5c ist an der linken Seitenflanke angebracht; sie kann auch in einen linken Au ßenspiegel 8 integriert sein. Eine vierte Kamera 5d ist an der rechten Seitenflanke angebracht, nämlich im Bereich eines rechten Au ßenspiegels 9. Auch die vierte Kamera 5d kann in den Außenspiegel 9 integriert sein.
Die Kameras 5a bis 5d weisen jeweils einen breiten Erfassungswinkel auf und sind somit so genannte Fischaugenkameras. Zum Beispiel kann der jeweilige Erfassungswinkel in einem Wertebereich von 170 ° bis 195° liegen. Wie aus Fig. 1 hervorgeht, erfasst die erste Kamera 5a einen Bereich 10 vor dem Kraftfahrzeug 1 , während die zweite Kamera 5b einen Bereich 1 1 hinter dem Kraftfahrzeug l erfasst. Entsprechend erfasst die dritte Kamera 5c einen Bereich 12 links neben dem Kraftfahrzeug 1 ; die vierte Kamera 5d erfasst einen Bereich 13 rechts neben dem Kraftfahrzeug 1 . Die Kameras 5a bis 5d können also im Wesentlichen die gesamte Umgebung um das Kraftfahrzeug 1 herum erfassen, nämlich ein 360 °-Bild.
Die Steuereinrichtung 4 kann die durch die Kameras 5a bis 5d erfassten Bilddaten verarbeiten. Die Steuereinrichtung 4 kann anhand der Bilddaten ein Bild erzeugen, welches von oberhalb des Kraftfahrzeugs 1 eine Draufsicht auf die Umgebung des Kraftfahrzeugs 1 zeigt, nämlich auf die Erfassungsbereiche 10 bis 13. Die
Steuereinrichtung 4 kann also aus den Bilddaten ein Bild erzeugen, welches aus einer Vogelperspektive eine Draufsicht auf die Erfassungsbereiche 10 bis 13 zeigt.
Wie bereits ausgeführt, ist in dem Speicher 7 ein Abbild des Kraftfahrzeugs 1
abgespeichert. Auch dieses Abbild zeigt das Kraftfahrzeug 1 aus einer Vogelperspektive; dieses Abbild zeigt mit anderen Worten eine Draufsicht auf das Kraftfahrzeug 1 von oberhalb desselben. Die Steuereinrichtung 4 kann aus dem Abbild des Kraftfahrzeugs 1 und dem anhand der Bilddaten erzeugten Abbild der Umgebung ein Umgebungsbild
erzeugen, welches eine Draufsicht sowohl auf das Kraftfahrzeug 1 als auch auf die Umgebung um das Kraftfahrzeug 1 herum zeigt, nämlich aus einer Vogelperspektive. In einem einzigen Umgebungsbild werden somit sowohl die Umgebung des Kraftfahrzeugs 1 als auch das Kraftfahrzeug 1 selbst aus einer Vogelperspektive dargestellt. Dieses Umgebungsbild kann die Steuereinrichtung 4 auf der Anzeigeeinrichtung 3 anzeigen. Dieses Umgebungsbild kann kontinuierlich angezeigt werden; dies bedeutet, dass sich das Umgebungsbild fortlaufend bzw. dynamisch an die Umgebung des Fahrzeugs 1 anpassen kann. Die Bilddaten werden nämlich fortlaufend durch die Kameras 5a bis 5d erfasst, und das Umgebungsbild wird aus den kontinuierlich erfassten Bilddaten jeweils neu erzeugt. In dem Umgebungsbild kann das Kraftfahrzeug 1 ortsfest bzw. stationär gezeigt werden, während das Abbild der Umgebung stets aktualisiert und angepasst werden kann.
Das Umgebungsbild kann die Steuereinrichtung 4 auch unter Berücksichtigung von Sensordaten anderer Sensoren, nämlich des zumindest einen Ultraschallsensors und/oder des zumindest einen Radargeräts und/oder des zumindest einen
Laserscanners. Beispielsweise können schematische Symbole in das Umgebungsbild eingeblendet werden, welche in Abhängigkeit von diesen Sensordaten erzeugt werden und fahrzeugexterne Objekte symbolisieren, die anhand der Sensordaten in der
Umgebung des Kraftfahrzeugs 1 detektiert werden.
Im Ausführungsbeispiel kann die Steuereinrichtung 4 prinzipiell zwei verschiedene Umgebungsbilder erzeugen, nämlich aus den Bilddaten der Kameras 5a bis 5d und gegebenenfalls auch weiteren Sensordaten. Und zwar kann die Steuereinrichtung 4 ein erstes Umgebungsbild erzeugen, wie es in schematischer Darstellung in Fig. 3 beispielhaft gezeigt und mit 15 bezeichnet ist. Das erste Umgebungsbild 15 kann auf der Anzeigeeinrichtung 3 angezeigt werden. Das erste Umgebungsbild 15 zeigt aus einer Vogelperspektive eine Draufsicht auf das Kraftfahrzeug 1 ' sowie auf einen
Umgebungsbereich 16 um das Kraftfahrzeug 1 ' herum. Obwohl in Fig. 3 nicht näher dargestellt, wird im Umgebungsbild 15 der reale Umgebungsbereich 16 abgebildet bzw. realitätsgetreu dargestellt. Dies, weil die Kameras 5a bis 5d die reale Umgebung um das Kraftfahrzeug 1 herum erfassten und die Steuereinrichtung 4 das Umgebungsbild 15 in Echtzeit aus den Bilddaten jeweils neu erzeugt. Das erste Umgebungsbild 15 zeichnet sich dadurch aus, dass es den Umgebungsbereich 16 bis zu einer Entfernung 17 vom Kraftfahrzeug 1 ' weg zeigt, die in einem Wertebereich von 7 m bis 13 m liegt. Das erste Umgebungsbild 15 kann den Umgebungsbereich 16 seitlich neben dem Kraftfahrzeug 1 ' bis zu einer Entfernung 17 von 10 m oder 1 1 m zeigen, während der Umgebungsbereich
16 hinter und vor dem Kraftfahrzeug 1 ' bis zu einer Entfernung 17 von 8 m oder 9 m gezeigt werden kann. Im Vergleich zu bekannten vogelperspektivischen Bildern zeigt das erste Umgebungsbild 15 also einen erweiterten Umgebungsbereich 16, welcher sich bis zu einer relativ großen Entfernung 17 vom Kraftfahrzeug 1 ' weg erstreckt.
Das erste Umgebungsbild 15 kann im Prinzip auf zwei verschiedene Art und Weisen erzeugt werden: Zum einen können ausschließlich die jeweils augenblicklich bzw.
momentan erfassten Bilddaten zur Erzeugung des Umgebungsbilder 15 herangezogen werden. Alternativ - wenn der Umgebungsbereich 16 bis zur Entfernung 17 nicht erfasst werden kann - kann das Umgebungsbild 15 sowohl aus den momentan erfassten Bilddaten als auch aus zuvor erfassten Bilddaten erzeugt werden. Gemäß dieser Alternative kann also das Umgebungsbild 15 mittels einer Odometrie erzeugt werden.
Die Steuereinrichtung 4 kann au ßerdem ein zweites Umgebungsbild 18 erzeugen, wie es beispielhaft und in schematischer Darstellung in Fig. 4 gezeigt ist. Auch dieses zweite Umgebungsbild 18 zeigt aus einer Vogelperspektive eine Draufsicht auf das
Kraftfahrzeug 1 ' sowie einen Umgebungsbereich 19 um das Kraftfahrzeug 1 ' herum. Auch das Umgebungsbild 18 zeigt ein reales Abbild des Umgebungsbereichs 19, obwohl in Fig. 4 dies nicht explizit dargestellt ist. Wie aus Fig. 4 hervorgeht, ist das Abbild des Kraftfahrzeugs 1 ' in Fig. 4 größer als das Abbild des Kraftfahrzeugs 1 ' im ersten
Umgebungsbild 15 gemäß Fig. 3. Dies liegt darin, dass das zweite Umgebungsbild 18 den Umgebungsbereich 19 nur bis zu einer geringeren Entfernung 20 vom Kraftfahrzeug 1 ' weg zeigt. Diese Entfernung 20 kann beispielsweise in einem Wertebereich von 50 cm bis 2 m liegen. Zum Beispiel kann das zweite Umgebungsbild 18 den Umgebungsbereich 19 seitlich neben dem Kraftfahrzeug 1 ' bis zu einer Entfernung 20 von 1 ,5 m zeigen, während der Umgebungsbereich 19 hinter und vor dem Kraftfahrzeug 1 ' bis zu einer Entfernung 20 von 50 cm gezeigt werden kann. Anhand des zweiten Umgebungsbildes 18 kann der Fahrer also mit hoher Genauigkeit jeweilige Abstände zwischen dem
Kraftfahrzeug 1 und im Umgebungsbereich 19 vorhandenen fahrzeugexternen
Hindernissen ermitteln.
Auf der Anzeigeeinrichtung 3 können das erste und das zweite Umgebungsbild 15, 18 wahlweise dargestellt werden, d.h. es kann entweder das erste Umgebungsbild 15 oder das zweite Umgebungsbild 18 dargestellt werden.
Wie bereits ausgeführt, beinhaltet das Fahrerassistenzsystem 2 auch einen
Navigationsempfänger 14, hier einen GPS-Empfänger, welcher Navigationsdaten (GPS-
Daten) empfängt. Diese Navigationsdaten beinhalten Informationen über die globale Position des Kraftfahrzeugs 1 ; dies bedeutet, dass die Steuereinrichtung 4 anhand der Navigationsdaten auf die jeweils augenblickliche globale Position des Kraftfahrzeugs 1 zurück schließen kann. In Abhängigkeit von der aktuellen globalen Position des
Kraftfahrzeugs 1 kann die Steuereinrichtung 4 auch ein Kartenbild 21 erzeugen und auf der Anzeigeeinrichtung 3 darstellen. Ein beispielhaftes Kartenbild 21 ist in Fig. 2 in schematischer Darstellung gezeigt. Die Steuereinrichtung 4 kann das Kartenbild 21 aus gespeicherten Kartendaten erzeugen, die beispielsweise in dem Speicher 7 der
Steuereinrichtung 4 abgelegt oder aber online zur Verfügung gestellt werden können. Das Kartenbild 21 zeigt die jeweils augenblickliche globale Position des Kraftfahrzeugs 1 , wie auch die durch das Kraftfahrzeug 1 befahrene Straße und gegebenenfalls auch weitere Straßen sowie weitere in der Umgebung des Kraftfahrzeugs 1 vorhandene Einrichtungen und Gebäuden. Das Kartenbild 21 ist ebenfalls ein Luftbild, d.h. es zeigt die Umgebung des Kraftfahrzeugs 1 aus einer Vogelperspektive. Das Kartenbild 21 zeigt jedoch nicht die reale Umgebung des Kraftfahrzeugs 1 bzw. nicht den augenblicklichen tatsächlichen Zustand der Umgebung. Dies aus dem Grund, weil das Kartenbild 21 auf gespeicherten Kartendaten beruht, die nicht in Echtzeit erzeugt werden. Das Kartenbild 21 kann gegebenenfalls auch auf Satellitenbildern beruhen, die als vorgespeicherte Bilddaten in dem Speicher 7 abgelegt werden können.
Das Kartenbild 21 bietet jedoch nicht die gewünschte Auflösung, insbesondere nicht dann, wenn dieses Kartenbild 21 auf der Anzeigeeinrichtung 3 deutlich vergrößert werden soll. Wird das Kartenbild 21 - beispielsweise aufgrund einer Eingabe des Fahrers - bis zu einem relativ großen Abbildungsmaßstab bzw. Zoomfaktor eingezoomt, so ist die Auflösung 21 so gering, dass der Fahrer mit dem Kartenbild 21 relativ wenig anfangen kann. Außerdem beinhaltet das Kartenbild 21 keine tatsächlichen
Informationen über die reale augenblickliche Umgebung des Kraftfahrzeugs 1 . Zum Beispiel können im Kartenbild 21 keine in der Umgebung momentan befindlichen Hindernisse angezeigt werden. Es ist somit im Ausführungsbeispiel vorgesehen, dass beim Vergrößern bzw. beim Einzoomen des Kartenbildes 21 nach Erreichen eines vorbestimmten Abbildungsmaßstabes (Zoomfaktors) bzw. einer vorbestimmten
Auflösung von dem Kartenbild 21 zu einem der Umgebungsbilder 15, 18 übergegangen wird. Dann bekommt der Fahrer ein Umgebungsbild 15, 18 auf der Anzeigeeinrichtung 3 angezeigt, welches einerseits eine deutlich bessere Auflösung als das Kartenbild 21 aufweist und andererseits realitätsgetreue Informationen über die augenblickliche Umgebung des Kraftfahrzeugs 1 beinhaltet.
Bezugnehmend auf Fig. 5 wird nachfolgend ein Verfahren gemäß einer
Ausführungsform der Erfindung näher erläutert. Das Verfahren beginnt in einem ersten Schritt S1 , in welchem die Steuereinrichtung 4 ein Kartenbild 21 aus gespeicherten Karten erzeugt und auf der Anzeigeeinrichtung 3 anzeigt. Das Kartenbild 21 zeigt die aktuelle globale Position des Kraftfahrzeugs 1 auf einer Karte.
In einem nachfolgenden Schritt überprüft die Steuereinrichtung 4, ob das Kartenbild 21 auf der Anzeigeeinrichtung 3 eingezoomt bzw. vergrößert werden soll oder nicht. Und zwar überprüft die Steuereinrichtung 4 in einem Schritt S2a, ob eine Eingabe zur Vergrößerung des Kartenbildes 21 durch eine Bedienperson vorgenommen wird oder nicht, nämlich an einer Eingabeeinrichtung des Fahrerassistenzsystems 2. Parallel bzw. gleichzeitig überprüft die Steuereinrichtung 4 in einem Schritt S2b, ob das Kraftfahrzeug 1 an einem vorgegebenen Zielort - beispielsweise in einer vorgegebenen Stadt oder aber in einer vorgegebenen Straße - angekommen ist. Parallel bzw. gleichzeitig überprüft die Steuereinrichtung 4 - nämlich im Schritt S2c -, ob ein fahrzeugexternes Objekt in einen vorgegebenen Umgebungsbereich des Kraftfahrzeugs 1 gelangt ist.
Wird eine Eingabe zur Vergrößerung des Kartenbildes 21 erkannt und/oder ist das Kraftfahrzeug 1 am Zielort angekommen und/oder wird ein Objekt im vorgegebenen Umgebungsbereich des Kraftfahrzeugs 1 detektiert, so wird das Kartenbild 21 auf der Anzeigeeinrichtung 3 durch die Steuereinrichtung 4 vergrößert bzw. gezoomt. Das Vergrößern erfolgt im Schritt S3. In einem nachfolgenden Schritt S4 überprüft die Steuereinrichtung 4, ob ein vorgegebener Abbildungsmaßstab des Kartenbildes 21 bzw. eine vorgegebene Auflösung erreicht wurde oder nicht. Ist der vorgegebene
Abbildungsmaßstab noch nicht erreicht, so kehrt das Verfahren zum Schritt S3 zurück, und das Kartenbild 21 wird weiterhin vergrößert. Wird im Schritt S4 der vorgegebene Abbildungsmaßstab erreicht, so erfolgt in einem nachfolgenden Schritt S5 eine
Auswertung eines Wahlkriteriums, nach welchem zwischen dem ersten Umgebungsbild 15 oder dem zweiten Umgebungsbild 18 ausgewählt wird. Das ausgewählte Bild wird dann im Schritt S6 auf der Anzeigeeinrichtung 3 angezeigt; es erfolgt ein Wechsel von dem Kartenbild 21 zu dem Umgebungsbild 15 oder 18.
Das Wahlkriterium hat zum Inhalt, dass:
im Schritt S6 von dem Kartenbild 21 zunächst zum ersten Umgebungsbild 15 dann übergegangen wird, wenn das Vergrößern des Kartenbildes 21 aufgrund einer Eingabe der Fahrers erfolgt, und/oder
- von dem Kartenbild 21 zu dem ersten Umgebungsbild 15 dann übergegangen wird, wenn das Vergrößern des Kartenbildes 10 aufgrund des Ankommens des Kraftfahrzeugs 1 am Zielort erfolgt, und/oder
von dem Kartenbild 21 direkt zum zweiten Umgebungsbild 18 oder mittelbar über das Umgebungsbild 15 zum zweiten Umgebungsbild 18 dann gewechselt wird, wenn ein fahrzeugexternes Objekt im vorgegebenen Umgebungsbereich des Kraftfahrzeugs 1 detektiert wird.
Allgemein kann auch gelten, dass von dem Kartenbild 21 zu dem zweiten
Umgebungsbild 18 nur mittelbar über das erste Umgebungsbild 15 übergegangen werden kann, so dass ein stetiger bzw. kontinuierlicher Übergang zwischen den Bildern stattfindet.
Beim Übergang von dem Kartenbild 21 zu den Umgebungsbildern 15, 18 wird auch darauf geachtet, dass unmittelbar nach dem Wechseln das Umgebungsbild 15, 18 aus derselben Blickrichtung und demselben Blickpunkt gezeigt wird, wie das Kartenbild 21 unmittelbar vor dem Wechseln. Es kann auch vorgesehen sein, dass unmittelbar nach dem Wechseln die Entfernung, bis zu welcher der Umgebungsbereich vom
Kraftfahrzeug 1 weg gezeigt wird, gleich der Entfernung unmittelbar vor dem Wechseln ist. Auf diese Weise kann ein kontinuierlicher bzw. stetiger und stufenfreier Übergang zwischen den Bildern erreicht werden.