DE102012018326B4 - Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion - Google Patents

Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion Download PDF

Info

Publication number
DE102012018326B4
DE102012018326B4 DE102012018326.7A DE102012018326A DE102012018326B4 DE 102012018326 B4 DE102012018326 B4 DE 102012018326B4 DE 102012018326 A DE102012018326 A DE 102012018326A DE 102012018326 B4 DE102012018326 B4 DE 102012018326B4
Authority
DE
Germany
Prior art keywords
projection surface
vehicle
cameras
virtual
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012018326.7A
Other languages
English (en)
Other versions
DE102012018326A1 (de
Inventor
Jochen ABHAU
Ralf Beuschel
Dieter Weuffen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102012018326.7A priority Critical patent/DE102012018326B4/de
Publication of DE102012018326A1 publication Critical patent/DE102012018326A1/de
Application granted granted Critical
Publication of DE102012018326B4 publication Critical patent/DE102012018326B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Abstract

Verfahren für ein bildgebendes Fahrerassistenzsystem zur Abbildung von im Umgebungsbereich von Land-, Wasser- oder Luftfahrzeugen angeordneten Objekten, insbesondere an einem Kraftfahrzeug, bei dem am Fahrzeug mindestens zwei Kameras (K1-K4) zur Erzeugung einer im Innenraum oder Außenraum des Fahrzeuges darstellbaren Umsicht angeordnet sind, und der Blickwinkel benachbart angeordneter Kameras (K1-K4) im Umgebungsbereich des Fahrzeuges sich mindestens teilweise überschneidet und dort mindestens einen Überlappungsbereich (25) ausbildet, wobei zur Erzeugung der Umsichtdarstellung ein oder mehrere Kamerabilder der Kameras (K1-K4) entsprechend ihrer Aufnahmeposition am Fahrzeug auf einer virtuellen Projektionsfläche (12) angeordnet werden, die Teil eines virtuellen dreidimensionaler Raumkörpers (18) ist, der das Fahrzeug an mindesten zwei Stellen mit Abstand umgibt, dadurch gekennzeichnet, dass zur Erreichung einer annähernd verdeckungsfreien Umsichtfunktion von Objekten (27) im Überlappungsbereich (25) der Kameras (K1-K4) eine dynamische Anpassung der Zusammenfügung der Kamerabilder auf der Projektionsfläche (12) durch die mathematische Verschiebung der virtuellen Projektionsfläche (12') dergestalt erfolgt, dass das Objekt (27) annähernd in der Ebene der virtuellen Projektionsfläche (12, 12') abgebildet wird, wobei die Projektionsfläche (12, 12') dynamisch unter Verwendung mindestens einer Distanzinformation (DM1-DM4) manipuliert und die Position der virtuellen Projektionsfläche (12, 12') an die Position des nächstliegenden Objekts (27) im Übergangsbereich zweier Kameras (K1-K4) angeglichen wird.

Description

  • Stand der Technik
  • Im Bereich der Fahrzeugtechnik werden vermehrt Kameras eingesetzt um den Fahrer in verschiedenen Fahrsituationen zu unterstützen. In der Klasse der bildgebenden Systeme haben sich bereits Rückfahrkameras etabliert, die insbesondere in Einparksituationen das Unfallrisiko reduzieren.
  • Die Rückfahrkamera wird in der Regel am Heck des Fahrzeugs angebracht, wie beispielsweise DE 103 42 971 A1 in beschrieben. Das Kamerabild wird meistens ohne weitere Verarbeitung oder mit Einparkhilfslinien zur Darstellung gebracht.
  • Weiterhin ist es bekannt, ausgehend von einer Kameraeinheit mit Fahrkorridor-Anzeigefunktion ein System zur Generierung von Fahrkorridormarkierungen vorzusehen.
  • Während der Rückwärtsfahrt wird das Kamerabild von einer beispielsweise am Heckbereich des Fahrzeuges angeordneten Videokamera aufgenommen, im Fahrzeuginnenraum auf einem Display wiedergegeben. Auf die Bodenfläche der von der Kamera dargestellten Abbildung wird eine bestimmte 5 fahrzeugspezifische Markierung projiziert, die u. a. auch vom Lenkwinkel des Fahrzeuges abhängig ist.
  • Nachteil dieser Anordnung ist jedoch, dass lediglich von einer einzigen Kamera ein statisches Kamerabild erzeugt wird, welches ein eingeschränktes Sichtfeld aufweist und den Umgebungsbereich des einen Kamerabildes nicht berücksichtigt.
  • Sowohl im PKW- als auch im Nutzfahrzeugbereich werden inzwischen Umsichtsysteme verwendet, die vier oder mehr Kameras mit großem Erfassungsbereich verwenden, um das Umfeld des Fahrzeugs aufzunehmen. Um diese Funktion zu erfüllen werden die Kameras mit Weitwinkelobjektiven oder speziellen Spiegeln ausgestattet, wobei die Rohbilder in eine für den Fahrer brauchbare Darstellung transformiert werden müssen. Eine verbreitete Darstellungsform stellt die virtuelle Draufsicht in der Art einer Vogelperspektive dar, die dem Fahrer eine gute Orientierung im Nahbereich des Fahrzeugs ermöglicht, wie beispielsweise in der DE 60003750 T2 beschrieben.
  • Der Nachteil dieser Darstellungsform besteht darin, dass entfernte Objekte überhaupt nicht angezeigt werden, obwohl sie von den Kameras erfasst wurden. Daher hat der Benutzer Probleme, sich in der Umgebung zu orientieren, beispielsweise wenn bei einer Rückwärtsfahrt ein 5 m entferntes Garagentor angefahren werden muss, welches außerhalb des Darstellungsbereiches der Vogelperspektivendarstellung liegt. Aus diesem Grund wird häufig die Vogelperspektivendarstellung mit einer zweiten Darstellung in der Perspektive einer Rückfahrkamera oder Umsichtkamera kombiniert, wobei das Bild der Umsichtdarstellung aus der Bildinformation einer oder mehrer Kameras des Umsichtsystems berechnet wird.
  • Bei der Darstellung aus der Vogelperspektive wird prinzipiell davon ausgegangen, dass der Bereich um das Fahrzeug flach ist und der Höhe der Fahrbahnoberfläche entspricht. In dieser Draufsicht werden daher erhöhte Objekte wie Fahrzeuge, Gebäude oder Personen stark verzerrt dargestellt. Der visuelle Eindruck entspricht einem „Herunterklappen“ oder „In-die-Längeziehen“ des Objekts. Die Hypothese der flachen Welt in der Umgebung eines Fahrzeuges Ist generell nur im Nahbereich des Fahrzeugs mit hoher Wahrscheinlichkeit gültig.
  • Andererseits kann davon ausgegangen werden, dass Objekte im Fernbereich in der Regel erhaben sind oder senkrecht stehen. Insbesondere wird diese Bedingung ab der Horizontlinie erfüllt und der Himmel sollte dementsprechend auf eine annähernd senkrechte Wand und nicht auf die Fahrbahnfläche projiziert werden. Es hat sich daher für die Darstellung der Umsicht als sinnvoll erwiesen, die Hypothese einer Projektionsfläche, welche annähernd senkrecht auf der Fahrbahnfläche steht, zu verwenden. Ein solches Verfahren ist z.B. in der älteren Patentanmeldung DE 10 2011 014 368 A1 beschrieben.
  • Nach der Erfindung wird der allgemeinere Begriff „Umsicht“ anstatt des eingeschränkten Begriffes „Rundumsicht“ verwendet. Der Begriff „Rundumsicht“ impliziert eine Abbildung der Umgebung über einen Blickwinkel von 360 Grad, der zwar auch bei der Erfindung möglich ist. Die Erfindung ist jedoch auf einen solchen Abbildungswinkel von 360 Grad nicht beschränkt, sondern beansprucht auch kleiner als 360 Grad ausgebildete Abbildungswinkel. Unter dem Begriff der „Umsicht“ werden nach der Erfindung deshalb alle Abbildungswinkel kleiner oder gleich 360 Grad verstanden.
  • Beim Zusammenfügen der Bilder mehrerer Kameras zu der Darstellung einer Umsichtkamera ergibt sich häufig das Problem von Unstetigkeiten an den 30 Übergängen der Sichtbereiche zweier Kameras. Diese ergeben sich einerseits aus den verschiedenen Perspektiven der Kameras, andererseits entstehen bedingt durch die räumliche Positionierung der Kameras Verdeckungs- und Überlappungsbereiche.
  • Die beiden beschriebenen Fälle der unerwünscht falschen Bilddarstellung sind sehr störend für den Benutzer des Umsichtsystems. Daher ist es das Ziel der Erfindung diese Effekte zu reduzieren.
  • Insbesondere stellen Verdeckungsbereiche ein erhebliches Sicherheitsrisiko dar, da andere Verkehrsteilnehmer die sich in diesem Bereich aufhalten nicht auf der Anzeigeeinheit dargestellt werden. Andererseits sind große Überlappungsbereiche für den Betrachter sehr störend, da das „Wegdenken“ mehrfach dargestellter Objekte viel Aufmerksamkeit erfordert und vom eigentlichen Fahrgeschehen ablenkt.
  • Aufgabe der Erfindung ist es daher, die Reduzierung der Verdeckungs- und Überlappungseffekte bei einer Umsichtdarstellung zu erreichen.
  • Weiterer Stand der Technik ist in US 2003/0021490 A1 und DE 60218260 T2 offenbart.
  • Die Aufgabe wird durch die technische Lehre des Anspruches 1 und des Anspruchs 7 gelöst.
  • Erfindungsgemäß wird die Aufgabe durch die Verwendung einer Distanzinformation über die Entfernung eines Objekts in einem potentiell überlappenden Sichtbereich zweier Kameras gelöst.
  • Entsprechend dem vorgeschlagenen Verfahren soll die Art der Zusammenfügung mehrerer Kamerabilder zu einer Umsichtdarstellung dynamisch verändert werden.
  • Beim Zusammenfügen mehrerer Kamerabilder zu einer virtuellen Umsicht kann es in den Übergangsbereichen zwischen jeweils zwei Kamerabildern zu Fehldarstellungen kommen. Durch die Verwendung einer Distanzinformation zu dem nächsten Objekt in einem Übergangsbereich zwischen jeweils zwei Kameras kann diese Fehldarstellung verhindert werden.
  • Die vorliegende Erfindung beschreibt deshalb ein bildgebendes Fahrerassistenzsystem bestehend aus mindestens zwei Kameras mit Weitwinkelobjektiv, einer Distanzmesseinheit, einer Bildverarbeitungseinheit und einer Anzeigeeinheit. Die Bildverarbeitungseinheit generiert aus den Kamerabildern eine zusammengesetzte, virtuelle Umsicht, die einer Projektion auf einen das Fahrzeug umgebenden geschlossenen Polyeder bestehend aus einer konvexen Grundfläche, einer dazu parallelen Dachfläche und mindestens vier annähernd senkrecht darauf stehenden Seitenflächen entspricht. Ein Ausschnitt dieser virtuellen Umsicht wird auf der Anzeigeeinheit dargestellt. Es werden Bilddaten mindestens für einen Teil der annähernd senkrechten Seitenfläche berechnet.
  • Die Anwendung der Erfindung liegt in der Unterstützung des Fahrers bei Park- und Rangiermanövern. Durch das optimierte Bilddarstellungssystem können gefährliche Verschattungseffekte sowie störende Wiederholungseffekte in der Bilddarstellung verhindert werden. Somit erhält der Fahrer in jeder Umgebungssituation eine optimale Bilddarstellung der virtuellen Umsicht.
  • Zur Erzeugung der Umsichtdarstellung werden ein oder mehrere Kamerabilder entsprechend ihrer Aufnahmeposition am Fahrzeug auf einer virtuellen Projektionsfläche angeordnet. !n der vorgeschlagenen Implementierung wird die dynamische Anpassung der Zusammenfügung durch die Manipulation der virtuellen Projektionsfläche erreicht.
  • Unter einer virtuellen Projektionsfläche wird eine Fläche im dreidimensionalen Raum verstanden. Sie Ist Teil eines mathematischen Abbildungsmodells, welches darauf gründet, dass die von einer Kamera aufgenommene Bildinformation rückwärts auf eine solche Projektionsfläche abgebildet wird. Diese mathematische Simulation berücksichtigt die Montagepositionen der Kameras am Fahrzeug sowie optischen Eigenschaften der Kameras um eine korrekte Bilddarstellung zu erzielen.
  • Zur weiteren Erläuterung dient die Vorstellung, dass wenn man den Bildaufnahmesensor einer Kamera durch ein lichtdurchlässiges Dia und eine geeignete Lichtquelle ersetzen würde, sich auf einer realen zwei- oder dreidimensionalen Projektionsfläche die selbe Bilddarstellung ergeben würde wie auf der virtuellen Projektionswand.
  • Die Erfindung arbeitet mit dieser virtuellen Projektionsfläche als Arbeitshypothese. Die so erzeugte virtuelle Projektionsfläche ist Gegenstand der vorliegenden Erfindung.
  • In einer bevorzugten Ausgestaltung der Erfindung ist die virtuelle Projektionsfläche - entsprechend etwa der rechteckförmigen Kontur des Fahrzeuges als (gebogener dreidimensionaler) Raumkörper ausgebildet, der das Fahrzeug in einigem Abstand von seinen Körperkanten allseitig umgibt. Das Fahrzeug ist sozusagen in eine, das Fahrzeug allseitig umgebende, größere Schachtel hinein gestellt. Die Innenflächen der Schachtel sind die virtuellen Projektionsflächen. Die Schachtel muss jedoch nicht lösungsnotwendig das Fahrzeug von allen Seiten umgeben. Es reicht aus, die Schachtel an den Seiten zu schließen, an denen eine virtuelle Projektionsfläche gefordert ist. Alle anderen Seiten, die nicht als Projektionsflächen notwendig sind, können dann entfallen.
  • Der sich aus der Formgebung einer Schachtel ergebende Raumformgedanke sieht vor. dass bodenseitige und parallel hierzu deckenseitige, ebene und horizontale Begrenzungsflächen vorhanden sind, die sozusagen den Boden und den Deckel der Schachtel bilden.
  • In der Draufsicht sind die horizontalen boden- und deckeiseitigen Flächen der Schachtel bevorzugt mit abgerundeten Ecken ausgebildet.
    Die Seitenflächen der Schachtel, die erfindungsgemäß die virtuellen Projektionsflächen bilden, sind - zur Vermeidung von rechtwinkligen Eckenkanten - gebogen und sind in ihrer Ebene etwa vertikal im Raum ausgerichtet. Sie erstrecken sich also senkrecht zu den boden- und deckelseitigen horizontalen Begrenzungsflächen der Schachtel und sind miteinander verbunden.
  • Es handelt sich also um einen Raumkörper, der wie eine ovale Hutschachtel au sieht, der als virtueller Raumkörper das mit rechteckigen Raumkonturen beschriebene Fahrzeug umgibt. Das Fahrzeug ist sozusagen in den Innenraum der Schachtel mit allseitigem Abstand zu deren Seitenflächen hineingestellt.
  • Es hat sich deshalb als vorteilhaft herausgestellt, für die Projektion einen geschlossenen Polyeder (vorher als Raumkörper oder Schachtel bezeichnet) bestehend aus einer konvexen Grundfläche, einer dazu parallelen Dachfläche und mindestens zwei annähernd senkrecht darauf stehenden Seitenflächen, die das Fahrzeug mindestens teilweise umgeben, zu verwenden. Die Seitenflächen eines solchen Polyeders bilden die Projektionsfläche. Es hat sich des Weiteren als vorteilhaft erwiesen, wenn die Übergänge der Seitenflächen des Polyeders durch Rundungen gebildet werden.
  • Wesentliches Merkmal der Erfindung ist, dass eine Bildverarbeitungseinheit mindestens zwei Kamerasignale und eine Distanzinformation erhält und diese mittels eines Projektionsflächenmodells und einer Projektionsflächenmanipulationseinheit in eine Darstellungsanleitung überführt. Die Darstellungsanleitung wird von der Bildtransformationseinheit auf die Kamerabilder angewendet, um die Bilddarstellung für den Benutzer zu erzeugen.
  • Der etwa einer ovalen Hutschachtel entsprechende Raumkörper sollte möglichst in Fahrtrichtung und in Rückwärtsrichtung des Fahrzeuges gerade, vordere und hintere Seitenbegrenzungen aufweisen. Die Seitenflächen des Raumkörpers sind dann zueinander parallele, gerade Flächen.
  • Die Ausbildung von geraden, zueinander parallelen Raumflächen zur Herstellung eines Raumkörpers, hat den Vorteil, dass die jeweils zueinander gerade ausgebildeten Stirnflächen und Seitenflächen mathematisch einfach zu berechnen sind.
  • Es wurde erkannt, dass auch die Umgebungsinformation, z.B. eine Parklücke, die befahren werden muss, ein Garagentor, dessen Einfahrt getroffen werden muss und dergleichen mehr, ebenfalls in der Regel geradlinige Körperkanten aufweisen, und nur wenige dreidimensional geformte und gebogene Raumkonturen aufweisen.
  • Aus diesem Grund werden - der Realität angepasste - Raumkonturen der virtuellen Projektionsfläche vorgeschlagen, die in dieser Form nicht bekannt waren.
  • Bei der Erfindung wurde ferner als vorteilhaft erkannt, wenn insgesamt an einem Fahrzeug vier Kameras verwendet werden, wobei bevorzugt jeweils eine frontseitige und eine rückwärtige Kamera vorhanden sind. An den Seitenwänden des Fahrzeuges sind vorteilhaft jeweils einander gegenüberliegende und in entgegen gesetzte Richtung blickende Kameraeinheiten vorhanden.
  • Hierauf ist die Erfindung jedoch nicht beschränkt. Die Erfindung kann auch vorsehen, dass lediglich drei Kameras verwendet werden. In diesem Fall ist dann eine an der rückwärtigen Front des Fahrzeuges angebrachte, nach hinten blickende Kamera mit zwei an den gegenüberliegenden Seitenwänden des Fahrzeuges angeordneten weiteren Kameras kombiniert.
  • In einer dritten Ausgestaltung der Erfindung kann vorgesehen sein, dass lediglich eine frontseitige Kamera mit jeweils zwei seitlich entgegengesetzt blickenden Kameras kombiniert wird, während die rückwärtige Kamera nach einem anderen Prinzip arbeitet oder nicht in das erfindungsgemäße Modell einer virtuellen Projektionsfläche einbezogen ist.
  • Die Erfindung ist demnach nicht auf die Anordnung von vier Kameras an einem Fahrzeug beschränkt.
    Statt der angegebenen Anzahl von vier Kameras können auch mehr als vier Kameras vorhanden sein, wobei im gezeigten Ausführungsbeispiel alle Kameras bevorzugt einen Blickwinkel von mehr als 100 Grad aufweisen.
  • Die Erfindung ist nicht auf einen bestimmten Blickwinkel der Kameras beschränkt. Es kommt nur darauf an, dass die Kameras so angeordnet sind, dass sich die seitliche Begrenzung der Blickwinkel benachbarter Kameras in einem bestimmten Winkel außerhalb der Außenkontur des Fahrzeuges schneiden und dort einen Verschattungsbereich - den keine der beiden Kameras sieht - und einen sich daran anschließender Überlappungsbereich - den beide Kameras sehen - ausbilden.
  • Der Verschattungsbereich ergibt sich ausgehend von der virtuellen Projektionsfläche nach innen in Richtung auf das Fahrzeug, was bedeutet, dass in diesem Bereich kein Objekt zu erkennen ist, während in dem sich nach außen über die Projektionsfläche heraus erstreckenden Überlappungsbereich Teile des Objektes doppelt dargestellt sind, und das Objekt dadurch schlecht erkennbar ist.
  • Eine optimale Erkennung des Objektes ergibt sich dann, wenn das sich außerhalb der Fahrzeugkontur im Umgebungsbereich des Fahrzeuges befindliche Objekt, z. B. eine Person, genau im Übergangsbereich zwischen dem Verschattungsbereich und dem Überlappungsbereich befindet, d. h. wenn dieses Objekt sich etwa in der Ebene der virtuellen Projektionsfläche befindet.
  • Hier setzt die Erfindung ein, die zum Gegenstand hat, dass mit Hilfe einer Distanzmesseinheit zwischen dem Fahrzeug und dem nächst liegenden, zu erkennenden Objekt eine Entfernungsmessung stattfindet und dass die Entfernungsmessung für die Veränderung (Verformung) der virtuellen Projektionsfläche herangezogen wird.
  • Damit wird der Vorteil erreicht, dass die virtuelle Projektionsfläche an den Abstand des zu erkennenden Objektes in Richtung auf das Fahrzeug verschoben und damit angepasst wird, wodurch stets dafür gesorgt wird, dass sich das zu erkennende Objekt bei einer (derart verschobenen) Projektionsfläche immer im Bereich der Ebene Projektionsfläche befindet; es wird somit immer scharf und eindeutig, ohne Doppelbild oder Bildverschattung abgebildet. Die sich im Überlappungsbereich oder im Verschattungsbereich ausbildenden Bildstörungen werden somit bei der Erfassung und Abbildung des Objektes vermieden.
  • Damit wird stets für eine optimale Darstellung des Objektes oder der Person im Umgebungsbereich des Fahrzeuges, nämlich im Überschneidungsbereich von zwei in etwa gleiche Richtung blickende Kameras gesorgt, weil der Schnittpunkt zwischen dem Überlappungsbereich und dem Verschattungsbereich stets entsprechend dem Entfernungssignal der Distanzmesseinrichtung nachgeführt wird. Die Seitenflächen des hutschachtelförmigen Raumkörpers werden somit winklig verschoben, sofern erkannt wurde, dass das abzubildende Objekt sich in diesem Bereich nicht mehr in der Ebene der Projektionsfläche befindet. Die Verschiebung erfolgt in dem Maß, dass durch die verschobene Projektionsfiäche stets dafür gesorgt wird, dass ein im Überlappungsbereich von zwei Kameras befindliches Objekt stets vollständig abgebildet wird. Eine solche Verschiebung erfolgt auch dynamisch entsprechend der Bewegungsrichtung und Geschwindigkeit eines sich im Überlappungsbereich bewegenden Objektes.
  • Im Ergebnis bedeutet dies eine dynamische Veränderung der Raumform der virtuellen Projektionsfläche und zwar bevorzugt im Überlappungsbereich der in etwa in gleiche Richtung blickenden Kameras.
  • Entsprechend der Anzahl der Kameras, die verwendet werden, wird bevorzugt auch eine gleichartige Anzahl von Entfernungsmesseinrichtungen verwendet. Dies bedeutet, dass wenn es um einen kantenseitig das Fahrzeuges umgebenden Überlappungs- oder Verschattungsbereich geht, dass dann an jeder Kante des Fahrzeuges jeweils eine Distanzmesseinrichtung angeordnet ist, um in diesem Überlappungsbereich zwischen zwei in etwa gleiche Richtung blickende Kameras, deren Seitenstrahlen sich überlappen, eine Distanzmessung ausführen zu können.
  • Mit dem Begriff „in gleiche Richtung blickende“ Kameras ist gemeint, dass die eine Kamera, z. B. rückseitig gerade nach hinten sieht und die Seitenkameras jeweils seitlich das Fahrzeug erfassen, dass sich aber die seitlichen Kameras mit ihren seitlichen Blickbegrenzungen mit der nach rückwärts erstreckenden Kamera überschneiden und damit einen sich im Innenraum der virtuellen Projektionsfläche erstreckenden Verschattungsbereich und einen sich im Außenraum der virtuellen Projektionsfläche erstreckenden Überlappungsbereich definieren.
  • Für eine solche Distanzmessung können sämtliche bekannten Distanzmesseinrichtungen verwendet werden, die zum Stand der Technik gehören. Es wird hierbei bevorzugt, wenn eine Ultraschallmesseinrichtung verwendet wird, die einen bestimmten Messkegel von den Kanten des Kraftfahrzeuges aus in die Eckenbereiche der Umgebung sendet, um einen bestimmten Erfassungsbereich der Distanzmessung zu definieren. Als optische Distanzmessung kann die Interferometrie mit kohärenten Wellen verwendet werden. Diese ist bei der Messung von Längenänderungen sehr präzise. Die Genauigkeit hängt Im Wesentlichen von der benutzten Wellenlänge ab. In der Praxis werden Licht- und Radiowellen genutzt. Um mit einem Interferometer auch Entfernungen messen zu können, werden unter anderem das Phasenschiebeverfahren. die Weißlichtinterferometrie oder auch die konoskopische Holografie eingesetzt.
  • Daneben kann als Distanzmessung die konfokale Abstandsmessung verwendet werden. Ein Konfokalsensor erhält nur ein Signal, wenn sich das Messobjekt genau im Fokus der Optik befindet. Die Konfokaltechnik ist eine direkte Messung, da sie Objekt oder Optik um die Messlänge verschiebt und die Verschiebung mit einem Referenzmaßstab vergleicht.
  • Als Distanzmessung kommen auch indirekte Messverfahren in Betracht. Alle indirekten Methoden haben gemeinsam, dass sie nicht die Entfernung selbst messen, sondern eine von ihr abhängige Größe - beispielsweise die Laufzeitmessung eines Signals oder Echos (Laser, Radar oder die Richtung einer Peilung). Indirekt werden auch alle Änderungen der Entfernung gemessen, etwa mittels Dopplereffekt.
  • Die Laufzeitmessung beruht darauf, dass sich elektromagnetische und akustische Wellen mit endlicher, bekannter Geschwindigkeit ausbreiten. Sendet man ein Signal zu einem Messobjekt, von dem es reflektiert wird, und misst die Zeit, die es für den Hin- und Rückweg benötigt, so kann man aus der Laufzeit Δt und der Ausbreitungsgeschwindigkeit c des Signals, das ist die Gruppengeschwindigkeit der Welle, die Objektentfernung r berechnen. Dieses Messprinzip wird beispielsweise von Ultraschallsensoren verwendet.
  • Als weiteres Distanzmessverfahren wird die optische Stereoskopie vorgeschlagen. Bei diesem Verfahren werden zwei Kameras mit gleicher Blickrichtung in einem definierten Abstand (Basisbreite) angebracht. Durch die unterschiedliche Position der Kameras ergibt sich eine distanzabhängige Parallaxe (Verschiebung) bei der Betrachtung von Objekten. Die Verschiebung ist umso größer je näher sich das Objekt bei der stereoskopischen Kamera befindet. Die Verschiebung zwischen den beiden Kamerabildern kann mittels mathematischer Verfahren bestimmt werden. Aus der Verschiebung zweier Bildpunkte und der bekannten Basisbreite kann der Abstand des Umgebungsobjekts zur Kamera bestimmt werden.
  • Die Erfindung ist also nicht auf ein bestimmtes Prinzip der Distanzmessung beschränkt, sondern es kommt nur darauf an, von der jeweiligen Kante des Fahrzeuges aus, an der sich ein Überlappungsbereich von zwei sich daran begrenzenden Kameras ergibt, eine Distanzmessung in diesem Bereich zu einem in diesem Bereich sich aufhaltenden Objekt, z. B. eine Person, vorzunehmen.
  • Die Erfindung sieht auch vor, dass eine Verzerrungskorrektur bei Verwendung einer Weitwinkeloptik angewendet wird.
  • Der Erfindungsgegenstand der vorliegenden Erfindung ergibt sich nicht nur aus dem Gegenstand der einzelnen Patentansprüche, sondern auch aus der Kombination der einzelnen Patentansprüche untereinander.
  • Alle in den Unterlagen, einschließlich der Zusammenfassung offenbarten Angaben und Merkmale, insbesondere die in den Zeichnungen dargestellte räumliche Ausbildung, werden als erfindungswesentlich beansprucht, soweit sie einzeln oder in Kombination gegenüber dem Stand der Technik neu sind.
    Im Folgenden wird die Erfindung anhand von einer, lediglich einen Ausführungsweg darstellenden Zeichnung näher erläutert. Hierbei gehen aus der Zeichnung und ihrer Beschreibung weitere erfindungswesentliche Merkmale und Vorteile der Erfindunghervor.
  • Es zeigen:
    • 1: Typische Anordnung der Kameras und Distanzmesseinheiten am Fahrzeug
    • 2: Prinzip der virtuellen Projektionsfläche (Draufsicht)
    • 3: Prinzip der virtuellen Projektionsfläche (Seitenansicht)
    • 4: Position des Objekts auf der virtuellen Projektionsfläche (Draufsicht)
    • 5: Bilddarstellung wenn sich das Objekt auf der virtuellen Projektionsfläche befindet
    • 6: Position des Objekts vor der virtuellen Projektionsfläche (Draufsicht)
    • 7: Bilddarstellung wenn sich das Objekt vor der virtuellen Projektionsfläche befindet
    • 8: Position des Objekts hinter der virtuellen Projektionsfläche (Draufsicht)
    • 9: Bilddarstellung wenn sich das Objekt hinter der virtuellen Projektionsfläche befindet
    • 10: Beispielhafte Manipulation der virtuellen Projektionsfläche (Draufsicht)
    • 11: Übersicht Bildverarbeitungssystem
  • In 1 ist eine mögliche Anordnung der Kameras am Fahrzeug dargestellt. In der bevorzugten Implementierung werden 4 Kameras verwendet, das beschriebene Verfahren kann aber generell mit 2 bis N Kameras implementiert werden. Werden zu wenige Kameras verwendet, steht in bestimmten Situationen keine Bildinformation zur Verfügung und der entsprechende Bildbereich wird beispielsweise mit schwarzer Farbe oder einer Warnmarkierung gefüllt.
  • In der bevorzugten Implementierung ist Kamera KI beispielsweise im Kühlergrill und Kamera K4 in der Heckklappe eingebaut. Kamera K2 auf der linken Seite und Kamera K3 auf der rechten Seite sind jeweils auf der Höhe der Fahrzeugaußenspiegel montiert. Die Kombination aus Montageposition und Optik der Kameras K1-K4 ermöglicht eine Umsicht um das Fahrzeug. In der bevorzugten Implementierung ist der vertikale Erfassungsbereich der Kameras K1-K4 so ausgelegt, dass mindestens der Nahbereich der Fahrbahnebene und der Fernbereich bis über den Horizont aufgenommen wird so dass Objekte mit 2 m Höhe ab einer Distanz von ca. 2 m komplett abgebildet werden können. Der horizontale Erfassungsbereich jeder Kamera ist größer als 90", daher überlappen sich die Erfassungsbereiche der Kameras K1-K4 teilweise.
  • In der 1 ist schematisiert dargestellt, dass Distanzmesseinheiten DM1-DM4 vorhanden sind, die jeweils einen etwa kegelförmigen Meßbereich mit einem Erfassungswinkel 51-54 an den Kanten des Fahrzeuges erzeugen. Es ist jedoch nicht lösungsnotwendig, dass die Distanzmesseinheiten DM1-DM4 an den Kanten des Fahrzeuges angeordnet sind. Sie können zu den Kanten der Fahrzeugkontur 9 versetzt angeordnet sein.
  • Das Fahrzeug ist schematisiert dargestellt und hat eine etwa rechteckige Grundfläche, wobei schematisiert die Vorderachse 10 und Hinterachse 11 schematisiert dargestellt sind.
  • Das Prinzip der Bilderzeugung ist in 2 und 3 dargestellt. Für die Generierung der Bildansicht wird ein dreidimensionales Modell einer virtuellen Projektionsfläche 12 verwendet.
  • In einer bevorzugten Implementierung wird für die Projektion ein geschlossener Polyeder verwendet, der aus einer konvexen Grundfläche, einer dazu parallelen Dachfläche und mindestens vier annähernd senkrecht darauf stehenden Seitenflächen besteht. Diese Seitenflächen umgeben das Fahrzeug vollständig und dienen als Projektionsfläche. Es hat sich als vorteilhaft erwiesen wenn die Übergänge der Seitenflächen des Polyeders durch Rundungen gebildet werden. Damit werden scharfkantige, vertikal sich erstreckende Eckenbereiche vermieden.
  • Die Projektionsfläche 12 ist in 4 Teile geteilt, deren Bildinhalte jeweils aus den Bilddaten der entsprechenden Kamera bestehen. Mittels der bekannten optischen Parameter der Kameras und ihrer Montagepositionen im Fahrzeug wird jeweils eine Rückprojektion des aufgenommenen Bildes auf die virtuelle Projektionsfläche berechnet. Auf dieser Projektionsfläche werden senkrechte Objekte senkrecht und mit wenigen Verzerrungen abgebildet. Auf der Anzeigeeinheit 49 (Display) wird ein Ausschnitt 13 dieser virtuellen Projektionsfläche dargestellt, der in 2 beispielhaft für eine Rückwärtsfahrt nach links dargestellt ist. Der Übergang zwischen zwei Kameras kann dabei durch eine Überblendung fließend, oder durch einen harten Übergang mit einer optionalen Markierung erfolgen.
  • Entsprechend der Aufteilung der virtuellen Projektionsfläche in vier Teilbereiche für die vier Kamerabilder ergeben sich die in 2 dargestellten Erfassungsbereiche der Kameras. In der Regel wird für die Bilddarstellung nur ein Teil des horizontalen Erfassungsbereichs jeder Kamera verwendet. Falls es möglich wäre, die Kameras nahe beieinander zu montieren, z.B. in einem Abstand von wenigen Zentimetern, so würde von jeder Kamera nur ein 90° Bildbereich dargestellt werden, um eine 360° Umsicht zu erzeugen.
  • In 2 besteht die virtuelle Projektionsfläche 12 prinzipiell aus einem Raumkörper, der beispielsweise zueinander parallele Boden und Deckflächen aufweist, wobei die Bodenfläche des Raumkörpers in 2 dargestellt ist. Die Deckfläche erstreckt sich in einer gewissen Höhe über dem Fahrzeug und zwar zur Bodenfläche nach 2.
  • Der Raumkörper, der die virtuellen Projektionsflächen 12 nach 2 und 3 ausbildet, weist ferner eine sich gemäß 3 etwa parallel zur Seitenwand der Fahrzeugkontur 9 erstreckende, hintere Seitenwand 23 und eine sich ebenfalls parallel zur seitlichen Fahrzeugkontur 9 erstreckende, vordere Seitenwand 24 auf.
  • Die beiden Seitenwände 23, 24 des so dargestellten virtuellen Raumkörpers 18 sind durch vordere und hintere stirnseitige Stirnwände miteinander verbunden. Die Stirnwände sind jeweils durch eine obere und untere Bogenkurve 21, 22; 31, 32 definiert, die durch jeweils eine annähernd senkrechte und annähernd gerade Seitenfläche rückseitig und frontseitig miteinander verbunden sind so dass sich der in 3 dargestellte virtuelle Raumkörper 18 ergibt.
  • Die seitlichen Begrenzungen der Seitenwände 23, 24 gegenüber den Stirnwänden werden durch die Geraden 19,20, 29 und 30 gebildet.
  • In 2 sind die Projektionsbereiche 14-17 der einzelnen Kameras K1-K4 dargestellt. Hieraus ergibt sich, dass sich die Kamerablickwinkei im Bereich der Projektionsfläche 12 schneiden sollten, um genau in diesem Bereich eine einwandfreie Darstellung eines Objektes zu erreichen.
  • Zu diesem Zweck sind in einer bevorzugten Ausgestaltung im Eckenbereich der Fahrzeugkontur 9 geeignete Distanzmesseinrichtungen DM1-DM4 angeordnet.
  • Mit dem Begriff „angezeigter Bereich“ 13 wird ein Ausschnitt der virtuellen Umsicht verstanden, der auf einer Anzeigeeinheit zur Darstellung gebracht wird. Erfindungsgemäß soll auch im Übergangsbereich zweier Kameras eine einwandfreie Darstellung einer Person oder eines Objektes 27 stattfinden, wie nachfolgend anhand der übrigen Zeichnungen noch erläutert werden wird.
  • Die grundlegende Verschattungsproblematik entsteht dadurch, dass die vier Kameras an räumlich weit entfernten Positionen am Fahrzeug montiert sind. Bei dieser Art der Montage würde theoretisch nur die unendlich entfernt liegende Horizontlinie bei einem Erfassungsbereich von 90° pro Kamera korrekt abgebildet werden. Um Objekte im Nahbereich vollständig darstellen zu können muss der horizontale Erfassungsbereich der Kameras allerdings deutlich erhöht werden, wie in 2 deutlich sichtbar wird.
  • Die Problematik der Verschattungs- und Überlappungsbereiche zweier Kamerabilder ist in den 4 bis 9 beispielhaft dargestellt.
  • 4 und 5 steilen den erwünschten Fall der korrekten Bilddarstellung dar. In diesem Fall befindet sich das nächstliegende Objekt im Übergangsbereich zweier Kameras genau in der Ebene der virtuellen Projektionsfläche, welche durch den Schnittpunkt der Erfassungsbereiche der Kameras K2 und K4 verläuft. Abgesehen von perspektivischen Unterschieden entsteht für den Betrachter eine korrekte Darstellung des Objekts.
  • In 4 und 5 ist ferner dargestellt, dass sich eine abzubildende Person 27 in der idealen Abbildungsposition genau in der Ebene der virtuellen Projektionsfläche 12 befinden sollte, weil sich dort der Schnittpunkt zwischen dem Verschattungsbereich 26 und dem Überlappungsbereich 25 ergibt und die Person weder im einen noch im anderen Bereich abgebildet wird.
  • Gemäß 5 kann die Person 27 im Übergangsbereich zwischen dem Projektionsbereich 17 der Kamera K4 und dem Projektionsbereich 15 die Kamera K2 einwandfrei dargestellt werden. Der Übergang zwischen dem Darstellungsbereich 17 der Kamera 4 und dem Darstellungsbereich 15 der Kamera 2 wird durch die Gerade 29 dargestellt.
  • Selbst wenn sich die Person 27 in den Pfeilrichtungen 33, 34 seitlich bewegt, wird sie immer stets in voller Größe und vollständig abgebildet.
  • Die 6 und 7 stellen den unerwünschten Fall einer falschen Bilddarstellung durch Verdeckung dar. Das Objekt befindet sich in Richtung auf das Fahrzeug vor der virtuellen Projektionsfläche innerhalb des Verschattungsbereichs zwischen Kamera K2 und Kamera K4. In diesem Fall werden nur Randbereiche des Objekts im Übergangsbereich von den Kameras K2. K4 erfasst und zur Darstellung gebracht. Durch die Zusammenfügung der beiden Teilbilder nach 7 entsteht aber kein korrektes vollständiges Bild des Objekts.
  • Die 6 und 7 zeigen, dass wenn sich eine Person 27' in Pfeilrichtung 28 auf das Fahrzeug bewegt, dass die Projektionsbereiche 15, 17 der beiden Kameras K2, K4 im Verschattungsbereich 26 liegen und die abzubildende Person 27' nicht mehr vollständig dargestellt wird. Dies ist ein Fall, der mit der Erfindung vermieden werden soll.
  • Die 8 und 9 stellen den unerwünschten Fall einer falschen Bilddarstellung durch Überlappung dar. Das Objekt befindet sich nun - vom Fahrzeug entfernt - hinter der virtuellen Projektionsfläche innerhalb des Überlappungsbereichs zwischen Kamera K2 und Kamera K4. Der mittlere Bereich des Objekts wird nun von beiden Kameras K2, K4 erfasst und zur Darstellung gebracht. Ein Teil der Objektoberfläche wird doppelt dargestellt.
  • Die 8 und 9 zeigen demnach den zu den 6 und 7 entgegen gesetzten Fall, bei dem sich eine Person 27" außerhalb der virtuellen Projektionsfläche 12 befindet. Die Person hat sich demnach in Pfeilrichtung 28 von der Fahrzeugkontur 9 entfernt und wird in 9 in unerwünschter Weise doppelt dargestellt.
  • Die 10 zeigt die erfindungsgemäße Anpassung der virtuellen Projektionsfläche 12 in Richtung auf eine neue Projektionsfläche 12', die so angepasst ist, dass dafür gesorgt wird, dass eine sich im Übergangs- oder Überlappungsbereich oder im Verschattungsbereich 25. 26 aufhaltende oder bewegende Person oder Objekt 27a, 27b, 27c, 27d mit einer Distanzmessung (Abstand zur Fahrzeugkontur 9) erfasst wird, und damit die virtuelle Projektionsfläche 12' der aktuellen Entfernung der sich im Eckenbereich des Fahrzeuges aufhaltenden Personen und Objekte 27a-27d dynamisch angepasst wird.
  • Dies zeigt die 10, bei deren Ausgangsprojektionsfläche 12 ein Abstand 35 zu der sich dynamisch veränderten virtuellen Projektionsfläche 12' erzeugt wurde. Der Abstand 35 wird entsprechend dem Ergebnis der Distanzmessung zwischen der Fahrzeugkontur 9 und der sich Kantenbereich des Fahrzeuges aufhaltenden Personen und Objekten 27a-27d dynamisch verändert, sodass eine dynamische Veränderung (Verschiebung) der Projektionsfläche gegeben ist.
  • Die Erzeugung der beschriebenen Bildansicht erfolgt mit dem in 11 dargestellten Bildverarbeitungssystem. Die Bildsignale 43 mindestens zweier Kameras werden in die Bildverarbeitungseinheit eingespeist. Die Bildverarbeitungseinheit empfängt außerdem mindestens eine Distanzinformation 40 von einer Distanzmesseinheit DM1-DM M.
  • Die Distanzinformation 40 kann auf unterschiedliche Weise gewonnen werden. Gebräuchliche Verfahren sind z.B. Ultraschallsensoren welche an der 30 Stossstange montiert sind. Die Distanzinformation 40 kann aber beispielsweise auch mittels Lasermessung oder stereoskopischer Bildverarbeitung gewonnen werden. Einige Verfahren zur Distanzmessung wurden im allgemeinen Teil dieser Beschreibung dargestellt.
  • Für die Funktion des Systems ist es entscheidend dass zu jedem Überlappungsbereich 25 zweier Kameras mindestens eine Distanzinformation 40 zu dem nächstliegenden Objekt 27 vorliegt.
  • Die Distanzberechnungseinheit 36 berechnet aus den empfangenen Distanzwerten 41 die Distanz zu dem nächstliegenden Objekt 27 im Überlappungsbereich 25 jeweils zweier Kameras. Der gemessene Distanzwert 41 wird auf einen festgesetzten Maximalwert begrenzt. Damit wird verhindert, dass die virtuelle Projektionsfläche 12, 12' unendlich weit entfernt platziert wird falls keine nahen Objekte 27 gefunden werden.
  • Die berechneten Distanzwerte 41 zu allen Überlappungsbereichen der Kameras werden an die Projektionsflächenmanipulationseinheit 37 weiter gegeben. Das dreidimensionale Modell der Projektionsfläche 12, 12' ist in der Bildverarbeitungseinheit 50 als mathematisches Projektionsflächenmodell 47 hinterlegt.
  • In einer bevorzugten Implementierung wird ein geschlossener Polyeder bestehend aus einer konvexen Grundfläche, einer dazu parallelen Dachfläche und mindestens vier annähernd senkrecht darauf stehenden Seitenflächen welcher das Fahrzeug vollständig umgibt als virtuelle Projektionsfläche 12, 12' verwendet. Die Anordnung der Projektionsfläche ist in 2 und 3 exemplarisch dargestellt.
  • Es hat sich als praktikabel erwiesen, den Übergang zwischen zwei Kamerabildern ungefähr in der Mitte einer abgerundeten Ecke des Polyeders anzuordnen. Insbesondere ist die Erfindung nicht dahingehend eingeschränkt, dass die Seiten des Polyeders parallel zu einander oder zur Fahrzeuggeometrie ausgerichtet sind.
  • In der Projektionsflächenmanipulationseinheit 37 wird das hinterlegte Projektionsflächenmodell 47 der virtuellen Projektionsfläche 12 dynamisch zur Laufzeit anhand der Distanzwerte 41 verändert. Das Ergebnis der Manipulation ist beispielhaft in 10 dargestellt. Der Polyeder, welcher das Fahrzeug umgibt, wird entsprechend der Distanzinformation 40 manipuliert und verschoben. Im Übergangbereich zwischen Kamera K2 und Kamera K4 befindet sich ein Objekt 27 nahe beim Fahrzeug 9. Daher wird die virtuelle Projektionsfläche 12 nach innen gezogen, um eine korrekte Darstellung zu erzielen. Im Übergangsbereich zwischen Kamera KI und Kamera K3 befindet sich hingegen ein weiter entferntes Objekt so dass der Polyeder nun in diese Richtung ausgedehnt wird.
  • Die Bildtransformationseinheit 38 empfängt die Bildsignale 43 der Kameras, sowie die dynamische Projektionsflächeninformation 42 und führt die Berechnungen zur Projektion der Kamerabilddaten auf das dreidimensionale Projektionsflächenmodell durch. Die Bildtransformationseinheit 38 erhält von jeder der N Kameras eine zeitliche Abfolge von Bildern und berechnet jeweils aus den zeitlich zusammen gehörigen N Bildern die Darstellung auf der virtuellen Projektionsfläche 12 entsprechend den 2 und 3 bzw. 10.
  • Über eine Eingabeeinheit 48 kann der Benutzer den Bildbereich der Umsicht bestimmen, der auf der Anzeigeeinheit 49 dargestellt werden soll. Für die Eingabeeinheit 48 sind verschiedene Implementierungen möglich. So können beispielsweise Schalter am Lenkrad oder Armaturenbrett, ein berührungsempfindlicher Bildschirm der mit der Anzeigeeinheit kombiniert ist oder auch Lenkrad und Schalthebel, sowie Kombinationen aus diesen Eingabegeräten verwendet werden. Die Bildansichtsberechnungseinheit 39 generiert aus den Eingabedaten 44 der Eingabeeinheit 48 und den Ausgabedaten der Bildtransformationseinheit 38 die Bildausgabeinformation 45. Diese entspricht einer Ansicht des Bereichs 13 des Projektionsflächenmodells der auf der Anzeigeeinheit 49 dargestellt werden soll.
  • Die Bildverarbeitungseinheit 50 venwendet zur Erzeugung der Bildansicht auf der Anzeigeeinheit 49 eine Bildansichtsberechnungseinheit 39. in der das dreidimensionale Projektionsflächenmodell 42, 47 auf den zweidimensionalen Bildschirm der Anzeigeeinheit 49 abgebildet wird. Eine solche Abbildung kannbeispielsweise in mathematisch kompakter Form durch eine virtuelle Kamera beschrieben werden, welche den Blick eines Betrachters der Projektionsfläche simuliert.
  • Hierauf ist die Erfindung jedoch nicht beschränkt. Zur Bildansichtsberechnung kann jede Projektion eines Teilbereichs der virtuellen Projektionsfläche auf eine Fläche verwendet werden, welche auf dem Bildschirm dargestellt wird. Die Verwendung eines virtuellen Kameramodells 46 ist also nicht zwingend erforderlich. Alternativ kann beispielsweise ein einfaches Projektionsmodell 61 verwendet werden welches lediglich einen Bildausschnitt aus dem virtuellen Projektionsflächenmodell 42 herausschneidet.
  • In einer bevorzugten Implementierung wird für die Bilderzeugung das Modell einer perspektivischen Projektion verwendet und als virtuelles Kameramodell 46 hinterlegt.
  • Diese verwendet das mathematische Modell einer Lochkamera mit Zentralprojektion in der entfernte Objekte kleiner erscheinen als nahe Objekte.
  • In einer zweiten bevorzugten Implementierung wird für die Bilderzeugung das Modell einer orthogonalen Parallelprojektion venwendet und als virtuelles Kameramodell 46 hinterlegt. Im Gegensatz zur perspektivischen Projektion verlaufen die Projektionsstrahlen parallel zu einander. Dadurch werden gleich große Objekte unabhängig von ihrer Distanz zur virtuellen Kamera gleich groß dargestellt.
  • Durch die Erstellung eines virtuellen Kameramodells 46, welches als mathematisches Modell eine Lochkamera mit Zentralprojektion verwendet, entsteht der Vorteil, dass entfernte Objekte wirklichkeitsnah auch kleiner erscheinen als nahe Objekte. Ausgehend von dem dreidimensionalen Modell, welches nach der Erfindung erzeugt wurde, kann ein virtuelles Kameramodell 46 verwendet werden, um den erzeugten dreidimensionalen Raumkörper zu betrachten.
  • Eine solche Abbildungsart ist bei Videospielen bekannt, bei der es möglich ist, einen bestimmten Raumkörper aus einer bestimmten Blickrichtung zu betrachten, wobei diese Blickrichtung durch den Betrachter auch in geeigneter Weise verändert werden kann.
  • Es handelt sich also um eine virtuelle Betrachtungsposition 62 mit einem entsprechenden virtuellen Kameramodell 46, mit der es möglich ist, den virtuellen Raumkörper, der adaptiv an im Nahbereich befindliche Objekte angepasst ist, aus verschiedenen Blickrichtungen darzustellen.
  • Der Benutzer kann deshalb die Ansicht des erfindungsgemäßen Projektionsmodells mit einer virtuellen Kamera auf seiner Anzeigeeinheit betrachten.
  • Eine solche Betrachtung kann für beliebige Perspektiven der adaptiv erzeugten Rundumsichtdarstellung erfolgen. Es ist sinnvoll, diese virtuelle Betrachtungsposition im Fahrzeug zu platzieren, um aus dem Fahrzeug heraus Darstellungsmöglichkeiten für die adaptive Rundumsicht zu ermöglichen.
  • Hierauf ist die Erfindung jedoch nicht beschränkt.
  • Eine virtuelle Betrachtungsposition kann auch außerhalb des Fahrzeuges platziert werden und erzeugt dann für den Betrachter den Eindruck, als ob er sich außerhalb des Fahrzeuges befindet und sein Fahrzeug und die Umgebung von außen betrachtet. Demnach wird eine Rundumsicht, die mit den virtuellen Projektionsflächen erzeugt wurde, von außerhalb des Fahrzeuges betrachtbar.
  • In diesem Fall muss ein virtuelles 3-D-Modell des verwendeten Fahrzeuges in die Bildausgabeinformation 45 eingefügt werden, denn die am Fahrzeug selbst montierten Kameras, die in den Außenbereich des Fahrzeuges blicken, können das Fahrzeug selbst nicht darstellen.
  • Die Betrachtungsposition wird in diesem Fall bevorzugt in der Höhe der Augen des Betrachters über der Grundlinie angeordnet, um eine wirklichkeitsnahe oder wirklichkeitsgetreue Abbildungsperspektive für den Betrachter der Anzeigeeinheit zu ermöglichen. Hierauf ist die Erfindung jedoch nicht beschränkt. Es können auch unterschiedlich hohe Betrachtungspositionen erzeugt werden.
  • Mit dem virtuellen Kameramodell kann die Position, die Richtung und die Brennweite einer solchen virtuellen Betrachtungsposition angegeben werden, wodurch die oben genannten Vorteile erreicht werden. Die Parameter der Bildansichtsberechnungseinheit 39 können durch die Eingabedaten 44 dynamisch verändert werden. So kann beispielsweise die Blickrichtung einer virtuellen Kamera an den Lenkwinkel und die Fahrtrichtung angepasst werden.
  • In 2 ist mit dem Bezugszeichen 62 eine virtuelle Betrachtungsposition einer solchen virtuellen Kamera angegeben, die den angezeigten Bereich 13 darstellt.
  • Die verwendete Bildansichtsberechnung sei jedoch nicht auf die beiden beschriebenen Arten der perspektivischen und orthographischen virtuellen Kamera beschränkt.
  • So sind beispielsweise andere verzerrende Projektionen oder eine Panoramadarstellung der dreidimensionalen Projektionsfläche denkbar die mittels eines alternativen Projektionsmodells 61 erzeugt werden können.
  • Zusammenfassend wird festgestellt, dass die Erfindung ein bildgebendes Fahrerassistenzsystem bestehend aus mindestens einer Kamera 5-8 mit Weitwinkelobjektiv, einer Distanzmesseinheit 1-3, einer Bildverarbeitungseinheit 50 und einer Anzeigeeinheit 49 beschreibt. Die Bildverarbeitungseinheit 50 generiert aus den Kamerabildern eine zusammengesetzte, virtuelle Umsicht, die einer Projektion auf einen das Fahrzeug umgebenden geschlossener Polyeder entspricht, der aus einer Grundfläche, einer dazu parallelen Dachfläche und mindestens vier annähernd senkrecht darauf stehenden Seitenflächen besteht.
  • Ein Ausschnitt dieser virtuellen Umsicht wird auf der Anzeigeeinheit 49 dargestellt.
  • Es werden Bilddaten mindestens für zwei der annähernd senkrechten Seitenflächen berechnet. Um Fehldarstellungen bei der Aneinanderfügung mehrerer Kamerabilder zu einer virtuellen Umsicht zu verhindern, wird eine Distanzinformation zu dem nächstliegenden Objekt jeweils im Übergangsbereich der Darstellungsbereiche jeweils zweier Kameras verwendet. Anhand der Distanzinformation wird die Position einer virtuellen Projektionsfläche welche zur Bildberechnung dient so verändert, dass sich das nächstliegende Objekt im Übergangsbereich zweier Kameras immer auf der Ebene der Projektionsfläche befindet.
  • Die Anwendung der Erfindung liegt in der Unterstützung des Fahrers bei Park- und Rangiermanövern. Durch das optimierte Bilddarstellungssystem können gefährliche Verschattungseffekte sowie störende Wiederholungseffekte in der Bilddarstellung verhindert werden. Somit erhält der Fahrer in jeder Umgebungssituation eine optimale Bilddarstellung der virtuellen Umsicht.
  • Bezugszeichenliste
  • 1.
    DM1 Distanzmesseinheit
    2.
    DM2 Distanzmesseinheit
    3.
    DM3 Distanzmesseinheit
    4.
    DM4 Distanzmesseinheit
    5.
    K1 Kamera
    6.
    K2 Kamera
    7.
    K3 Kamera
    8.
    K4 Kamera
    9.
    Fahrzeugkontur
    10.
    Vorderachse
    11.
    Hinterachse
    12.
    virtuelle Projektionsfläche 12'
    13.
    angezeigter Bereich
    14.
    Projektionsbereich K1
    15.
    Projektionsbereich K2
    16.
    Projektionsbereich K3
    17.
    Projektionsbereich K4
    18.
    virtueller Raumkörper
    19.
    Linie (vertikal)
    20.
    Linie (vertikal)
    21.
    Bogenkurve (unten)
    22.
    Bogenkurve (oben)
    23.
    Seitenwand (hinten)
    24.
    Seitenwand (vorn)
    25.
    Überlappungsbereich
    26.
    Verschattungsbereich
    27.
    Person 27' a, b, c, d
    28.
    Pfeilrichtung 28
    29.
    Linie (vertikal)
    30.
    Linie (vertikal)
    31.
    Bogenkurve unten
    32.
    Bogenkurve oben
    33.
    Pfeilrichtung
    34.
    Pfeilrichtung
    35.
    Abstand
    36.
    Distanzberechnungseinheit
    37.
    Projektionsflächenmanipulati onseinheit
    38.
    Bildtransformationseinheit
    39.
    Bildansichtsberechnungseinh eit
    40.
    Distanzinformation
    41.
    Distanzwerte
    42.
    Projektionsflächeninformation
    43.
    Bildsignale
    44.
    Eingabedaten
    45.
    Bildausgabeinformation
    46.
    virtuelles Kameramodell
    47.
    Projektionsflächenmodell
    48.
    Eingabeinheit
    49.
    Anzeigeeinheit
    50.
    Bildverarbeitungseinheit
    51.
    Erfassungswinkel DM1
    52.
    Erfassungswinkel DM2
    53.
    Erfassungswinkel DM3
    54.
    Erfassungswinkel DM4
    55.
    Distanzmesswert DM1
    56.
    Distanzmesswert DM2
    57.-
    58.
    Distanzmesswert DM3
    59.
    Distanzmesswert DM4
    60.
    Gerade
    61.
    Projektionsmodell
    62.
    virtuelle Betrachtungsposition
    63.

Claims (9)

  1. Verfahren für ein bildgebendes Fahrerassistenzsystem zur Abbildung von im Umgebungsbereich von Land-, Wasser- oder Luftfahrzeugen angeordneten Objekten, insbesondere an einem Kraftfahrzeug, bei dem am Fahrzeug mindestens zwei Kameras (K1-K4) zur Erzeugung einer im Innenraum oder Außenraum des Fahrzeuges darstellbaren Umsicht angeordnet sind, und der Blickwinkel benachbart angeordneter Kameras (K1-K4) im Umgebungsbereich des Fahrzeuges sich mindestens teilweise überschneidet und dort mindestens einen Überlappungsbereich (25) ausbildet, wobei zur Erzeugung der Umsichtdarstellung ein oder mehrere Kamerabilder der Kameras (K1-K4) entsprechend ihrer Aufnahmeposition am Fahrzeug auf einer virtuellen Projektionsfläche (12) angeordnet werden, die Teil eines virtuellen dreidimensionaler Raumkörpers (18) ist, der das Fahrzeug an mindesten zwei Stellen mit Abstand umgibt, dadurch gekennzeichnet, dass zur Erreichung einer annähernd verdeckungsfreien Umsichtfunktion von Objekten (27) im Überlappungsbereich (25) der Kameras (K1-K4) eine dynamische Anpassung der Zusammenfügung der Kamerabilder auf der Projektionsfläche (12) durch die mathematische Verschiebung der virtuellen Projektionsfläche (12') dergestalt erfolgt, dass das Objekt (27) annähernd in der Ebene der virtuellen Projektionsfläche (12, 12') abgebildet wird, wobei die Projektionsfläche (12, 12') dynamisch unter Verwendung mindestens einer Distanzinformation (DM1-DM4) manipuliert und die Position der virtuellen Projektionsfläche (12, 12') an die Position des nächstliegenden Objekts (27) im Übergangsbereich zweier Kameras (K1-K4) angeglichen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuelle Projektionsfläche (12, 12') als Raumkörper (18) ausgebildet ist, der das Fahrzeug in einigem Abstand von seinen Körperkanten allseitig umgibt.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass eines oder mehrere Kamerabilder entsprechend ihrer geometrischen Anordnung am Fahrzeug auf einer virtuellen Projektionsfläche annähernd senkrecht zur Fahrbahnebene angeordnet werden.
  4. Verfahren nach einer der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Ebene der virtuellen Projektionsfläche (12, 12') annähernd senkrecht zur Fahrbahnebene ausgerichtet ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass ein geschlossener Polyeder bestehend aus einer konvexen Grundfläche, einer dazu parallelen Dachfläche und mindestens vier annähernd senkrecht darauf stehenden Seitenflächen, welcher das Fahrzeug vollständig umgibt, die Projektionsfläche (12, 12') beschreibt, und dessen Seitenflächen als virtuelle Projektionsfläche (12, 12') verwendet werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die mathematische Verschiebung der virtuellen Projektionsfläche (12') dynamisch dergestalt erfolgt, dass das Objekt (27) in Abhängigkeit von seiner Bewegung stets annähernd in der Ebene der virtuellen Projektionsfläche (12, 12') abgebildet wird.
  7. Vorrichtung für ein bildgebendes Fahrerassistenzsystem zur Abbildung von im Umgebungsbereich von Land-, Wasser- und Luftfahrzeugen angeordneten Objekten, insbesondere an einem Kraftfahrzeug, bei dem am Fahrzeug mindestens zwei Kameras (K1-K4) zur Erzeugung einer im Innenraum oder Außenraum des Fahrzeuges darstellbaren Umsicht angeordnet sind, und der Blickwinkel benachbart angeordneter Kameras (K1-K4) im Umgebungsbereich des Fahrzeuges sich mindestens teilweise überschneidet und dort mindestens einen Überlappungsbereich (25) ausbildet, dadurch gekennzeichnet, dass eine Bildverarbeitungseinheit mindestens zwei Kamerasignale und Distanzinformationen (DM1-DM4) erhält und diese mittels eines Projektionsflächenmodells und einer Projektionsflächenmanipulationseinheit in eine Darstellungsanleitung überführt, wobei eine Projektionsfläche (12, 12') dynamisch unter Verwendung mindestens einer der Distanzinformationen (DM1-DM4) manipuliert und die Position der virtuellen Projektionsfläche (12, 12') an die Position des nächstliegenden Objekts (27) im Übergangsbereich zweier Kameras (K1-K4) angeglichen wird.
  8. Vorrichtung nach Anspruch 7, zur Ausführung des Verfahrens nach mindestens einer der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das bildgebende Fahrerassistenzsystem aus mindestens zwei Kameras (K1-K4), mindestens einer Distanzmesseinheit (DM1-DM4), einer Bildverarbeitungseinheit (50) und einer Anzeigeeinheit (49) besteht und dass die Bildverarbeitungseinheit (50) eine virtuelle Umsicht aus mehreren Kamerabildern unter Verwendung mindestens einer Distanzinformation zu einem Umgebungsobjekt im Übergangsbereich jeweils zweier Kameras (K1-K4) zusammensetzt.
  9. Vorrichtung nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass zu jedem Überlappungsbereich (25) zweier Kameras (K1-K4) mindestens eine Distanzinformation (40) zu dem nächstliegenden Objekt (27) von einer Distanzberechnungseinheit (36) erfasst wird und dass die berechneten Distanzwerte (41) der Projektionsflächenmanipulationseinheit (37) als Teil der Bildverarbeitungseinheit (50) eingespeist werden , in der das dreidimensionale Modell der Projektionsfläche (12, 12') hinterlegt ist.
DE102012018326.7A 2012-09-15 2012-09-15 Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion Active DE102012018326B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012018326.7A DE102012018326B4 (de) 2012-09-15 2012-09-15 Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012018326.7A DE102012018326B4 (de) 2012-09-15 2012-09-15 Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion

Publications (2)

Publication Number Publication Date
DE102012018326A1 DE102012018326A1 (de) 2014-03-20
DE102012018326B4 true DE102012018326B4 (de) 2019-12-19

Family

ID=50181394

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012018326.7A Active DE102012018326B4 (de) 2012-09-15 2012-09-15 Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion

Country Status (1)

Country Link
DE (1) DE102012018326B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020209817A1 (de) 2020-08-04 2022-02-10 Zf Friedrichshafen Ag Zumindest teilweise autonom steuerbares Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zur Validierung von Informationen über eine Beschränkung eines Verkehrsbereichs

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014206246A1 (de) * 2014-04-02 2015-10-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anpassen einer dreidimensionalen Projektionsfläche zum Projizieren einer Mehrzahl benachbarter Kamerabilder
DE102014208664A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
DE102014213536A1 (de) * 2014-07-11 2016-01-14 Bayerische Motoren Werke Aktiengesellschaft Zusammenfügen von Teilbildern zu einem Abbild einer Umgebung eines Fortbewegungsmittels
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
DE102014226448B4 (de) * 2014-12-18 2021-11-04 Bayerische Motoren Werke Aktiengesellschaft Fahrzeug zum Errechnen einer Sicht einer Fahrzeugumgebung
DE102015202863A1 (de) * 2015-02-17 2016-08-18 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE102015205507B3 (de) * 2015-03-26 2016-09-29 Zf Friedrichshafen Ag Rundsichtsystem für ein Fahrzeug
DE102015204214A1 (de) * 2015-05-07 2016-11-10 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges
DE102015212370B4 (de) 2015-07-02 2023-02-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Fahrzeugumgebung eines Fahrzeuges
DE102017217870B4 (de) * 2017-10-09 2023-09-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Zusammenfügen von Teilbildern zu einem Abbild eines zusammenhängenden Umgebungsbereiches eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102021212569A1 (de) 2021-11-09 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Anzeige eines Modells einer Umgebung eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030021490A1 (en) 2000-07-19 2003-01-30 Shusaku Okamoto Monitoring system
DE60003750T2 (de) 1999-04-28 2004-06-03 Matsushita Electric Industrial Co., Ltd., Kadoma Einparkhilfe-Assistenz-Vorrichtung
DE10342971A1 (de) 2003-09-17 2005-05-04 Daimler Chrysler Ag Vorrichtung zur Außenüberwachung eines Kraftfahrzeugs
DE60207655T2 (de) * 2001-09-07 2006-06-08 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
DE60218260T2 (de) 2001-10-15 2007-06-14 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges und Verfahren zur Einstellung derselben
DE102006003524A1 (de) * 2006-01-24 2007-07-26 Oerlikon Contraves Ag Panorama-Sicht-System insbesondere in Kampfahrzeugen
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges
DE102011010865A1 (de) * 2011-02-10 2012-03-08 Daimler Ag Fahrzeug mit einer Vorrichtung zur Erfassung einer Fahrzeugumgebung
DE102011014368A1 (de) 2011-03-17 2012-09-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60003750T2 (de) 1999-04-28 2004-06-03 Matsushita Electric Industrial Co., Ltd., Kadoma Einparkhilfe-Assistenz-Vorrichtung
US20030021490A1 (en) 2000-07-19 2003-01-30 Shusaku Okamoto Monitoring system
DE60207655T2 (de) * 2001-09-07 2006-06-08 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
DE60218260T2 (de) 2001-10-15 2007-06-14 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges und Verfahren zur Einstellung derselben
DE10342971A1 (de) 2003-09-17 2005-05-04 Daimler Chrysler Ag Vorrichtung zur Außenüberwachung eines Kraftfahrzeugs
DE102006003524A1 (de) * 2006-01-24 2007-07-26 Oerlikon Contraves Ag Panorama-Sicht-System insbesondere in Kampfahrzeugen
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges
DE102011010865A1 (de) * 2011-02-10 2012-03-08 Daimler Ag Fahrzeug mit einer Vorrichtung zur Erfassung einer Fahrzeugumgebung
DE102011014368A1 (de) 2011-03-17 2012-09-20 DSP-Weuffen GmbH Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020209817A1 (de) 2020-08-04 2022-02-10 Zf Friedrichshafen Ag Zumindest teilweise autonom steuerbares Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zur Validierung von Informationen über eine Beschränkung eines Verkehrsbereichs

Also Published As

Publication number Publication date
DE102012018326A1 (de) 2014-03-20

Similar Documents

Publication Publication Date Title
DE102012018326B4 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion
EP2709069B1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
DE102006003538B3 (de) Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE10317044A1 (de) Freiraumüberwachung bei Kraftfahrzeugen
DE102011053999B4 (de) Kraftfahrzeug mit einem Fahrerassistenzsystem und einem Erfassungssystem
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
EP3053133B1 (de) Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem
DE102016123568A1 (de) Holographische wellenleiter(hud)-seitenblickanzeige
DE19932779A1 (de) Rückfahrhilfe
DE102011084554A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102010015079A1 (de) Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug
DE102011087901A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102012212577A1 (de) System und verfahren für ein video mit verbesserter tiefenwahrnehmung
DE102007049821A1 (de) Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
WO2016005232A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
EP2500216B1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102016124978A1 (de) Virtuelle Repräsentation einer Umgebung eines Kraftfahrzeugs in einem Fahrerassistenzsystem mit mehreren Projektionsflächen
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
DE112019000329B4 (de) Anzeigesystem, bewegliches objekt und gestaltungsverfahren
DE102019132019A1 (de) Fahrzeug und steuerverfahren dafür
DE102019213607A1 (de) 3D-Darstellung in digitalem Fahrzeugrückspiegel

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R082 Change of representative

Representative=s name: RIEBLING, PETER, DIPL.-ING. DR.-ING., DE

R081 Change of applicant/patentee

Owner name: HDLE - HALLA DAS LAB EUROPE GMBH, DE

Free format text: FORMER OWNER: DSP-WEUFFEN GMBH, 88239 WANGEN, DE

Effective date: 20140731

Owner name: ZF FRIEDRICHSHAFEN AG, DE

Free format text: FORMER OWNER: DSP-WEUFFEN GMBH, 88239 WANGEN, DE

Effective date: 20140731

R082 Change of representative

Representative=s name: RIEBLING, PETER, DIPL.-ING. DR.-ING., DE

Effective date: 20140731

R081 Change of applicant/patentee

Owner name: ZF FRIEDRICHSHAFEN AG, DE

Free format text: FORMER OWNER: HDLE - HALLA DAS LAB EUROPE GMBH, 88279 AMTZELL, DE

R082 Change of representative
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final