DE112018000862T5 - Vorrichtung und Verfahren zur Anzeige von Informationen - Google Patents

Vorrichtung und Verfahren zur Anzeige von Informationen Download PDF

Info

Publication number
DE112018000862T5
DE112018000862T5 DE112018000862.2T DE112018000862T DE112018000862T5 DE 112018000862 T5 DE112018000862 T5 DE 112018000862T5 DE 112018000862 T DE112018000862 T DE 112018000862T DE 112018000862 T5 DE112018000862 T5 DE 112018000862T5
Authority
DE
Germany
Prior art keywords
vehicle
image
images
display method
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018000862.2T
Other languages
English (en)
Inventor
Robert Hardy
Philip Thomas
David Wilson
Martin Edney
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jaguar Land Rover Ltd
Original Assignee
Jaguar Land Rover Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jaguar Land Rover Ltd filed Critical Jaguar Land Rover Ltd
Publication of DE112018000862T5 publication Critical patent/DE112018000862T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • B60K2360/167
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Ausführungsformen der vorliegenden Erfindung bieten ein Anzeigeverfahren zur Verwendung in einem Fahrzeug, wobei das Verfahren umfasst: Erhalten (600) von Bildern eines Bereichs außerhalb des Fahrzeugs; Speichern (608) mindestens eines Teils der erhaltenen Bilder; Erzeugen (614) eines zusammengesetzten Bildes aus einem aktuellen Bild und einem gespeicherten Bild durch Abgleichen (612) von Abschnitten des gespeicherten Bildes und des aktuellen Bildes; und Anzeigen (616) mindestens eines Teils des zusammengesetzten Bildes; wobei das zusammengesetzte Bild einen ersten Bereich umfasst, der aus dem aktuellen Bild erzeugt wurde, und einen zweiten Bereich, der aus dem gespeicherten Bild erzeugt wurde, wobei der zweite Bereich nicht innerhalb des aktuellen Bildes sichtbar ist.

Description

  • TECHNISCHER BEREICH
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zum Anzeigen von Informationen. Insbesondere, aber nicht ausschließlich, bezieht sich die vorliegende Erfindung auf ein Anzeigeverfahren zur Verwendung in einem Fahrzeug und eine Anzeigevorrichtung zur Verwendung in einem Fahrzeug. Aspekte der Erfindung beziehen sich auf ein Anzeigeverfahren, ein Computerprogrammprodukt, eine Anzeigevorrichtung und ein Fahrzeug.
  • HINTERGRUND
  • Es ist wichtig, dass einem Fahrer eines Fahrzeugs Informationen zur Verfügung gestellt werden, um das Fahrzeug sicher und präzise zu fahren. Zu den dem Fahrer zur Verfügung gestellten Informationen gehören eine Ansicht des Fahrzeugs, insbesondere vor oder vor dem Fahrzeug, sowie Informationen über das Fahrzeug, wie beispielsweise eine Geschwindigkeit des Fahrzeugs. Bei einigen Fahrzeugen, wie beispielsweise Geländewagen (SUVs) oder Allradfahrzeugen, wird die Sicht vor dem Fahrzeug teilweise durch eine Motorhaube des Fahrzeugs verdeckt, insbesondere durch einen Bereich kurz vor dem Fahrzeug. Dies kann noch verschärft werden, indem sich das Fahrzeug in einer Steigung, auf einem Kamm oder auf der Spitze einer Abfahrt befindet, wie beispielsweise beim Fahren im Gelände. Darüber hinaus kann es insbesondere beim Fahren im Gelände schwierig sein, festzustellen, wo sich das Fahrzeug im Verhältnis zu diesem Objekt befindet, sobald das Fahrzeug über einem Objekt positioniert ist. Insbesondere kann es schwierig sein, festzustellen, wo sich das Objekt in Bezug auf Teile des Fahrzeugs befindet, z.B. die Räder. Genauer gesagt, können Objekte in der Nähe eines Fahrzeugs, ohne sich direkt unter dem Fahrzeug zu befinden, vom Fahrerplatz aus schwer zu sehen sein. Die richtige Positionierung eines Fahrzeugs in Bezug auf ein Objekt kann wichtig sein, um das Risiko einer Beschädigung des Fahrzeugs zu vermeiden.
  • Es ist Gegenstand von Ausführungsformen der Erfindung, um zumindest eines oder mehrere der Probleme des Standes der Technik zu mildern. Es ist Gegenstand bestimmter Ausführungsformen der Erfindung, um dem Fahrer eines Fahrzeugs zu helfen. Es ist Gegenstand von Ausführungsformen der Erfindung, um das Verständnis des Fahrers für die Umgebung um ein Fahrzeug herum zu verbessern, auch unter dem Fahrzeug.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Aspekte und Ausführungsformen der Erfindung stellen ein Anzeigeverfahren, ein Computerprogrammprodukt, eine Anzeigevorrichtung und ein Fahrzeug gemäß den beigefügten Ansprüchen dar.
  • Gemäß einem Aspekt der Erfindung ist ein Anzeigeverfahren zur Verwendung in einem Fahrzeug vorgesehen, wobei das Verfahren umfasst: Erfassen von Bildern eines Bereichs außerhalb des Fahrzeugs; Speichern mindestens eines Teils der erfassten Bilder; Erzeugen eines zusammengesetzten Bildes aus einem aktuellen Bild und einem gespeicherten Bild durch Anpassen von Abschnitten des gespeicherten Bildes und des aktuellen Bildes; und Anzeigen mindestens eines Teils des zusammengesetzten Bildes; wobei das zusammengesetzte Bild einen ersten Bereich umfasst, der aus dem aktuellen Bild erzeugt wird, und einen zweiten Bereich, der aus dem gespeicherten Bild erzeugt wird, wobei der zweite Bereich nicht innerhalb des aktuellen Bildes sichtbar ist.
  • Das zusammengesetzte Bild kann eine 3-dimensionale, 3D-, Darstellungs- oder eine 2-dimensionale, 2D-Darstellung der das Fahrzeug umgebenden Umgebung umfassen, die sich zumindest teilweise unter dem Fahrzeug erstreckt.
  • Das Anzeigen mindestens eines Teils des zusammengesetzten Bildes kann das Erzeugen einer 2D-Darstellung mindestens eines Teils der 3D-Darstellung und das Anzeigen der 2D-Darstellung umfassen.
  • Die Bilddaten können eine Reihe von Einzelbildern (image frames) umfassen; und wobei das Verfahren ferner Folgendes umfassen kann: Bestimmen einer Position des Fahrzeugs; und Speichern einer Anzeige der Position des Fahrzeugs mit mindestens einem Teil eines Einzelbilds.
  • Passende Abschnitte des gespeicherten Bildes und des aktuellen Bildes können übereinstimmende überlappende Abschnitte des gespeicherten Bildes und des aktuellen Bildes umfassen.
  • Matching-Abschnitte des gespeicherten Bildes und des aktuellen Bildes können das Durchführen einer Musteranpassung umfassen, um sowohl im gespeicherten Bild als auch im aktuellen Bild vorhandene Merkmale zu identifizieren, wobei diese Merkmale im zusammengesetzten Bild korreliert sind.
  • Das Anzeigeverfahren kann ferner das Bestimmen eines Mustererkennungsbereichs mit einem Bereich, der innerhalb des aktuellen Bildes nicht sichtbar ist, und das Bestimmen eines gespeicherten Bildes mit Bilddaten für die Umgebung innerhalb des Mustererkennungsbereichs umfassen.
  • Das Bestimmen eines Mustererkennungsbereichs kann das Bestimmen von Koordinaten für den Mustererkennungsbereich gemäß einer aktuellen Position des Fahrzeugs umfassen.
  • Das Bestimmen eines Mustererkennungsbereichs kann ferner das Empfangen eines Signals, das eine Ausrichtung des Fahrzeugs anzeigt, und das Anpassen der Koordinaten des Mustererkennungsbereichs gemäß der Fahrzeugorientierung beinhalten.
  • Das Speichern mindestens eines Teils des aufgenommenen Bildes kann Folgendes umfassen: Speichern eines ersten erhaltenen Einzelbilds; Bestimmen eines Überlappungsgrades zwischen dem ersten erhaltenen Einzelbild und einem zweiten erhaltenen Einzelbild; und für den zweiten erhaltenen Einzelbild Speichern eines nicht überlappenden Teils des zweiten Einzelbilds.
  • Das zusammengesetzte Bild kann Bilddaten aus mehreren aktuellen Bildern, die unterschiedliche Ansichten des Fahrzeugs darstellen, und mindestens ein gespeichertes Bild beinhalten, so dass das zusammengesetzte Bild eine zusammenhängende Ansicht von mindestens einem Teil der Umgebung um das Fahrzeug herum umfasst, die sich unter dem Fahrzeug erstreckt.
  • Das Anzeigeverfahren kann ferner das Erhalten von mit dem Fahrzeug verbundenen Informationen und das Anzeigen einer grafischen Darstellung mindestens einer Komponente des Fahrzeugs innerhalb des zusammengesetzten Bildes umfassen.
  • Die mit dem Fahrzeug verbundenen Informationen können Informationen sein, die mit der mindestens einen Komponente des Fahrzeugs verbunden sind, wobei die mindestens eine Komponente des Fahrzeugs mindestens eines umfasst: ein Lenksystem des Fahrzeugs; ein oder mehrere Räder des Fahrzeugs; eine Aufhängung des Fahrzeugs oder eines Motors des Fahrzeugs; oder eine weitere mechanische Komponente des Fahrzeugs.
  • Das zusammengesetzte Bild kann angezeigt werden, um einen Teil des Fahrzeugs zu überlagern, um anzuzeigen, dass ein Teil des Fahrzeugs zumindest teilweise transparent ist.
  • Das zusammengesetzte Bild kann als durchscheinend oder über einem inneren oder äußeren Fahrzeugabschnitt dargestellt werden.
  • Die Bilddaten können von einer oder mehreren dem Fahrzeug zugeordneten Kameras gewonnen werden, die so angeordnet sind, dass sie Bilder der Umgebung um das Fahrzeug herum aufnehmen.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Computerprogrammprodukt vorgesehen, das Computerprogrammcode speichert, der bei Ausführung so angeordnet ist, dass er das oben genannte Verfahren implementiert.
  • Gemäß einem weiteren Aspekt der Erfindung ist eine Anzeigevorrichtung zur Verwendung mit einem Fahrzeug vorgesehen, umfassend: eine Bilderfassungsvorrichtung, die angeordnet ist, um Bilder eines Bereichs außerhalb des Fahrzeugs zu erhalten; eine Anzeige, die angeordnet ist, um Informationen anzuzeigen; eine Speichereinrichtung, die angeordnet ist, um mindestens einen Teil der erhaltenen Bilder zu speichern; eine Verarbeitungseinrichtung, die angeordnet ist, um: Empfangen eines aktuellen Bildes von der Bilderfassungsvorrichtung; Bewirken, dass die Speichereinrichtung mindestens einen Teil der erhaltenen Bilder speichert; Erzeugen eines zusammengesetzten Bildes aus einem aktuellen Bild und einem gespeicherten Bild durch Abgleichen von Abschnitten des gespeicherten Bildes und des aktuellen Bildes; und Bewirken, dass die Anzeige mindestens einen Teil des zusammengesetzten Bildes anzeigt; wobei das zusammengesetzte Bild einen ersten Bereich, der aus dem aktuellen Bild erzeugt wird, und einen zweiten Bereich, der aus dem gespeicherten Bild erzeugt wird, umfasst, wobei der zweite Bereich nicht innerhalb des aktuellen Bildes sichtbar ist.
  • Anzeigevorrichtung wie vorstehend beschrieben, wobei die Bilderfassungsvorrichtung eine Kamera oder eine andere Form einer Bilderfassungsvorrichtung umfasst, die zum Erzeugen und Ausgeben von Standbildern oder bewegten Bildern angeordnet ist. Die Anzeige kann einen Bildschirm umfassen, beispielsweise einen LCD-Bildschirm, der für den Einbau in ein Fahrzeug geeignet ist. Alternativ kann die Anzeige auch einen Projektor zum Erzeugen eines projizierten Bildes umfassen. Die Verarbeitungsmittel können eine Steuerung oder einen Prozessor umfassen, geeignet für die Fahrzeugsteuergeräte.
  • Die Verarbeitungsmittel können weiter angeordnet werden, um das vorstehende Verfahren anzuwenden.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Fahrzeug vorgesehen, das die obige Anzeigevorrichtung umfasst.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Anzeigeverfahren, eine Anzeigevorrichtung oder ein Fahrzeug vorgesehen, wie hierin im Wesentlichen mit Bezug auf die , und der zugehörigen Zeichnungen beschrieben.
  • Im Rahmen dieser Anwendung ist ausdrücklich vorgesehen, dass die verschiedenen Aspekte, Ausführungsformen, Beispiele und Alternativen, die in den vorstehenden Absätzen, in den Ansprüchen und/oder in den folgenden Beschreibungen und Zeichnungen dargelegt sind, und insbesondere die einzelnen Merkmale davon, unabhängig oder in beliebiger Kombination übernommen werden können. Das heißt, alle Ausführungsformen und/oder Merkmale einer Ausführungsform können in beliebiger Weise und/oder Kombination kombiniert werden, es sei denn, diese Merkmale sind nicht kompatibel. Der Anmelder behält sich das Recht vor, eine ursprünglich eingereichte Forderung zu ändern oder eine neue Forderung entsprechend einzureichen, einschließlich des Rechts, eine ursprünglich eingereichte Forderung zu ändern, um von einer anderen Forderung abhängig zu sein und/oder eine Eigenschaft einer anderen Forderung aufzunehmen, obwohl sie ursprünglich nicht auf diese Weise geltend gemacht wurde.
  • Figurenliste
  • Eine oder mehrere Ausführungsformen der Erfindung werden nun nur noch exemplarisch beschrieben, mit Bezug auf die Begleitpersonen, in denen:
    • zeigt eine Darstellung einer typischen Ansicht aus einem konventionellen Fahrzeug;
    • zeigt eine Veranschaulichung einer verbesserten Sicht aus einem Fahrzeug;
    • veranschaulicht einen Abschnitt eines Fahrzeugbetriebs, um die verbesserte Ansicht von zu ermöglichen;
    • veranschaulicht ein zusammengesetztes 3D-Bild, das von fahrzeugmontierten Kameras abgeleitet ist;
    • veranschaulicht ein zusammengesetztes 2D-Bild, insbesondere eine Vogelperspektive, das von Fahrzeugkameras abgeleitet ist;
    • veranschaulicht ein Verfahren gemäß einer Ausführungsform der Erfindung zum Bereitstellen eines zusammengesetzten Bildes;
    • veranschaulicht ein zusammengesetztes 2D-Bild, insbesondere aus der Vogelperspektive, das ein sich bewegendes Fahrzeug gemäß einer Ausführungsform der Erfindung verfolgt; und
    • veranschaulicht eine Vorrichtung gemäß einer Ausführungsform der Erfindung zur Durchführung des Verfahrens der .
  • DETAILLIERTE BESCHREIBUNG
  • veranschaulicht eine typische Ansicht 100 von einem konventionellen Fahrzeug. Der Blick erfolgt von einem Fahrzeuginnenraum durch eine Windschutzscheibe oder Windschutzscheibe 160 des Fahrzeugs nach vorne. Ein Teil einer Motorhaube oder Motorhaube 105 des Fahrzeugs ist sichtbar und erstreckt sich nach vorne von unterhalb der Windschutzscheibe 160. Das Fahrzeug fährt auf einer Fahrbahn 130, die vom Fahrzeug aus sichtbar ist. Wie zu erkennen ist, verdeckt die Motorhaube 105 den Blick auf die Fahrbahn 130 und schließt das Fahrzeug. Dieses Problem verschärft sich, wenn das Fahrzeug in Bezug auf die Fahrbahn 130 vor dem Fahrzeug geneigt ist, d.h. wenn ein Winkel zwischen dem Fahrzeug und der vorausfahrenden Fahrbahn vergrößert wird, z.B. wenn das Fahrzeug sich einem Kamm nähert oder sich oben in einer Abfahrt befindet (und noch nicht absteigt) oder auf einer kleinen Welle oder oben in einer Steigung nach oben geneigt ist. In diesen Situationen kann die Fahrbahn 130 die Sicht vom Fahrzeug aus beeinträchtigen, insbesondere weil sie von der Motorhaube 105 verdeckt wird. Es ist zu beachten, dass das vorgenannte Problem im normalen Straßenverkehr relativ gering sein kann, aber bei anspruchsvolleren Geländefahrten kann dieses Problem das Vertrauen des Fahrers in sichere Fortschritte in schwierigem Gelände erheblich mindern.
  • Generell kann davon ausgegangen werden, dass aus der Sichtposition des Fahrers die Sicht auf die vorausfahrende Fahrbahn 130 sowohl durch äußere Teile des Fahrzeugs (insbesondere die Motorhaube 105) als auch durch innere Teile des Fahrzeugs, wie beispielsweise die Karosserie um die Windschutzscheibe 160 und das Armaturenbrett, teilweise verdeckt ist. In der folgenden Beschreibung der Erfindung, wenn auf die Sicht des Fahrers oder von der Position des Fahrers verwiesen wird, sollte dies als die Sicht eines Fahrgastes betrachtet werden, obwohl bei manuell angetriebenen Fahrzeugen eindeutig die Sicht des Fahrers von größter Bedeutung ist. Insbesondere sind Teile der Fahrbahn 130 in der Nähe der Vorderseite des Fahrzeugs verschlossen. Es ist zu beachten, dass die Sicht des Fahrers auf die Umgebung, die das Fahrzeug von allen Seiten umgibt, ebenfalls durch das Sichtfeld eingeschränkt wird, das durch jede Fahrzeugscheibe aus der Sichtposition des Fahrers erreichbar ist. Im Allgemeinen kann ein Fahrer aufgrund von Einschränkungen durch die Fahrzeugkarosserie keine Teile der Umgebung in der Nähe des Fahrzeugs sehen.
  • Eine bekannte Teillösung für dieses Problem ist natürlich die Verwendung von Spiegeln, insbesondere von Außenspiegeln oder Seitenspiegeln, die eine bessere Sicht auf die Umgebung in der Nähe der Seiten des Fahrzeugs sowie auf die blinden Stellen im Allgemeinen hinter und zur Seite des Fahrzeugs ermöglichen. Es bleibt jedoch bestehen, dass bei konventionellen Fahrzeugen die Sicht für den Fahrer auf Umwelt und Gelände in unmittelbarer Umgebung des Fahrzeugs sehr eingeschränkt sein kann. Außerdem gibt es keine Sicht auf das gesamte Gelände unmittelbar unter dem Fahrzeug. Gerade beim Fahren eines Fahrzeugs im Gelände kann es wichtig sein, die Ausrichtung des Fahrzeugs in Bezug auf Objekte, z.B. Felsen, sowohl in der Umgebung als auch unter dem Fahrzeug zu erfassen, um Schäden am Fahrzeug zu vermeiden. Dies kann in der Regel nur dadurch geschehen, dass sich der Fahrer an das Gelände erinnert, während das Fahrzeug vorwärts fährt, und visualisiert, wo das Fahrzeug in Bezug auf Objekte stehen muss, wenn sie aus dem Sichtfeld des Fahrers verschwinden und insbesondere unter dem Fahrzeug hindurchgehen, oder dass der Fahrer das Fahrzeug verlässt und seine Position in Bezug auf Objekte überprüft, die eine Bedrohung darstellen können. Dies erfordert natürlich Geschick und Übung des Fahrers, und selbst dann ist es ungenau.
  • Es wird immer häufiger, dass Fahrzeuge mit einer oder mehreren Videokameras ausgestattet werden, um Live-Videobilder (oder Standbilder) der Umgebung eines Fahrzeugs zu liefern. Diese Bilder können dann zum Wohle des Fahrers angezeigt werden, z.B. auf einem am Armaturenbrett montierten Bildschirm. Insbesondere ist es bekannt, dass ein Kamerasystem mit mindestens einer Kamera in Richtung Fahrzeugheck, die im Allgemeinen hinter dem Fahrzeug und nach unten gerichtet ist, um Live-Videobilder zur Unterstützung eines rückwärts fahrenden Fahrers bereitzustellen (wobei die natürliche Sicht des Fahrers auf die Umgebung unmittelbar hinter dem Fahrzeug besonders eingeschränkt ist). Es ist bekannt, dass mehrere solcher Kamerasysteme zur Verfügung stehen, um Livebilder der Umgebung, die das Fahrzeug umgibt, auf mehreren Seiten zu liefern, zum Beispiel auf einem am Armaturenbrett montierten Bildschirm. So kann beispielsweise ein Fahrer selektiv verschiedene Kamerabilder anzeigen, um die Positionen von Objekten in der Nähe jeder Seite des Fahrzeugs zu ermitteln. Diese Kameras können extern am Fahrzeug oder intern und nach außen und unten durch die Fahrzeugscheibe gerichtet positioniert werden, um Bilder aufzunehmen.
  • Diese Kameras können in unterschiedlichen Höhen in Bezug auf den Boden, auf dem das Fahrzeug steht, vorgesehen werden, z. B. im Allgemeinen auf Dachhöhe, Fahreraugenhöhe oder an einem geeigneten unteren Standort, um zu vermeiden, dass die Fahrzeugkarosserie ihre Sicht auf die Umgebung unmittelbar neben dem Fahrzeug verdeckt. Obwohl diese Kamerasysteme eine deutliche Verbesserung gegenüber dem natürlichen Sichtfeld des Fahrers darstellen, helfen sie jedoch nicht bei der Bestimmung der Position von Objekten unter dem Fahrzeug. Es könnte davon ausgegangen werden, dass die Lösung für diese Unfähigkeit, das Gelände unter einem Fahrzeug zu sehen, darin besteht, eine oder mehrere Kameras unter dem Fahrzeug oder an der Seite des Fahrzeugs zu positionieren und unter das Fahrzeug zu richten. Die Unterseite eines Fahrzeugs ist jedoch kein vielversprechender Bereich für die Bilderfassung, da sie schlecht beleuchtet ist. Darüber hinaus sind Kameras, die sich im Allgemeinen unter einem Fahrzeug befinden, einem erheblichen Beschädigungsrisiko durch den Kontakt mit Objekten wie Felsen ausgesetzt.
  • Eine Lösung für das oben beschriebene Problem der schlechten Visualisierung der Fahrbahn vor einem Fahrzeug wird nun in Bezug auf die und beschrieben. Das Fahrzeug kann ein Landfahrzeug, wie beispielsweise ein Radfahrzeug, sein. veranschaulicht eine verbesserte Vorwärtsansicht 200. Die Ansicht 200 erfolgt von einem Innenraum des Fahrzeugs nach vorne durch eine Windschutzscheibe oder Windschutzscheibe 260 des Fahrzeugs, wie in dargestellt. Ein Teil einer Motorhaube oder Motorhaube 205 des Fahrzeugs ist sichtbar und erstreckt sich nach vorne von unterhalb der Windschutzscheibe 260. Das Fahrzeug fährt entlang einer Schiene oder Fahrbahn 230, von der ein Teil von innen durch die Windschutzscheibe 260 sichtbar ist.
  • Das in gezeigte Fahrzeug umfasst ein Anzeigemittel, das angeordnet ist, um Informationen 240, 250 darüber anzuzeigen. Die Informationen 240, 250 werden so angezeigt, dass sie einen Teil des Fahrzeugs überdecken. Die überlagerten angezeigten Informationen vermitteln den Eindruck, dass ein Teil des Fahrzeugs aus Sicht des Fahrers zumindest teilweise transparent ist. Die angezeigten Informationen stellen eine Darstellung dessen dar, was entlang einer Sichtlinie durch das Fahrzeug sichtbar wäre, wäre da nicht die Tatsache, dass ein Teil des Fahrzeugs diese Sichtlinie verschließt.
  • Wie in dargestellt, werden die Informationen 240, 250 angezeigt, um einen Teil der Fahrzeugkarosserie, in diesem Fall die Motorhaube 205 des Fahrzeugs, zu überdecken. Es wird festgestellt, dass durch die Erweiterung die Informationen 240, 250 angezeigt werden können, um andere interne oder externe Teile des Fahrzeugs zu überlagern. Die Informationen 240, 250 sind so angeordnet, dass sie über der Motorhaube 205 des Fahrzeugs aus Sicht des Fahrers des Fahrzeugs liegen. Die Anzeigemittel können so angeordnet sein, dass sie Informationen 240, 250 darauf transparent anzeigen, so dass der Abschnitt der Fahrzeugkarosserie unterhalb der angezeigten Informationen zumindest noch schwach wahrgenommen werden kann. Dies kann besonders für neue, mit dem System nicht vertraute Benutzer hilfreich sein und ihnen helfen, die auf den Anzeigemitteln dargestellten Informationen zu verstehen.
  • Das Anzeigemittel kann ein Head-up-Anzeigemittel umfassen, um Informationen in einer Head-up-Anordnung für mindestens den Fahrer des Fahrzeugs anzuzeigen. Das Head-up-Display kann Teil der Windschutzscheibe 260 sein, aus ihr bestehen oder proximal zu ihr angeordnet sein, so dass die Informationen 240, 250 angezeigt werden, die über der Motorhaube 205 des Fahrzeugs liegen. Mit Überlagerung ist gemeint, dass die angezeigten Informationen 240, 250 auf (oder vor) der Motorhaube 205 erscheinen. Sollen Bilder anderer Teile der Umgebung, die das Fahrzeug umgeben, angezeigt werden, kann das Head-up-Display ähnlich wie bei einem anderen Fenster des Fahrzeugs angeordnet sein. Eine Alternative ist, dass die Anzeigemittel ein Projektionsmittel umfassen. Die Projektionsmittel können so angeordnet sein, dass sie ein Bild auf einen Innenabschnitt des Fahrzeugs projizieren, wie beispielsweise auf ein Armaturenbrett, einen Türinnenraum oder andere Innenteile des Fahrzeugs. Das Projektionsmittel kann eine Laservorrichtung zum Projizieren des Bildes auf den Fahrzeuginnenraum umfassen.
  • Ein Verfahren zum Bereitstellen der verbesserten Ansicht von beginnt mit dem Erhalten von Informationen, die dem Fahrzeug zugeordnet sind, oder von Bilddaten. Die Informationen oder Bilddaten können durch ein Verarbeitungsmittel, wie beispielsweise eine Verarbeitungsvorrichtung, gewonnen werden. Die mit dem Fahrzeug verbundenen Informationen können beispielsweise mit einem der Lenksysteme des Fahrzeugs, einem oder mehreren Rädern des Fahrzeugs oder der Aufhängung des Fahrzeugs verknüpft sein. Im beschriebenen Beispiel ist die Information ein Lenkwinkel der Räder. Die Informationen können von der Verarbeitungsvorrichtung von einem oder mehreren Lenkwinkelsensoren bezogen werden. Die Informationen können von der Verarbeitungsvorrichtung erhalten werden, die Informationen von einem Kommunikationsbus des Fahrzeugs empfängt, wie beispielsweise einem CAN-Bus, wobei der Kommunikationsbus jedoch auf anderen Protokollen wie Ethernet basieren kann. Andere Formen des digitalen Datenbusses sind nützlich.
  • Die Bilddaten können sich auf einen Bereich vor dem Fahrzeug beziehen. Die Bilddaten können von der Verarbeitungsvorrichtung aus einem oder mehreren dem Fahrzeug zugeordneten Bildaufnahmemitteln, wie beispielsweise Kameras, gewonnen werden. Wie in Verbindung mit erläutert, kann eine Kamera an einer Vorderseite des Fahrzeugs montiert werden, um von dort aus nach vorne zu schauen - von dort aus in eine Fahrtrichtung des Fahrzeugs. Wenn sich die betreffenden Bilder auf einer anderen Seite des Fahrzeugs befinden, wird die Kameraposition entsprechend verschoben. Die Kamera kann so angeordnet sein, dass Bilddaten der Umgebung vor dem Fahrzeug erhalten werden, die nicht durch die Motorhaube 205 verdeckt sind. Wie im Folgenden näher beschrieben, ermöglicht eine angemessene zeitliche Verschiebung der Bilder während der Vorwärtsfahrt des Fahrzeugs Bilder, die einer Ansicht des Fahrers oder eines Fahrgastes entsprechen, ohne dass die Motorhaube 205 vorhanden ist, um den Anzeigemitteln zur Verfügung gestellt zu werden. Das heißt, die Anzeigemittel können Bilddaten ausgeben, die vom Fahrer wahrgenommen würden, wenn die Motorhaube 205 nicht vorhanden wäre, d.h. die Sicht des Fahrers nicht behindert.
  • Wie in dargestellt, die einen vorderen Abschnitt eines Fahrzeugs 300 in der Seitenansicht veranschaulicht, kann eine Kamera 310 an einer Vorderseite des Fahrzeugs montiert werden, die niedriger ist als eine Ebene der Motorhaube 305, wie beispielsweise hinter einem Gitter des Fahrzeugs 300. Alternativ oder zusätzlich kann eine Kamera 320 über dem Platz der Motorhaube 305 positioniert werden, z.B. auf Dachhöhe oder in einem oberen Bereich der Windschutzscheibe 360 des Fahrzeugs. Das Sichtfeld jeder Kamera kann im Allgemeinen nach vorne und leicht nach unten gerichtet sein, um Bilddaten für einen Teil des Bodens vor dem aktuellen Standort des Fahrzeugs auszugeben. Jede Kamera gibt Bilddaten aus, die einem Standort vor dem Fahrzeug 300 entsprechen. Es wird festgestellt, dass die Kamera an anderen Stellen montiert und beweglich montiert werden kann, um sich um eine Achse zu drehen, so dass ein Blickwinkel der Kamera vertikal steuerbar ist. Eine vertikale Position der Kamera kann ebenfalls gesteuert werden. Die bewegliche Kamera kann so angeordnet werden, dass sie unabhängig von einer Neigung des Fahrzeugs in einer im Wesentlichen konstanten horizontalen Achse betrachtet werden kann. So kann beispielsweise die Kamera so angeordnet sein, dass sie auch bei geneigtem Fahrzeug allgemein horizontal betrachtet werden kann. Es ist jedoch zu beachten, dass die Kamera so angeordnet sein kann, dass sie nicht horizontal ausgerichtet ist. Die Kamera kann so angeordnet sein, dass sie eine im Allgemeinen konstante Abwärtsausrichtung aufweist, um zu sehen, und Bilddaten liefert, die einem Bereich vor dem Fahrzeug entsprechen. Bei entsprechender Verzögerung, wie sie beschrieben wird, kann das Anzeigemittel Bilddaten anzeigen, die einem Bereich vor dem Fahrzeug entsprechen, der durch die Motorhaube 205 aus der Sicht des Fahrers verdeckt ist. Der Bereich kann beispielsweise ein Bereich sein, der bis zu 10 oder 20 m vor dem Fahrzeug liegt.
  • Der nächste Schritt des Verfahrens zum Bereitstellen der verbesserten Ansicht von ist das Erzeugen einer grafischen Darstellung von mindestens einer Komponente des Fahrzeugs mit einem oder mehreren Merkmalen basierend auf den dem Fahrzeug zugeordneten Informationen und einer grafischen Darstellung der Bilddaten. Die Darstellung mindestens einer Komponente und die Bilddaten können durch eine Verarbeitungsvorrichtung erzeugt werden. Alternativ kann es sein, dass nur die Darstellung mindestens einer Komponente oder nur die Darstellung der Bilddaten erzeugt werden kann.
  • Die Darstellung, insbesondere der Bilddaten, aber optional auch der mindestens einen Komponente, kann so erzeugt werden, dass sie einer Perspektive aus Sicht des Fahrers entspricht oder entspricht. So kann beispielsweise eine Bildverarbeitung der Bilddaten durchgeführt werden, um eine Perspektive der Bilddaten anzupassen. Die Perspektive kann angepasst werden, um einer Perspektive eines Objekts der Bilddaten aus der Sicht des Fahrers im Fahrzeug zu entsprechen oder näher zu sein.
  • Der Bildverarbeitungsvorgang umfasst eine Verzögerung, die in die Bilddaten eingebracht wird. Die Verzögerungszeit kann sich auf eine Fahrgeschwindigkeit des Fahrzeugs beziehen. Die Verzögerung kann es ermöglichen, dass die angezeigte Darstellung basierend auf den von der Kamera erhaltenen Bilddaten einem aktuellen Standort des Fahrzeugs entspricht. Wenn sich die Bilddaten beispielsweise für einen Ort etwa 20 m vor dem Fahrzeug befinden, kann die Verzögerung dazu führen, dass sich der Standort des Fahrzeugs dem Standort der Bilddaten annähert, so dass, wenn die Darstellung angezeigt wird, der den Bilddaten entsprechende Ort derjenige ist, der durch die Motorhaube 205 aus der Sicht des Fahrgastes verdeckt wird. Auf diese Weise entspricht die angezeigte Darstellung einer aktuellen Ansicht des Fahrers. Es ist zu beachten, dass die Verzögerung auch in Abhängigkeit von der Betrachtungsposition des Fahrers variabel sein kann, da die Betrachtungsposition des Fahrers den Teil der Fahrbahn beeinflusst, der durch die Motorhaube 205 verdeckt ist. Der Bildverarbeitungsvorgang kann von der Verarbeitungsvorrichtung durchgeführt werden.
  • Nach der Generierung wird die Darstellung angezeigt. Die Darstellung wird so dargestellt, dass ein Teil der Fahrzeugkarosserie aus der Sicht des Betrachters, wie beispielsweise aus der Sicht des Fahrers, überlagert wird. Das Verfahren kann kontinuierlich in einer Schleife durchgeführt werden, bis ein vorgegebenes Ereignis eintritt, wie beispielsweise ein Benutzer, der das Verfahren unterbricht, beispielsweise durch Aktivieren einer Steuerung innerhalb des Fahrzeugs. Es wird festgestellt, dass das vorgegebene Ereignis aus anderen Quellen bereitgestellt werden kann.
  • Die Darstellung kann auf einer innerhalb des Fahrzeugs vorgesehenen Anzeigevorrichtung angezeigt werden, so dass die angezeigten Informationen über einem Teil des Fahrzeugs unter der Kontrolle einer Verarbeitungsvorrichtung liegen. Die Verarbeitungsvorrichtung kann ferner angeordnet sein, um Informationen zu bestimmen, die einem Fahrzeug zugeordnet sind, oder um Bilddaten für einen Bereich vor dem Fahrzeug zu empfangen, und um die Anzeigevorrichtung zu veranlassen, eine grafische Darstellung mindestens einer Komponente des Fahrzeugs mit einem oder mehreren Merkmalen basierend auf den dem Fahrzeug zugeordneten Informationen oder eine Darstellung der Bilddaten anzuzeigen. Die von der Verarbeitungsvorrichtung empfangenen Informationen können einen Lenkwinkel der Räder des Fahrzeugs oder Bilddaten beinhalten, die von einer oder mehreren Kameras ausgegeben werden. Die Informations- oder Bilddaten können von der Verarbeitungsvorrichtung von einem Kommunikationsbus des Fahrzeugs oder über einen speziellen Kommunikationskanal, wie beispielsweise eine Videoübertragung von einer oder mehreren Kameras, empfangen werden.
  • Die von der Verarbeitungsvorrichtung erzeugte grafische Darstellung kann eine Darstellung der Räder des Fahrzeugs sein, wie in dargestellt, obwohl die Darstellung auch andere Komponenten des Fahrzeugs sein kann, wie beispielsweise ein Federungssystem, eine Achse des Fahrzeugs, ein Motor des Fahrzeugs oder eine andere allgemein mechanische Komponente des Fahrzeugs. Die Verarbeitungsvorrichtung kann eine oder mehrere Bildverarbeitungsoperationen an der Darstellung durchführen, wie z.B. das Ändern einer Perspektive der Bilddaten und/oder das Einbringen einer Verzögerung der Bilddaten wie vorstehend beschrieben. Die Perspektive der Bilddaten kann an einen Betrachtungswinkel des Fahrers angepasst werden. Die Verarbeitungsvorrichtung kann so angeordnet sein, dass sie Bilddaten empfängt, die einer Ansicht des Fahrers entsprechen, und ihre Blickrichtung basierend darauf bestimmt, beispielsweise basierend auf der Augenposition des Fahrers, oder dass sie von einem anderen Subsystem des Fahrzeugs Daten empfängt, die die Blickrichtung des Fahrers anzeigen. Die Bilddaten können auch verarbeitet werden, um die Darstellung an eine Form der Fahrzeugkarosserie anzupassen, z.B. an Konturen in der Motorhaubenform des Fahrzeugs.
  • Die Anzeigevorrichtung kann einen Projektor zum Projizieren von Licht umfassen, der von der Verarbeitungsvorrichtung funktionsfähig gesteuert wird, um die Darstellung durch Abstrahlung von Licht auf einen optischen Kombinierer zu projizieren. Die Projektionsvorrichtung und der Kombinator bilden zusammen ein Head-up-Display (HUD). Wenn von der Projektionsvorrichtung kein Licht abgegeben wird, ist die Kombiniervorrichtung für den Fahrer des Fahrzeugs im Allgemeinen nicht wahrnehmbar, aber wenn Licht von der Projektionsvorrichtung projiziert wird und auf die Kombiniervorrichtung trifft, wird ein Bild vom Fahrgast darauf betrachtet. Die Kombiniervorrichtung ist so positioniert, dass ein Bild, das der Fahrer darauf betrachtet, einen Teil der Fahrzeugkarosserie als Motorhaube zu überdecken scheint. Das heißt, das Bild erscheint über der Motorhaube. Die angezeigte Darstellung ermöglicht es dem Fahrer, eine Position und Richtung der Räder des Fahrzeugs sowie eine Position und Richtung der Fahrbahn, auf der das Fahrzeug fährt, zu erkennen, was besonders für das Fahren im Gelände nützlich ist. Zusätzlich zur Darstellung der in dargestellten Radpositionen kann das HUD zusätzliche Fahrzeuginformationen anzeigen, die sonst dem Fahrer über eine alternative Armaturenbrettanzeige angezeigt werden könnten, z. B. die Fahrzeuggeschwindigkeit.
  • Für die vorstehend beschriebene verbesserte Vorwärtssicht des Fahrers in Verbindung mit den und wird ein Bild angezeigt, das über einem äußeren Teil des Fahrzeugs liegt. Wie bereits erwähnt, ist dieses Konzept erweiterbar, um ein Bild anzuzeigen, das von einer Kamera abgeleitet ist, die Bilder der Umgebung um ein Fahrzeug herum aufnimmt, so dass auch mindestens ein Teil eines Fahrzeuginnenraums darüber liegt. Wie bereits erwähnt, kann aus der Sicht eines Fahrers eine Sicht außerhalb des Fahrzeugs sowohl durch die Karosserie des Fahrzeugs außerhalb eines Fahrgastraums des Fahrzeugs, beispielsweise der Motorhaube, als auch durch Innenteile des Fahrzeugs, wie beispielsweise die Innenseite einer Tür, verdeckt werden. Um dieses breitere Problem anzugehen, können ein oder mehrere weitere HUDs mit einer oder mehreren anderen Fahrzeugscheiben als der Windschutzscheibe kombiniert oder in diese eingebaut werden. Alternativ oder zusätzlich kann ein Innenanzeigemittel ein Bildinneres des Fahrzeugs zum Anzeigen eines oder beider Bilddaten und/oder eine Darstellung einer oder mehrerer Komponenten des Fahrzeugs bereitstellen. Die Innenanzeigemittel können mindestens eine Projektionsvorrichtung zum Projizieren eines Bildes auf die Innenflächen des Fahrzeugs umfassen. Die Innenflächen können ein Armaturenbrett oder eine Instrumententafel, einen Türinnenraum oder andere Innenflächen des Fahrzeugs umfassen. Die Projektionsvorrichtung kann in einer erhöhten Position innerhalb des Fahrzeugs angeordnet werden, um die Bilder nach unten auf die Innenflächen des Fahrzeugs zu projizieren. Die Head-up-Anzeigemittel und die Innenanzeigemittel können beide kommunikativ mit einer Steuervorrichtung gekoppelt sein, wie sie in dargestellt ist, die so angeordnet ist, dass sie Bilddaten für die Anzeige dazwischen teilt. Auf diese Weise ermöglicht ein gemeinsam zwischen den Head-up-Anzeigemitteln und den Innenanzeigemitteln erzeugtes Bild eine bessere Sicht auf Objekte außerhalb des Fahrzeugs. Der Blick kann nicht nur im Allgemeinen vor dem Fahrer, sondern auch auf eine Seite des Fahrers oder Beifahrers gerichtet werden, wenn Bilder auf Innenflächen des Fahrzeugs projiziert werden, die Bilddaten außerhalb des Fahrzeugs und/oder einer oder mehrerer Komponenten des Fahrzeugs anzeigen.
  • Während die in veranschaulichte verbesserte Vorwärtsansicht dem Fahrer hilft, Objekte in der Nähe der Fahrzeugfront zu identifizieren, die von der Motorhaube verdeckt werden, ist sie nach dem Unterfahren der Objekte nicht mehr hilfreich. Gemäß den Ausführungsformen der vorliegenden Erfindung, die nun beschrieben werden soll, kann das Problem, dass der Fahrer das Gelände unter einem Fahrzeug nicht sehen kann, durch die Verwendung von historischem (d.h. zeitverzögertem) Videomaterial aus einem Fahrzeugkamerasystem, beispielsweise dem in dargestellten Fahrzeugkamerasystem, gelöst werden. Ein geeignetes Fahrzeugkamerasystem umfasst eine oder mehrere Videokameras, die auf einem Fahrzeug positioniert sind, um Videobilder der Umgebung des Fahrzeugs aufzunehmen, die zur Unterstützung des Fahrers angezeigt werden können.
  • Es ist bekannt, dass Videobilder (oder Standbilder) von mehreren fahrzeugmontierten Kameras aufgenommen werden und ein zusammengesetztes Bild bilden, das die Umgebung um das Fahrzeug herum darstellt. Unter Bezugnahme auf veranschaulicht dieses schematisch ein solches zusammengesetztes Bild um ein Fahrzeug 400 herum. Insbesondere können die mehreren Bilder zu einem dreidimensionalen (3D) zusammengesetzten Bild kombiniert werden, das beispielsweise im Allgemeinen halbkugelförmig sein kann, wie in der Übersicht 402 dargestellt. Diese Kombination von Bildern kann als Stitching bezeichnet werden. Die Bilder können Standbilder oder Live-Videobilder sein. Das zusammengesetzte Bild entsteht, indem die von jeder Kamera erhaltenen Bilder auf einen geeigneten Teil der Hemisphäre abgebildet werden. Bei einer ausreichenden Anzahl von Kameras und deren geeigneter Platzierung auf dem Fahrzeug, um angemessene Sichtfelder zu gewährleisten, ist zu beachten, dass sich das zusammengesetzte Bild somit rund um das Fahrzeug und von der Unterkante des Fahrzeugs auf allen Seiten bis zu einer vorbestimmten Horizonthöhe erstrecken kann, die durch die Oberkante 404 der Halbkugel 402 dargestellt wird. Es ist zu beachten, dass es nicht unbedingt erforderlich ist, dass sich das zusammengesetzte Bild über den gesamten Bereich des Fahrzeugs erstreckt. Unter bestimmten Umständen kann es beispielsweise wünschenswert sein, nur Kamerabilder zu nähen, die im Allgemeinen in Fahrtrichtung des Fahrzeugs und in beide Seiten - Richtungen, in die das Fahrzeug gefahren werden kann - projizieren. Dieses halbkugelförmige Verbundbild kann als Schale bezeichnet werden. Natürlich kann das zusammengesetzte Bild nicht auf eine genaue Halbkugel abgebildet werden, da sich die Bilder des zusammengesetzten Bildes höher oder niedriger oder sogar über die Oberseite des Fahrzeugs erstrecken können, um im Wesentlichen eine zusammengesetzte Bildkugel zu bilden. Es wird darauf hingewiesen, dass die Bilder alternativ auf jede das Fahrzeug umgebende 3D-Form abgebildet werden können, z.B. auf einen Würfel, Zylinder oder eine komplexere geometrische Form, die durch die Anzahl und Position der Kameras bestimmt werden kann. Es wird zu schätzen wissen, dass die Größe des zusammengesetzten Bildes durch die Anzahl der Kameras und deren Kamerawinkel bestimmt wird. Das zusammengesetzte Bild kann durch geeignete Skalierung und / oder Streckung der von jeder Kamera abgeleiteten Bilder gebildet werden, um sich lückenlos aneinander anzupassen (in einigen Fällen können jedoch Lücken entstehen, wenn die aufgenommenen Bilder keine 360-Grad-Ansicht um das Fahrzeug herum umfassen).
  • Das zusammengesetzte Bild kann dem Benutzer gemäß allen geeigneten Anzeigemitteln angezeigt werden, z. B. dem oben beschriebenen Head-Up-Display, Projektionssystemen oder am Armaturenbrett montierten Anzeigesystemen. Während es wünschenswert sein kann, mindestens einen Teil des 3D-Verbundbildes anzuzeigen, das beispielsweise von einer internen Position aus in einer ausgewählten Betrachtungsrichtung betrachtet wird, kann optional eine 2-dimensionale (2D) Darstellung eines Teils des 3D-Verbundbildes angezeigt werden. Gemäß einigen anderen Ausführungsformen kann es sein, dass nie ein zusammengesetztes 3D-Bild entsteht - die von den Kameras abgeleiteten Videobilder werden nur auf eine 2D-Draufsicht der Umgebung um das Fahrzeug abgebildet. Dies kann eine Seitenansicht sein, die sich vom Fahrzeug aus erstreckt, oder eine Draufsicht, wie sie in dargestellt ist.
  • zeigt ein zusammengesetztes Bild 500 aus der Vogelperspektive der Umgebung eines Fahrzeugs 502, das auch als Draufsicht bezeichnet wird. Eine solche Draufsicht kann problemlos auf einem herkömmlichen Bildschirm im Fahrzeuginneren dargestellt werden und liefert dem Fahrer nützliche Informationen über die Umgebung um das Fahrzeug 502 herum, die sich bis nahe an die Seiten des Fahrzeugs erstreckt. Wie bereits erwähnt, kann es von der Fahrposition aus schwierig oder sogar unmöglich sein, den Boden unmittelbar neben dem Fahrzeug zu sehen, so dass die Draufsicht von eine wichtige Hilfe für den Fahrer ist. Der Boden unter dem Fahrzeug bleibt von einer Kamera-Liveansicht verdeckt und kann daher typischerweise im zusammengesetzten Bild 500 durch einen Rohlingsbereich 502 an der Position des Fahrzeugs oder eine Darstellung eines Fahrzeugs zum Füllen des Rohlings dargestellt werden. Ohne die Bereitstellung von Kameras unter dem Fahrzeug, was, wie vorstehend erläutert, unerwünscht ist, für ein zusammengesetztes Bild, das ausschließlich aus gestickten Live-Kamerabildern gebildet wird, ist der Boden unter dem Fahrzeug nicht sichtbar.
  • Gemäß den Ausführungsformen der vorliegenden Erfindung können zusätzlich zu den Kameras, die zur Erzeugung eines zusammengesetzten Livebildes der das Fahrzeug umgebenden Umgebung verwendet werden, historische Bilder in das zusammengesetzte Bild integriert werden, um Bilder zu liefern, die das Gelände unter dem Fahrzeug - also das Gelände innerhalb der Fahrzeuggrenze - darstellen. Unter historischen Bildern versteht man Bilder, die zuvor vom Fahrzeugkamerasystem aufgenommen wurden, zum Beispiel Bilder des Bodens vor oder hinter dem Fahrzeug; das Fahrzeug ist anschließend über diesen Teil des Bodens gefahren. Die historischen Bilder können Standbilder oder Videobilder oder Einzelbilder aus Videobildern sein. Solche historischen Bilder können verwendet werden, um den leeren Bereich 502 in zu füllen. Es wird anerkannt, dass insbesondere für Geländesituationen die Fähigkeit, das Gelände im Bereich unter dem Fahrzeug zu sehen (streng genommen eine Darstellung des Geländes, die aus historischen Bildern abgeleitet ist, die aufgenommen wurden, bevor das Fahrzeug das Gelände verdunkelte) es dem Fahrer ermöglicht, die Fahrzeugposition und insbesondere die Fahrzeugräder fein einzustellen. Was die verbesserte Darstellung von betrifft, so können neben diesem aus Live- und historischen Videobildern gebildeten Verbundbild auch Darstellungen von Fahrzeugsystemen oder -komponenten, wie beispielsweise die Radpositionen, in das Verbundbild integriert werden. Die vorstehende Beschreibung in Bezug auf bezüglich der Beschaffung von Informationen über Fahrzeugsysteme und der Erzeugung von Darstellungen solcher Fahrzeugsysteme sollte als gleichwertig für die Diskussion eines zusammengesetzten Bildes im Folgenden angesehen werden.
  • Das zusammengesetzte Bild kann durch Kombination der Live- und historischen Videobilder gebildet werden, insbesondere durch eine Musteranpassung, um die historischen Bilder an die Livebilder anzupassen und dadurch den leeren Bereich im zusammengesetzten Bild, der den Bereich unter dem Fahrzeug umfasst, zu füllen. Das Surround-Kamerasystem umfasst mindestens eine Kamera und einen Puffer, der so angeordnet ist, dass er Bilder speichert, während das Fahrzeug entlang einer Strecke fährt. Der Fahrzeugpfad kann mit allen geeigneten Mitteln bestimmt werden, einschließlich, aber nicht beschränkt auf ein Satellitenpositionierungssystem wie GPS (Global Positioning System), IMU (Inertial Measurement Unit), Radzecken (Tracking Rotation der Räder, kombiniert mit dem Wissen über den Radumfang) und Bildverarbeitung, um die Bewegung entsprechend der Verschiebung von Bildern zwischen den Bildern zu bestimmen. An Stellen, an denen sich der leere Bereich der Livebilder mit gepufferten Bildern überschneidet, wird der Bereich des aus verzögerten Videobildern kopierten leeren Bereichs durch Bildverarbeitung musterangepasst, um mit den Live-Kamerabildern kombiniert zu werden, die den Rest des zusammengesetzten Bildes bilden.
  • Vorteilhafterweise bieten Ausführungsformen der vorliegenden Erfindung ein Verfahren zur Anzeige der Position aller Räder eines Fahrzeugs und der gesamten Fahrzeugbodenfreiheit in Kombination mit Live-Bildern der Umgebung um das Fahrzeug herum. Dies sorgt für verbesserte Fahrerinformationen, die es ihnen ermöglichen, sicher und zuverlässig voranzukommen, insbesondere bei Fahrten durch unwegsames Gelände. Der Einsatz von Pattern-Matching bietet besondere Verbesserungen bei der Kombination von Live- und historischen Bildern.
  • Unter Bezugnahme auf veranschaulicht dies ein Verfahren zum Bilden eines zusammengesetzten Bildes aus Live-Videobildern und historischen Videobildern gemäß einer Ausführungsform der vorliegenden Erfindung. Bei Schritt 600 werden Live-Videobilder aus dem Fahrzeugkamerasystem gewonnen. Die Bilddaten können, wie bereits erläutert, von einer oder mehreren Kameras außerhalb des Fahrzeugs bereitgestellt werden. Insbesondere können eine oder mehrere Kameras so angeordnet sein, dass sie vor oder hinter dem Fahrzeug an einem Betrachtungspunkt mit einem vorbestimmten Abstand vor dem Fahrzeug in allgemein nach unten gerichteter Richtung sehen. Es ist zu beachten, dass diese Kameras geeignet positioniert werden können, um Bilder von Bodenbereichen aufzunehmen, die später durch das Fahrzeug verdeckt werden können.
  • Bei Schritt 602 werden die Live-Bilder zu einem zusammengesetzten 3D-Bild (z.B. dem oben in Verbindung mit beschriebenen Bild „Schale“) oder einem zusammengesetzten 2D-Bild zusammengefügt. Geeignete Techniken zur Kombination von Videobildern sind dem Fachmann bekannt. Es versteht sich, dass das zusammengesetzte Bild kontinuierlich gemäß den 3D-Bildern gebildet oder auf Einzelbildbasis verarbeitet werden kann. Jedes Einzelbild oder vielleicht nur ein Teil der Einzelbilder, wie beispielsweise jedes n-te Einzelbild für mindestens einige der Kameras, wird gespeichert, um historische Bilder in einen leeren Bereich des aktuell angezeigten zusammengesetzten Bildes einzufügen (dies kann als Live-Toter-WinkelBereich oder leerer Bereich bezeichnet werden). Wenn beispielsweise das Verbundbild 500 aus der Vogelperspektive von auf einem Bildschirm dargestellt wird, ist der Bereich des lebenden blinden Flecks der leere Bereich 502.
  • Gemäß bestimmten Ausführungsformen dürfen zur Einschränkung der Bildspeicheranforderungen nur Videobilder von Kameras gespeichert werden, die im Allgemeinen nach vorne (oder vorwärts und rückwärts) gerichtet sind, da es nur notwendig ist, Bilder des Bodens vor dem Fahrzeug (oder vor und hinter dem Fahrzeug) zu speichern, über das das Fahrzeug später fahren kann, um historische Bilder zum Einfügen in den Live-Toten Winkelbereich zu liefern. Um den Speicherbedarf weiter zu reduzieren, kann es sein, dass nicht jeder einzelne Bildausschnitt vollständig gespeichert ist. Für eine ausreichend schnelle gespeicherte Bildrate (oder langsame Fahrgeschwindigkeit) kann es zu erheblichen Überschneidungen zwischen aufeinanderfolgenden Bildern (oder intermittierenden Bildern, die zur Speicherung bestimmt sind, wenn nur jedes n-te Bild gespeichert werden soll) kommen, so dass nur ein von einem Bild zum Speichern zum nächsten abweichender Bildabschnitt gespeichert werden kann, zusammen mit ausreichenden Informationen, um diesen Abschnitt mit dem vorhergehenden Bild zu kombinieren. Ein solcher Bildabschnitt kann als Band oder Bildabschnitt bezeichnet werden. Es wird darauf hingewiesen, dass, abgesehen von einem anfänglich gespeicherten Einzelbilds, jedes gespeicherte Einzelbilds nur die Speicherung eines Bandes erfordern kann. Es kann wünschenswert sein, ein Ganzbild periodisch zu speichern, um das Risiko von Verarbeitungsfehlern zu minimieren, die verhindern, dass Bilder aus gespeicherten Bildstreifen wiederhergestellt werden. Diese Identifizierung von Überlappungsbereichen zwischen Bildern kann durch geeignete bekannte Bildverarbeitungstechniken durchgeführt werden, die auch Musterabgleiche beinhalten können, d.h. übereinstimmende Bildabschnitte von Bildern, die einem zu speichernden Einzelbildpaar gemeinsam sind. So kann beispielsweise der Musterabgleich bekannte Bildverarbeitungsalgorithmen zum Erkennen von Kantenmerkmalen in Bildern verwenden, die daher den Umriss von Objekten in Bildern angemessen identifizieren können, wobei diese Umrisse in einem Bildpaar identifiziert werden, um den Grad der Bildverschiebung zwischen dem Paar aufgrund der Fahrzeugbewegung zu bestimmen.
  • Jedes gespeicherte Einzelbild oder Teilbild (oder Bildstreifen) wird in Kombination mit Fahrzeugpositionsdaten gespeichert. Daher werden parallel zur Aufnahme von Livebildern bei Schritt 600 und zur Livebildverarbeitung bei Schritt 602 bei Schritt 604 Fahrzeugpositionierungsinformationen empfangen. Die Fahrzeugpositionierungsinformationen werden verwendet, um den Fahrzeugstandort bei Schritt 606 zu bestimmen. Die Fahrzeugposition kann als Koordinate ausgedrückt werden, zum Beispiel als kartesische Koordinate, die die X-, Y- und Z-Position angibt. Die Fahrzeugposition kann absolut oder relativ zu einem vorgegebenen Punkt sein. Die Fahrzeugpositionsdaten können von jedem geeigneten bekannten Positionssensor abgerufen werden, z.B. GPS, IMU, Kenntnis der Fahrzeuglenkposition und Radgeschwindigkeit, Rad-Ticks (d.h. Informationen über Raddrehzahlen), Bildverarbeitung oder jede andere geeignete Technik. Wie zu schätzen ist, liefert die Verwendung von Daten aus GPS und Trägheitsmessgeräten dem System nützliche Informationen über die Fahrtrichtung, die Fahrzeugorientierung / -lage in Bezug auf das vorherrschende Gelände und die Straßenrauhigkeit, die alle verwendet werden können, um das Bild, das dem Fahrer auf dem Display präsentiert wird, mit der aktuellen Szene abzugleichen und so jede durch das Fahrzeug verursachte Verdunkelung zu kompensieren. Die Bildverarbeitung kann die Verarbeitung von Bildern umfassen, die von den Fahrzeugkamerasystemen abgeleitet sind, um den Grad der Überlappung zwischen den erfassten Bildern zu bestimmen, die geeignet verarbeitet werden, um einen Abstand zu bestimmen, der durch die Kenntnis der Zeit zwischen der Aufnahme jedes einzelnen Bildes bewegt wird. Dies kann mit der Bildverarbeitung zur Speicherung der aufgenommenen Bilder wie vorstehend beschrieben kombiniert werden, z.B. Musterabgleich inklusive Kantenerkennung. In einigen Fällen kann es wünschenswert sein, einen Vektor zu berechnen, der die Bewegung des Fahrzeugs sowie die Fahrzeugposition anzeigt, um die historischen Bilder zu bestimmen, die in den Bereich des spannungslosen Bereichs eingefügt werden sollen, wie nachfolgend beschrieben.
  • Jedes zu speichernde Bild (oder Band) aus Schritt 600 wird in einem Bildspeicher aus Schritt 608 zusammen mit der aus Schritt 606 erhaltenen Fahrzeugposition zum Zeitpunkt der Bildaufnahme gespeichert. Das heißt, jedes Bild wird durch eine Fahrzeugposition indiziert gespeichert. Die Position kann eine absolute Position oder relativ zu einem Bezugspunkt sein. Darüber hinaus kann die Bildposition nur in Bezug auf ein vorhergehendes gespeichertes Bild (frame) angegeben werden, so dass die Position des Fahrzeugs in Bezug auf jedes historische Bild in Bezug auf eine aktuelle Position des Fahrzeugs bestimmt werden kann, indem man durch den Bildspeicher rückwärts geht und die Verschiebung der Fahrzeugposition bemerkt, bis das gewünschte historische Bild erreicht ist. Jeder Datensatz im Bildspeicher kann Bilddaten für dieses Bild (oder Bildstreifen) und die Fahrzeugposition zum Zeitpunkt der Aufnahme des Bilds umfassen. Das heißt, zusammen mit den Bilddaten können Metadaten einschließlich der Fahrzeugposition gespeichert werden. Der Blickwinkel des Bilds in Bezug auf die Fahrzeugposition ist aus der Kameraposition und dem Winkel in Bezug auf das Fahrzeug bekannt (das, wie vorstehend erläutert, fest oder beweglich sein kann). Solche Informationen über Blickwinkel, Kameraposition usw. können auch im Bildspeicher 608 gespeichert werden, der das Bild und die Koordinateninformationen als (Frame <-> Coord) darstellt. Es wird darauf hingewiesen, dass es erhebliche Unterschiede im Format der Speicherung dieser Informationen geben kann und die vorliegende Erfindung nicht auf bestimmte Bilddaten oder Metadatenspeichertechniken oder auf die Einzelheiten der gespeicherten Positionsinformationen beschränkt ist.
  • Bei Schritt 610 wird ein Mustererkennungsbereich bestimmt. Der Mustererkennungsbereich umfasst den Bereich unter dem Fahrzeug, der im zusammengesetzten Bild, das ausschließlich aus gestickten Livebildern besteht, nicht sichtbar ist. Unter Bezugnahme auf umfasst der Mustererkennungsbereich den leeren Bereich 502. Koordinaten für den Mustererkennungsbereich können aus den bei Schritt 604 erhaltenen Fahrzeugpositionierungsinformationen bestimmt und verarbeitet werden, um die aktuelle Fahrzeugposition bei Schritt 606 zu bestimmen. Unter der Annahme, dass hochgenaue Fahrzeugpositionierungsinformationen, die bei Schritt 604 erhalten wurden, geschätzt werden, dass die aktuelle Position des Fahrzeugs genau bestimmt werden kann. Historische Bilddaten aus dem Bildspeicher 608, d.h. zuvor aufgenommene Bilder, können verwendet werden, um den leeren Bereich 502 auszufüllen, basierend auf der Kenntnis der Fahrzeugposition zum Zeitpunkt der Aufnahme der historischen Bilder. Insbesondere kann der aktuelle tote Winkel auf eine Bodenfläche abgebildet werden, die in historischen Bildern sichtbar ist, bevor das Fahrzeug den Teil des Bodens verdunkelt hat. Die historischen Bilddaten können durch Kenntnis des Bodenbereichs in der Umgebung des Fahrzeugs in jedem Kamerabild verwendet werden, da die Position jeder Kamera auf dem Fahrzeug und der Kamerawinkel bekannt sind. Wenn also die aktuelle Fahrzeugposition bekannt ist, können Bilddaten, die den Boden im Leerbereich zeigen, aus Bildern gewonnen werden, die zu einem früheren Zeitpunkt aufgenommen wurden, bevor das Fahrzeug diesen Teil des Bodens verdeckt. Diese Bilddaten können passend zum aktuellen Rohteilbereich verarbeitet und in die gestickten Live-Bilder eingefügt werden. Eine solche Verarbeitung kann das Skalieren und Strecken der gespeicherten Bilddaten beinhalten, um eine Änderung der Perspektive aus dem nach außen gerichteten Kamerawinkel zu berücksichtigen, wie der Boden bei direkter Sicht von oben aussehen würde. Darüber hinaus kann eine solche Verarbeitung auch die Rekombination mehrerer gespeicherter Bildsplitter und/oder Bilder von mehreren Kameras beinhalten.
  • Die vorstehend beschriebene Anpassung der zuvor gespeicherten Bilddaten in ein live gestricktes Verbundbild basiert jedoch auf der genauen Kenntnis der Fahrzeugposition sowohl aktuell als auch beim Speichern der Bilddaten. Es kann vorkommen, dass es nicht möglich ist, die Fahrzeugposition mit einer ausreichend hohen Genauigkeit zu bestimmen. Als Beispiel wird unter Bezugnahme auf die tatsächliche aktuelle Fahrzeugposition durch Kasten 502 dargestellt, während aufgrund ungenauer Positionsinformationen die bei Schritt 606 ermittelte aktuelle Fahrzeugposition durch Kasten 504 dargestellt werden kann. Im Beispiel von umfasst die Ungenauigkeit die bestimmte Fahrzeugposition, die relativ zur tatsächlichen Fahrzeugposition gedreht wird. Ebenso können Übersetzungsfehler auftreten. Fehler bei der Berechnung der Fahrzeugposition können durch das Gleiten der Fahrzeugräder entstehen, wobei Rad-Ticks, Radgeschwindigkeit und/oder Lenkeingabe verwendet werden, um relative Änderungen der Fahrzeugposition zu bestimmen. Bei der Verwendung von Satellitenortung kann es vorkommen, dass die erforderliche Genauigkeit nicht verfügbar ist.
  • Es ist zu beachten, dass, wenn der Fehlergrad in der Fahrzeugposition zwischen dem Zeitpunkt, zu dem ein Bild gespeichert wird, und dem Zeitpunkt, zu dem es in ein Live-Verbundbild eingebaut wird, unterschiedlich ist, dies zu einer unerwünschten Fehlausrichtung der Live- und historischen Bilder führen kann. Dies kann dazu führen, dass ein Fahrer das Vertrauen in die Genauigkeit der Darstellung des Bodens unter dem Fahrzeug verliert. Schlimmer noch, wenn die Fehlausrichtung signifikant ist, besteht die Gefahr einer Beschädigung des Fahrzeugs, da ein Fahrer falsch über die Position von Objekten unter dem Fahrzeug informiert wird.
  • Aufgrund der Gefahr einer Fehlausrichtung wird bei Schritt 612 ein Musterabgleich innerhalb des Mustererkennungsbereichs durchgeführt, um Bereiche von Live- und gespeicherten Bildern abzugleichen. Wie vorstehend in Verbindung mit der Speicherung von Einzelbildern erwähnt, kann eine solche Mustererkennung geeignete Kantenerkennungsalgorithmen beinhalten. Der bei Schritt 610 bestimmte Mustererkennungsbereich wird verwendet, um auf gespeicherte Bilder aus dem Bildspeicher 608 zuzugreifen. Insbesondere werden historische Bilder mit Bilddaten für den Boden innerhalb des Mustererkennungsbereichs abgerufen. Der Mustererkennungsbereich kann den erwarteten Leerbereich des Fahrzeugs und eine geeignete Überlappung auf mindestens einer Seite umfassen, um Fehlausrichtungen zu berücksichtigen. Schritt 612 nimmt als Eingabe das live gestickte Verbundbild aus Schritt 602 weiter. Der Mustererkennungsbereich kann Abschnitte der Live-Composite-Ansicht umfassen, die an den Leerbereich 502 angrenzen. Der Musterabgleich wird durchgeführt, um überlappende Abschnitte des Live- und des historischen Bildes zu finden, so dass eine enge Ausrichtung zwischen den beiden bestimmt und verwendet werden kann, um geeignete Abschnitte des historischen Bildes auszuwählen, um den leeren Bereich zu füllen. Es ist zu beachten, dass der Grad der Überlappung zwischen dem Live- und dem historischen Bild so gewählt werden kann, dass ein vorgegebener Grad an Fehler zwischen der bestimmten Fahrzeugposition und ihrer tatsächlichen Position möglich ist. Um mögliche Änderungen der Fahrzeugneigung, des Roll- und Gierverhaltens zwischen einer aktuellen Position und einer historischen Position beim Durchfahren von welligem und/oder rutschigem Gelände zu berücksichtigen, kann die Bestimmung des Mustererkennungsbereichs auch Informationen aus Sensordaten berücksichtigen, die die Fahrzeugneigung, den Roll- und Gierverhalten anzeigen. Dies kann den Grad der Überlappung des Mustererkennungsbereichs mit den Livebildern für eine oder mehrere Seiten des Fahrzeugs beeinflussen. Es ist zu beachten, dass es nach einigen Ausführungsformen möglicherweise nicht notwendig ist, einen Mustererkennungsbereich zu bestimmen, sondern dass der Musterabgleich eine umfassendere Suche durch historische Bilder (oder historische Bilder mit einer ungefähren Zeitverzögerung gegenüber den aktuellen Bildern) im Verhältnis zum gesamten zusammengesetzten Livebild umfassen kann. Durch die Beschränkung des Bereichs innerhalb des Live-Verbundbildes, in dem die Musteranpassung an historische Bilder durchgeführt werden soll, und die Beschränkung des Volumens der abzugleichenden historischen Bilder kann jedoch die Rechenkomplexität der Aufgabe und die benötigte Zeit reduziert werden.
  • Bei Schritt 614 werden ausgewählte Abschnitte eines oder mehrerer historischer Bilder oder Slips in den leeren Bereich der zusammengesetzten Livebilder eingefügt, um ein zusammengesetztes Bild zu bilden, das sowohl Live- als auch historische Bilder umfasst. Wie bei der obigen Diskussion in Verbindung mit kann das Verbundbild weiter mit grafischen Darstellungen einer oder mehrerer Fahrzeugkomponenten oder -systeme kombiniert werden. So kann beispielsweise eine Darstellung der Position und Ausrichtung von mindestens einem, beispielsweise allen, der Räder dem Verbundbild überlagert werden, um dem Fahrer weitere Informationen über die Ausrichtung des Fahrzeugs zur Vermeidung von Objekten zu liefern. Die Erzeugung solcher Darstellungen von Fahrzeugkomponenten erfolgt wie oben beschrieben und wird hier nicht wiederholt.
  • Darüber hinaus kann zusätzlich zur Darstellung des Bodens unter dem Fahrzeug gemäß bestimmten Ausführungsformen der Erfindung eine Darstellung des Fahrzeugs zum Ausgabe-Verbundbild hinzugefügt werden. So kann beispielsweise ein transparentes Fahrzeugbild oder eine Umrandung des Fahrzeugs hinzugefügt werden. Dies kann einem Fahrer helfen, die Position des Fahrzeugs und den Teil des Bildes, der den Boden unter dem Fahrzeug darstellt, zu erkennen.
  • In einigen Ausführungsformen, in denen das zusammengesetzte Bild über liegenden Teilen des Fahrzeugs angezeigt werden soll, um den Eindruck zu erwecken, dass das Fahrzeug transparent oder lichtdurchlässig ist (z. B. unter Verwendung eines HUD oder eines Projektionsmittels, wie vorstehend beschrieben), kann die Erzeugung eines zusammengesetzten Bildes auch erfordern, dass eine Blickrichtung eines Fahrers des Fahrzeugs bestimmt wird. So ist beispielsweise eine Kamera angeordnet, die Bilddaten des Fahrers liefert, aus denen die Blickrichtung des Fahrers bestimmt wird. Die Blickrichtung kann aus einer Augenposition des Fahrers bestimmt werden, die parallel zu den anderen Schritten des Verfahrens durchgeführt wird. Es ist zu beachten, dass, wenn das zusammengesetzte Bild oder ein Teil des zusammengesetzten Bildes auf einer Anzeige im Fahrzeug dargestellt werden soll, die nicht dazu bestimmt ist, das Fahrzeug durchsichtig zu zeigen, keine Notwendigkeit besteht, die Blickrichtung des Fahrers zu bestimmen.
  • Das kombinierte zusammengesetzte Bild wird bei Schritt 616 ausgegeben. Wie vorstehend erläutert, kann die Sammelbildausgabe auf jeder geeigneten Bildanzeigevorrichtung erfolgen, wie z.B. HUD, auf dem Armaturenbrett montierter Bildschirm oder einer vom Fahrer getragenen separaten Anzeigevorrichtung. Alternativ können Teile des zusammengesetzten Bildes auf Teile des Fahrzeuginnenraums projiziert werden, um den Eindruck zu erwecken, dass das Fahrzeug transparent oder lichtdurchlässig ist. Die vorliegende Erfindung ist nicht auf eine bestimmte Art von Display-Technologie beschränkt.
  • Unter Bezugnahme auf veranschaulicht dies die Progressionsverbunde von Live- und historischen Bildern 700 während der Bewegung eines Fahrzeugs 702. Im Beispiel von wird das zusammengesetzte Bild als Vogelperspektive über dem Fahrzeug dargestellt und umfasst eine 11 m lange Schüssel, die das Fahrzeug umgibt, wobei der leere Bereich unter dem Fahrzeug mit historischen Bildern gefüllt wird. zeigt das zusammengesetzte Bild, das den Standort des Fahrzeugs verfolgt, während es sich zuerst nach rechts und dann nach links dreht (in der Ansicht von von unten nach oben), wobei der Umriss jedes zusammengesetzten Bildes in einem Umriss dargestellt wird. Der aktuelle Standort des Fahrzeugs wird schattiert dargestellt. Wie bereits erwähnt, beschränkt sich die vorliegende Erfindung nicht darauf, dem Fahrer eine zusammengesetzte Draufsicht auf das Fahrzeug, seine Umgebung und den Boden unter dem Fahrzeug zu präsentieren. Es kann eine 3D-Darstellung bereitgestellt werden oder eine beliebige 2D-Darstellung, die aus einem beliebigen Teil eines 3D-Modells, wie beispielsweise dem in dargestellten, abgeleitet wird und aus jedem beliebigen Winkel innerhalb oder außerhalb des Fahrzeugs betrachtet wird.
  • veranschaulicht eine Vorrichtung, die zur Durchführung des Verfahrens der geeignet ist. Die Vorrichtung kann vollständig in einem Fahrzeug untergebracht sein. Eine oder mehrere fahrzeugmontierte Kamera 800 (z.B. die von ) erfasst Einzelbilder, die zum Bilden eines Live-Abschnitts eines zusammengesetzten Bildes oder eines historischen Abschnitts eines zusammengesetzten Bildes oder beides verwendet werden. Es ist zu beachten, dass nach einigen Ausführungsformen der Erfindung separate Kameras verwendet werden können, um Live- und historische Bilder zu liefern oder ihre Rollen kombiniert werden können. Ein oder mehrere Positions- oder Bewegungssensoren 802 können verwendet werden, um die Position des Fahrzeugs oder die Bewegung des Fahrzeugs zu erfassen. Mindestens eine Kamera 800 und mindestens ein Sensor 802 liefern Daten an den Prozessor 804 und werden vom Prozessor 804 gesteuert. Der Prozessor 804 puffert Bilder von der Kamera 800 im Puffer (Buffer) 806. Der Prozessor 804 erzeugt außerdem ein zusammengesetztes Bild, das Live-Bilder von der Kamera 800 und historische Bilder aus dem Puffer 806 enthält. Der Prozessor 804 steuert die Anzeige 808, um das zusammengesetzte Bild anzuzeigen. Es ist zu beachten, dass die Vorrichtung der in das Fahrzeug der integriert werden kann, wobei in diesem Fall die Kamera 800 von einer oder mehreren der Kameras 310, 320 bereitgestellt werden kann. Die Anzeige 808 befindet sich typischerweise in der Fahrzeugkabine und kann, wie vorstehend beschrieben, in Form eines am Armaturenbrett montierten Displays oder eines anderen geeigneten Typs erfolgen. Der Umfang der vorliegenden Erfindung schließt einen Teil der Bildverarbeitung, die von fahrzeugfremden Systemen durchgeführt wird, nicht aus.
  • Es ist zu beachten, dass Ausführungsformen der vorliegenden Erfindung in Form von Hardware, Software oder einer Kombination von Hard- und Software realisiert werden können. Insbesondere kann das Verfahren der in Hard- und/oder Software implementiert werden. Eine solche Software kann in Form eines flüchtigen oder nichtflüchtigen Speichers, wie beispielsweise einer Speichervorrichtung wie einem ROM, ob löschbar oder wiederbeschreibbar oder nicht, oder in Form eines Speichers, wie beispielsweise RAM, Speicherchips, Vorrichtung oder integrierte Schaltungen, oder auf einem optisch oder magnetisch lesbaren Medium, wie beispielsweise einer CD, DVD, Magnetplatte oder Magnetband, gespeichert werden. Es ist zu beachten, dass die Speichervorrichtungen und Speichermedien Ausführungsformen maschinenlesbarer Speicher sind, die sich zur Speicherung eines Programms oder von Programmen eignen, die bei ihrer Ausführung Ausführungsformen der vorliegenden Erfindung umsetzen. Dementsprechend stellen Ausführungsformen ein Programm bereit, das einen Code zum Implementieren eines Systems oder Verfahrens, wie in einem früheren Anspruch gefordert, und einen maschinenlesbaren Speicher, der ein solches Programm speichert. Darüber hinaus können Ausführungsformen der vorliegenden Erfindung elektronisch über jedes Medium übertragen werden, wie beispielsweise ein Kommunikationssignal, das über eine drahtgebundene oder drahtlose Verbindung übertragen wird, und Ausführungsformen, die diese entsprechend umfassen.
  • Alle in dieser Spezifikation offenbarten Merkmale (einschließlich aller zugehörigen Ansprüche, Abstraktionen und Zeichnungen) und/oder alle Schritte eines so offenbarten Verfahrens oder Prozesses können in jeder Kombination kombiniert werden, es sei denn, es handelt sich um Kombinationen, bei denen sich mindestens einige dieser Merkmale und/oder Schritte gegenseitig ausschließen.
  • Jedes in dieser Spezifikation offenbarte Merkmal (einschließlich aller damit verbundenen Ansprüche, Abstraktionen und Zeichnungen) kann durch alternative Merkmale ersetzt werden, die dem gleichen, gleichwertigen oder ähnlichen Zweck dienen, sofern nicht ausdrücklich etwas anderes angegeben ist. Sofern nicht ausdrücklich anders angegeben, ist jedes offenbarte Merkmal nur ein Beispiel für eine generische Reihe von gleichwertigen oder ähnlichen Merkmalen.
  • Die Erfindung beschränkt sich nicht auf die Details der vorgenannten Ausführungsformen. Die Erfindung erstreckt sich auf jede neue oder neuartige Kombination der in dieser Spezifikation offenbarten Merkmale (einschließlich aller zugehörigen Ansprüche, Abstraktionen und Zeichnungen) oder auf jede neue oder neuartige Kombination der Schritte eines so offenbarten Verfahrens oder Prozesses. Die Ansprüche sind nicht nur auf die vorgenannten Ausführungsformen, sondern auch auf alle Ausführungsformen, die in den Geltungsbereich der Ansprüche fallen, auszulegen.

Claims (21)

  1. Anzeigeverfahren zur Verwendung in einem Fahrzeug, wobei das Verfahren umfasst: Erfassen von Bildern einer Region außerhalb des Fahrzeugs; Speichern mindestens eines Teils der aufgenommenen Bilder; Erzeugen eines zusammengesetzten Bildes aus einem aktuellen Bild und einem gespeicherten Bild durch Abgleichen von Abschnitten des gespeicherten Bildes und des aktuellen Bildes; und Anzeigen (616) mindestens eines Teils des zusammengesetzten Bildes; wobei das zusammengesetzte Bild einen ersten Bereich, der aus dem aktuellen Bild erzeugt wird, und einen zweiten Bereich, der aus dem gespeicherten Bild erzeugt wird, umfasst, wobei der zweite Bereich innerhalb des aktuellen Bildes nicht sichtbar ist.
  2. Anzeigeverfahren nach Anspruch 1, worin das zusammengesetzte Bild eine dreidimensionale, 3D-Darstellung oder eine 2-dimensionale, 2D-Darstellung der das Fahrzeug umgebenden Umgebung umfasst, die sich zumindest teilweise unter dem Fahrzeug erstreckt.
  3. Anzeigeverfahren nach Anspruch 2, wobei das Anzeigen mindestens eines Teils des zusammengesetzten Bildes das Erzeugen einer 2D-Darstellung mindestens eines Teils der 3D-Darstellung und das Anzeigen der 2D-Darstellung umfasst.
  4. Anzeigeverfahren gemäß einem der vorhergehenden Ansprüche, worin die erfassten Bilddaten eine Reihe von Einzelbilder umfassen; und wobei das Verfahren ferner umfasst: Bestimmen einer Position des Fahrzeugs; und Speichern einer Anzeige der Position des Fahrzeugs mit mindestens einem Teil eines Einzelbilds.
  5. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, wobei die Anpassung von Abschnitten des gespeicherten Bildes und des aktuellen Bildes die Anpassung von überlappenden Abschnitten des gespeicherten Bildes und des aktuellen Bildes umfasst.
  6. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, wobei die Übereinstimmung von Abschnitten des gespeicherten Bildes und des aktuellen Bildes das Durchführen einer Musteranpassung umfasst, um sowohl im gespeicherten Bild als auch im aktuellen Bild vorhandene Merkmale zu identifizieren, wobei diese Merkmale im zusammengesetzten Bild korreliert sind.
  7. Anzeigeverfahren nach Anspruch 5 oder Anspruch 6, ferner umfassend das Bestimmen eines Mustererkennungsbereichs mit einem Bereich, der innerhalb des aktuellen Bildes nicht sichtbar ist; und das Bestimmen eines gespeicherten Bildes mit Bilddaten für die Umgebung innerhalb des Mustererkennungsbereichs.
  8. Anzeigeverfahren nach Anspruch 7, wobei das Bestimmen eines Mustererkennungsbereichs das Bestimmen von Koordinaten für den Mustererkennungsbereich gemäß einer aktuellen Position des Fahrzeugs umfasst.
  9. Anzeigeverfahren nach Anspruch 8, wobei das Bestimmen eines Mustererkennungsbereichs ferner das Empfangen eines Signals, das eine Ausrichtung des Fahrzeugs anzeigt, und das Einstellen der Koordinaten des Mustererkennungsbereichs gemäß der Fahrzeugausrichtung beinhaltet.
  10. Anzeigeverfahren gemäß einem der vorhergehenden Ansprüche, wobei das Speichern mindestens eines Teils des aufgenommenen Bildes umfasst: Speichern eines ersten aufgenommenen Einzelbilds; Bestimmen eines Überlappungsgrades zwischen dem ersten erfassten Einzelbild und einem zweiten erfassten Einzelbild; und für den zweiten erfassten Bildausschnitt, Speichern eines nicht überlappenden Abschnitts des zweiten Bildausschnitts.
  11. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, worin das zusammengesetzte Bild Bilddaten aus mehreren aktuellen Bildern, die verschiedene Ansichten von dem Fahrzeugs darstellen, und mindestens ein gespeichertes Bild enthält, so dass das zusammengesetzte Bild eine zusammenhängende Ansicht von mindestens einem Teil der Umgebung umfasst, die das Fahrzeug umgibt und sich unter dem Fahrzeug erstreckt.
  12. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, ferner umfassend das Erhalten von Informationen, die dem Fahrzeug zugeordnet sind, und das Anzeigen einer grafischen Darstellung von mindestens einer Komponente des Fahrzeugs innerhalb des zusammengesetzten Bildes.
  13. Anzeigeverfahren nach Anspruch 12, worin die dem Fahrzeug zugeordneten Informationen Informationen sind, die der mindestens einen Komponente des Fahrzeugs zugeordnet sind, wobei die mindestens eine Komponente des Fahrzeugs mindestens eines der folgenden umfasst: ein Lenksystem des Fahrzeugs; ein oder mehrere Räder des Fahrzeugs; eine Aufhängung des Fahrzeugs oder eines Motors des Fahrzeugs; oder eine weitere mechanische Komponente des Fahrzeugs.
  14. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, worin das zusammengesetzte Bild angezeigt wird, um einen Abschnitt des Fahrzeugs zu überlagern, um anzuzeigen, dass ein Abschnitt des Fahrzeugs zumindest teilweise transparent ist.
  15. Anzeigeverfahren nach einem der vorhergehenden Ansprüche, worin das zusammengesetzte Bild als durchscheinend dargestellt wird oder über einem inneren oder äußeren Fahrzeugabschnitt liegt.
  16. Anzeigeverfahren nach einem der vorstehenden Ansprüche, wobei die Bilddaten von einer oder mehreren dem Fahrzeug zugeordneten Kameras erhalten werden und so angeordnet sind, dass sie Bilder der das Fahrzeug umgebenden Umgebung aufnehmen.
  17. Ein Computerprogrammprodukt, das einen Computerprogrammcode speichert, der bei Ausführung so eingerichtet ist, dass er das Verfahren nach einem der Ansprüche 1 bis 16 durchführt.
  18. Anzeigevorrichtung zur Verwendung mit einem Fahrzeug, umfassend: Bilderfassungsmittel, die angeordnet sind, um Bilder eines Bereichs außerhalb des Fahrzeugs aufzunehmen; ein Anzeigemittel, das zum Anzeigen von Informationen angeordnet ist; ein Speichermittel, das angeordnet ist, um mindestens einen Teil der aufgenommenen Bilder zu speichern; ein Verarbeitungsmittel, das angeordnet ist, zum: Empfangen eines aktuellen Bildes von der Bilderfassungseinrichtung; das Speichermittel veranlassen, mindestens einen Teil der aufgenommenen Bilder zu speichern; Erzeugen eines zusammengesetzten Bildes aus einem aktuellen Bild und einem gespeicherten Bild durch Abgleichen von Abschnitten des gespeicherten Bildes und des aktuellen Bildes; und bewirken, dass die Anzeigeeinrichtung mindestens einen Teil des zusammengesetzten Bildes anzeigt; wobei das zusammengesetzte Bild einen ersten Bereich, der aus dem aktuellen Bild erzeugt wird, und einen zweiten Bereich, der aus dem gespeicherten Bild erzeugt wird, umfasst, wobei der zweite Bereich innerhalb des aktuellen Bildes nicht sichtbar ist.
  19. Anzeigevorrichtung nach Anspruch 18, wobei die Verarbeitungseinrichtung ferner angeordnet ist, um das Verfahren nach einem der Ansprüche 2 bis 16 durchzuführen.
  20. Fahrzeug, umfassend die Anzeigevorrichtung nach Anspruch 18 oder Anspruch 19.
  21. Ein Anzeigeverfahren, eine Anzeigevorrichtung oder ein Fahrzeug, wie hierin im Wesentlichen beschrieben, mit Bezug auf die , und der beigefügten Zeichnungen.
DE112018000862.2T 2017-02-16 2018-01-29 Vorrichtung und Verfahren zur Anzeige von Informationen Pending DE112018000862T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1702536.2A GB2559759B (en) 2017-02-16 2017-02-16 Apparatus and method for displaying information
GB1702536.2 2017-02-16
PCT/EP2018/052085 WO2018149625A1 (en) 2017-02-16 2018-01-29 Apparatus and method for displaying information

Publications (1)

Publication Number Publication Date
DE112018000862T5 true DE112018000862T5 (de) 2019-11-14

Family

ID=58486842

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018000862.2T Pending DE112018000862T5 (de) 2017-02-16 2018-01-29 Vorrichtung und Verfahren zur Anzeige von Informationen

Country Status (4)

Country Link
US (1) US20190379841A1 (de)
DE (1) DE112018000862T5 (de)
GB (1) GB2559759B (de)
WO (1) WO2018149625A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190279512A1 (en) * 2018-03-12 2019-09-12 Ford Global Technologies, Llc. Vehicle cameras for monitoring off-road terrain
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
EP3846009B1 (de) 2019-12-31 2023-05-10 Seiko Epson Corporation Anzeigesystem, elektronische vorrichtung, mobiler körper und anzeigeverfahren
EP3848781B1 (de) * 2019-12-31 2023-05-10 Seiko Epson Corporation Schaltungsvorrichtung, elektronische einrichtung und mobiler körper
JP7319593B2 (ja) * 2020-02-13 2023-08-02 トヨタ自動車株式会社 車両周辺監視装置
CN114333105B (zh) * 2020-09-30 2023-04-07 比亚迪股份有限公司 图像处理方法、装置、设备、车辆及介质
CN113228135B (zh) * 2021-03-29 2022-08-26 华为技术有限公司 一种盲区图像获取方法及相关终端装置
US20230061195A1 (en) * 2021-08-27 2023-03-02 Continental Automotive Systems, Inc. Enhanced transparent trailer
US20230326091A1 (en) * 2022-04-07 2023-10-12 GM Global Technology Operations LLC Systems and methods for testing vehicle systems

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038746A (ja) * 2002-07-05 2004-02-05 Toshiba Corp 画像編集方法および画像編集システム
WO2010084521A1 (ja) * 2009-01-20 2010-07-29 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
FR2945491A1 (fr) * 2009-05-18 2010-11-19 Peugeot Citroen Automobiles Sa Procede et dispositif pour etendre une zone de visibilite
JP5108837B2 (ja) * 2009-07-13 2012-12-26 クラリオン株式会社 車両用死角映像表示システムと車両用死角映像表示方法
IL201336A (en) * 2009-10-01 2014-03-31 Rafael Advanced Defense Sys A system and method for assisting in navigating a vehicle under conditions where visual impairment may occur
KR20110056049A (ko) * 2009-11-20 2011-05-26 현대모비스 주식회사 차량 하부 카메라를 이용한 주차 보조 시스템 및 방법
FR2985350B1 (fr) * 2012-01-04 2014-01-24 Peugeot Citroen Automobiles Sa Procede de traitement d'image d'une camera embarquee sur un vehicule et dispositif de traitement correspondant
JP6148887B2 (ja) * 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
GB201406405D0 (en) * 2014-04-09 2014-05-21 Jaguar Land Rover Ltd Apparatus and method for displaying information
JP6262068B2 (ja) * 2014-04-25 2018-01-17 日立建機株式会社 車体近傍障害物報知システム
US10293752B2 (en) * 2014-08-28 2019-05-21 The University Of Tokyo Display system for work vehicle, display control device, work vehicle, and display control method
GB2535536B (en) * 2015-02-23 2020-01-01 Jaguar Land Rover Ltd Apparatus and method for displaying information
EP3107063A1 (de) * 2015-06-16 2016-12-21 Continental Automotive GmbH Verfahren zur verarbeitung von kamerabildern
US10576892B2 (en) * 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle
JP6642306B2 (ja) * 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置

Also Published As

Publication number Publication date
US20190379841A1 (en) 2019-12-12
GB2559759A (en) 2018-08-22
GB201702536D0 (en) 2017-04-05
GB2559759A8 (en) 2018-10-03
WO2018149625A1 (en) 2018-08-23
GB2559759B (en) 2020-07-29

Similar Documents

Publication Publication Date Title
DE112018000862T5 (de) Vorrichtung und Verfahren zur Anzeige von Informationen
DE112018000171T5 (de) Vorrichtung und Verfahren zur Anzeige von Informationen
DE112018000858T5 (de) Vorrichtung und Verfahren zur Anzeige von Informationen
DE102009005505B4 (de) Verfahren und Vorrichtung zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
DE102010035772B4 (de) System und Verfahren zum Liefern von Leitinformation für einen Fahrer eines Fahrzeugs
EP3055650B1 (de) Verfahren und vorrichtung zur augmentierten darstellung
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
DE102010038825B4 (de) Bildanzeigesteuervorrichtung
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE102018215344A1 (de) System und verfahren für fahrzeugkonvois
DE10292327T5 (de) Fahrzeugumgebungsbildverarbeitungsvorrichtung und Aufzeichnungsmedium
DE102014107156A1 (de) Verbesserte perspektivische Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE102017105635A1 (de) System und verfahren zum erzeugen einer hybriden kameraansicht in einem fahrzeug
DE102010034140A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung und Fahrerassistenzsystem
DE112017001545T5 (de) Virtuelles überlagerungssystem und verfahren für verdeckte objekte
DE102018200963A1 (de) Head-up-anzeigevorrichtung und anzeigesteuerverfahren
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102019106048A1 (de) Fahrzeuganzeige mit erweiterter realität
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102021132949A1 (de) Umgebungsbild-Anzeigevorrichtung und Anzeigesteuerverfahren
DE102010042026A1 (de) Verfahren und Vorrichtung zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE112015000763T5 (de) Fahrzeugumgebungsbildanzeigevorrichtung undFahrzeugumgebungsbildanzeigeverfahren
DE102014201409A1 (de) Parkplatz - trackinggerät und verfahren desselben