DE102014203323A1 - Verfahren und Vorrichtung für die Bildsynthese - Google Patents

Verfahren und Vorrichtung für die Bildsynthese Download PDF

Info

Publication number
DE102014203323A1
DE102014203323A1 DE102014203323.3A DE102014203323A DE102014203323A1 DE 102014203323 A1 DE102014203323 A1 DE 102014203323A1 DE 102014203323 A DE102014203323 A DE 102014203323A DE 102014203323 A1 DE102014203323 A1 DE 102014203323A1
Authority
DE
Germany
Prior art keywords
depth
color
buffer
information
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014203323.3A
Other languages
English (en)
Inventor
Daniel Lüken
Andreas Hildisch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014203323.3A priority Critical patent/DE102014203323A1/de
Publication of DE102014203323A1 publication Critical patent/DE102014203323A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren für die Bildsynthese zur Erzeugung mindestens eines mindestens zweidimensionalen Bilds mittels einer Grafikhardware (5), umfassend die Schritte: a) Erfassung eines optischen Zentrums und einer Blickrichtung auf eine Vielzahl von realen Objekten; b) Ermittlung von Positionsinformationen der realen Objekte bezüglich des optischen Zentrums; c) Initialisierung eines Tiefenpuffers (6) der Grafikhardware (5) unter Verwendung der Positionsinformationen, wobei eine Vielzahl von Tiefenpufferwerte in den Tiefenpuffer (6) eingetragen werden; d) Generierung mindestens eines virtuellen Objekts; e) Ermittlung von Objekt-Tiefeninformationen und Objekt-Farbwerten anhand des virtuellen Objekts; f) Vergleich der Tiefenpufferwerte mit den Objekt-Tiefeninformationen; g) Speichern der Objekt-Farbwerte in einem Farbpuffer (7) in Abhängigkeit von dem Vergleich der Tiefenpuffer-Werte mit den Objekt-Tiefeninformationen; h) zumindest teilweises Anzeigen der Farbpuffer-Farbwerte.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Durchführung der Bildsynthese in Fahrerinformationssystemen. Insbesondere betrifft die Erfindung Systeme für die Bildsynthese, wobei realen Objekten bzw. deren Abbildern zusätzliche virtuelle Elemente hinzugefügt werden, so dass für den Nutzer eine erweiterte Realität („Augmented Reality“) entsteht.
  • Darstellungen, bei denen Abbildungen der Realität mit zusätzlichen Informationen, beispielsweise virtuellen Objekten, versehen sind, sind bekannt. Realitätsnahe Darstellungen virtueller Elemente/Objekte in diesem Kontext werden häufig durch reale Objekte zumindest teilweise verdeckt. Diese teilweise Verdeckung durch im Vordergrund der virtuellen Elemente befindliche Körper/Objekte erleichtert wesentlich das menschliche Verständnis der Darstellung. Die bereitgestellten zusätzlichen Informationen können intuitiv verstanden und schnell eingeordnet werden. Entsprechend eignen sich solche Darstellungen insbesondere für Fahrerinformationssysteme, wobei dem Fahrer durch das Hinzufügen von virtuellen Elementen die Fahrzeugführung erleichtert und er deutlicher auf Gefahren hingewiesen werden soll. Die angezeigten Informationen müssen aber nicht zwangsläufig sicherheitsrelevant sein. Es ist möglich, viele verschiedene Informationen in der erweiterten Realität gut verständlich anzuzeigen (z.B. POIs, Tankstellen, usw.).
  • Für die im jeweiligen Kontext realitätsnahe Verdeckung der virtuellen Elemente durch reale Gegenstände sind allerdings aufwändige Rechenoperationen bei der Bildbearbeitung nötig. Häufig werden für die Verdeckungsberechnung Oberflächen der realen Objekte rekonstruiert. Dies erfordert massiven Rechenaufwand und benötigte Zeit. Für einige Anwendungsfälle müssen die entsprechenden Systeme echtzeitfähig sein, so dass eine lange Wartezeit auf Rechenergebnisse oft nicht hinnehmbar ist.
  • Dieses Problem wird durch ein Verfahren für die Bildsynthese gemäß Patentanspruch 1 zur Erzeugung mindestens eines zweidimensionalen Bilds gelöst, wodurch die rechenintensive Rekonstruktion der Oberfläche als notwendiger Schritt der Bildbearbeitung vermieden wird.
  • Insbesondere wird das Problem durch ein Verfahren für die Bildsynthese gelöst, das die folgenden Schritte umfasst:
    • a) Erfassung eines optischen Zentrums und einer Blickrichtung auf eine Vielzahl von realen Objekten;
    • b) Ermittlung von Positionsinformationen der realen Objekte bezüglich des optischen Zentrums;
    • c) Initialisierung eines Tiefenpuffers, insbesondere mittels der Grafikhardware, unter Verwendung der Positionsinformationen, wobei eine Vielzahl von Tiefenpufferwerten in den Tiefenpuffer eingetragen werden;
    • d) Generierung mindestens eines virtuellen Objekts;
    • e) Ermittlung von Objekt-Tiefeninformationen und Objekt-Farbwerten anhand des virtuellen Objekts;
    • f) Vergleich der Tiefenpufferwerte mit den Objekt-Tiefeninformationen;
    • g) Speichern der Objekt-Farbwerte in einem Farbpuffer der Grafikhardware in Abhängigkeit von dem Vergleich der Tiefenpuffer-Werte mit den Objekt-Tiefeninformationen;
    • h) zumindest teilweises Anzeigen der Farbpuffer-Farbwerte.
  • Das optische Zentrum kann beispielsweise die Position des Betrachters, z.B. der Kopf des Fahrers, oder einer realen oder virtuellen Kamera sein.
  • Dementsprechend kann die Blickrichtung eine Blickrichtung des Betrachters oder eine Blickrichtung einer realen oder virtuellen Kamera sein. Diese Positionsinformationen können absolute oder relative Positionsinformationen sein. Die Positionsinformationen können eine oder mehrere Koordinaten und/oder eine oder mehrere Distanzangaben und/oder eine oder mehrere Winkelangaben umfassen. Vorzugsweise sind die Positionsinformationen so beschaffen, dass sich ein örtlicher Bezug zwischen den realen Objekten und dem mindestens einen virtuellen Objekt herstellen lässt. Zumindest sollten sie geeignet sein, um die Distanzen zwischen den realen Objekten und den virtuellen Objekten zu berechnen.
  • Gegenüber herkömmlichen Verfahren gemäß dem Stand der Technik bestehen die mit der Erfindung erzielten Vorteile insbesondere darin, bei mindestens vergleichbarem Ergebnis die für die Bildbearbeitung notwendigen Rechenressourcen zu reduzieren.
  • Die Grafikhardware kann eine oder mehrere Grafikkarten sein. Die Grafikhardware kann des Weiteren jede dedizierte Hardware, beispielsweise ein oder mehrere Grafikprozessor(en) (GPU) ggf. mit zugehörigem oder geteiltem Speicher („shared memory“), sein, die zur Erzeugung und Verwaltung von Grafikinformationen, insbesondere des Tiefenpuffers, eingesetzt wird.
  • In einer Ausgestaltung der Erfindung wird nur dann an einer bestimmten Position des Farbpuffers ein Farbwert des virtuellen Elementes gespeichert, wenn die zugehörige Tiefeninformation des virtuellen Elementes eine größere Nähe zum Betrachter, also zum optischen Zentrum, aufweist als die bisherige Tiefeninformation. Diese Weiterbildung ermöglicht es somit, eine besonders sparsame Rechenoperation auszuführen, bei der nur die Farbwerte der virtuellen Elemente für die darzustellenden Pixel für die Anzeige eingetragen werden, die nicht verdeckt sind. Somit müssen darzustellen Objekte oder Geometrien, insbesondere von der CPU, nicht mehr sortiert werden (Bei bekannten Ansätzen werden ferne Geometrien als erstes an die Grafikhardware gesandt.). Des Weiteren ist eine schnelle und effiziente Darstellung von sich überkreuzenden Geometrien mit entsprechenden Verdeckungen möglich.
  • In einer/dieser Ausgestaltung der Erfindung wird in Abhängigkeit des Vergleiches der Tiefenpufferwerte des bisherigen Eintrages mit dem des virtuellen Elementes ein neuer Tiefenpufferwert im Tiefenpuffer gespeichert. Entsprechend ist das Ergebnis der aktuellen Bildsynthese dokumentiert und steht für weitere Berechnungen zur Verfügung.
  • Darüber hinaus sieht eine Ausgestaltung der Erfindung den Eintrag der Tiefeninformation des virtuellen Elementes bei größerer Nähe zum optischen Zentrum als der bisherige Tiefenpuffer-Eintrag vor. Somit werden in vorteilhafter Weise nur Veränderungen im Tiefenpuffer neu eingetragen. So können mehrere Lagen von Objekten übereinander gelegt und eine entsprechende Anzeige generiert werden.
  • Ein weiteres Ausführungsbeispiel der Erfindung umfasst die zumindest teilweise Anzeige der Farbpuffer-Farbwerte auf einer transparenten Anzeigefläche. Somit kann z.B. lediglich die virtuelle Information in einem sogenannten Head-Up Display, also in dem Sichtbereich des Fahrers auf der Windschutzscheibe, dargestellt werden. In diesem Fall ist es nicht zwingend notwendig den Hintergrund, z.B. die realen Objekte darzustellen, da er durch die transparenten Anzeigefläche „durchscheint“. Die Erfassung der realen Objekte und die Bestimmung der Tiefeninformation erfolgt in diesem Ausführungsbeispiel also nur zur Feststellung, ob bestimmte Pixel des virtuellen Objekts sichtbar sind und daher angezeigt werden müssen.
  • In einem (anderen) Ausführungsbeispiel der Erfindung ist ferner die Erfassung und Speicherung von Farbwerten gemäß der Farbinformation der realen Objekte in den Farbpuffer zeitlich vor dem Vergleich der Tiefenpufferwerte vorgesehen. Dies ist besonders Vorteilhaft, wenn Auszüge des realen Objekts ebenfalls dargestellt werden müssen. Dies kann beispielsweise notwendig sein, wenn keine transparente Anzeigefläche, sondern ein Monitor oder etwas ähnliches verwendet wird.
  • Ferner kann in einer weiteren Ausführungsform der Erfindung die Generierung des virtuellen Elementes durch die Erzeugung einer Vektor-Grafik erfolgen, bei der die Ermittlung der entsprechenden Tiefeninformation und Farbwerte vom Grafikprozessor der Grafikhardware durchgeführt werden. Dadurch kann der Grafikprozessor und die Kommunikation mit der Grafikhardware besonders effizient betrieben werden. Moderne Grafikhardware ist für die Generierung von Tiefenpufferwerten ausgehend von Vektor-Grafiken optimiert.
  • Darüber hinaus wird die genannte Aufgabe durch einen Computer lesbaren Datenspeicher mit Instruktionen zur Implementierung der beschriebenen Verfahren gelöst. Es ergeben sich ähnliche Vorteile, wie diese bereits erläutert wurden.
  • Das erfindungsgemäße Verfahren kann auch in einem Fahrerinformationssystem implementiert sein.
  • Die genannte Aufgabe wird weiterhin durch ein Fahrerinformationssystem gelöst.
  • Dieses umfasst vorzugsweise eine Anzeigevorrichtung zur Anzeige eines mindestens zweidimensionalen Bildes, eine Grafikhardware, die mit der Anzeigevorrichtung funktional gekoppelt ist und das mindestens zweidimensionale Bild ausgibt, zumindest eine Positionsermittlungseinrichtung zur Ermittlung von Positionsinformationen von realen Objekten, und einen Hauptprozessor (CPU) für folgende Funktionen:
    • – die Verarbeitung der Positionsinformationen,
    • – die Erstellung einer Matrix von Tiefenwerten als Datenstruktur,
    • – die Initialisierung des Tiefenpuffers der Grafikhardware mit Tiefenwerten und/oder Steuerung der Grafikhardware, so dass der Tiefenpuffer initialisiert wird,
    • – die Errechnung eines virtuellen Objektes zur zumindest teilweisen Anzeige als Teil eines zweidimensionalen Bildes zur Übergabe an die Grafikhardware.
  • Die Grafikhardware kann erfindungsgemäß einen Grafikprozessor für folgende Funktionen umfassen:
    • – Vergleich der Tiefenpufferwerte des realen Objektes mit den Objekt-Tiefeninformationen des virtuellen Objektes sowie
    • – Speicherung von Objekt-Farbwerten des virtuellen Objekts in einem Farbpuffer der Grafikhardware in Abhängigkeit vom Vergleich der Tiefenpufferwerte des realen Objektes mit den Objekt-Tiefeninformationen des virtuellen Objektes.
  • Erfindungsgemäß kann der Hauptprozessor oder eine andere dedizierte Hardware einige oder alle Funktionen der Grafikhardware übernehmen. Ebenso kann der Farbpuffer und/oder der Tiefenpuffer dem Hauptprozessor oder der dedizierten Hardware zugeordnet sein. Insbesondere ist es möglich, den Farbpuffer und/oder Tiefenpuffer in einem Speicher zu organisieren, auf den sowohl die Grafikhardware als auch der Hauptprozessor (unmittelbaren) Zugriff haben. Es können also ein oder mehrere gemeinsam genutzte(r) Speicher vorgesehen sein, wobei der Zugriff auf den Speicher vorzugsweise von dem Hauptprozessor koordiniert wird.
  • Das Fahrerinformationssystem kann beliebige Informationen schnell und effizient anzeigen, wobei eine Ablenkung des Fahrers durch eine perspektivisch inkorrekte Darstellung vermieden wird.
  • Die Positionsermittlungseinrichtung kann mittels Lichtwellen und/oder Radarwellen funktionieren. Insbesondere kann die Positionsermittlungseinrichtung mindestens eine Stereokamera, mindestens ein LIDAR („Light detection and ranging“) und/oder Photomischdetektor (PMD) umfassen. Alternativ oder zusätzlich können ein Radarsystem und/oder Infrarotabstandssensoren zur Positionsermittlung verwendet werden. Sehr zuverlässige Ergebnisse werden mit Kamera- und LIDAR-Systemen im Automotivbereich erzielt. Somit lassen sich die notwendigen Daten auf vielfältige Weise ermitteln, so dass sowohl mittels Einzelsensoren als auch durch eine Kombination verschiedener Sensoren die Daten in hinreichender Genauigkeit ermittelt werden können.
  • Des Weiteren besteht die Möglichkeit, die Erfindung derart weiterzubilden, dass die Anzeigeeinrichtung eine zumindest teilweise transparente Anzeigefläche zur Anzeige eines mindestens zweidimensionalen Bildes umfasst. Somit kann beispielsweise die Windschutzscheibe des Fahrzeuges als Anzeigefläche dienen, was auch als Head-Up Display bekannt ist. Entsprechend erübrigt sich eine zusätzliche Anzeigefläche.
  • Eine weitere bevorzugte Ausführungsform der Erfindung umfasst eine Bilderfassungseinrichtung zur Erfassung von Farbwerten der realen Objekte, wobei ein Hauptprozessor Instruktionen ausführt, um den Farbpuffer der Grafikhardware mit zumindest einigen Farbwerten zu initialisieren. Bilderfassungseinrichtung und Hauptprozessor können diese Aufgaben besonders effizient wahrnehmen.
  • Gemäß einer noch weiteren Ausführungsform der Erfindung führt der Hauptprozessor Instruktionen aus, um zur Initialisierung des Farbpuffers und des Tiefenpuffers der Grafikhardware mindestens ein Vollbild umfassend eine erste Textur mit Tiefeninformationen und eine zweite Textur mit Farbinformationen der realen Objekte zu übergeben. Ein Vollbild kann eine vollbesetzte Matrix mit Tiefeninformationen und Farbinformationen für jedes Pixel sein.
  • Dadurch können in vorteilhafter Weise die anschließenden Änderungen auf der Grafikhardware auf die unverdeckten Teile des virtuellen Objekts beschränkt werden. Diese Ausführungsform ist besonders für die Verwendung in Verbindung mit einer nicht-transparenten Anzeigefläche vorteilhaft.
  • Schließlich ist es auch denkbar, das erfinderische Fahrerinformationssystem mit einer Einrichtung zur Ermittlung der Fahrerposition auszubilden, wobei der Hauptprozessor Instruktionen ausführt, um anhand der Fahrerposition das optische Zentrum zu ermitteln und dieses bei der Initialisierung des Farb- und/oder des Tiefenpuffers zu berücksichtigen. Dadurch kann in besonders vorteilhafter Weise eine natürliche Wahrnehmung des dargestellten Bildes durch den Fahrer erreicht werden.
  • Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Hierbei werden gleiche und gleichwirkende Teile mit denselben Bezugsziffern versehen.
  • Hierin zeigen:
  • 1 ein Blockschaltbild eines Fahrerinformationssystems,
  • 2 ein Fahrzeug mit eingebautem Fahrerinformationssystem, und
  • 3 das erfinderische Verfahren zur Ermittlung der Verdeckung der virtuellen Elemente.
  • Das Blockschaltbild der 1 zeigt die im Zusammenhang mit der Erfindung wesentlichen Elemente eines Fahrerinformationssystems 1, die miteinander kommunikativ verbunden sind. Eine Einrichtung zum Erfassen der Fahrerposition 2 ermöglicht die Erfassung eines optischen Zentrums. Dieses entspricht der Position der Augen des Fahrers oder dessen Kopfes und bestimmt somit die Perspektive und die Blickrichtung, der die Darstellung auf der Anzeigeeinheit 3 genügen muss, um mit der vom Fahrer wahrgenommenen Realität übereinzustimmen. Optional kann das optische Zentrum auch aus im System hinterlegten Daten abgeleitet werden, sodass die Einrichtung zur Erfassung der Fahrerposition entfallen kann, allerdings unter Inkaufnahme potentiell verschlechterter Übereinstimmung zwischen Darstellung und der vom Fahrer wahrgenommenen Realität.
  • Die Anzeigefläche 3 liefert dem Fahrer die Darstellung der erweiterten Realität. Dies kann z.B. auf einem Display erfolgen, auf dem die realen Objekte zusammen mit dem virtuellen Objekt dargestellt sind. Dabei können reale Objekte andere Verkehrsteilnehmer, wie z.B. Automobile, sein und virtuelle Objekte z.B. die Darstellung von Fahrbahnen und deren Begrenzungen, auf denen sich die Verkehrsteilnehmer bewegen. Alternativ können die virtuellen Objekte auch auf die Windschutzscheibe im direkten Sichtfeld des Fahrers projiziert werden, was als Head-Up Konzept bekannt ist. Hierbei entfällt naturgemäß die Darstellung der realen Objekte. Entsprechend beschränkt sich die Anzeige der weiter unten näher erläuterten Farbinformationen bzw. Farbpufferwerte im Wesentlichen auf die Darstellung der virtuellen Objekte. Diese werden vom Fahrer beim Blick durch die Windschutzscheibe unmittelbar wahrgenommen. In einer weiteren Ausführungsform können die virtuellen Objekte mittel eines Head-Mounted Displays, beispielsweise einer Videobrille, eines Helmdisplays oder VR-Helms, angezeigt werden.
  • Ein Hauptprozessor 4 führt wesentliche Rechenoperationen des Systems aus. Eine Grafikhardware 5, insbesondere eine Grafikkarte mit einem entsprechenden Grafikprozessor 8, ist für die optische Aufbereitung der Anzeige auf der Anzeigeeinheit 3 verantwortlich. Neben einem Grafikprozessor 8 umfasst sie zwei miteinander korrelierte Speicherbereiche, deren Werte bei der Anzeige der Pixel auf der Anzeigevorrichtung Berücksichtigung finden, dem Tiefenpuffer 6 und dem Farbpuffer 7. Ersterer speichert eine Tiefeninformation zu einem Pixel eines angezeigten Objektelements, letzterer eine zugehörige Farbinformation dieses Objektelementes. In diesem Ausführungsbeispiel sind der Tiefenpuffer 6 und der Frabpuffer 7 als Matrix implementiert. Andere Implementierungen sind möglich. Ebenso lassen sich die Datenstrukturen so abwandeln, dass jeder Eintrag in der Matrix Farbinformationen und Tiefeninformationen enthält.
  • Der Hauptprozessor und die Grafikhardware 5 können in einer Baueinheit 9 zusammengefasst sein. Alternativ kann bei der Ausführung mit Display 3 dieses ebenfalls Element der Baueinheit 9 sein.
  • Die Positionsbestimmungseinrichtung 10 dient der Erfassung der Position des realen Objektes, also der Distanz zum Auge des Fahrers. Sie kann z.B. als konventionelles Radarsystem und/oder als Light detection and ranging (LIDAR) Radar System und/oder als Stereokamera ausgeführt sein. Die Daten im Tiefenpuffer 6 werden von der Positionsbestimmungseinrichtung 10 gespeist.
  • Optional kann noch eine Bilderfassungseinrichtung 11 benötigt werden, wenn die Darstellung der realen Objekte auf der Anzeigeeinheit 3 beabsichtigt ist. Die Daten im Farbpuffer 7 werden von der Bilderfassungseinrichtung 11 gespeist. Somit ermöglichen die hier gezeigten Komponenten des Fahrerinformationssystems 1 die Erzeugung und Darstellung der erweiterten Realität (Augmented Reality).
  • 2 zeigt beispielhaft den Einbau eines Fahrerinformationssystems 1 in ein Kraftfahrzeug. Dabei kann die Einrichtung zum Erfassen der Fahrerposition 2 z.B. in der Nähe des Rückspiegels positioniert sein, um den Fahrer 13 gut erfassen zu können. Die Anzeigeeinheit 3 kann alternativ als konventionelles Display bzw. als Head-Up Display ausgeführt sein und ist jeweils im Sichtbereich des Fahrers angeordnet. Die Zentraleinheit 9 kann z.B. im Cockpit untergebracht sein. Positionsermittlungseinrichtung 10 sowie optional Bilderfassungseinrichtung 11 sind typischerweise am Rückspiegel angebracht. Einige Komponenten der Positionsermittlungseinrichtungen 10 können auch am Kühlergrill oder an der Stoßstange (z.B. Ultraschallarray) angeordnet sein.
  • 3 zeigt das Verfahren für die Bildsynthese des erfinderischen Fahrerinformationssystems 1. Dabei zeigt Element 14 das Sensorbild des realen Objektes (z.B. ein anderes Auto) einschl. Farbwerten, erfasst von der Bilderfassungseinrichtung 11. Bei der Darstellung auf dem Head-Up Display ohne Abbildung der realen Objekte kann die Erfassung und Speicherung dieser Daten auch entfallen. In diesem Fall wird der Farbpuffer neutral bzw. transparent initialisiert. Element 15 zeigt die zugehörige Tiefeninformation, erfasst von der Positionsermittlungseinrichtung 10.
  • Element 16 zeigt ein Abbild des virtuellen Objektes (z.B. eine Straße oder eine Bewegungsbahn), das vorzugsweise als Vektor-Grafik generiert wurde. Element 17 enthält die zugehörigen Tiefendaten des virtuellen Objektes. Die Verknüpfung von realem und virtuellem Objekt erfolgt in einer Verknüpfungseinheit 18, die durch den Grafikprozessor 8 implementiert werden kann. Es ergibt sich ein synthetisiertes zweidimensionales Bild 19, das Auszüge des virtuellen und des realen Objekts zeigt. Hierbei werden Überdeckungen der Objekte berücksichtigt, so dass sich beim Anzeigen des Bilds 19 beispielsweise auf der Anzeigeeinrichtung 3 eine Darstellung ergibt, die für den Fahrer 13 leicht verständlich ist und zusätzliche Informationen – im konkreten Fall die Bewegungsbahn des Fahrzeugs – liefert.
  • In einem Ausführungsbeispiel wird der Tiefenpuffer 6 und ggf. der Farbpuffer 7 mit den Daten (Tiefeninformationen bzw. Tiefendaten und Farbwerte) des realen Objektes initialisiert. Anschließend ersetzen die Tiefendaten des virtuellen Objektes die initialisierten Daten im Tiefenpuffer 6 immer dann wenn sie darauf hinweisen, dass das virtuelle Objekt näher am Auge des Betrachters liegt. Für dieses Pixel der Anzeigevorrichtung 3 findet nun ebenfalls ein entsprechender Eintrag des virtuellen Objektes im Farbpuffer 7 statt. Entsprechend wird im Falle der Initialisierung des Farbpuffers 7 mit dem realen Objekt dessen Pixelinformation ersetzt. Im Ergebnis wird somit die Verknüpfung von realen und virtuellen Objekten durch einen einfachen Vergleich bestimmt.
  • Das Verfahren, der Datenträger sowie die Vorrichtung sind nicht auf die Verwendung in Kraftfahrzeugen beschränkt. Vielmehr können sie ebenso in Luft- und Wasserfahrzeugen zum Einsatz kommen. Darüber hinaus sind mit fortschreitender Miniaturisierung und Leistungssteigerung der Bauteile auch tragbare Versionen solcher Geräte denkbar, die z.B. für touristische Zwecke oder im Baugewerbe zum Einsatz kommen können.
  • Bezugszeichenliste
  • 1
    Fahrerinformationssystem
    2
    Fahrerposition
    3
    Anzeigeeinrichtung
    4
    Hauptprozessor
    5
    Grafikhardware
    6
    Tiefenpuffer
    7
    Farbpuffer
    8
    Grafikprozessor
    9
    Baueinheit
    10
    Positionsermittlungseinrichtung
    11
    Bilderfassungseinrichtung
    13
    Fahrer
    14
    Farbwerte des realen Objektes (Matrix)
    15
    Tiefeninformation des realen Objektes (Matrix)
    16
    Farbwerte des virtuellen Objektes (Matrix)
    17
    Tiefeninformation des virtuellen Objektes (Matrix)
    18
    Verknüpfungseinheit
    19
    synthetisiertes zweidimensionales Bild

Claims (14)

  1. Verfahren für die Bildsynthese zur Erzeugung mindestens eines zweidimensionalen Bilds (19) mittels einer Grafikhardware (5), umfassend die Schritte: a) Erfassung eines optischen Zentrums und/oder einer Blickrichtung auf eine Vielzahl von realen Objekten; b) Ermittlung von Positionsinformationen der realen Objekte bezüglich des optischen Zentrums; c) Initialisierung eines Tiefenpuffers (6) unter Verwendung der Positionsinformationen und/oder Steuerung einer Grafikhardware (5) derart, dass ein Tiefenpuffer (6) der Grafikhardware unter Verwendung der Positionsinformationen initialisiert wird, wobei eine Vielzahl von Tiefenpufferwerten in den Tiefenpuffer (6) eingetragen werden; d) Generierung mindestens eines virtuellen Objekts; e) Ermittlung von Objekt-Tiefeninformationen und Objekt-Farbwerten anhand des virtuellen Objekts; f) Vergleich der Tiefenpufferwerte mit den Objekt-Tiefeninformationen; g) Speichern der Objekt-Farbwerte in einem Farbpuffer (7) der Grafikhardware (5) in Abhängigkeit von dem Vergleich der Tiefenpuffer-Werte mit den Objekt-Tiefeninformationen; h) zumindest teilweises Anzeigen der Farbpuffer-Farbwerte.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in Schritt g) genau dann an einer bestimmten Position des Farbpuffers (7) ein Farbwert gemäß den Objekt-Farbinformationen gespeichert wird, wenn die Objekt-Tiefeninformationen eine größere Nähe zum optischen Zentrum angibt als ein bisheriger Tiefenpuffer-Wert an dieser Position.
  3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch ein Speichern eines neuen Tiefenpuffer-Werts in dem Tiefenpuffer (6) in Abhängigkeit von dem Vergleich in Schritt f).
  4. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 3, dadurch gekennzeichnet, dass genau dann an einer bestimmten Position des Tiefenpuffers (6) ein Tiefenwert gemäß den Objekt-Tiefeninformationen gespeichert wird, wenn die Objekt-Tiefeninformationen eine größere Nähe zum optischen Zentrum angeben als ein bisheriger Tiefenpuffer-Wert an dieser Position.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das zumindest teilweise Anzeigen der Farbpuffer-Farbwerte ein zumindest teilweises Anzeigen der Farbpuffer-Farbwerte auf einer transparenten Anzeigefläche umfasst.
  6. Verfahren nach einem der Ansprüche 1 bis 4, gekennzeichnet durch ein Erfassen von Farbinformationen der realen Objekte und ein Speichern von Farbwerten gemäß den Farbinformationen der realen Objekte in dem Farbpuffer (7), insbesondere vor dem Schritt f).
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Generieren des mindestens einen virtuellen Objekts ein Generieren einer Vektor-Grafik umfasst und der Schritt e) vorzugsweise auf der Grafikhardware (5), insbesondere von einem Grafikprozessor (8), durchgeführt wird.
  8. Computerlesbarer Datenspeicher umfassend Instruktionen zur Implementierung des Verfahrens gemäß einem der vorhergehenden Ansprüche, wenn die Instruktionen von einer Recheneinheit ausgeführt werden.
  9. Fahrerinformationssystem (1), insbesondere zur Implementierung des Verfahrens gemäß einem der Ansprüche 1 bis 7, umfassend: – mindestens eine Anzeigeeinrichtung (3) zur Anzeige eines zweidimensionalen Bildes; – eine Grafikhardware (5) die mit der Anzeigeeinrichtung (3) kommunikativ verbunden ist und das mindestens zweidimensionale Bild ausgibt; – mindestens eine Positionsermittlungseinrichtung (10) zur Ermittlung von Positionsinformationen von einer Vielzahl von realen Objekten; – mindestens einen Hauptprozessor (4), wobei der Hauptprozessor Instruktionen ausführt, um: a) die Positionsinformationen zu verarbeiten; b) eine Datenstruktur, insbesondere eine Matrix, von Tiefenwerten zu erstellen, c) einen Tiefenpuffer der Grafikhardware (5) mit den Tiefenwerten zu initialisieren und/oder eine Initialisierung des Tiefenpuffers mit den Tiefenwerten zu steuern; d) mindestens ein virtuelles Objekt zur zumindest teilweisen Anzeige als Teil des mindestens zweidimensionalen Bilds zu errechnen und an die Grafikhardware (5) zu übergeben, wobei die Grafikhardware (5) mindestens einen Grafikprozessor (8) umfasst, der Instruktionen ausführt, um: – die Tiefenpufferwerte mit Objekt-Tiefeninformationen des virtuellen Objekts zu vergleichen; und – Objekt-Farbwerte in einem Farbpuffer (7) der Grafikhardware (5) in Abhängigkeit von dem Vergleich der Tiefenpufferwerte mit den Objekt-Tiefeninformationen zu speichern.
  10. Fahrerinformationssystem (1) nach Anspruch 9, dadurch gekennzeichnet, dass die Positionsermittlungseinrichtung (10) mindestens ein Stereokamerasystem und/oder ein LIDAR-System und/oder Photomischdetektor umfasst.
  11. Fahrerinformationssystem (1) nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (3) eine zumindest teilweise transparente Anzeigefläche zur Anzeige des mindestens zweidimensionalen Bilds umfasst.
  12. Fahrerinformationssystem (1) nach einem der Ansprüche 9 bis 10, gekennzeichnet durch mindestens eine Bilderfassungseinrichtung (11) zur Erfassung von Farbwerten der realen Objekte, wobei der Hauptprozessor (4) Instruktionen ausführt, um die Grafikhardware (5) so zu steuern, dass der Farbpuffer (7) mit zumindest einigen der Farbwerte initialisiert wird.
  13. Fahrerinformationssystem (1) nach einem der Ansprüche 9 bis 10 und 12, dadurch gekennzeichnet, dass der Hauptprozessor (4) Instruktionen ausführt, um zur Initialisierung des Farbpuffers (7) und des Tiefenpuffers (6) der Grafikhardware (5) mindestens ein Vollbild umfassend eine erste Textur mit Tiefeninformationen und eine zweite Textur mit Farbinformationen der realen Objekte zu übergeben.
  14. Fahrerinformationssystem (1) nach einem der Ansprüche 9 bis 13, gekennzeichnet durch eine Einrichtung zur Ermittlung einer Fahrerposition (2), wobei der Hauptprozessor (4) Instruktionen ausführt, um anhand der Fahrerposition ein optisches Zentrum zu ermitteln und das optische Zentrum bei der Initialisierung des Farbpuffers (7) und/oder Tiefenpuffers (6) zu berücksichtigen.
DE102014203323.3A 2014-02-25 2014-02-25 Verfahren und Vorrichtung für die Bildsynthese Pending DE102014203323A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014203323.3A DE102014203323A1 (de) 2014-02-25 2014-02-25 Verfahren und Vorrichtung für die Bildsynthese

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014203323.3A DE102014203323A1 (de) 2014-02-25 2014-02-25 Verfahren und Vorrichtung für die Bildsynthese

Publications (1)

Publication Number Publication Date
DE102014203323A1 true DE102014203323A1 (de) 2015-08-27

Family

ID=53782423

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014203323.3A Pending DE102014203323A1 (de) 2014-02-25 2014-02-25 Verfahren und Vorrichtung für die Bildsynthese

Country Status (1)

Country Link
DE (1) DE102014203323A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239670A1 (en) * 2003-05-29 2004-12-02 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
DE102011115739A1 (de) * 2011-10-11 2013-04-11 Daimler Ag Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
US20130121559A1 (en) * 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239670A1 (en) * 2003-05-29 2004-12-02 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
DE102011115739A1 (de) * 2011-10-11 2013-04-11 Daimler Ag Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
US20130121559A1 (en) * 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BREEN, D. E. [et al.]: Interactive Occlusion and Automatic Object Placement for Augmented Reality. Computer Graphics Forumm Vol. 15, 1996, S. 11-23; im Internet am 26.6.2003 verfügbar unter der URLhttp://web.archive.org/web/20030626114247/http://www.cs.iupui.edu/~tuceryan/research/AR/eg96.pdf,[recherchiert am 24.3.2014]. *
FISCHER, J. [et al.]: Using Time-of-Flight Range Data for Occlusion Handling in Augmented Reality. Proc. of the 13th Eurographics Conference on Virtual Environments, 2007, S. 109-116. *
FRANKE, T. [et al.]: Enhancing Realism of Mixed Reality Applications through Real-Time Depth-Imaging Devices in X3D. Proceedings of the 16th International Conference on 3D Web Technology, 2011, S. 71-79. *

Similar Documents

Publication Publication Date Title
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102011115739A1 (de) Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
DE112017001545T5 (de) Virtuelles überlagerungssystem und verfahren für verdeckte objekte
DE102015216127A1 (de) Verfahren zum Eye-Tracking in einem Fahrzeug mit Head-up-Display
DE102016223908A1 (de) Projektionsanzeigesystem sowie Verfahren zum Betreiben eines Projektionsanzeigesystems
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102012212577A1 (de) System und verfahren für ein video mit verbesserter tiefenwahrnehmung
EP3955046A1 (de) Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug
DE102021110477A1 (de) Dynamische anpassung eines bildes mit erweiterter realität
EP2888623B1 (de) Betreiben eines head-up-displays eines fahrzeugs und bildermittlungssystem für das head-up-display
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
DE102015222844A1 (de) Verfahren und Steuergerät zum Betreiben eines Sichtfeldanzeigegeräts für ein Fahrzeug
WO2019174862A1 (de) Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren
EP3296795B1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
EP3967537B1 (de) Verfahren zur darstellung eines virtuellen elements
DE102017209802A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016215704A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102014203323A1 (de) Verfahren und Vorrichtung für die Bildsynthese
DE102020126954A1 (de) System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
WO2020249367A1 (de) Steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102019112189A1 (de) Verfahren und Vorrichtung zur Anzeige eines Informationsobjektes in einer Augmented-Reality-Datenbrille
DE102015201642B4 (de) Vorrichtung und Verfahren zur Darstellung einer Umgebung eines Fahrzeuges
DE102013000261A1 (de) Verfahren und Kamerasystem zum Abbilden einer Umgebung eines Kraftwagens
DE102016214438B4 (de) Kraftfahrzeug mit einem Head-up-Display und Verfahren zum Betrieb desselben

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed