DE102013201377A1 - Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten - Google Patents

Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten Download PDF

Info

Publication number
DE102013201377A1
DE102013201377A1 DE102013201377.9A DE102013201377A DE102013201377A1 DE 102013201377 A1 DE102013201377 A1 DE 102013201377A1 DE 102013201377 A DE102013201377 A DE 102013201377A DE 102013201377 A1 DE102013201377 A1 DE 102013201377A1
Authority
DE
Germany
Prior art keywords
image data
scene
rendering
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013201377.9A
Other languages
English (en)
Inventor
Sven von Beuningen
Timo Lotterbach
Tilmann Ochs
Michael Schuldt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102013201377.9A priority Critical patent/DE102013201377A1/de
Priority to EP14701745.3A priority patent/EP2951787B1/de
Priority to JP2015554191A priority patent/JP6362622B2/ja
Priority to CN201480006266.5A priority patent/CN104956403B/zh
Priority to KR1020157017003A priority patent/KR102076385B1/ko
Priority to PCT/EP2014/051576 priority patent/WO2014118145A1/de
Publication of DE102013201377A1 publication Critical patent/DE102013201377A1/de
Priority to US14/811,063 priority patent/US9767603B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Zum Verarbeiten von 3d-Eingabebilddaten für eine Anzeige von Bildern auf mindestens einer Anzeigeeinheit (29, 32, 35, 36, 37) ist vorgesehen, dass – die 3d-Eingabebilddaten jeweils szenenweise entsprechend einer zugeordneten 3d-Bildszene (19, 20, 21) bereitgestellt werden, – die 3d-Eingabebilddaten jeweils einer Szenen-Verarbeitungseinheit (24) zur Verwaltung und Verarbeitung zugeführt werden, – die 3d-Eingabebilddaten szenenweise in der Szenen-Verarbeitungseinheit (24) verarbeitet werden, wobei zumindest zwei 3d-Bildszenen (19, 20, 21) zumindest teilweise überlagert werden und eine 3d-Gesamtszene (26) gebildet und verwaltet wird, – aus der 3d-Gesamtszene (26) mehrere 3d-Ausgabeszenen (33, 34, 40) abgeleitet werden, bei denen die Überlagerung jeweils entsprechend verschiedenen perspektivischen Beobachtungsorten erfolgt und dabei 3d-Ausgabebilddaten erzeugt werden, und – die 3d-Ausgabebilddaten mindestens einer Rendereinheit (27, 30, 38, 39), die der Anzeigeeinheit (29, 32, 35, 36, 37) zugeordnet ist, zum Erzeugen von an die Anzeigeeinheit (29, 32, 35, 36, 37) angepassten Zielbilddaten zugeführt werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Verarbeiten von 3d-Bilddaten. Die Erfindung betrifft insbesondere Verfahren und Systeme, bei denen Objekte in dreidimensionaler (3d) Darstellung mit so genannten 3d-Bilddaten beschrieben werden.
  • Beispielsweise gibt es in Kraftfahrzeugen mikroprozessorgesteuerte Systeme, auf denen Anwendungen ausgeführt werden, die 3d-Bilddaten erzeugen. Dazu baut jede Anwendung bzw. Applikation ein separates, so genanntes Szenenmodell auf, das eine 3d-Szene beschreibt. Zur Darstellung der 3d-Szene auf einer Anzeigeeinheit werden so genannte Renderer eingesetzt. Diese Systeme können ebenfalls auf einem Mikroprozessor, insbesondere auf einem Computer, ausgeführt werden. Sie dienen im Wesentlichen dazu, die 3d-Bilddaten der 3d-Szene so zu verarbeiten, dass sie zur Darstellung auf der Anzeigeeinheit angepasst sind.
  • Im Zuge eines Rendering-Prozesses kann beispielsweise eine Berechnung eines Bildes aus einer 3d-Szene erfolgen. Bei der Umsetzung von 3d-Bilddaten, die eine Vektorgrafik beschreiben, kann im Zuge des Rendering-Prozesses beispielsweise eine Konvertierung der Vektorgrafik eines Objekts in eine bildpunktweise Pixeldarstellung des Objekts in einer zweidimensionalen (2d) Computergrafik erfolgen.
  • Ein 3d-Renderer kann beispielsweise aus jeder einzelnen 3d-Szene eine separate 2d-Grafik generieren. Mittels einer Steuerungskomponente, einem so genannten Layer-Manager, kann durch Überlagerung verschiedener 2d-Grafiken ein Gesamtbild für die Anzeige auf einer Anzeigeeinheit erzeugt werden. Dabei werden die einzelnen 2d-Bilder nach einer festen Reihenfolge als Ebenen übereinander gelegt. Inhalte aus einer höheren Ebene können dabei Inhalte aus einer niedrigeren Ebene überdecken. Für die oberste Ebene kann die Sichtbarkeit von deren Inhalten garantiert werden.
  • Durch eine derartige auf Ebenen basierte Architektur bzw. Datenverarbeitung können 3d-Inhalte von verschiedenen Applikationen auf einem gemeinsamen Display angezeigt werden. Dabei kann auch sichergestellt werden, dass Inhalte einer sicherheitsrelevanten Applikation auf dem Display dargestellt werden, d. h. dass sie nicht von Inhalten anderer, nicht sicherheitsrelevanter Applikationen überdeckt werden.
  • 1 zeigt eine entsprechende Bildverarbeitungs-Architektur. Dabei laufen in mehreren Steuerungen bzw. Geräten in einem Kraftfahrzeug drei Anwenderprogramme ab, nämlich in einer fahrzeuginternen Steuerung ein Anwenderprogramm 1 zur Fußgänger-Erkennung, in einem im Fahrzeug eingebauten Multimedia-System ein Medienspieler 2 und in einem im Fahrzeug vorübergehend angeschlossenen Smartphone eine E-Mail-Anwendung 3. Die Anwendungsprogramme erzeugen jeweils Bilddaten, die eine 3d-Szene 4, 5 bzw. 6 beschreiben. Beispielsweise kann in der Szene 4 ein Fußgängerumriss dargestellt sein, in der Szene 5 ein vom Medienspieler erzeugtes Foto und in der Szene 6 eine email-Liste. Die Szenen-Bilddaten werden in den jeweiligen Anwendungsprogrammen zugeordneten Renderern 7, 8, 9 zu 2d-Bildern umgewandelt. Dabei sind den Anwendungsprogrammen 1, 2, 3 auch Ebenen zugeordnet, wobei die Bilddaten 10 einer obersten Ebene zugeordnet sind, die Bilddaten 11 einer mittleren Ebene und die Bilddaten 12 einer untersten Ebene. Eine Layer-Manager Anwendung 13 empfängt die jeweiligen Bilddaten und überlagert sie ebenenweise, wobei die oberste Ebene alle weiter unterliegenden Ebenen überlagert. Dadurch entsteht ein 2d-Bild 14, das vom Layer-Manager 13 ausgegeben wird.
  • Nachteilig bei dem beschriebenen Verfahren, jede 3d-Szene separat zu rendern und später eine ebenenweise Überlagerung vorzunehmen, ist, dass keine räumlich verursachten Verdeckungen oder optischen Effekte wie Spiegelungen und Schatten zwischen Elementen verschiedener 3d-Szenen berechnet werden können. Zudem ist es beispielsweise in Kraftfahrzeugen mitunter nötig, bestimmte Grafikinhalte über mehrere Anzeigeeinheiten verteilt anzuzeigen, beispielsweise ein erster Grafikteil in einer Hauptanzeige-Einheit im Bereich des Lenkrads, ein zweiter Grafikteil in einem Infotainmentsystem im Mittelkonsolen-Bereich und ein dritter Grafikteil in einem weiteren Infotainment System im Bereich der Fond-Sitze. Einzelne Grafikteile können dabei auch gleichzeitig in mehreren Anzeigeeinheiten angezeigt werden. Derartige Anforderungen kann der beschriebene ebenenbasierte Ansatz nicht hinreichend gut erfüllen.
  • Aus der US 7,145,562 B2 ist ein System zur Darstellung zweidimensionaler und dreidimensionale Objekte in einer zweidimensionalen Computergrafik bekannt, bei dem 2d-Objekte und 3d-Objekte hierarchisch in eine gemeinsame Szene integriert werden können. Der Inhalt dieser Veröffentlichung wird hiermit durch Bezugnahme in die vorliegende Beschreibung aufgenommen.
  • Bei der Darstellung von Computergrafiken finden Erzeugung und Präsentation des fertigen Bildes häufig im gleichen Gerät statt. Um einen Austausch von Grafikinhalten über Gerätegrenzen hinweg zu realisieren werden die Grafikdaten in der Regel in vorgegebenen Formaten, sogenannten Videostreams, übertragen. Die Videostreams werden dabei über eine Schnittstelle an ein entferntes Gerät übertragen und dort in die lokale Szene integriert. Nachteilig ist dabei, dass es meist nur mit hohem Aufwand möglich ist, Wechselwirkungen zwischen entfernten und lokalen Szenen festzustellen und in der Zielgrafik zu realisieren. Befinden sich beispielsweise in dem übertragenen Videostream Objekte, die einen Schatten werfen und soll dieser Schatten auch auf den Objekten in der lokalen Szene sichtbar sein, dann ist es zum Einen erforderlich, Zusatzinformationen zwischen den beiden Geräten auszutauschen. Zum Anderen erfordert dies einen hohen Rechenaufwand beim Erzeugen der Zielgrafik.
  • Es ist Aufgabe der Erfindung, eine Überlagerung von Bildern, die auf 3d-Eingabebilddaten beruhen, mit hoher Genauigkeit und vertretbarem Rechenaufwand zu ermöglichen.
  • Diese Aufgabe wird durch die in den unabhängigen Patentansprüchen angegebene Erfindung gelöst. Vorteilhafte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Erfindungsgemäß ist zum Verarbeiten von 3d-Eingabebilddaten zur Anzeige von Bildern auf mindestens einer Anzeigeeinheit vorgesehen, dass die 3d-Eingabebilddaten jeweils szenenweise entsprechend einer zugeordneten 3d-Bildszene bereitgestellt werden. Die 3d-Eingabebilddaten werden jeweils einer Szenen-Verarbeitungseinheit zur Verwaltung und Verarbeitung zugeführt und szenenweise in der Szenen-Verarbeitungseinheit verarbeitet. Dabei werden zumindest zwei 3d-Bildszenen zumindest teilweise überlagert und eine 3d-Gesamtszene gebildet und verwaltet. Aus der 3d-Gesamtszene werden mehrere 3d-Ausgabeszenen abgeleitet, bei denen die Überlagerung jeweils entsprechend einem perspektivischen Beobachtungsort erfolgt und wobei 3d-Ausgabebilddaten erzeugt werden. Die 3d-Ausgabebilddaten werden mindestens einer Rendereinheit, die der Anzeigeeinheit zugeordnet ist, zum Erzeugen von an die Anzeigeeinheit angepassten Zielbilddaten zugeführt.
  • Die 3d-Eingabebilddaten enthalten typische Werte zur Darstellung von 3d-Objekten, insbesondere 3d-Koordinatendaten und Objektattribute. Eine 3d-Szene kann datentechnisch insbesondere über einen Szenenbaum bzw. einen Szenengraphen strukturiert sein. Die 3d-Eingabebilddaten können insbesondere von mehreren Client-Computersystemen bereit gestellt werden. Die Client-Computersysteme, die Szenen-Verarbeitungseinheit und die Rendereinheit können mikroprozessorgesteuerte Geräte und/oder auf solchen Geräten geladene und ablaufende Computerprogramm-Anwendungen sein.
  • Die Erfindung beruht auf der Erkenntnis, dass das Bilden einer 3d-Gesamtszene eine vereinfachte und gleichzeitig genaue Verarbeitung zum Ableiten der 3d-Ausgabebilddaten aus den verschiedenen 3d-Eingabebilddaten bzw. aus den ihnen zugeordneten 3d-Bildszenen ermöglicht. Die Erfindung beruht auch auf der Erkenntnis, dass die Überlagerung der 3d-Bildszenen vorteilhaft aus der 3d-Gesamtszene heraus möglich ist. Zudem wurde erkannt, dass es günstig ist, einen jeweiligen perspektivischen Beobachtungsort bei der Überlagerung aus der 3d-Gesamtszene heraus in die Bildung der 3d-Ausgabebilddaten einfließen zu lassen.
  • Der perspektivische Beobachtungsort kann als Kameraparameter in die Überlagerung einfließen, wobei als Kameraparameter übliche perspektivische Parameter wie Öffnungswinkel der Bildszene oder Abstand zur Bildszene verwendet werden können. Als Kameraparameter können beispielsweise vorgesehen sein:
    • – Eine Transformationsmatrix, die die Position und Orientierung der Kamera im 3d-Raum beschreibt und die beispielsweise Position und/oder relative Blickrichtung oder Punkt, auf den die Kamera gerichtet ist, beschreibt. Zusätzlich kann ein Vektor vorgesehen sein, der eine Vorzugsrichtung angibt, z. B. die Senkrechte nach oben.
    • – Öffnungswinkel insbesondere in vertikaler Richtung
    • – Seitenverhältnis des Zielbildes, zum Beispiel 16:9
    • – Ein so genannter Near-Plane Parameter, der der Entfernung von der Kameraposition zu einer Projektionsfläche entspricht, wobei alle Elemente vor dieser Fläche im Zielbild nicht sichtbar sind.
    • – Ein so genannter Far-Plane Parameter, der der Entfernung von der Kameraposition zu einer Fläche, die den Kameraraum begrenzt, entspricht, wobei alle Elemente hinter dieser Fläche im Zielbild nicht sichtbar sind.
  • Wenn Near-Plane und Far-Plane-Parameter angewandt werden, dann nimmt eine Kamera nur Szenenelemente auf, die zwischen der Near-Plane und der Far-Plane liegen. Die Flächen der Planes ergeben sich aus dem vertikalen Öffnungswinkel, dem Seitenverhältnis und dem jeweiligen Wert der Near- oder Far-Plane.
  • Der perspektivischen Beobachtungsort bzw. Kameraparameter kann jeweils der räumlichen Position, Ausrichtung und/oder sonstigen Parametern der mindestens einen Anzeigeeinheit entsprechen. Die Anzeigeeinheit kann zur Darstellung von 3d-Bildern geeignet sein. Sie kann auch zur Darstellung von 2d-Bildern ausgebildet ein. Je nach der Darstellungsart wandelt die Rendereinheit die 3d-Ausgabebilddaten in 3d-Zielbilddaten oder in 2d-Zielbilddaten um. Im Falle von 2d-Zielbilddaten ist die Rendereinheit insbesondere ein Rasterprozessor. Es können mehrere Anzeigeeinheiten vorgesehen sein. Verschiedenen Anzeigeeinheiten können verschiedene perspektivische Beobachtungsorte bzw. verschiedene Kameraparameter zugeordnet sein. Dann kann zum Ableiten der 3d-Ausgabeszenen aus der 3d-Gesamtszene die Überlagerung der 3d-Bildszenen jeweils entsprechend den verschiedenen perspektivischen Beobachtungsorten bzw. Parametern erfolgen.
  • Es können auch mehrere Rendereinheiten vorgesehen sein, denen jeweils eine oder mehrere Anzeigeeinheiten zugeordnet sein können.
  • Durch die global verwaltete 3d-Gesamtszene können die Übertragung von Videostreams eingespart und Grafikinhalte zwischen verschiedenen Anzeigeeinheiten unmittelbar ausgetauscht werden. Die Einbindung zusätzlicher Anzeigeeinheiten wird erheblich vereinfacht. Dazu kann es ausreichen, in den jeweiligen Systemeinheiten jeweils einen geringen Steuerungsanteil, beispielsweise einen kleinen Softwareanteil, anzupassen um eine neue Anzeigeeinheit in den Anzeigeverbund mehrerer Anzeigeeinheiten aufzunehmen. Zusätzlich ist es möglich, dass beliebige Geräte neue Grafikinhalte zur Gesamtszene beisteuern. Eine Anzeigeeinheit kann jeweils eine physisch fest mit ihr verbundene, eigene Rendereinheit aufweisen.
  • Den 3d-Eingabebilddaten kann jeweils eine von mindestens zwei Prioritätsstufen zugeordnet werden, wobei eine Prioritätsstufe jeweils angibt, in welchem Maß die zugehörige 3d-Bildszene bei der Überlagerung mit einer anderen 3d-Bildszene sichtbar bleibt. Die 3d-Ausgabeszenen können dann derart gestaltet werden, dass beim Erzeugen der Zielbilddaten in der Rendereinheit an einer Zielbildkoordinate diejenigen Ziel Bilddaten, die aus einer 3d-Bildszene einer höheren Prioritätsstufe abgeleitet werden, Zielbilddaten, die aus einer niedrigeren Prioritätsstufe abgeleitet werden, überlagern. Dadurch kann beispielsweise erreicht werden, dass sicherheitsrelevante Bildelemente andere Bildelemente, die nicht sicherheitsrelevant sind, auf der Anzeigeeinheit überlagern, d. h. mit hoher Sicherheit dargestellt werden. Beispielsweise kann in einem Kraftfahrzeug sichergestellt werden, dass auf der Anzeigeeinheit die sicherheitsrelevante Anzeige über die Höhe eines eingelegten Gangs eine nicht sicherheitsrelevante Anzeige von Navigationsdaten überlagert. Die Zuordnung der Prioritätsstufen kann 3d-bildszenenweise, im Szenenbaum und/oder in Form eines Attributs erfolgen. Zusätzlich kann vorgesehen werden, dass bei einer Speicherung von als sicherheitsrelevant gekennzeichnete Bilddaten, insbesondere in der Szenenverwaltungseinheit und/oder von in Rendering-Einheit, ein Speicher-Schreibschutz erfolgt, durch den ein unbeabsichtigtes Überschreiben des Speichers verhindert wird.
  • Mit der Erfindung ist es möglich, sicherheitsrelevante und nicht sicherheitsrelevante 3d-Inhalte von unterschiedlichen Client-Computersystemen gemeinsam in der Szenen-Verarbeitungseinheit zu verarbeiten und daraus eine 3d-Gesamtszene mit gemischten Inhalten zu erzeugen. Dabei können einerseits sicherheitsrelevante 3d-Inhalte mittels der zugeordneten Attribute vor unbeabsichtigten Manipulationen und vor Überdeckungen geschützt werden. Andererseits ist es dadurch möglich, eine kohärente 3d-Gesamtszene unter Berücksichtigung von Überdeckungen von 3d-Bildszenen, optischen Effekten und Interaktionen zwischen den 3d-Bildszenen zu bilden. Mit der Erfindung kann somit ein so genanntes Mixed-Criticality System zur Bildverarbeitung insbesondere in einem Kraftfahrzeug angegeben werden.
  • Um sicherzustellen, das Zielbilddaten zu sicherheitsrelevanten Anzeigen, die von der Rendereinheit an die Anzeigeeinheit ausgegeben werden, dort korrekt dargestellt werden, kann eine Prüfung durch einen Checksummen-Vergleich der beiden Einheiten erfolgen.
  • In einem vorteilhaften Ausführungsbeispiel der Erfindung sind mehrere Anzeigeeinheiten vorgesehen, denen jeweils eine Rendereinheit zugeordnet ist. Die Szenen-Verarbeitungseinheit kann dann für die Anzeigeeinheiten jeweils unterschiedliche 3d-Ausgabebilddaten, insbesondere als Teilszene bzw. so genannte Subszene aus der 3d-Gesamtszene, erzeugen und die 3d-Ausgabebilddaten können insbesondere subszenenweise an eine oder mehrere Rendereinheiten zum Erzeugen der Zielbilddaten verteilt werden. Die Verteilung der 3d-Ausgabebilddaten an mehrere Rendereinheiten ermöglicht auch vorteilhaft, für eine einzige Anzeigeeinheit bestimmte Bilddaten an mehrere Rendereinheiten zu verteilen. Durch einen solchen, verteilten Rendering-Prozess ist es andererseits möglich, eine geringer ausgelastete Rendereinheit einer ersten Anzeigeeinheit auch zum Rendern von 3d-Ausgabebilddaten einer zweiten Anzeigeeinheit zu verwenden, deren Rendereinheit stark ausgelastet ist. Dieser Vorteil kann weiter verstärkt werden indem die Zielbilddaten beispielsweise über die zugrunde liegenden 3d-Ausgabebilddaten und die zugeordneten perspektivischen Kameraparameter jeweils einer Anzeigeeinheit zugeordnet werden. Die Rendereinheit kann dann die Zielbilddaten an die jeweils Ihnen zugeordnete Anzeigeeinheit ausgeben.
  • Wenn für den Rendering-Prozess mehrere Rendereinheiten vorgesehen werden, dann können mehrere Konfigurationen und Vorteile erreicht werden. Zum einen besteht eine gewisse Ausfallsicherheit in dem beim Ausfall einer Rendereinheit eine andere Rendereinheit deren Renderaufgaben übernehmen kann. Zum anderen besteht eine Skalierbarkeit in dem die Renderleistung erhöht werden kann indem eine zusätzliche Rendereinheit vorgesehen wird oder eine vorhandene Rendereinheit, die schwach ausgelastet ist, zusätzliche Renderaufgaben einer anderen Rendereinheit, die stark ausgelastet ist, übernimmt. Weiterhin können Rendering-Aufgaben hinsichtlich der Sicherheit-Relevanz zwischen verschiedenen Rendereinheiten aufgeteilt werden. Beispielsweise kann eine Rendereinheit im Verbund mehrerer Rendereinheiten für die jeweiligen 3d-Ausgabebilddaten reserviert werden, die als sicherheitsrelevant gekennzeichnet sind bzw. denen die höchste Prioritätsstufe zugeordnet ist. Diese Rendereinheit kann dann beispielsweise einen Speicher-Schreibschutz für die sicherheitsrelevanten Daten vorsehen.
  • Zwischen der Rendereinheit und der Szenen-Verwaltungseinheit kann insbesondere eine bidirektionale Interaktion dahingehend bestehen, dass die Rendereinheit Daten zu den perspektivischen Beobachtungsorten an die Szenen-Verwaltungseinheit übermittelt und umgekehrt die Szenen-Verwaltungseinheit die 3d-Ausgabebilddaten an die Rendereinheit übermittelt. Die Daten zu den perspektivischen Beobachtungsorten können wiederum entsprechende Daten der Anzeigeeinheit, insbesondere Koordinatendaten der Anzeigeeinheit, umfassen bzw. von diesen abgeleitet sein. Insbesondere wenn mehrere Anzeigeeinheiten vorgesehen sind, kann dadurch sichergestellt werden, dass überlappende bzw. gekoppelte Darstellungen einer Bildszene auf verschiedenen Anzeigeeinheiten perspektivisch korrekt erfolgen.
  • Gemäß einer anderen vorteilhaften Ausführungsform der Erfindung verwendet die Szenen-Verarbeitungseinheit zum Bilden der 3d-Gesamtszene Interaktionsparameter, die eine Wechselwirkung zwischen 3d-Bildelementen von mindestens zwei der Client-Computersysteme beschreiben. Dadurch können beispielsweise Überdeckungen von 3d-Bildelementen der Client-Computersysteme berechnet und in der Anzeigeeinheit korrekt dargestellt werden. Auch optische Effekte wie Spiegelungen und Schattenwürfe zwischen 3d-Bildelementen können vorteilhaft von der Szenen-Verarbeitungseinheit aus der 3d-Gesamtszene berechnet werden und später auf einer Anzeigeeinheit dargestellt werden. Dabei können als Interaktionsparameter beispielsweise Latenzparameter, Transparenzparameter oder Reflexionskoeffizienten, die 3d-Bildelementen als Attribute zugeordnet sind, verwendet werden oder Beleuchtungsparameter wie Lichtstärke, Farbe und Lichtausbreitungsrichtung einer Lichtquelle, die einer 3d-Bildszene zugeordnet ist bzw. in der 3d-Bildszene als 3d-Bildelement vorgesehen ist. Beispielsweise könnte auf der Anzeigeeinheit eines Kraftfahrzeugs aufgrund des gelben Lichts einer darzustellenden, blinkenden Ampel das Bild eines Fußgänger-Symbols, das nahe der Ampel darzustellen ist, periodisch leicht gelblich eingefärbt werden. Eine Interaktion zwischen 3d-Bildelementen kann dynamisch erfolgen, wenn die 3d-Bildelemente innerhalb eines geeigneten Dynamikzeitraums von z. B. einer Millisekunde bis 50 Millisekunden jeweils neu berechnet bzw. auf der Anzeigeeinheit dargestellt werden. Dadurch können auch Animationen erfolgen.
  • In der Rendereinheit kann vorzugsweise ein so genanntes Deferred Shading erfolgen, bei dem der Renderingprozess stufenweise erfolgt, wobei der Prozess an vorgegebenen Prozessstufen vorzeitig beendet werden kann, an denen in der Anzeigeeinheit ausgebbare Zielbilddaten vorliegen und wobei an jeweils höheren Prozessstufen sukzessive eine bessere Bildqualität erreicht wird.
  • Zum Überwachen der Rendering-Genauigkeit kann weiterhin vorgesehen werden, dass im Zuge des Renderns der 3d-Ausgabebilddaten parallel ein vorgegebenes Referenzbild gerendert wird, insbesondere ein Referenzmuster und/oder ein hinsichtlich der Bildgröße gegenüber den 3d-Ausgabebilddaten sehr viel kleineres Mini-Bild. Anhand des Rendering-Ergebnisses des Referenzbilds kann dann entschieden werden, ob das Rendering-Ergebnis der 3d-Ausgabebilddaten für die weitere Verarbeitung verwendet oder verworfen wird. Für das Mini- bzw. Referenzbild kann insbesondere ein Rendering-Datensatz Verwendung finden, der an die jeweilige Rendereinheit, an die 3d-Bildszene und/oder ihr zugeordnete Parameter angepasst ist. Beispielsweise kann ein solches Mini-Bild für jeweils ein 3d-Bildelement und/oder eine 3d-Bildszene vorgesehen werden, das sicherheitsrelevant sind. Es kann hinsichtlich bildverarbeitungsrelevanter Eigenschaften wie Größe, Position, Farbe, Komplexität usw. dem jeweiligen 3d-Bildelement angeglichen sein. Zu einer 3d-Bildszene können mehrere Mini-Bilder vorgesehen sein.
  • Im Folgenden werden weitere Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert. Es zeigen:
  • 1 eine Bildverarbeitungs-Architektur nach dem Stand der Technik,
  • 2 eine erfindungsgemäße Bildverarbeitungs-Architektur,
  • 3 Details einer Bildverarbeitungs-Architektur und
  • 4 einen Deferred Shading Prozess.
  • In der in 2 dargestellten Bildverarbeitung-Architektur 15 werden 3d-Bilddaten, die von Client-Computerprogramm Anwendungen 16, 17, 18 erzeugt werden, einem Szenen-Manager 24 zugeführt, der diese empfangenen 3d-Eingabebilddaten in einer Welt-Szene 26 zusammenführt und zu 3d-Ausgabebilddaten verarbeitet für eine letztliche Darstellung der Bildszenen an Anzeigegeräten (Displays) 29, 32. Dazu werden die 3d-Ausgabebilddaten für die jeweils zugeordnete Display-Szene 33, 34 vom Szenen-Manager 24 an zwei Renderer 27, 30 ausgegeben, die aus den 3d-Ausgabebilddaten displayspezifische Zielbilddaten erzeugt. Renderer 27 erzeugt Zielbilddaten für Display 29. Renderer 30 erzeugt Zielbilddaten für Display 32.
  • Dieses Bildverarbeitungssystem ist in diesem Ausführungsbeispiel in einem Kraftfahrzeug vorgesehen. Die Client-Anwendung 16 führt ein Navigationssystem aus, die Client-Anwendung 17 führt fahrzeugspezifische Funktionen wie beispielsweise das Erfassen eines eingelegten Gangs aus. Die Client-Anwendung 18 wird in einem am Fahrzeug vorübergehend angeschlossenen, mobilen Telekommunikationsgerät (Smartphone) ausgeführt. Die Client-Anwendungen 16, 17, 18 erzeugen jeweils individuelle 3d-Bilddaten für jeweils zugeordnete 3d-Bildszenen (Client Szenen) 19, 20, 21. Zusätzlich erzeugen die Client-Anwendungen 16, 17, 18 jeweils den 3d-Bildszenen zugeordnete Parameter. Sicherheits-Parameter 22 geben jeweils eine Prioritätsstufe an, in welchem Maß die zugehörige 3d-Bildszene bei der Überlagerung mit einer anderen 3d-Bildszene sichtbar bleibt. Interaktions-Parameter 23 beschreiben, in welcher Weise 3d-Bildobjekte der 3d-Bildszene mit 3d-Bildobjekten anderer 3d Bild Szenen wechselwirken. Beispielsweise gibt ein Interaktions-Parameter 23 für einen Reflexionsgrad eines 3d-Bildobjekts an, wie stark andere 3d-Bildobjekte an dem Objekt gespiegelt werden. Die Sicherheitsparameter 22 und die Interaktionsparameter 23 können von den Client-Anwendungen 16, 17, 18 jeweils gemeinsam bzw. in den Client-Szenen 19, 20, 21 an den Szenen-Manager 24 übertragen werden. Sie können auch in der Welt-Szene 26 und in den Display-Szenen 33, 34 enthalten sein.
  • Sowohl die 3d-Bilddaten für die 3d-Bildszenen 19, 20, 21 als auch die Parameter 22, 23 werden einem Szenen-Manager 24 zur Bildverarbeitung zugeführt. Dieser umfasst einen 3d-Prozessor 25 zur Verarbeitung der 3d-Bilddaten und erstellt anhand der 3d-Bildszenen eine 3d-Gesamtszene, die hier auch als Welt-Szene 26 bezeichnet wird. Die verschiedenen 3d-Bildszenen 19, 20 und 21 können dabei miteinander überlagert werden, wobei die Sicherheits-Parameter 22 und Interaktions-Parameter 23 angewandt und/oder weiterhin den 3d-Bildszenen 19, 20 und 21 zugeordnet werden. Bei der Anwendung der Sicherheits-Parameter 22 im 3d-Prozessor 25 werden 3d-Bilddaten, denen ein hoher Wert des Sicherheits-Parameters zugeordnet ist, z. B. anderen 3d-Bilddaten überlagert und das Ergebnis in einem Speicher, der vom 3d-Prozessor 25 verwaltet wird, per Schreibschutz vor Überschreiben geschützt. Die Anwendung kann entsprechend auch in einem Renderer 27, 30 erfolgen. Der Szenen-Manager 24 stellt dabei über Zugriffsregeln, die die Sicherheit-Parameter 22 verwenden, sicher, dass sicherheitsrelevante Inhalte nicht fehlerhaft überschrieben oder verändert werden können und dass sicherheitsrelevante Szenen-Elemente nach dem Rendern auf dem jeweiligen Display 29, 32 sichtbar sind. Der 3d-Prozessor 25 kann eine herkömmliche Central Processing Unit (CPU) sein, auf der 3d-Szenen mit einer entsprechenden Anwendung verarbeitet werden, oder auch ein dedizierter Hardwareprozessor zum Verarbeiten von 3d-Szenen wie z. B. ein Grafikprozessor oder ein Vektorprozessor.
  • Die Client-Anwendungen 16, 17 und 18 und einzelne Prozesse können jeweils Grafikinhalte zu der Welt-Szene 26 beisteuern und ihrerseits abfragen, welche Inhalte bereits in der Welt-Szene 26 vorhanden sind. Der Szenen-Manager 24 verwaltet die Welt-Szene 26 und leitet daraus jeweilige Sub-Szenen ab, die er an die Renderer 27, 30 verteilt. Zur Bildung der Welt-Szene 26 und der Sub-Szenen zieht der Szenen-Manager 24 jeweils displayspezifische Daten 28, 31 heran, die die jeweilige Einbauposition und Perspektive des Displays 29, 32 im Kraftfahrzeug angeben. Die Daten 28, 31 werden dem Szenen-Manager 24 von den jeweiligen Renderern 27, 30 als Parameter zugeführt. Die Welt-Szene 26 stellt somit eine 3d-Gesamtszene für alle von den Client-Anwendungen 16, 17 und 18 gelieferten 3d-Bildszenen und inklusive Berücksichtigung aller seiner Displays 29, 32 bereit. Im Ausführungsbeispiel der 1 sind die Displays 29 und 32 2d-Displays. Dem entsprechend rendern die Renderer 27, 31 nach Art eines Rasterprozessors die bei Ihnen eintreffenden 3d-Ausgabebilddaten zu 2d-Zielbilddaten.
  • In 3 sind Szenen-Manager 24 und ausgabeseitige Komponenten eines erfindungsgemäßen Bildverarbeitungssystems detaillierter gezeigt. Bei diesem System sind drei Displays 35, 36, 37 vorgesehen. Dabei werden die beiden Displays 35, 36 von einem einzigen Renderer 38 mit Zielbilddaten versorgt. Renderer 39 erzeugt aus 3d-Ausgabebilddaten der Display-Szene 40 Zielbilddaten nur für das eine Display 37. Renderer 38 verwaltet die Parameter für Position und Perspektive für die beiden Displays 35, 36. Umgekehrt wäre es auch möglich, ein Display an mehrere Renderer anzuschließen, wobei jeder der Renderer jeweils ein Teilbild des Displays erzeugt. Möglich ist auch, dass in einem Verbund von Renderern untereinander Aufgaben zum Rendern von Teilbildern für ein oder mehrere Displays aufgeteilt werden.
  • In 3 sind auch verschiedene Prozesse veranschaulicht, die im 3d-Prozessor 25 stattfinden und die mittels Parametern gesteuert werden, die z. B. von einer Client-Anwendung 16, 17, 18 oder von einem Display 35, 36, 37 erzeugt und an den Szenen-Manager 24 gemeldet werden. Im Prozess 41 werden die Sicherheitsparameter verarbeitet und sichergestellt, dass Inhalte, die sicherheitsrelevant sind, letztlich im jeweiligen Display sichtbar sind. Im Integritäts-Sicherungsprozess 42 wird sichergestellt, dass bestimmte Bildinhalte letztlich im jeweiligen Display dargestellt werden. Dazu kann für die jeweiligen Bildinhalte eine Prüfsumme im 3d-Prozessor gebildet werden und ein Vergleich dieser Prüfsumme mit der entsprechenden Prüfsumme des Displays erfolgen. Im Latenz-Sicherungsprozess 43 wird überwacht, dass ein Bildobjekt innerhalb einer vorgegebenen Zeit angezeigt wird. Dies kann insbesondere mit Hilfe eines Deferred Shading erfolgen, wobei nach einem gewissen Zeitablauf von zum Beispiel 100 ms ein Rendering-Prozess am nächst möglichen Prozessschritt abgebrochen und das jeweilige Bildobjekt sofort am Display angezeigt wird. Ein Parameter für diese Prozesssteuerung kann beispielsweise an einen Sicherheits-Parameter 22 oder an einen Interaktions-Parameter 23 gekoppelt werden.
  • Mit dem Prozess 44 zum Datenschutz-Management kann gesteuert werden, dass bestimmte 3d-Bildelemente und/oder 3d-Bildszenen an bestimmten Displays, in bestimmten Display-Bereichen oder generell nicht angezeigt werden. Auch dieser Prozess ist parametergesteuert. Mit dem Prozess 45 erfolgt das Fehler-Management für die Prozesse im 3d-Prozessor. Mit dem Prozess 46 für ein Lade-Management wird die Prozessgeschwindigkeit gesteuert. Dazu kann beispielsweise eine Verteilung der 3d-Ausgabebilddaten an die Renderer 38, 39 so gesteuert werden, dass die Renderer gleichmäßig ausgelastet sind.
  • In 4 wird ein in einem Renderer stattfindendes Deferred Shading veranschaulicht. Dabei werden 3d-Bilddaten seriell in Prozessstufen verarbeitet um Zielbilddaten zu erzeugen. Im Prozessschritt PS1 werden Farbdaten der jeweiligen 3d-Bilddaten verarbeitet. Im Prozessschritt PS2 werden Tiefendaten der 3d-Bilddaten verarbeitet. Im Prozessschritt PS3 werden die jeweiligen Normalen zu Oberflächen von Bildobjekten verarbeitet. Die Prozessschritte PS1, PS2 und PS3 können gemeinsam in einem Verfahrensschritt erfolgen. Farben, Tiefen und Normalen sind dann die Ergebnisse dieses einen Verfahrensschritts.
  • Im Prozessschritt PS4 werden ggf. in Abhängigkeit vorhandener Lichtquellen die Helligkeitswerte (Lichter) der 3d-Bilddaten verarbeitet. Die Prozessschritte PS1 bis PS4 sind notwendig um ein qualitativ ausreichendes Zielbild zu erzeugen. Ein nachfolgender Prozessschritt PS5 dient der Kantenglättung (sog. Anti-Aliasing) von Objekten, bevor das vorgesehene Bildverarbeitungsverfahren mit dem Erstellen eines Zielbildes beendet wird (Prozessschritt PS6). Der Prozessschritt PS5 ist jedoch rechenaufwändig. Deshalb wird es in einem Deferred Shading ermöglicht, den Bildverarbeitungsprozess nach Prozessschritt PS4 abzubrechen und mit der Erstellung eines alternativen Zielbildes zu beenden (Prozessschritt PS7), das zumindest einen gewissen Mindest-Informationsgehalt wiedergibt. Zusätzlich bzw. nachfolgend zum Prozessschritt PS5 können weitere optionale Bildverarbeitungsschritte vorgesehen sein. Zwischen optionalen Schritten können dann weitere optionale Endpunkte vorgesehen sein.
  • Die beschriebenen Geräte und Systemkomponenten werden insbesondere mit Computerprogrammen gesteuert und können dazu weitere, an sich bekannte Elemente von Computern und digitalen Steuerungseinrichtungen wie einen Mikroprozessor, flüchtige und nicht flüchtige Speicher, Schnittstellen usw. aufweisen. Die Erfindung kann deshalb auch ganz oder teilweise in Form eines Computerprogrammprodukts realisiert werden, das beim Laden und Ausführen auf einem Computer einen erfindungsgemäßen Ablauf ganz oder teilweise bewirkt. Es kann beispielsweise in Form eines Datenträgers wie einer CD/DVD bereit gestellt werden oder auch in Form einer oder mehrerer Dateien auf einem Server, von dem das Computerprogramm herunter ladbar ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7145562 B2 [0008]

Claims (10)

  1. Verfahren zum Verarbeiten von 3d-Eingabebilddaten für eine Anzeige von Bildern auf mindestens einer Anzeigeeinheit (29, 32, 35, 36, 37), wobei – die 3d-Eingabebilddaten jeweils szenenweise entsprechend einer zugeordneten 3d-Bildszene (19, 20, 21) bereitgestellt werden, – die 3d-Eingabebilddaten jeweils einer Szenen-Verarbeitungseinheit (24) zur Verwaltung und Verarbeitung zugeführt werden, – die 3d-Eingabebilddaten szenenweise in der Szenen-Verarbeitungseinheit (24) verarbeitet werden, wobei zumindest zwei 3d-Bildszenen (19, 20, 21) zumindest teilweise überlagert werden und eine 3d-Gesamtszene (26) gebildet und verwaltet wird, – aus der 3d-Gesamtszene (26) mehrere 3d-Ausgabeszenen (33, 34, 40) abgeleitet werden, bei denen die Überlagerung jeweils entsprechend einem perspektivischen Beobachtungsort erfolgt und dabei 3d-Ausgabebilddaten erzeugt werden, und – wobei die 3d-Ausgabebilddaten mindestens einer Rendereinheit (27, 30, 38, 39), die der Anzeigeeinheit (29, 32, 35, 36, 37) zugeordnet ist, zum Erzeugen von an die Anzeigeeinheit (29, 32, 35, 36, 37) angepassten Zielbilddaten zugeführt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mehrere Anzeigeeinheiten (29, 32, 35, 36, 37) vorgesehen sind, denen jeweils eine Rendereinheit (27, 30, 38, 39) zugeordnet ist und dass die Szenen-Verarbeitungseinheit (24) für die Anzeigeeinheiten (29, 32, 35, 36, 37) jeweils unterschiedliche 3d-Ausgabebilddaten erzeugt und die 3d-Ausgabebilddaten an die eine oder mehreren Rendereinheiten (27, 30, 38, 39) zum Erzeugen der Zielbilddaten verteilt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Zielbilddaten jeweils einer Anzeigeeinheit (29, 32, 35, 36, 37) zugeordnet sind und dass die Rendereinheit (27, 30, 38, 39) die Zielbilddaten an die jeweils ihnen zugeordnete Anzeigeeinheit (29, 32, 35, 36, 37) ausgibt.
  4. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Anzeigeeinheit (29, 32, 35, 36, 37) zur Anzeige von 2d-Bildern ausgebildet ist, dass die Rendereinheit (27, 30, 38, 39) ein Rasterprozessor ist und dass die Zielbilddaten 2d-Bilddaten sind.
  5. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass den 3d-Eingabebilddaten jeweils eine von mindestens zwei Prioritätsstufen zugeordnet wird, wobei eine Prioritätsstufe jeweils angibt, in welchem Maß die zugehörige 3d-Bildszene (19, 20, 21) bei der Überlagerung mit einer anderen 3d-Bildszene (19, 20, 21) sichtbar bleibt und dass die 3d-Ausgabeszenen (33, 34, 40) derart gestaltet werden, dass beim Erzeugen der Zielbilddaten in der Rendereinheit (27, 30, 38, 39) an einer Zielbildkoordinate diejenigen Zielbilddaten, die aus einer 3d-Bildszene (19, 20, 21) einer höheren Prioritätsstufe abgeleitet werden, Zielbilddaten, die aus einer niedrigeren Prioritätsstufe abgeleitet werden, überlagern.
  6. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass der perspektivische Beobachtungsort einer räumlichen Position der Anzeigeeinheit (29, 32, 35, 36, 37) entspricht.
  7. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass die Szenen-Verarbeitungseinheit (24) zum Bilden der 3d-Gesamtszene (26) Interaktionsparameter verwendet, die eine Wechselwirkung zwischen 3d-Bildelementen von mindestens zwei Client-Computersystemen (16, 17, 18) beschreiben, die die 3d-Eingabebilddaten bereit stellen.
  8. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass in der Rendereinheit (27, 30, 38, 39) ein Deferred Shading erfolgt.
  9. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass im Zuge des Renderns der 3d-Ausgabebilddaten parallel ein vorgegebenes Referenzbild gerendert wird und dass anhand des Rendering-Ergebnisses des Referenzbilds entschieden wird, ob das Rendering-Ergebnis der 3d-Ausgabebilddaten für die weitere Verarbeitung verwendet oder verworfen wird.
  10. Bildverarbeitungssystem umfassend zumindest eine Steuerung zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 9.
DE102013201377.9A 2013-01-29 2013-01-29 Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten Withdrawn DE102013201377A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102013201377.9A DE102013201377A1 (de) 2013-01-29 2013-01-29 Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten
EP14701745.3A EP2951787B1 (de) 2013-01-29 2014-01-28 Verfahren und vorrichtung zum verarbeiten von 3d-bilddaten
JP2015554191A JP6362622B2 (ja) 2013-01-29 2014-01-28 3d画像データの処理のための方法及び装置
CN201480006266.5A CN104956403B (zh) 2013-01-29 2014-01-28 用于处理3d图像数据的方法和装置
KR1020157017003A KR102076385B1 (ko) 2013-01-29 2014-01-28 3d 이미지 데이터를 처리하기 위한 방법 및 장치
PCT/EP2014/051576 WO2014118145A1 (de) 2013-01-29 2014-01-28 Verfahren und vorrichtung zum verarbeiten von 3d-bilddaten
US14/811,063 US9767603B2 (en) 2013-01-29 2015-07-28 Method and device for processing 3D image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013201377.9A DE102013201377A1 (de) 2013-01-29 2013-01-29 Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten

Publications (1)

Publication Number Publication Date
DE102013201377A1 true DE102013201377A1 (de) 2014-07-31

Family

ID=50029031

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013201377.9A Withdrawn DE102013201377A1 (de) 2013-01-29 2013-01-29 Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten

Country Status (7)

Country Link
US (1) US9767603B2 (de)
EP (1) EP2951787B1 (de)
JP (1) JP6362622B2 (de)
KR (1) KR102076385B1 (de)
CN (1) CN104956403B (de)
DE (1) DE102013201377A1 (de)
WO (1) WO2014118145A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014214666A1 (de) 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Hardwareunabhängiges Anzeigen von graphischen Effekten
DE102014214667A1 (de) 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von dynamischen sicherheitsrelevanten dreidimensionalen Inhalten auf einer Anzeigeeinrichtung
DE102017207557B4 (de) 2017-05-05 2020-08-06 Audi Ag Verfahren zum Steuern einer Bedienvorrichtung eines Kraftfahrzeugs sowie Bedienvorrichtung und Kraftfahrzeug

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2942103B1 (de) * 2014-05-05 2023-06-14 Nano Temper Technologies GmbH Thermophoresemessungen in nanoliter-tröpfchen
GB2579111B (en) * 2019-05-30 2021-06-23 Imagination Tech Ltd Functional safety in graphics processing systems
CN113483898A (zh) * 2021-08-04 2021-10-08 国能大渡河瀑布沟发电有限公司 水利发电机组励磁系统运行温度智能监测与预警技术

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803912B1 (en) * 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
US7145562B2 (en) 2004-05-03 2006-12-05 Microsoft Corporation Integration of three dimensional scene hierarchy into two dimensional compositing system
US20080081701A1 (en) * 2006-10-03 2008-04-03 Shuster Brian M Virtual environment for computer game
US20100070859A1 (en) * 2007-03-07 2010-03-18 Brian Mark Shuster Multi-instance, multi-user animation platforms
US7836086B2 (en) * 2006-06-09 2010-11-16 Pixar Layering and referencing of scene description
US20110078801A1 (en) * 2009-09-29 2011-03-31 Rapidform, Inc. Utility computing with preview and pay feature
US20110227938A1 (en) * 2010-03-18 2011-09-22 International Business Machines Corporation Method and system for providing images of a virtual world scene and method and system for processing the same
US20120019522A1 (en) * 2010-07-25 2012-01-26 Raytheon Company ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM
US8319825B1 (en) * 2008-06-16 2012-11-27 Julian Urbach Re-utilization of render assets for video compression

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09123848A (ja) * 1995-11-06 1997-05-13 Toyota Motor Corp 車両用情報表示装置
JPH09245196A (ja) * 1996-03-05 1997-09-19 Mitsubishi Electric Corp 3次元仮想世界共有装置
US6356297B1 (en) * 1998-01-15 2002-03-12 International Business Machines Corporation Method and apparatus for displaying panoramas with streaming video
US6771264B1 (en) * 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
WO2000011607A1 (en) * 1998-08-20 2000-03-02 Apple Computer, Inc. Deferred shading graphics pipeline processor
US7009626B2 (en) * 2000-04-14 2006-03-07 Picsel Technologies Limited Systems and methods for generating visual representations of graphical data and digital document processing
US7113183B1 (en) * 2002-04-25 2006-09-26 Anark Corporation Methods and systems for real-time, interactive image composition
EP1728208A1 (de) * 2004-03-12 2006-12-06 Koninklijke Philips Electronics N.V. Erzeugen einer tiefenkarte
KR100848687B1 (ko) * 2007-01-05 2008-07-28 삼성전자주식회사 3차원 그래픽 처리 장치 및 그것의 동작 방법
JP4286876B2 (ja) * 2007-03-01 2009-07-01 富士通テン株式会社 画像表示制御装置
US8471858B2 (en) * 2009-06-02 2013-06-25 Qualcomm Incorporated Displaying a visual representation of performance metrics for rendered graphics elements
DE102009048834A1 (de) * 2009-10-09 2011-04-14 Volkswagen Ag Verfahren und Anzeigeeinrichtung zum Anzeigen von Informationen
US9524138B2 (en) * 2009-12-29 2016-12-20 Nvidia Corporation Load balancing in a system with multi-graphics processors and multi-display systems
JP2011233045A (ja) * 2010-04-28 2011-11-17 Denso Corp 送信装置、受信装置、表示装置、プログラム、通信システム
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120139906A1 (en) * 2010-12-03 2012-06-07 Qualcomm Incorporated Hybrid reality for 3d human-machine interface
CN102129708A (zh) * 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
EP2469474B1 (de) * 2010-12-24 2020-02-12 Dassault Systèmes Erstellung einer spielbaren Szene mit einem Autorensystem
CN102413164B (zh) * 2011-08-31 2014-09-10 北京华电万通科技有限公司 一种基于Web的三维场景可视化编辑装置和方法
US9448404B2 (en) * 2012-11-13 2016-09-20 Qualcomm Incorporated Modifying virtual object display properties to increase power performance of augmented reality devices

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803912B1 (en) * 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
US7145562B2 (en) 2004-05-03 2006-12-05 Microsoft Corporation Integration of three dimensional scene hierarchy into two dimensional compositing system
US7836086B2 (en) * 2006-06-09 2010-11-16 Pixar Layering and referencing of scene description
US20080081701A1 (en) * 2006-10-03 2008-04-03 Shuster Brian M Virtual environment for computer game
US20100070859A1 (en) * 2007-03-07 2010-03-18 Brian Mark Shuster Multi-instance, multi-user animation platforms
US8319825B1 (en) * 2008-06-16 2012-11-27 Julian Urbach Re-utilization of render assets for video compression
US20110078801A1 (en) * 2009-09-29 2011-03-31 Rapidform, Inc. Utility computing with preview and pay feature
US20110227938A1 (en) * 2010-03-18 2011-09-22 International Business Machines Corporation Method and system for providing images of a virtual world scene and method and system for processing the same
US20120019522A1 (en) * 2010-07-25 2012-01-26 Raytheon Company ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014214666A1 (de) 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Hardwareunabhängiges Anzeigen von graphischen Effekten
DE102014214667A1 (de) 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von dynamischen sicherheitsrelevanten dreidimensionalen Inhalten auf einer Anzeigeeinrichtung
WO2016012393A1 (de) 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Hardwareunabhängiges anzeigen von graphischen effekten
US9658814B2 (en) 2014-07-25 2017-05-23 Bayerische Motoren Werke Aktiengesellschaft Display of dynamic safety-relevant three-dimensional contents on a display device
DE102017207557B4 (de) 2017-05-05 2020-08-06 Audi Ag Verfahren zum Steuern einer Bedienvorrichtung eines Kraftfahrzeugs sowie Bedienvorrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
US20150332499A1 (en) 2015-11-19
EP2951787A1 (de) 2015-12-09
JP6362622B2 (ja) 2018-07-25
JP2016511869A (ja) 2016-04-21
CN104956403B (zh) 2018-05-04
US9767603B2 (en) 2017-09-19
EP2951787B1 (de) 2019-12-18
KR102076385B1 (ko) 2020-02-11
WO2014118145A1 (de) 2014-08-07
CN104956403A (zh) 2015-09-30
KR20150111910A (ko) 2015-10-06

Similar Documents

Publication Publication Date Title
EP2951787B1 (de) Verfahren und vorrichtung zum verarbeiten von 3d-bilddaten
DE102020110662A1 (de) Simultane positionsbestimmung und kartenerstellung (slam) für mehrere benutzer
DE102011115739A1 (de) Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
DE102015210453B3 (de) Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimensionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts
DE102021131176A1 (de) Transformieren von Sensordaten zum Trainieren von Modellen, die mit verschiedenen Sensorkonfigurationen verwendet werden
DE102021124168A1 (de) Integriertes augmented-reality-system zum teilen von augmented-reality-inhalt zwischen fahrzeuginsassen
DE102006059922A1 (de) Verfahren zum Darstellen eines Kartenausschnittes in einem Navigationssystem und Navigationssystem
DE102014214667A1 (de) Anzeigen von dynamischen sicherheitsrelevanten dreidimensionalen Inhalten auf einer Anzeigeeinrichtung
DE112019000329B4 (de) Anzeigesystem, bewegliches objekt und gestaltungsverfahren
DE102013016241A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung
DE102011082881A1 (de) Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
DE102004040372B4 (de) Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie
EP3959647B1 (de) Lagerichtige einblendung einer zusatzinformation auf einer anzeigeeinheit eines fahrzeugs
DE102020104055A1 (de) Rendern von objekten zur anpassung von dem kamerarauschen
EP3571091B1 (de) Verfahren und vorrichtung zum darstellen einer umgebung eines fahrzeuges
DE102016002010B4 (de) Verfahren zum Betreiben einer Projektionsvorrichtung eines Kraftfahrzeugs, Projektionssystem sowie Kraftfahrzeug
DE102020211298A1 (de) Verfahren zur Darstellung eines virtuellen Elements
WO2016012393A1 (de) Hardwareunabhängiges anzeigen von graphischen effekten
DE102005002636A1 (de) Verfahren und System zur Verarbeitung von Videodaten eines Kamerasystems
DE102019207090A1 (de) Verfahren zum Bereitstellen einer Objektverfolgungsfunktion
DE102016223388A1 (de) Bildverarbeitungssystem und bildverarbeitungsverfahren
DE102012010799A1 (de) Verfahren zur räumlichen Visualisierung von virtuellen Objekten
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
WO2023232395A1 (de) Verfahren zum betreiben eines informationssystems, computerprogrammprodukt sowie fahrzeug
AT503743B1 (de) Verfahren zur rechnergestützten darstellung von objekten

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned