DE102004051607A1 - Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche - Google Patents

Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche Download PDF

Info

Publication number
DE102004051607A1
DE102004051607A1 DE102004051607A DE102004051607A DE102004051607A1 DE 102004051607 A1 DE102004051607 A1 DE 102004051607A1 DE 102004051607 A DE102004051607 A DE 102004051607A DE 102004051607 A DE102004051607 A DE 102004051607A DE 102004051607 A1 DE102004051607 A1 DE 102004051607A1
Authority
DE
Germany
Prior art keywords
image
projector
projection surface
texture
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102004051607A
Other languages
English (en)
Other versions
DE102004051607B4 (de
Inventor
Oliver Dr. Bimber
Andreas Emmerling
Thomas Klemmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vioso De GmbH
Original Assignee
Bauhaus Universitaet Weimar
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bauhaus Universitaet Weimar filed Critical Bauhaus Universitaet Weimar
Priority to DE102004051607A priority Critical patent/DE102004051607B4/de
Priority to AT05776358T priority patent/ATE488091T1/de
Priority to PCT/DE2005/001356 priority patent/WO2006024254A1/de
Priority to US11/661,438 priority patent/US8195006B2/en
Priority to DE502005010520T priority patent/DE502005010520D1/de
Priority to EP05776358A priority patent/EP1784978B1/de
Publication of DE102004051607A1 publication Critical patent/DE102004051607A1/de
Application granted granted Critical
Publication of DE102004051607B4 publication Critical patent/DE102004051607B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7416Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal
    • H04N5/7441Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal the modulator being an array of liquid crystal cells

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Projection Apparatus (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung anzugeben, mit denen digitale Bilder so auf einen Untergrund mit beliebiger Oberflächenstruktur und/oder -färbung projiziert werden können, dass die durch den Untergrund verursachte Bildbeeinflussung zumindest für eine spezielle Betrachterperspektive pixelgenau kompensiert wird. DOLLAR A Erfindungsgemäß gelingt die Lösung der Aufgabe dadurch, dass das digitale Bild (Z) während eines Rendervorganges verarbeitet wird, indem es anhand eines zweidimensionalen Pixelversatzfeldes (D), das Informationen über die Projektionsfläche (S) enthält, geometrisch verzerrt und/oder anhand einer zweidimensionalen Oberflächentextur (T¶S¶) der Projektionsfläche (S) farblich manipuliert wird, und dass wenigstens ein Teil des verarbeiteten Bildes (I) in den Bildpuffer (B) gerendert wird und dass zum Auslösen des Rendervorgangs ein Rechteck in den Bildpuffer (B) geschrieben wird. DOLLAR A Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines zweidimensionalen digitalen Bildes auf einer Projektionsfläche, wobei mittels eines Projektors ein Inhalt eines Bildpuffers auf die Projektionsfläche projiziert wird.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines zweidimensionalen digitalen Bildes auf einer Projektionsfläche wobei mittels eines Projektors ein Inhalt eines Bildpuffers auf die Projektionsfläche projiziert wird.
  • Im Sinne der Erfindung ist eine Projektionsfläche eine prinzipiell beliebige Fläche. Insbesondere kann eine Projektionsfläche im Sinne der Erfindung eine geometrisch und photometrisch nicht-triviale Oberfläche sein, die beispielsweise beliebig dreidimensional geformt und/oder beliebig texturiert ist. Eine Projektionsfläche im Sinne der Erfindung kann insbesondere auch aus mehreren Teilflächen bestehen.
  • Im Stand der Technik ist nach DE 102 51 217 B3 ein System zur Autokalibrierung von Multiprojektorsystemen bekannt, welches mindestens zwei Projektoren, eine Digitalkamera und eine Ansteuerungseinheit zur Ansteuerung der Projektoren und der Kamera aufweist, wobei eine Autokalibrierung mit den Schritten Erzeugung, Aufnahme und Bildfilterung von Streifenmustern, Finden der größtmöglichen gemeinsamen Projektionsfläche, Berechnung der Warp-Felder und Imagewarping erfolgt. Bei diesem Verfahren werden mehrere Videoprojektoren durch Aufnahme von auf eine Projektionsfläche projizierten vertikalen und horizontalen Streifenmmustern mit einer Digitalkamera kalibriert. Die Streifen haben jeweils einen konstanten Abstand voneinander, der je nach Komplexität der Geometrie der Projektionsfläche zu wählen ist. Die Streifen werden für jeden Projektor separat aufgenommen, so dass eine Anzahl von Aufnahmen entsteht, die der doppelten Anzahl von Projektoren entspricht. Zusätzlich wird ein Bild aufgenommen, in dem alle Projektoren ein schwarzes Bild projizieren. Eine Entzerrung der Projektionsflächengeometrie findet linear interpoliert zwischen diskreten Punkten eines Gitters dar, dessen Maschenweite durch die Abstände der Streifenmuster bestimmt wird, die nicht beliebig verringert werden können. Eine pixelgenaue Entzerrung ist mit diesem System nicht möglich. Nachteilig ist dabei weiterhin, dass eine nicht-weiße Texturierung oder Unterschiede in der Texturierung der Projektionsfläche die Darstellung beeinträchtigen.
  • Aus Guehring, „Dense 3d surface acquisition by structures light using off-the-shelf-components", Proceedings of SPIE: Videometrics and Optical Methods for 3D Shape Measuring, 2001, vol. 4309, S. 220-231, ist es bekannt, Spalten-Zeilen-kodierte Muster mit Phasenverschiebungen zu projizieren, um Oberflächenstrukturen zu erfassen.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung anzugeben, mit denen digitale Bilder so auf einen Untergrund mit beliebiger Oberflächenstruktur und/oder -färbung projiziert werden können, dass die durch den Untergrund verursachte Bildbeeinflussung zumindest für eine spezielle Betrachterperspektive pixelgenau kompensiert wird.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die in Anspruch 1 angegebenen Merkmale aufweist, und eine Vorrichtung, welche die in Anspruch 22 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Mit dem erfindungsgemäßen Verfahren gelingt es, ein digitales Bild, das auch aus einer sequentiell zu projizierenden Bildfolge stammen kann, mit einem oder mehreren Projektoren auch auf eine nicht-plane, geometrisch sehr komplexe, und farbige und/oder texturierte Oberfläche korrekt zu projizieren, indem Form- und Farbinformation der Oberfläche in eine Anpassung der digitalen Bilder miteinbezogen werden. Das Verfahren sieht dazu vor, dass das digitale Bild während eines Rendervorganges verarbeitet wird, indem es anhand eines zweidimensionalen Pixelversatzfeldes, das pixelgenaue Informationen über die Projektionsfläche enthält, geometrisch verzerrt und/oder anhand einer zweidimensionalen Oberflächentextur der Projektionsfläche farblich manipuliert wird, und dass wenigstens ein Teil des verarbeiteten Bildes in den Bildpuffer gerendert wird. Das Verfahren ist in der Lage, jedes Pixel des Projektors oder der Projektoren in Echtzeit zu verarbeiten und darzustellen.
  • Vorteilhaft ist insbesondere, dass eine geometrische und/oder farbliche Korrektur des digitalen Bildes auf einer pixelgenauen Basis erfolgt, dass die Vermessung der Oberflächengeometrie und der Oberflächentextur der Projektionsfläche und der Umgebungsbeleuchtung in einer Kalibrierung vollautomatisch und pixelgenau erfolgen kann, und dass das Verfahren mit moderner Computerhardware in Form von Pixelshadern mit hoher Geschwindigkeit, insbesondere in Echtzeit, ausführbar ist.
  • Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels erläutert.
  • Dazu zeigen:
  • 1 schematisch eine erfindungsgemäße Vorrichtung während der Kalibrierung,
  • 2 schematisch den Ablauf des Verfahrens und
  • 3 den Ablauf des Verfahrens in einer erweiterten Ausgestaltung.
  • In 1 ist eine Vorrichtung während des automatischen Kalibriervorganges dargestellt. Der Projektor P in Form eines digitalen LCD-Lichtprojektors, der beispielsweise eine XGA-Auflösung aufweist, ist so angeordnet und fest fokussiert, dass er die Projektionsfläche S beleuchtet. Es können beliebige digitale Projektoren verwendet werden, beispielsweise auch Laserprojektoren. Der Projektor P kann dabei in einer beliebigen Position in Bezug auf die Projektions fläche S angeordnet sein. Die Projektionsfläche S ist ein gewellter Vorhang vor einer Terassentür, weist also eine komplexe Geometrie auf. Die Projektionsfläche S weist weiterhin eine komplexe Texturierung auf, da sie horizontal unterschiedlich farbige Streifen aufweist. Etwa an der Position der Augen eines Betrachters O ist zur Kalibrierung vorübergehend eine Kamera C beispielsweise in Form einer analogen oder digitalen Videokamera angeordnet, welche die Projektionsfläche S abbildet und die aufgenommenen Bilder digitalisiert. Die Kamera C ist an eine nicht abgebildete Steuereinheit angeschlossen, in welcher die mittels der Kamera C digitalisierten, aufgenommenen Bilder verarbeitbar sind. Der Projektor P ist ebenfalls mit der Steuereinheit verbunden, wobei ein zu projizierendes Bild von der Steuereinheit an den Projektor P übertragbar ist. Die Steuereinheit ist zudem mit einem nicht abgebildeten DVD-Player verbunden, der digitale Bilder Z an die Steuereinheit abgibt, die nach dem Kalibiervorgang auf der Projektionsfläche S darzustellen sind. Anstelle des DVD-Players können alle bildgebenden Quellen wie Videorekorder, Camcorder, Computer verwendet werden. Ein Computer kann hierzu insbesondere Computeranimationen abspielen oder eine Benutzeroberfläche zur Verfügung stellen.
  • Während des Kalibriervorganges werden in einer Variation des Spalten-Zeilenkodierten Musterprojektionsverfahren mit Phasenverschiebungen zeitlich gemultiplexte Streifenmuster in einer Vielzahl von projizierten Kalibrierbildern KP dargestellt und in zugehörigen digitalisierten, aufgenommenen Kalibrierbild KC erfasst. Anhand der Unterschiede zwischen den projizierten Kalibrierbildern KP und den zugehörigen digitalisierten, aufgenommenen Kalibrierbildern KC wird ein Pixelversatzfeld D (engl. pixel displacement map) ermittelt, das jeweils einen Pixel der Betrachterperspektive, also der Kamera, zu einem projizierten Pixel des Projektors zuordnet. Zur Veranschaulichung wird in dem in 1 dargestellten Zeitpunkt mittels des Projektors P ein Kalibrierbild KP projiziert, welches eine einzelne horizontale Linie enthält. Aufgrund der gewellten Geometrie der Projektionsfläche S erscheint diese Linie aus der Betrachterperspektive und somit in dem digitalisierten, aufgenommenen Kalib rierbild KC als gewellte Linie. Die derart ermittelte Verzerrung der Linienpixel wird in dem Pixelversatzfeld D gespeichert.
  • 2 beschreibt schematisch den Ablauf des Darstellungsverfahrens in einer Anordnung, die beispielsweise mit der in 1 beschriebenen übereinstimmt. In einem Bildverarbeitungsschritt wird innerhalb einer Steuereinheit ein darzustellendes, digitales Bild Z anhand eines zweidimensionalen Pixelversatzfeldes D und anhand einer Oberflächentextur TS der Projektionsfläche S geometrisch verzerrt und farblich manipuliert. Das Pixelversatzfeld D und die Oberflächentextur TS stammen aus einer zuvor durchgeführten Kalibrierung. Die geometrische Verzerrung anhand des Pixelversatzfeldes D erfolgt derart, dass die Pixel des digitalen Bildes Z so versetzt werden, dass aus der Betrachterbeziehungsweise Kameraperspektive das digitale Bild Z auf eine virtuelle, ebene Fläche projiziert erscheint. Vorzugsweise wird die geometrische Verzerrung mittels eines Pixelshaders durchgeführt, da auf diese Weise die Bildverarbeitung in Echtzeit erfolgen kann. Die farbliche Manipulation anhand der Oberflächentextur TS der Projektionsfläche S erfolgt derart, dass die Farben und/oder Muster der Projektionsfläche S möglichst weitgehend neutralisiert erscheinen, so dass das digitale Bild Z auf eine weiße Fläche projiziert erscheint. Während des Verarbeitungsschrittes wird das verarbeitete Bild in einen Bildpuffer B gerendert. Aus diesem wird es anschließend mittels des Projektors P projiziert.
  • Werden in dem Verarbeitungsschritt sowohl die geometrische Verzerrung als auch die farbliche Manipulation durchgeführt, erscheint das digitale Bild Z aus der Betrachter- beziehungsweise Kameraperspektive auf eine virtuelle, ebene, weiße Fläche projiziert. Der Betrachter nimmt also kaum Verzerrungen aufgrund einer nichtebenen Geometrie der Projektionsfläche S und kaum Verfärbungen aufgrund nicht-weißer Farbe und/oder Textur der Projektionsfläche S wahr. Es ist auch möglich, in dem Verfahren ausschließlich die geometrische Verzerrung oder alternativ ausschließlich die farbliche Manipulation durchzuführen. Beispielsweise ist, falls die Projektionsfläche weiß und uneben ist, le diglich die geometrische Verzerrung erforderlich. Auch für schwache Färbungen, beispielsweise in hellen Pastelltönen, ist die alleinige geometrische Verzerrung ausreichend. Ist hingegen die Projektionsfläche eben, jedoch mit nichtweißer Farbe und/oder Texturen versehen, so ist nur die farbliche Manipulation erforderlich.
  • Wenn Licht auf eine Oberfläche trifft, wird nur ein Teil seiner ursprünglichen Intensität und Farbe reflektiert, wohingegen der Rest absorbiert wird. Bei Lambertschen Oberflächen, die vollständig diffus reflektieren, hängt die Stärke und Farbe des reflektierten Lichts von diversen Parametern ab, wie der Materialfarbe M einer Oberflächenstelle, einer zu projizierenden Lichtintensität I einer Spektralkomponente einer Lichtquelle, also eines Projektors P, und der Entfernung und dem Einfallswinkel bezüglich der Oberfläche, die zusammen den sogenannten Formfaktor F darstellen. Bei perfekt diffusen Oberflächen beschreibt das Lambertsche Gesetz die Intensität diffuse reflektierten Lichtes R für jede spektrale Komponente: R = IFM, F = cos(α)/r2. Außer dem Licht eines Videoprojektors unterliegt denselben Vorgängen eine Umgebungsbeleuchtung E, die sich unter der Annahme additiver Farbmischung zur Gesamtintensität einer Spektralkomponente des reflektierten Lichtes zusammensetzen als: R = EM + IFM. Durch Projektion eines entsprechenden Bildes in je nach Pixel zu projizierender Lichtintensität I kann die Zusammensetzung neutralisiert werden, so dass ein visueller Eindruck entsprechend der reflektierten Intensität R in Form eines gewünschten Bildes in dessen ursprünglichen Farben entsteht, indem die Gleichung für I gelöst wird: I = (R – EM)/FM. Die Produkte EM und FM sind mittels des Projektors P und der Kamera C ermittelbar. Eine zu dem Produkt FM proportionale Größe wird unter abgedunkelter Umgebungsbeleuchtung E = 0 ermittelt, indem ein Bild I = 1 mit höchster Lichtintensität des Projektors P projiziert und mittels der Kamera C aufgenommen wird. Eine zu dem Produkt EM proportionale Größe wird mit der vorgesehenen Umgebungsbeleuchtung E und schwarzem Projektorbild I aufgenommen. Als reflektierte Intensität R werden die Intensitäten des jeweils dazustellenden digitalen Bildes Z nach Farbkanälen separiert verwendet. Dazu wird vorausgesetzt, dass Projektor P und Kamera C hinsichtlich Farbe und Intensität angepasst sind und dass eine automatische Helligkeitskontrolle, ein automatischer Fokus und ein automatischer Weißabgleich der Kamera C ausgeschaltet sind. Die benötigten Parameter sind mit diesen einfachen Annahmen ohne komplizierte Messungen und ohne zusätzliche Geräte ermittelbar. Um eine korrekte Berechnung ohne Verzerrung durch die geometrische Struktur der Projektionsfläche S zu erreichen, werden die aufgenommenen Größen EM und FM vor ihrer weiteren Verwendung mittels des Pixelversatzfeldes D beziehungsweise der Pixelversatztextur TD in die Projektorperspektive verzerrt.
  • In 3 ist ein komplexeres Verfahren zu einer Vorrichtung, beispielsweise gemäß 1, einschließlich einer automatischen Kalibrierung schematisch dargestellt. Zuerst wird zweckmäßigerweise die Kalibrierung durchgeführt. Ein Betrachter O muss dazu lediglich eine Kamera C in der vorgesehenen Betrachterposition anbringen und während der Kalibrierung in dieser Position belassen. Soll die Projektionsfläche nur teilweise beleuchtet werden, so kann der Betrachter O durch eine Maske in einem mittels der Kamera C in der Betrachterposition aufgenommenen Bild der Projektionsfläche S eine Begrenzung einer virtuellen Projektionsfläche festlegen, innerhalb derer die Projektion erfolgen soll. Alle Pixel außerhalb der Begrenzung werden nach dem Digitalisieren aller nachfolgenden Aufnahmen auf schwarz gesetzt, so dass während der Kalibrierung keine Projektion in diese Bereiche erkannt wird. Als Folge wird auch in den regulären Verfahrensschritte keine Projektion in diese Bereiche erfolgen. Wird keine Begrenzung beziehungsweise Maske festgelegt, so wird das Sichtfeld der Kamera C automatisch als Begrenzung verwendet. Anschließend kann der Betrachter die automatische Kalibrierung auslösen. Deren Verlauf wird im Folgenden zunächst beschrieben. Alle Aufnahmen der Kamera C werden dabei automatisch vorentzerrt, um eine radiale Linsenverzeichnung der Kamera C zu kompensieren.
  • In einem ersten Kalibrierschritt K1 wird mittels des Projektors P ein Testbild auf die Projektionsfläche S projiziert und mit der Kamera C wiederholt Bilder von der Projektionsfläche aufgenommen, bis das Testbild in den aufgenommenen Bildern identifiziert wird. Die Zeitspanne von der Projektion bis zur Identifikation wird als Latenzzeit t gemessen und in allen folgenden Kalibrierschritten bei der Aufnahme von Bildern berücksichtigt. Zur Erhöhung der Genauigkeit können auch mehrere Zeitmessungen anhand mehrerer Testbilder erfolgen. Ein Testbild ist zweckmäßigerweise so aufgebaut, dass es auch bei Vorhandensein von unregelmäßigen Strukturen, starken Verzerrungen und großen Farbunterschieden identifizierbar ist. Es ist sinnvoll, die Kalibrierung unter Ausschluß einer Umgebungsbeleuchtung unter Verdunkelung durchzuführen, um eine sichere Identifikation des Testbilds oder der Testbilder zu ermöglichen. In einem späteren Kalibrierschritt wird ebenfalls Verdunkelung benötigt, daher ist es zweckmäßig, bereits vor der Kalibrierung zu verdunkeln.
  • In einem zweiten Kalibrierschritt K2 werden mittels des Projektors P zeitlich gemultiplexte Streifenmuster in einer Variation des Spalten-Zeilen-kodierten Musterprojektionsverfahren mit Phasenverschiebungen in Kalibrierbildern KP projiziert und mittels der Kamera C in zugehörige Kalibrierbilder KC aufgenommen und digitalisiert. Anhand der Unterschiede zwischen den projizierten Kalibrierbildern KP und den zugehörigen digitalisierten, aufgenommenen Kalibrierbildern KC wird ein zweidimensionales Pixelversatzfeld D ermittelt, das jeweils einen Pixel der Betrachterperspektive, also der Kamera, zu einem projizierten Pixel des Projektors zuordnet. Aufgrund unterschiedlicher Auflösungen von Kamera C und Projektor P und aufgrund deren unterschiedlicher Abstände von der Projektionsfläche S stellt das Pixelversatzfeld D keine eins-zu-eins Pixelzuordnung dar. Im Extremfall kann das Pixelversatzfeld D unvollständig sein, falls Teile der Projektionsoberfläche S im Schatten erhabener Strukturen liegen. Dies kann jedoch durch mehrere, aus unterschiedlichen Richtungen projizierende Projektoren vermieden werden. Weiterhin ist es möglich, dass aufgrund der geometrischen Struktur der Projektionsfläche S mehrere verschiedene projizierte Pixel der Streifenmuster auf den gleichen Kamerapixel abgebildet werden. Daher werden Mittelwerte der geometrischen Versätze berechnet und in dem Pixelversatzfeld D gespeichert. Auf diese Weise wird eine Genauigkeit unterhalb eines Pixels erreicht. Das Pixelversatzfeld D erlaubt, jeden Pixel der Kamera C aus der Betrachterperspektive in die Perspektive des Projektors P abzubilden. Dies ergibt eine unverzerrte Perspektive, ohne dass die dreidimensionale Form der Projektionsfläche S bekannt sein muss. Das Pixelversatzfeld D wird, vorzugsweise mittels eines P-Puffers, in eine Pixelversatztextur TD konvertiert, die im weiteren Verlauf des Verfahrens für eine automatische Verzerrung eines Bildes in die unverzerrte Perspektive als Parametertextur eines Pixelshaders verwendbar ist. In der Pixelversatztextur TD sind anschließend Verweise von jedem Pixel des Projektors P zu einem zugehörigen Pixel des digitalen Bildes Z und zu einem zugehörigen Pixel der Kamera C gespeichert. Beispielsweise sind die Verweise zu den Pixeln des digitalen Bildes Z in Form ihrer horizontalen und vertikalen Koordinaten in den Kanälen Rot und Grün und die Verweise zu den Pixeln der Kamera C in Form ihrer horizontalen und vertikalen Koordinaten in den Kanälen Blau und Alphawert gespeichert.
  • Mittels des Pixelshaders ist in späteren Verfahrensschritten mit der als Parametertextur verwendeten Pixelversatztextur TD die Bildverzerrung (engl. warping) über ein sogenanntes „pseudo pixel displacement mapping" in Echtzeit möglich. Dem Pixelshader wird dazu als weitere Parametertextur ein jeweils zu verzerrendes Bild in Form einer Textur übergeben. Um das Rendern auszulösen, wird beispielsweise ein einzelnes zweidimensionales Rechteck in einen mit dem Pixelshader verbundenen Bildpuffer B geschrieben. Das Rendern schließt das Rastern jedes Projektorpixels in den Bildpuffer B durch den Pixelshader ein. Die Farben der eingehenden Pixel werden durch neue Farben überschrieben, die sich aus den korrespondierenden Pixeln des zu jeweils verzerrenden Bildes ergeben. Diese Pixel werden durch den entsprechend programmierten Pixelshader automatisch aus der Pixelversatztextur TD ermittelt. Der Effekt ist eine spezifische Verschiebung von Pixeln des jeweils zu verzerrenden Bildes an eine neue Position innerhalb des Bildpuffers B. Diese Verzerrung erfordert keine weiteren geometrischen Informationen über die Projektionsfläche S.
  • In einem dritten Kalibrierschritt K3a wird mittels des Projektors P ein weißes Kalibrierbild KP mit höchster verfügbarer Helligkeit projiziert und mittels der Kamera C ein dazu gehöriges Kalibrierbild KC aufgenommen und anhand des bereits ermittelten Pixelversatzfeldes D und/oder anhand der Pixelversatztextur TD der Geometrie der Projektionsfläche S gemäß verzerrt und als als Parametertextur verwendbare Oberflächentextur TS der Projektionsfläche S gespeichert. In einem vierten Kalibrierschritt K3b wird unter einer vorgesehenen Umgebungsbeleuchtung mittels des Projektors P ein schwarzes Kalibrierbild KP projiziert, aufgenommen, digitalisiert, anhand des bereits ermittelten Pixelversatzfeldes D und/oder anhand der Pixelversatztextur TD der Geometrie der Projektionsfläche S gemäß verzerrt und als Umgebungsbeleuchtungstextur TE gespeichert.
  • Damit ist die automatische Kalibrierung beendet. Die Kamera C kann entfernt werden, sie wird nicht mehr benötigt soweit die geometrischen und Beleuchtungs-Verhältnisse konstant bleiben. Im Falle der XGA-Auflösung von 1024 × 768 Pixeln und einer PAL-Kameraauflösung von 720 × 576 Pixeln sowie einer maximalen Latenzzeit t der Kamera von 80 ms und einer durchschnittlichen Bildverarbeitungsdauer von 150 ms dauert die automatische Kalibrierung etwa 28 s. Interaktionen mit dem Betrachter sind nicht erforderlich.
  • Die Darstellung erfolgt nach der Kalibrierung in zwei Schritten S1 und S2, die in dieser Reihenfolge beliebig wiederholt werden können, wobei ein statisches digitales Bild Z oder eine fortlaufende Folge von digitalen Bildern Z verwendet werden können. Da die Echtzeitbildverarbeitung möglich ist, kann es sich beispielsweise um einen Film oder eine Animation handeln.
  • In Schritt S1 werden dem Pixelshader zunächst die erforderlichen Parametertexturen übergeben. Es handelt sich um die Pixelversatztextur TD, die Oberflächentextur TS, die Umgebungsbeleuchtungstextur TE und das digitale Bild Z in Form einer Textur. Durch Schreiben eines weißen Rechtecks in den Bildpuf fer B wird für jeden Farbkanal ein separater Rendervorgang ausgelöst. Während des Renderns wird das digitale Bild Z anhand der Pixelversatztextur TD in der oben zur Kalibrierung beschriebenen Weise durch „pixel displacement mapping" geometrisch verzerrt (engl. warped). Außerdem werden die versetzten Pixel anhand der zu 2 beschriebenen Gleichungen durch den Pixelshader farbkorrigiert beziehungsweise farblich manipuliert. Mittels des Pixelshaders können dabei manuell durch den Betrachter O vorgegebene Farb- oder Helligkeitswerte, insbesondere für eine Gammakorrektur, feineingestellt werden. Außerdem sind mittels entsprechender Programmierung des Pixelshaders extreme Intensitätsverhältnisse vermeidbar, um sichtbare Artefakte zu vermeiden.
  • Das gerenderte Bild befindet sich anschließend als zu projizierendes Bild I im Bildpuffer B und wird in Schritt S2 mittels des Projektors P auf die Projektionsfläche S projiziert.
  • Durch die Verwendung mehrerer Projektoren Pi kann einerseits die Darstellungsqualität verbessert werden, insbesondere bei farbiger und/oder texturierter Projektionsfläche S. Die Projektoren Pi können sich hinsichtlich ihrer maximalen Lichtintensität ergänzen und/oder Schattenbereiche jeweils eines oder mehrerer anderer Projektoren Pi beleuchten. Dabei können sich die beleuchteten Bereiche der Projektoren Pi überlappen oder vollständig unabhängig voneinander jeweils einen Teil der Projektionsfläche S beleuchten. Durch Kachelung der projizierten Bilder I kann eine Auflösung erzielt werden, die ein einzelner Projektor P nicht zu erbringen vermag. Der Aufwand zur automatischen Kalibrierung wird für den Betrachter durch mehrere Projektoren Pi nicht erhöht. Die Dauer der Kalibrierung nimmt im wesentlichen linear mit der Anzahl der Projektoren Pi zu. Während der Kalibrierung wird jeweils ein Pixelversatzfeld Di, daraus eine Pixelversatztextur TDi und zudem eine Oberflächentextur TSi für jeden Projektor ermittelt. Auf diese Weise sind Pixel aus der Betrachter- beziehungsweise Kameraperspektive auf die Perspektive jedes Projektors Pi so abbildbar, dass sie auf exakt auf dieselbe Stelle auf der Projektionsfläche proji ziert werden. Für N Projektoren Pi addieren sich die einzelnen Lichtintensitäten an einer Oberflächenstelle in einer Spektrumskomponente zur gesamten reflektierten Intensität R = EM + I1F1M + ... + INFNM. Unter der Annahme, dass die Projektoren Pi eine identische Intensität abstrahlen, kann die jeweils zu projizierende Intensität Ii eines Projektors Pi berechnet werden aus:
    Ii = (R – EM)/(F1M + ... + FNM), da unter dieser Annahme gilt:
    R = EM + Ii(F1M + ... + FNM). Das entspricht einem einzelnen, virtuellen, starken Projektor P. Obwohl jeder Projektor Pi dieselbe Intensität abstrahlt, bewirken unterschiedliche Formfaktoren Fi unterschiedliche auftreffende Intensitätsteile. Diese Teile werden auf der Projektionsfläche S additiv gemischt und ergeben die reflektierte Intensität: R = EM + IiF1M + ...+ IiFNM = EM + (R – EM)/(F1M + ... + FNM)(F1M + ... + FNM).
  • Wie im Falle eines einzelnen Projektors P wird das zu projizierende Bild I in Echtzeit mittels eines oder mehreren Pixelshadern berechnet, welchen die Parametertexturen zu den Größen EM, F1M, ..., FNM nach projektorabhängigem Verzerren mittels des zu dem betreffenden Projektor gehörenden Pixelversatzfeldes Di beziehungsweise der betreffenden Pixelversatztextur TDi als Umgebungsbeleuchtungstextur TE beziehungsweise als Oberflächentexturen TSi übergeben werden. Die Größen FiM können auf zwei Weisen ermittelt werden. Entweder durch sequentielles Projizieren und Aufnehmen eines Bildes Ii = 1 höchster Intensität für jeden einzelnen der Projektoren Pi nacheinander oder durch Aufnahme eines projizierten Bildes I, das proportional zu F1M + ... + FNM ist, indem dazu mittels aller Projektoren Pi gleichzeitig Bilder Ii = 1 höchster Intensität projiziert werden. Die zweite Vorgehensweise ist zwar kompakter, kann jedoch zu einer Übersteuerung der Kamera C führen. Schattenregionen einzelner Projektoren Pi sind dabei in den Formfaktorgrößen eingeschlossen und werden automatisch als Nebeneffekt entfernt. Dazu muss jeder auszuleuchtende Bereich der Projektionsfläche S durch mindestens einen Projektor Pi beleuchtbar sein. Gleichmäßige Übergänge zwischen den Projektionen mehrerer Projektoren Pi sind mit üblichen Cross-Fading-Techniken möglich.
  • P
    Projektor
    S
    Projektionsfläche
    C
    Kamera
    Z
    Digitales Bild
    D
    Pixelversatzfeld
    B
    Bildpuffer
    E
    Umgebungsbeleuchtung
    I
    Zu projizierendes/projiziertes Bild/Intensität
    R
    Reflektierte Intensität
    t
    Latenzzeit
    M
    Materialfarbe
    F
    Formfaktor
    α
    Einfallswinkel
    r
    Entfernung
    TD
    Pixelversatztextur
    TS
    Oberflächentextur
    TE
    Umgebungsbeleuchtungstextur
    O
    Betrachter

Claims (23)

  1. Verfahren zur Darstellung eines zweidimensionalen digitalen Bildes (Z) auf einer Projektionsfläche (S), wobei mittels eines Projektors (P) ein Inhalt eines Bildpuffers (B) auf die Projektionsfläche (S) projiziert wird, dadurch gekennzeichnet, dass das digitale Bild (Z) während eines Rendervorganges verarbeitet wird, indem es anhand eines zweidimensionalen Pixelversatzfeldes (D), das Informationen über die Projektionsfläche (S) enthält, geometrisch verzerrt und/oder anhand einer zweidimensionalen Oberflächentextur (TS) der Projektionsfläche (S) farblich manipuliert wird, und dass wenigstens ein Teil des verarbeiteten Bildes (I) in den Bildpuffer (B) gerendert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das geometrische Verzerren und das farbliche Manipulieren mittels mindestens eines Pixelshaders durchgeführt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das zweidimensionale Pixelversatzfeld (D) in Form einer Pixelversatztextur (TD) und das digitale Bild (Z) in Form einer Bildtextur als Parametertexturen für den Pixelshader verwendet werden
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Pixelversatztextur (TD) mittels eines P-Puffers aus dem zweidimensionale Pixelversatzfeld (D) erzeugt wird.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass mittels des Pixelshaders Farbe und/oder Helligkeit der Darstellung feineingestellt und/oder eine Gammakorrektur der Darstellung durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine automatische Kalibrierung durchgeführt wird, bei der mittels des Projektors (P) mindestens ein Kalibrierbild (KP) auf die Projektionsfläche (S) projiziert wird und mittels einer Kamera (C) das projizierte Kalibrierbild (KP) wenigstens teilweise aufgenommen und digitalisiert wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Kamera (C) für die Kalibrierung an einer Betrachterposition angeordnet wird.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass zu mindestens einem projizierten Pixel eines projizierten Kalibrierbildes (KP) ein zugehöriger aufgenommener Pixel eines digitalisierten, aufgenommenen Kalibrierbildes (KC) identifiziert wird und ein zweidimensionaler geometrischer Versatz zwischen dem projizierten und dem aufgenommenen Pixel ermittelt und als ein Element des zweidimensionalen Pixelversatzfeldes (D) gespeichert wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass mehrere aufeinanderfolgende Kalibrierbilder (KP) wenigstens teilweise projiziert und aufgenommen werden, wobei projizierte Kalibrierbilder (KP) zeitlich gemultiplexte Streifenmuster enthalten, anhand derer zu projizierten Pixeln zugehörige aufgenommene Pixel ermittelt werden.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass, falls mehrere digitalisierte, aufgenommene Kalibrierbilder (KC) vorliegen, ein Mittelwert mehrerer zu einem aufgenommenen Pixel gehörigen zweidimensionalen geometrischen Versätze ermittelt und als Element des zweidimensionalen Pixelversatzfeldes (D) gespeichert wird.
  11. Verfahren nach einem der Ansprüche 6-10, dadurch gekennzeichnet, dass Pixelkoordinaten des Bildraums des digitalen Bildes (Z) in zwei erste Kanäle Rot und Grün der Pixelversatztextur (TD) und Koordinaten von Pixeln des Bildraums der Kamera (C) in zwei zweite Kanäle Blau und Alphawert der Pixelversatztextur (TD) geschrieben werden.
  12. Verfahren nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass mittels des Projektors (P) mindestens ein Testbild projiziert wird, wobei mittels der Kamera (C) wiederholt Bilder aufgenommen und digitalisiert werden bis das Testbild in den digitalisierten, aufgenommenen Bildern identifiziert wird, wobei eine Latenzzeit (t) zwischen dem Projizieren des Testbilds und dem Identifizieren des Testbilds gemessen wird.
  13. Verfahren nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass im Falle eines einzelnen Projektors (P) mittels des Projektors (P) ein Rechteck mit weißer Farbe höchster Intensität als Kalibrierbild (KP) projiziert wird, wobei die Projektionsfläche (S) nicht mit Umgebungsbeleuchtung (E) beleuchtet wird, und ein davon digitalisiertes, aufgenommenes Kalibrierbild (KC) als zweidimensionale Oberflächentextur (TS) der Projektionsfläche (S) verwendet wird.
  14. Verfahren nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass im Falle mehrerer Projektoren (Pi) sequentiell mittels jedes Projektors (Pi) ein Rechteck mit weißer Farbe höchster Intensität als Kalibrierbild (KP) projiziert wird, wobei die Projektionsfläche (S) nicht mit Umgebungsbeleuchtung (E) beleuchtet wird, und jeweils ein davon digitalisiertes, aufgenommenes Kalibrierbild (KC) als zweidimensionale Oberflächentextur (TS) der Projektionsfläche (S) für den betreffenden Projektor (Pi) verwendet wird.
  15. Verfahren nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet, dass mittels des Projektors (P) ein schwarzes Kalibrierbild (KP) projiziert und mittels der Kamera (C) aufgenommen und digitalisiert wird, wobei dieses digitalisierte, aufgenommene Kalibrierbild (KC) als Umgebungsbe leuchtungstextur (TE) für das farbliche Manipulieren verwendet wird.
  16. Verfahren nach einem der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass ein für eine Oberflächentextur (TS) oder für eine Umgebungsbeleuchtungstextur (TE) verwendetes digitalisiertes, aufgenommenes Kalibrierbild (KC) zunächst anhand des zweidimensionalen Pixelversatzfeldes (D) und/oder einer zugehörigen Pixelversatztextur (TD) in die Perspektive des Projektors (P) verzerrt wird.
  17. Verfahren nach einem der Ansprüche 7 bis 16, dadurch gekennzeichnet, dass der Projektor (P) und die Kamera (C) auf Farbe und Intensität abgeglichen werden.
  18. Verfahren nach einem der Ansprüche 7 bis 17, dadurch gekennzeichnet, dass eine Linsenverzerrung der Kamera (C) nach dem Digitalisieren einer Aufnahme in dieser rechnerisch kompensiert wird.
  19. Verfahren nach einem der Ansprüche 7 bis 18, dadurch gekennzeichnet, dass Aufnahmen der Kamera (C) mit einer Maske versehen werden.
  20. Verfahren nach einem der Ansprüche 7 bis 19, dadurch gekennzeichnet, dass eine automatische Helligkeitsüberwachung, eine automatische Fokussierung und ein automatischer Weißabgleich der Kamera (C) deaktiviert werden.
  21. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das geometrische Verzerren und/oder das farbliche Manipulieren für jeden Farbkanal separat durchgeführt wird.
  22. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Auslösen des Rendervorgangs ein Rechteck in den Bildpuffer (B) geschrieben wird.
  23. Vorrichtung zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Steuereinheit und mindestens einen Projektor (P), wobei der Projektor (P) und eine Kamera (C) an die Steuereinheit anschließbar sind.
DE102004051607A 2004-08-30 2004-10-23 Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche Active DE102004051607B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102004051607A DE102004051607B4 (de) 2004-08-30 2004-10-23 Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche
AT05776358T ATE488091T1 (de) 2004-08-30 2005-08-02 Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
PCT/DE2005/001356 WO2006024254A1 (de) 2004-08-30 2005-08-02 Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
US11/661,438 US8195006B2 (en) 2004-08-30 2005-08-02 Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry
DE502005010520T DE502005010520D1 (de) 2004-08-30 2005-08-02 Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
EP05776358A EP1784978B1 (de) 2004-08-30 2005-08-02 Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004042133 2004-08-30
DE102004042133.1 2004-08-30
DE102004051607A DE102004051607B4 (de) 2004-08-30 2004-10-23 Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche

Publications (2)

Publication Number Publication Date
DE102004051607A1 true DE102004051607A1 (de) 2006-03-09
DE102004051607B4 DE102004051607B4 (de) 2006-04-20

Family

ID=35852624

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004051607A Active DE102004051607B4 (de) 2004-08-30 2004-10-23 Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche

Country Status (1)

Country Link
DE (1) DE102004051607B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005034990B4 (de) * 2005-03-21 2008-11-20 Bauhaus Universität Weimar Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
DE102007035941A1 (de) * 2007-07-30 2009-02-05 Engels, Manuel, Dipl.-Kfm. Verfahren zur Erstellung individuell auf ein Objekt abgestimmter Projektionen
US8246173B2 (en) 2007-06-14 2012-08-21 Airbus Operations Gmbh Image adjustment device and method for an image projector in an aircraft
DE102013009803A1 (de) * 2013-06-12 2014-12-18 Heiko Cornelius Verfahren zur automatischen Abbildungskorrektur eines Projektors
WO2021139995A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle side window and partition window with active projection transparent screen
WO2021139994A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle side window and partition window with projection transparent screen
WO2021139992A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle roof with projection transparent screen
WO2021213884A1 (en) 2020-04-21 2021-10-28 Saint-Gobain Glass France Vehicle compound glazing unit with projection area and vehicle glazing and display system
WO2021233827A1 (en) 2020-05-18 2021-11-25 Saint-Gobain Glass France Vehicle compound glazing unit with projection area

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009034629A1 (de) * 2009-07-24 2011-01-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Projektionsverfahren
DE102010022735B4 (de) * 2010-06-04 2022-07-07 Volkswagen Ag Verfahren zur Projektion einer Grafik auf eine Projektionsoberfläche, inbesondere auf eine Oberfläche eines Kraftfahrzeuges und Verfahren zur Herstellung eines Kraftfahrzeuges
DE102014217090B4 (de) 2014-08-27 2022-04-21 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems oder eines Virtual Reality Systems
DE102021215048A1 (de) 2021-12-27 2023-06-29 Friedrich-Schiller-Universität Jena Anordnung und Verfahren zum Unterscheiden zwischen einem Hintergrund und einem Vordergrundobjekt einer Szene

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003017655A1 (en) * 2001-08-15 2003-02-27 Mitsubishi Denki Kabushiki Kaisha Method and system for correcting keystoning in a projector arbitrarily oriented with respect to a display surface
US6729733B1 (en) * 2003-03-21 2004-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for determining a largest inscribed rectangular image within a union of projected quadrilateral images
DE10251217B3 (de) * 2002-10-31 2004-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Autokalibierung von Multiprojektorsystemen
WO2004084547A1 (en) * 2003-03-21 2004-09-30 Mitsubishi Denki Kabushiki Kaisha Apparatus for projecting an output image on a display surface
WO2005015904A1 (en) * 2003-08-06 2005-02-17 Mitsubishi Denki Kabushiki Kaisha Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003017655A1 (en) * 2001-08-15 2003-02-27 Mitsubishi Denki Kabushiki Kaisha Method and system for correcting keystoning in a projector arbitrarily oriented with respect to a display surface
DE10251217B3 (de) * 2002-10-31 2004-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Autokalibierung von Multiprojektorsystemen
US6729733B1 (en) * 2003-03-21 2004-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for determining a largest inscribed rectangular image within a union of projected quadrilateral images
WO2004084547A1 (en) * 2003-03-21 2004-09-30 Mitsubishi Denki Kabushiki Kaisha Apparatus for projecting an output image on a display surface
WO2005015904A1 (en) * 2003-08-06 2005-02-17 Mitsubishi Denki Kabushiki Kaisha Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gühring, Jens: Dense 3-D surface acquisition by structured light using off-the-shelf components. In: Proceedings of SPIE, Vol. 4309 (2001), S. 220-231 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005034990B4 (de) * 2005-03-21 2008-11-20 Bauhaus Universität Weimar Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
US8246173B2 (en) 2007-06-14 2012-08-21 Airbus Operations Gmbh Image adjustment device and method for an image projector in an aircraft
DE102007035941A1 (de) * 2007-07-30 2009-02-05 Engels, Manuel, Dipl.-Kfm. Verfahren zur Erstellung individuell auf ein Objekt abgestimmter Projektionen
DE102007035941B4 (de) * 2007-07-30 2009-04-23 Engels, Manuel, Dipl.-Kfm. Verfahren zur Erstellung individuell auf ein Objekt abgestimmter Projektionen
DE102013009803A1 (de) * 2013-06-12 2014-12-18 Heiko Cornelius Verfahren zur automatischen Abbildungskorrektur eines Projektors
WO2021139995A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle side window and partition window with active projection transparent screen
WO2021139994A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle side window and partition window with projection transparent screen
WO2021139992A1 (en) 2020-01-06 2021-07-15 Saint-Gobain Glass France Glass vehicle roof with projection transparent screen
WO2021213884A1 (en) 2020-04-21 2021-10-28 Saint-Gobain Glass France Vehicle compound glazing unit with projection area and vehicle glazing and display system
WO2021233827A1 (en) 2020-05-18 2021-11-25 Saint-Gobain Glass France Vehicle compound glazing unit with projection area

Also Published As

Publication number Publication date
DE102004051607B4 (de) 2006-04-20

Similar Documents

Publication Publication Date Title
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE2107524C3 (de) Elektronische Einrichtung für eigengesteuerte Trickmischung
DE69914615T2 (de) Verfahren und gerät zur abgleichung einer bildanzeigevorrichtung mit einer gruppe von kameras
DE102008002730B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102004051607B4 (de) Verfahren und Vorrichtung zur Darstellung eines digitalen Bildes auf einer geometrisch und photometrisch nicht-trivialen Oberfläche
DE19619090A1 (de) Vorrichtung und Verfahren zur Erzeugung eines Kompositbildes
EP1665815A2 (de) Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit rumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
WO2009121775A2 (de) Verfahren und beleuchtungsvorrichtung zur optischen kontrastverstärkung
DE102007047470B3 (de) Verfahren zur Ausrichtung eines Parallaxenbarriereschirms auf einem Bildschirm
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102005034990B4 (de) Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
EP1204528B1 (de) Vorrichtung und verfahren zum herstellen eines dreidimensionalen objekts
EP1434434A1 (de) Autokalibrierung von Multiprojektorsystemen
WO2007025661A1 (de) Verfahren zur aufnahme eines bildes und bewegtbildkamera
DE2408019A1 (de) Verfahren und vorrichtung zur abtastung und aufzeichnung von bildmaessigen vorlagen
DE19713648C2 (de) Verfahren zur elektronischen Reduktion des Hell/Dunkelkontrastes von Videobildern bereits bei der Aufnahme
DE10251217B3 (de) Autokalibierung von Multiprojektorsystemen
DE19753246C2 (de) Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten
DE19853608C2 (de) Verfahren zur Darstellung eines autostereoskopischen Bildes
DE19635544C2 (de) Verfahren zur Verbesserung der Bildqualität beim Transfer von Kino- und Schmalfilmen auf Videomaterial
WO2023126311A1 (de) Anordnung und verfahren zum unterscheiden zwischen einem hintergrund und einem vordergrundobjekt einer szene
DE102013219462A1 (de) Fahrwerksvermessung bei Umgebungslicht
DE102004016749B4 (de) Verfahren und Anordnung zur Überlagerung von texturierten Oberflächen mit digitaler Grafik
DE3742108C2 (de) Verfahren und Einrichtung zum Erzeugen von Bildeffekten in Videosignalen
EP4258640A1 (de) Verfahren zum kalibrieren eines hintergrundwiedergabe- und aufnahmesystems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: VIOSO GMBH, DE

Free format text: FORMER OWNER: BAUHAUS-UNIVERSITAET WEIMAR DEZERNAT FORSCHUNGSTRANSFER UND HAUSHALT, 99423 WEIMAR, DE

R082 Change of representative

Representative=s name: PATENTANWAELTE LIEDTKE & PARTNER, DE