DE69917470T2 - Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung - Google Patents

Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung Download PDF

Info

Publication number
DE69917470T2
DE69917470T2 DE69917470T DE69917470T DE69917470T2 DE 69917470 T2 DE69917470 T2 DE 69917470T2 DE 69917470 T DE69917470 T DE 69917470T DE 69917470 T DE69917470 T DE 69917470T DE 69917470 T2 DE69917470 T2 DE 69917470T2
Authority
DE
Germany
Prior art keywords
image
capture
display
mosaic
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69917470T
Other languages
English (en)
Other versions
DE69917470D1 (de
Inventor
J. Michael JOHNSON
Rajesh Chandrasekhar
Chung-Jen Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Application granted granted Critical
Publication of DE69917470D1 publication Critical patent/DE69917470D1/de
Publication of DE69917470T2 publication Critical patent/DE69917470T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Selective Calling Equipment (AREA)
  • Alarm Systems (AREA)
  • Control Of El Displays (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

  • Die vorliegende Erfindung betrifft das Kalibrieren von Anzeigen und insbesondere das Kalibrieren von Mosaik-Projektionsanzeigen, die mehrere Projektoren verwenden, um größere Bilder und/oder Bilder mit höherer Auflösung zu erzeugen.
  • Mehrprojektorsysteme wurden vorgeschlagen und werden seit vielen Jahren verwendet. In den fünfziger Jahren wurde das System „CINERAMA" für die Filmindustrie entwickelt. Das CINERAMA-System projiziert drei Filme unter Verwendung dreier getrennter Projektoren, die kombiniert wurden, um ein einziges panoramisches Bild zu erzeugen. Disneyland verwendet immer noch ein ähnliches Mehrprojektorsystem. In Disneyland bestrahlt ein Kreis von Projektoren eine Leinwand, die die Wand eines runden Raumes einkreist.
  • Auf dem Videogebiet wurden Mehrprojektorsysteme vorgeschlagen und werden für mehrere spezielle Anwendungen verwendet. Zum Beispiel wird in dem US-Patent Nr. 4,103,435 für Herndon und in dem US-Patent Nr. 3,833,764 für Taylor ein Mehrprojektorsystem für Flugsimulatoren vorgeschlagen. In vielen dieser Systeme werden mehrere Videoschirme nebeneinander angeordnet, um eine große Bildanzeige für mehrere Projektoren zu bilden. Eine Schwierigkeit bei vielen der Mehrprojektoranzeigesysteme auf Videobasis besteht darin, die mehreren Bilder als ein kontinuierliches Bild auf dem Anzeigeschirm erscheinen zu lassen.
  • Wenn zwei Bilder nebeneinander auf eine einzige Leinwand projiziert werden, besteht normalerweise eine Naht zwischen den Bildern. Das letztendliche Anzeigebild erscheint entweder als zwei nebeneinander angeordnete Bilder mit einer Lücke dazwischen, oder wenn man die Bilder sich auf einer einzigen Leinwand überlappen läßt, besteht dort, wo sich die Bilder überlappen, eine helle Linie. Aufgrund der Uneinheitlichkeiten in herkömmlichen Kameras, in der Videoverarbeitung, in Ablieferungskanälen, Anzeigen und insbesondere in Projektoren ist es überaus schwierig, die resultierenden Videobilder perfekt so anzugleichen, daß keine Mosaikartefakte unter den Bildern erscheinen. Wenn die Bilder auf derselben Leinwand sehr nahe aneinander gebracht werden, bestehen in der Regel an jeder Naht sowohl Lücken als auch Überlappungen.
  • Aus dem Artikel mit dem Titel „Design Considerations and Applications for Innovative Display Options Using Projector Arrays" von Theo Mayer, SPIE Band 2650 (1996), Seiten 131–139, ist das Projizieren einer Anzahl diskreter Bilder in einer überlappenden Beziehung und das rampenförmige Einstellen der Helligkeit der diskreten Bilder in den Überlappungsregionen jedes Bildes bekannt. Mayer beschreibt eine Mischfunktion zum Heruntermischen jedes Überlappungsrandes der diskreten Bilder dergestalt, daß der Gamma-Faktor (Videosignalreduktion als Funktion der Lichtausgabekurve) eines Leuchtstoffs, eines Lichtventils oder eines LCD-Projektors kompensiert wird, mit dem Ziel der Herstellung einer über die Anzeige gleichförmigen Helligkeit.
  • Das US-Patent Nr. 5,136,390 für Inova et al. erkennt, daß die Mischfunktion in der Regel keine einfache gerade Rampenfunktion sein kann. Ein typischer Videoprojektor erzeugt ein Bild, das in Richtung der Ränder des Bildes als natürliche Funktion des verwendeten Linsensystems dunkler wird und eine Anzahl von hellen und dunklen Teilen aufweist, die durch normale Irregularitäten in dem Signal, dem zwischengeschalteten Signalprozessor, dem Projektor, der Leinwand, usw. verursacht werden. Diese Uneinheitlichkeiten variieren in der Regel von einer Videokomponente zur anderen und sogar unter verschiedenen Komponenten mit ähnlicher Konstruktion. Außerdem reagieren verschiedene Arten von Projektoren häufig verschieden auf denselben Helligkeitsmodifikationsgrad. Somit kann eine einfache Rampe der Helligkeit in den sich überlappenden Regionen helle und dunkle Bänder und/oder Flecken in dem resultierenden Bild erzeugen.
  • Um diese Begrenzungen zu überwinden, schlagen Inova et al. vor, eine einfache gerade Mischfunktion auf die sich überlappenden Regionen des Bildes anzuwenden, so wie von Mayer vorgeschlagen wird, aber dann die einfache gerade Mischfunktion an spezifischen Stellen manuell abzustimmen, um die sichtbaren Artefakte aus der Anzeige zu entfernen. Der Ort jedes Artefakts wird identifiziert, indem manuell ein Cursor über jede Stelle, die als ein Artefakt aufweisend identifiziert wird, bewegt wird. Nachdem der Cursor an der richtigen Stelle ist, stimmt das System die entsprechende Stelle der Mischfunktion so ab, daß die entsprechenden Artefakte entfernt werden.
  • Da jedes Artefakt manuell durch einen Benutzer identifiziert werden muß, kann der Vorgang des Kalibrierens einer gesamten Anzeige zeitaufwendig und umständlich sein. Dies ist besonders wahr, da viele Anzeigen ein periodisches Neukalibrieren erfordern, weil die Leistungsfähigkeit ihrer Projektoren und/oder anderer Hardwareelemente häufig zeitveränderlich ist. Im Hinblick auf diese Tatsachen wäre es wünschenswert, über eine Anzeige zu verfügen, die mit weniger manuelle Eingreifen kalibriert und neukalibriert werden kann, als bei Inova et al. und anderen erforderlich ist.
  • US 5396257 beschreibt eine Mehrschirmanzeigevorrichtung, bei der durch Kombinieren der Schirme mehrerer Anzeigeeinheiten ein großer Schirm gebildet wird. Videosignaldaten werden korrigiert, damit die Luminanz- oder Farbschattierung einer Anzahl von Regionen aus jeder Anzeigeeinheit gleichförmig erscheint. In JP 07333760 wird ein ähnliches Mehrfachanzeigesystem bereitgestellt, bei dem Helligkeit-, Farb- und Weißabgleichdefekte durch das System korrigiert werden. EP-A-1034663 und EP-A-1039749 beschreiben beide Anzeigen, bei denen zwei oder mehr Projektoren zum Projizieren von Bildern nebeneinander verwendet werden, um so ein größeres sichtbares Bild zu bilden.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein System zur Steuerung eines Mosaik-Anzeigesystems gemäß Anspruch 1 der angefügten Ansprüche bereitgestellt. Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren zur Steuerung eines Mosaik-Anzeigesystems gemäß Anspruch 3 bereitgestellt.
  • Die vorliegende Erfindung überwindet viele der Nachteile des Stands der Technik durch Bereitstellung einer Anzeige, die mit wenig oder gar keinem manuellem Eingreifen kalibriert und neukalibriert werden kann. Dazu stellt die vorliegende Erfindung eine oder mehrere Kameras zur Erfassung eines Bildes auf dem Anzeigeschirm bereit. Das resultierende erfaßte Bild wird verarbeitet, um etwaige unerwünschte Eigenschaften, darunter sichtbare Artefakte wie etwa Nähte, Bänder, Ringe, usw., zu identifizieren. Nachdem die unerwünschten Eigenschaften identifiziert wurden, wird eine geeignete Transformationsfunktion bestimmt. Mit der Transformationsfunktion wird das Videoeingangssignal so vorverzerrt, daß die unerwünschten Eigenschaften verringert oder aus der Anzeige beseitigt werden. Die Transformationsfunktion kompensiert vorzugsweise räumliche Ungleichförmigkeit, Farbungleichförmigkeit, Luminanzungleichförmigkeit und/oder andere sichtbare Artefakte.
  • Bei einem Ausführungsbeispiel wird eine Mosaik- Projektionsanzeige bereitgestellt, die zwei oder mehr in einer Array-Konfiguration angeordnete Projektoren aufweist. Die Projektoren können Projektoren des Direktschreibtyps (z. B. CRT, LCD, DMD, CMOS-LCD) oder beliebige andere Typen sein. Bei einer Anzeige des Mosaiktyps projiziert jeder der Projektoren vorzugsweise separat ein diskretes Bild auf eine Leinwand, wobei die diskreten Bilder zusammen ein zusammengesetztes Bild bilden. Die diskreten Bilder überlappen einander. Dann wird eine Kamera auf die Leinwand gerichtet, um ein Fangbild mindestens eines Teils des zusammengesetzten Bildes zu erfassen. Das Fangbild kann weniger als ein Mosaikelement, etwa ein Mosaikelement, das gesamte zusammengesetzte Bild oder einen beliebigen anderen Teil des zusammengesetzten Bildes, der als erwünscht betrachtet wird, umfassen.
  • Ein Bestimmungsblock bestimmt dann, ob das Fangbild eine oder mehrere unerwünschte Eigenschaften aufweist. Die unerwünschten Eigenschaften können durch Vergleichen des Fangbilds oder eines Teils davon mit einem vorbestimmten Datensatz bestimmt werden, wie später ausführlicher beschrieben wird. Der Bestimmungsblock wird vorzugsweise in einem Prozessor oder dergleichen bereitgestellt. Bei einem Ausführungsbeispiel ist der Prozessor an einem Ort verankert und versorgt alle Projektoren. Bei einem anderen Ausführungsbeispiel ist die Prozessorfunktion physisch auf die Projektoren verteilt.
  • Nachdem die unerwünschten Eigenschaften bestimmt wurden, identifiziert ein Identifizierungsblock eine Transformationsfunktion, mit der das Videoeingangssignal verarbeitet werden kann und die verarbeiteten Videoeingangssignale gewählten Projektoren zugeführt werden können, um die unerwünschten Eigenschaften in dem zusammengesetzten Bild zu verringern. Zu den unerwünschten Eigenschaften können räumliche Ungleichförmigkeit, Farbungleich förmigkeit und/oder Luminanzungleichförmigkeit, aber auch andere bekannte Bildartefakte oder -irregularitäten gehören.
  • Um die räumliche Verzerrung der Projektionsanzeige zu bestimmen, kann gewählten Projektoren ein Eingangsignal zugeführt werden, um eine Anzahl diskreter Bilder zu projizieren, die jeweils ein vorbestimmtes Muster aufweisen. Dann kann man mit der Kameraeinrichtung ein Fangbild mindestens eines Teils der Leinwand erfassen. Mit dem Fangbild kann man die Verzerrung der Projektionsanzeige zum Beispiel durch Vergleichen des Fangbildes mit einem vorbestimmten erwarteten Bild bestimmen. Als Alternative oder zusätzlich kann man die Verzerrungen durch Vergleichen des Orts gewählter Merkmale des vorbestimmten Musters in gewählten sich überlappenden Regionen zwischen Bildern bestimmen. Durch Verwendung einer affinen, perspektivischen, bilinearen, polynomischen, stückweise polynomischen, Global-Spline- oder ähnlichen Technik kann eine Transformationsfunktion bestimmt und auf das Videoeingangssignal angewandt werden, um die räumlichen Verzerrungen jedes Projektors zu kompensieren.
  • Um die Farb- und Luminanzverzerrung des Projektionssystems zu bestimmen, kann man mehrere Eingangssignale variierender Intensität sequentiell in die Projektionsanzeige eingeben, wobei jedes Eingangssignal einem ebenen Feldbild einer gewählten Farbe entspricht. Zum Beispiel kann ein erstes Eingangssignal einem roten ebenen Feldbild mit einer LCD-Intensität von „255" entsprechen. Das nächste Eingangssignal kann auch einem roten ebenen Feldbild entsprechen, kann aber eine LCD-Intensität von „220" aufweisen. Es können Eingangssignale mit schrittweise niedrigerer Intensität bereitgestellt werden, bis das Eingangssignal eine LCD-Intensität von „0" aufweist. Dieser Vorgang kann sowohl für blaue als auch grüne ebene Feldbilder wiederholt werden. Die Kameraeinrichtung erfaßt vorzugsweise jedes der ebenen Feldbilder entweder als einzelnes Bild, wenn das Sichtfeld der Kameraeinrichtung der gesamten Anzeige entspricht, oder als mehrere Bilder, wenn die Kameraeinrichtung ein kleineres Sichtfeld hat. Die resultierenden Bilder werden vorzugsweise als ein Array von Fangbildern gespeichert. Nach dem Sammeln können die unerwünschten Eigenschaften jedes Fangbildes, einschließlich der Luminanzdome für jeden Projektor, bestimmt werden. Danach kann eine Transformationsfunktion zur Verringerung der Luminanzdome über gewählte Mosaikelemente und zum Angleichen der Helligkeit und Farbe jedes Mosaikelements an benachbarte Mosaikelemente bestimmt werden.
  • Es wird in Betracht gezogen, daß die Kameraeinrichtung periodisch aktiviert werden kann, um ein neues Fangbild zu erfassen. Der Bestimmungsblock kann dann bestimmen, ob das neuerfaßte Bild eine oder mehrere unerwünschte Eigenschaften aufweist, wie oben beschrieben, und der Identifizierungsblock kann eine neue Transformationsfunktion identifizieren, mit der das Videoeingangssignal verarbeitet werden kann und gewählten Projektoren verarbeitete Videoeingangssignale zugeführt werden können, um die identifizierten unerwünschten Eigenschaften zu verringern. Somit wird in Betracht gezogen, daß die vorliegende Erfindung auch zum periodischen Neukalibrieren der Anzeige mit wenig oder gar keine manuellen Eingreifen verwendet werden kann.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Weitere Aufgaben der vorliegenden Erfindung und viele der einhergehenden Vorteile der vorliegenden Erfindung werden bei Durchsicht der folgenden ausführlichen Beschreibung in Verbindung mit den beigefügten Zeichnungen besser verständlich. In den Zeichnungen bezeichnen gleiche Bezugszahlen in allen Figuren ähnliche Teile und es zeigen:
  • 1 eine perspektivische Ansicht eines Vier-mal-Sechs-Arrays von Projektoren;
  • 2 eine perspektivische Ansicht eines beispielhaften Projektors von 1;
  • 3 ein Schaltbild einer beispielhaften Ausführungsform der vorliegenden Erfindung, wobei das Sichtfeld der Kamera zwei oder mehr Mosaikelemente umfaßt;
  • 4 ein Blockschaltbild einer beispielhaften Implementierung für den Prozessorblock von 3;
  • 5 ein Schaltbild einer der in 3 gezeigten ähnlichen Ausführungsform, wobei aber das Sichtfeld der Kamera nur etwa ein Mosaikelement umfaßt;
  • 6 ein Schaltbild einer der 3 gezeigten ähnlichen Ausführungsform, wobei die Verarbeitungsfunktion von 3 jedoch auf die Projektoren verteilt ist;
  • 7 ein Blockschaltbild einer weiteren Ausführungsform der vorliegenden Erfindung;
  • 8 ein Flußdiagramm eines beispielhaften Verfahrens zum Kalibrieren einer Anzeige;
  • 9 ein Flußdiagram eines weiteren beispielhaften Verfahrens zum Kalibrieren einer Anzeige und insbesondere einer Mosaikanzeige;
  • 10 ein Flußdiagramm eines weiteren beispielhaften Verfahrens zum Kalibrieren einer Anzeige, bei dem außerdem die durch die Kamera eingeführten Verzerrungen von den durch den Rest der Anzeige eingeführten Verzerrungen unterschieden werden;
  • 11 ein Diagramm eines beispielhaften Musters, das angezeigt und später erfaßt wird, um räumliche Verzerrungen in der Anzeige zu bestimmen;
  • 12 ein Diagramm des beispielhaften Musters von 11, das auf zwei benachbarten und sich überlappenden Mosaikelementen angezeigt wird und auch zum Bestimmen von räumlichen Verzerrungen in der Anzeige dient;
  • 13 ein Diagramm der Funktionsweise einer beispielhaften Transformationsfunktion, mit der die räumlichen Verzerrungen in einer Anzeige durch Bewegen gewählter Merkmale in Richtung einer korrigierenden Stelle verringert werden;
  • 14 ein Diagramm der Funktionsweise einer beispielhaften Transformationsfunktion, mit der die räumlichen Verzerrungen in einer Anzeige verringert werden können, indem gewählte Merkmale in Richtung einer korrigierenden Stelle um eine Distanz bewegt werden, die mit einem relativen Verfahren zusammenhängt, zum Beispiel einem gewichteten Mittelwert, das durch Einschränkungen des zusammengesetzten Bildes oder globale Einschränkungen modifiziert wird;
  • 15 ein Flußdiagramm eines beispielhaften Verfahrens zum mindestens teilweisen Entfernen einer räumlichen Verzerrung aus der Anzeige;
  • 16 ein Flußdiagramm eines beispielhaften Verfahrens zum Identifizieren einer Transformation für eine Mosaikanzeige, um eine räumliche Verzerrung zumindest teilweise aus der Mosaikanzeige zu entfernen;
  • 17 einen Graph der Luminanzdome für einen LCD- Projektor bei verschiedenen Eingangsintensitäten, wobei außerdem gezeigt ist, wie sich die Domformen abhängig von dem Eingangsintensitätspegel ändern;
  • 18 ein Schaltbild der Luminanzdome für drei Mosaik-LCD-Projektoren jeweils bei verschiedenen Eingangsintensitäten; und
  • 19 ein Flußdiagramm eines beispielhaften Verfahrens zum mindestens teilweisen Entfernen einer Luminanzverzerrung aus der Anzeige.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die vorliegende Erfindung liefert eine Mosaikanzeige, die mit minimalem manuellem Eingreifen kalibriert und neukalibriert werden kann. Zu diesem Zweck stellt die vorliegende Erfindung eine oder mehrere Kameras zur Erfassung eines Bildes des Anzeigeschirms bereit. Das resultierende erfaßte Bild wird verarbeitet, um etwaige unerwünschte Eigenschaften, darunter sichtbare Artefakte wie etwa Nähte, Bänder, Ringe, usw., zu entfernen. Nachdem die unerwünschten Eigenschaften identifiziert wurden, wird eine geeignete Transformationsfunktion bestimmt. Mit der Transformationsfunktion wird das Videoeingangssignal dergestalt vorverzerrt, daß die unerwünschten Eigenschaften verringert oder aus der Anzeige beseitigt werden. Die Transformationsfunktion kompensiert vorzugsweise räumliche Ungleichförmigkeit, Farbungleichförmigkeit, Luminanzungleichförmigkeit und andere sichtbare Artefakte.
  • Bei einer beispielhaften Ausführungsform wird eine Mosaikanzeige bereitgestellt, bei der zwei oder mehr Projektoren in einer Arraykonfiguration angeordnet sind. Die Anzeigen können Projektionsanzeigen sein, die CRT, LCD, DMD, CMOS-LCD oder eine beliebige andere Art von Anzeigeeinrichtung verwenden und können Vorder- oder Rückprojektionstypen sein. Bei einer Anzeige des Mosaiktyps wird vorzugsweise ein diskretes Bild von jedem der Projektoren separat auf einer Oberfläche oder einer Leinwand abgebildet oder projiziert, wobei die diskreten Bilder zusammen ein zusammengesetztes Bild bilden. Die diskreten Bilder überlappen sich. Eine solche Konfiguration ist in 1 gezeigt.
  • 2 zeigt einen beispielhaften Projektor 8, der vorzugsweise eine digitale Mikrospiegeleinrichtung (DMD) 10 verwendet. DMD-Einrichtungen enthalten in der Regel ein Array elektronisch adressierbarer beweglicher quadratischer Spiegel, die elektrostatisch abgelenkt werden, um Licht zu reflektieren. Die Verwendung einer DMD-Einrichtung kann eine leichte, zuverlässige digitale Anzeige mit großem Sichtwinkel und guter Bildklarheit bereitstellen. Außerdem erfüllen bestimmte DMD-Einrichtungen verschiedene Umwelt- und Belastungsanforderungen gemäß MIL-STD-810 und können Farbgrafik, Text und Videodaten mit verschiedenen Einzelbildraten anzeigen.
  • Der Projektor 8 enthält außerdem vorzugsweise verschiedene optische Elemente zur ordnungsgemäßen Präparierung der ankommenden Beleuchtungen, zum Beleuchten der DMD 10 und zum Projizieren des abgehenden Bildes. Wie in 2 gezeigt, kann der optische Weg zwei Segmente enthalten: den Beleuchtungsweg 12 und den Projektionsweg 14. Der optische Weg kann mit einer hochzuverlässigen Metallhalogenidkurzbogenlampe 16, die die DMD 10 beleuchtet, beginnen. Das Licht aus der Bogenlampe 16 wird durch ein rotierendes RGB-Farbfilterrad 18 geleitet. Eine Beleuchtungsrelaislinse vergrößert den Strahl, um die DMD 10 zu beleuchten und ein telezentrisches Bild an der DMD 10 zu bilden. Ein Prisma mit totaler interner Reflexion (TIR) 20 läßt das ankommende Licht aus der Lampe auf die DMD 10 und zurück in die Projektionsoptik. Abhängig von dem Drehungszustand (z. B. ± 10 Grad für Ein/Aus) jedes Spiegels auf der DMD wird das Licht aus der DMD 10 in die Pupille der Projektionslinse (Ein) oder von der Pupille der Projektionslinse weg (Aus) gerichtet. Eine Mehrelementprojektionszelle vergrößert das von der DMD 10 kommende Licht mit dem gewünschten MTF, der gewünschten seitlichen Farbe und Verzerrung.
  • Jeder Projektor 8 kann außerdem ein (nicht explizit gezeigtes) Elektronikmodul enthalten. Das Elektronikmodul kann die ankommenden Datensignale annehmen, die zeitlichen Signale in räumliche Darstellungen auf der DMD 10 umsetzen und das Filter 18, das die sequentielle Farbe für die Anzeige liefert, steuern. Wie später beschrieben wird, kann die Elektronik modular sein, so daß eine beliebige Anzahl von Projektoren zu einer Mosaik-Anordnung zusammengefügt werden können. Ferner können gegebenenfalls Mosaikalgorithmen in die Elektronik integriert werden, um „intelligente" Projektoren zu ermöglichen. Dadurch kann sich die Elektronik jedes Projektors automatisch oder manuell mit nur wenig oder keinem mannellen Eingriff durch den Benutzer an eine beliebige Konfiguration von Projektoren anpassen.
  • 3 ist ein Schaltbild einer beispielhaften Ausführungsform der vorliegenden Erfindung, wobei das Sichtfeld der Kamera zwei oder mehr Mosaikelemente umfaßt. Das System ist allgemein bei 50 gezeigt und enthält einen Prozessor 52, eine erste Anzeige, die ein Projektor 54 sein kann, eine zweite Anzeige, die ein Projektor 56 sein kann, eine Betrachtungsoberfläche oder -Leinwand 58 und eine Kamera 62. Zur Veranschaulichung wird die Anzeige als ein Projektor beschrieben. Der erste und der zweite Projektor projizieren jeweils wie gezeigt ein diskretes Bild auf die Leinwand 58. Die diskreten Bilder überlappen sich und können ein zusammengesetztes Bild auf der Leinwand 58 bilden.
  • Der Prozessor 52 empfängt einen Videoeingangsstrom 66. Da jeder der Projektoren 54 und 56 einen Teil des gewünschten zusammengesetzten Bildes projiziert, segmentiert der Prozessor 58 vorzugsweise den Videoeingangsstrom 66 zu einem ersten Videoeingangssignal 72 und einem zweiten Videoeingangssignal 74. Bei der beispielhaften Ausführungsform segmentiert der Prozessor 52 den Videoeingangsstrom dergestalt, daß Überlappungen zwischen benachbarten diskreten Bildern, zum Beispiel die Überlappung 60, auf in der Technik bekannte Weise berücksichtigt werden.
  • Der Videoeingangsstrom 66 kann aus einer beliebigen Anzahl von Quellen bereitgestellt werden und kann ein NTSC-, ein PAL-, ein HDTV-, ein Workstation- oder ein PC-Videosignal sein. Diese Signaltypen sind zum Beispiel mit den Richtlinien und Spezifikationen RS-170 oder RS-343 kompatibel, oder neuerdings mit den VESA-Videosignalstandards und -Richtlinien. Die Signale können Horizontal- und Vertikal-synchron- und Austastinformationen zusätzlich zu dem aktiven Videosignal enthalten, womit das Ausgangsbild aufgebaut wird. Die Synchronsignale können von dem Prozessor 52 zum Ableiten eines System- und/oder Videoabtasttakts verwendet werden, insbesondere falls ein analoges Eingangssignal digitalisiert werden muß.
  • Die Kamera 62 ist wie gezeigt auf die Leinwand 58 gerichtet und führt dem Prozessor 52 über die Schnittstelle 64 ein Kameraausgangssignal zu. Die Kamera 62 kann ein Sichtfeld aufweisen, das ausreicht, um ein Fangbild mindestens eines Teils des zusammengesetzten Bildes zu erfassen. Es wird in Betracht gezogen, daß das Sichtfeld nur 1% des zusammengesetzten Bildes, 50% des zusammengesetzten Bildes, das gesamte zusammengesetzte Bild oder einen beliebigen anderen Teil des zusammengesetzten Bildes, der als erwünscht angesehen wird, umfassen kann. Bei einer Mosaikanzeige kann dies nur einem Teil eines Mosaikelements, mehr als einem Mosaikelement oder allen Mosaikelementen entsprechen. Wenn das Sichtfeld der Kamera nicht die gesamte Anzeige umfaßt, kann es notwendig sein, separat ein Fangbild jedes Teils der Anzeige zu erfassen und dann die Ergebnisse in einem Hintergrund- oder Echtzeitmodus zusammenzustellen, um über alle Mosaikelemente hinweg eine kalibrierte Anzeige zu erreichen.
  • Bei der gezeigten Ausführungsform hat die Kamera 62 ein Sichtfeld, das ausreicht, um die diskreten Bilder zu umfassen, die von dem ersten Projektor 54 und dem zweiten Projektor 56 bereitgestellt werden. Das Fangbild wird über die Schnittstelle 64 als Rückkopplungsbild dem Prozessor 52 zugeführt. Ein in dem Prozessor 52 bereitgestellter Bestimmungsblock kann bestimmen, ob das Fangbild eine oder mehrere unerwünschte Eigenschaften aufweist. Vorzugsweise bestimmt man die unerwünschten Eigenschaften durch Vergleichen des Fangbildes oder eines Teils davon mit einem vorbestimmten Daten- und Informationssatz, wie später ausführlicher beschrieben wird.
  • Nachdem die unerwünschten Eigenschaften bestimmt wurden, identifiziert ein Identifizierungsblock vorzugsweise in dem Prozessor 52 eine Transformationsfunktion, mit der der Videoeingangsstrom 66 verarbeitet und den Projektoren 54 und 56 verarbeitete Videoeingangssignale zugeführt werden können, die die unerwünschten Eigenschaften in dem zusammengesetzten Bild verringern. Zu den unerwünschten Eigenschaften können räumliche Ungleichförmigkeit, Farbungleichförmigkeit und/oder Luminanzungleichförmigkeit, aber auch andere bekannte Bildartefakte oder – irregularitäten gehören.
  • Es wird in Betracht gezogen, daß die Projektionsanzeige eine Vorder- oder Rückprojektionsanzeige sein kann und die Kamera 62 kann vor und/oder hinter der Leinwand positioniert sein. Bei einer zweiten beispielhaften Ausführungsform ist die Mosaik-Projektionsanzeige eine Rückprojektionsanzeige mit einem Array von Mosaik-Projektoren des LCD-Typs, wobei jeder Projektor ein diskretes Bild auf die Rückseite einer durchlässigen Leinwand 58 projiziert. Die durchlässige Leinwand 58 wird von der Vorderseite aus betrachtet und mit der Kamera 62 wird ein Fangbild mindestens eines Teils der Leinwand 58 von der Vorderseite aus erfaßt.
  • Es wird in Betracht gezogen, daß die Kamera 62 eine elektronische Standbild- oder Videokamera ist oder eine äquivalente Kombination von Komponenten aufweist, die die Szene auf Mehrpunktweise erfassen und eine elektronische Darstellung des Bildes an den Prozessor 52 abliefern. Bei der bevorzugten Ausführungsform ist die Kamera 62 eine CCD- oder CMOS-Kamera, und zwar entweder eine Farbkamera (z. B. Mehrpunktkalorimeter) oder eine Monochromkamera. Die Kamera 62 enthält vorzugsweise ein fotopisches Filter, wodurch die Kamera 62 das Ausgangsbild auf eine Weise messen kann, die mit dem menschlichen Sehen vereinbar ist. Somit werden Rauschen und Fehler der Luminanz und Chromatizität auf eine Weise gemessen, die der Art und Weise der Erkennung solcher Anomalien durch das Auge ähnlich ist. Das Bild kann ein Schnappschuß sein, der über einen kurzen Moment (z. B. weniger als 60 Millisekunden) oder über eine längere Belichtungszeit (z. B. in der Größenordnung einer Sekunde) genommen wird.
  • Bei einer bevorzugten Ausführungsform kann die Kamera 62 eine herkömmliche Kameraeinrichtung sein, wie z. B. eine Videominiaturkamera, die ein analoges Ausgangssignal erzeugt. Das analoge Ausgangssignal wird digitalisiert und durch einen Frame-Grabber oder dergleichen in dem Prozessor 52 erfaßt. Nach der Digitalisierung kann das Fangbild gespeichert und unter Verwendung digitaler Verarbeitungstechniken verarbeitet werden. Um zu bestimmen, ob das Fangbild etwaige unerwünschte Eigenschaften aufweist, kann das Fangbild mit einem vorbestimmten Daten- oder Informationssatz verglichen werden. Als erstes können jedoch die durch die Kamera 62 und zugeordnete Verarbeitungshardware eingeführten Verzerrungen bestimmt und entfernt werden.
  • Um die Kameraverzerrungen zu isolieren, wird in Betracht gezogen, daß wie gezeigt eine physische Schablone 68 vor der Leinwand 58 bereitgestellt wird. Auf der physischen Schablone 68 befindet sich vorzugsweise ein vorbestimmtes Muster, wie zum Beispiel ein Punktarray. Wenn die physische Schablone 68 an Ort und Stelle ist, kann die Kamera 62 ein Fangbild mindestens eines Teils der physischen Schablone 68, der einen Teil des vorbestimmten Musters enthält, erfassen. Durch Vergleichen des Fangbildes mit einem vorbestimmten erwarteten Bild und insbesondere Vergleichen des Orts der Punkte des vorbestimmten Musters in dem Fangbild mit den erwarteten Orten jedes der Punkte können die Verzerrungen der Kamera und zugeordneten Hardware bestimmt werden. Durch Verwendung der Abweichung von den erwarteten Orten kann eine Transformationsfunktion bestimmt und auf den Videoeingangsstrom 66 angewandt werden, um die Kameraverzerrungen zu kompensieren.
  • Nachdem die Kameraverzerrungen bestimmt wurden, kann die physische Schablone 68 entfernt werden und die Verzerrungen der Anzeige selbst können bestimmt werden. Die Anzeige kann mehrere Arten von Verzerrungen aufweisen, darunter räumliche Verzerrungen, Farbverzerrungen, Luminanzverzerrungen usw. Um die räumlichen Verzerrungen der Projektionsanzeige zu bestimmen, kann zum Beispiel gewählten Projektoren 54 und 56 ein Eingangssignal zugeführt werden, um mehrere diskrete Bilder zu projizieren, die jeweils ein vorbestimmtes oder bekanntes Muster aufweisen. Dann kann man mit der Kamera 62 ein Fangbild mindestens eines Teils der Leinwand 58 erfassen. Unter Verwendung des Fangbildes kann man die Verzerrungen der Projektionsanzeige zum Beispiel durch Vergleichen des Fangbildes mit einem vorbestimmten und/oder erwarteten Bild bestimmen. Als Alternative oder zusätzlich kann man die Verzerrungen durch Vergleichen des Orts gewählter Merkmale des vorbestimmten Musters in gewählten sich überlappenden Regionen 60 zwischen Bildern bestimmen. Durch Verwenden einer affinen, perspektivischen, bilinearen, polynomischen, stückweise polynomischen, Global-Spline- oder ähnlichen Technik kann man eine Transformationsfunktion bestimmen und auf den Videoeingangsstrom 66 anwenden, um die räumlichen Verzerrungen der Projektoren 54 und 56 zu kompensieren. Vorzugsweise werden die durch die Kamera 62 eingeführten Verzerrungen wie oben beschrieben aus dem Fangbild entfernt, bevor die Verzerrungen des Projektionssystems bestimmt werden.
  • Um die Farb- und Luminanzverzerrungen des Projektionssystems zu bestimmen, kann man mehrere Eingangssignale variierender Intensität sequentiell in die Projektionsanzeige eingeben, wobei jedes Eingangssignal einem ebenen Feldbild einer gewählten Farbe entspricht. Zum Beispiel kann ein erstes Eingangssignal einem roten enenen Feldbild mit einer LCD-Eingangsintensität von „255" oder dem hellsten Eingangswert entsprechen. Das nächste Eingangssignal kann ebenfalls einem roten ebenen Feldbild entsprechen, kann aber eine dunklere LCD-Eingangsintensität von „220" aufweisen. Es können Eingangssignale mit schrittweise niedrigerer Intensität bereitgestellt werden, bis das Eingangssignal eine LCD-Eingangsintensität von „0" oder Schwarz, dem dunkelsten Eingangswert, aufweist. Diese Eingangssignale können insbesondere, wenn das Eingangssignal kein digital gemessener Wert, sondern eine analoge Spannung ist, als helle bis dunkle Äquivalente ausgedrückt werden. Dieser Vorgang kann sowohl für blaue als auch grüne gleichförmige Feldbilder wiederholt werden. Die Kamera 62 erfaßt vorzugsweise jedes der ebenen Feldbilder entweder als einen einzigen Bildschnappschuß, der periodisch genommen wird, wenn das Sichtfeld der Kamera 62 der gesamten Anzeige entspricht, oder als mehrere Bilder, wenn die Kameraeinrichtung ein kleineres Sichtfeld aufweist. Die resultierenden Bilder werden vorzugsweise als ein Array von Fangbildern oder komprimierter Versionen davon in einem Speicher in dem Prozessorblock 52 gespeichert. Nach der Sammlung können die unerwünschten Eigenschaften jedes Fangbildes bestimmt werden, darunter die entsprechende Farbe und Eingangsintensitätsvariationsluminanzdome jedes Projektors 54 und 56.
  • Nachdem die Luminanzdome identifiziert wurden, kann sowohl für Farbe als auch Intensität über die gesamte Anzeige hinweg ein oberer und unterer Grenzwert bestimmt werden. Zum Beispiel kann ein Projektor heller als ein anderer sein, obwohl alle mit einer maximalen Intensität (z. B. LCD „255") angesteuert werden, und die von jedem Projektor gelieferte Helligkeit kann in der Nähe der Ränder des Bildes abnehmen. Folglich kann ein oberer Grenzwert so gewählt werden, daß er mit dem dunkelsten Überlagerungsergebnis aller Mosaikelemente übereinstimmt, wenn alle Projektoren mit maximaler Intensität betrieben werden. Ähnlich kann man einen unteren Grenzwert so wählen, daß er mit dem hellsten Überlagerungsergebnis übereinstimmt, wenn alle Projektoren mit einer minimalen Intensität (LCD „0") betrieben werden.
  • Danach kann eine Transformationsfunktion zur Verringerung der Luminanzdome über gewählte Mosaikelemente hinweg und zum Angleichen der Helligkeit und Farbe jedes Mosaikelements an benachbarte Mosaikelemente bestimmt werden. Die Transformationsfunktion kann zum Beispiel durch eine Farbnachschlagetabelle erfaßter oder komprimierter Farbdome, eine Funktion zur Erkennung des nächsten Nachbarn und Identifikation und eine Interpolationsfunktion zwischen den nächsten Nachbarn dargestellt werden, um den Eingangspegel zu bestimmen, der in der Anzeige notwendig ist, um den gewünschten linearen Ausgangspegel auszugeben.
  • Bei einer Ausführungsform bewirkt die Transformationsfunktion, daß die Luminanzschwankung über die gesamte Anzeige hinweg weniger als etwa zwei Prozent beträgt, also weniger als eine gerade wahrnehmbare Differenz (JND) gemäß dem Weberschen Gesetz. Um dabei zu helfen, diesen Grad an Luminanzgleichförmigkeit zu erzielen, ist die Transformationsfunktion vorzugsweise eine Funktion des X- und des Y-Orts auf der Anzeige, und für bestimmte Bildquellentechnologien wie zum Beispiel Polysilizium-LCDs, des LCD-Eingangsintensitätswerts. Vorzugsweise werden die Schwankungen über die Anzeige hinweg gemäß der Kontrastmodulationsempfindlichkeitskurve des menschlichen Sehens auf weniger als einer JND gehalten. Diese Kurve läßt als Funktion der räumlichen Frequenz mehr oder weniger Schwankungen zu.
  • Es wird in Betracht gezogen, daß die Verzerrungen des Systems direkt aus auf die Anzeige projizierten Mustern bestimmt werden. Für eine Mosaikanzeige mit sich überlappenden diskreten Bildern kann in einer gewählten Überlappungsregion ein erstes Merkmal identifiziert werden, wobei das erste Merkmal durch einen ersten Projektor projiziert wird. Dann kann man in derselben gewählten Überlappungsregion ein zweites Merkmal identifizieren, wobei das zweite Merkmal durch einen zweiten Projektor projiziert wird und das zweite Merkmal dem ersten Merkmal entspricht. Die räumliche Beziehung zwischen dem ersten und dem zweiten Merkmal kann dann bestimmt werden und es kann daraus eine erste Transformationsfunktion für den ersten Projektor identifiziert werden. Ähnlich kann eine zweite Transformationsfunktion für den zweiten Projektor identifiziert werden. Dies wird später mit Bezug auf 1214 weiter besprochen.
  • Als letztes wird in Betracht gezogen, daß die Kamera 62 periodisch aktiviert werden kann, um ein neues Fangbild zu erfassen. Der Bestimmungsblock in dem Prozessor 52 kann bestimmen, ob das neuerfaßte Bild eine oder mehrere unerwünschte Eigenschaften aufweist, und der Identifizierungsblock des Prozessors 52 kann eine neue Transformationsfunktion identifizieren, mit der der Videoeingangsstrom 66 verarbeitet werden kann und den Projektoren 54 und 56 verarbeitete Videoeingangssignale zugeführt werden können, um die identifizierten unerwünschten Eigenschaften zu verringern. Somit wird in Betracht gezogen, daß die vorliegende Erfindung zum periodischen Neukalibrieren der Anzeige mit wenig oder gar keinem manuellem Eingriff verwendet werden kann. Die Periode der Neukalibrierung kann je nach Anforderung durch die Betriebsumgebung vergrößert oder verkleinert werden. Zum Beispiel kann sie mit einer Rate von 60 Hz geschehen, um Effekte in einer stark vibrierenden Umgebung zu negieren. In einer gutartigen Umgebung, wie zum Beispiel einer Privatwohnung, kann die Periode auf 0,001 Hz oder weniger reduziert werden.
  • Außerdem wird in Betracht gezogen, daß der Prozessor 52 Logik für eingebaute Tests enthält. Die Logik für eingebaute Tests kann periodisch erkennen, ob ein Teil der Anzeige ausgefallen ist, und, wenn dem so ist, den Ausfall durch entsprechendes Neukalibrieren des Anzeigesystems korrigieren. Dies ist besonders nützlich, wenn sich die diskreten Bilder um etwa 50% oder mehr überlappen. Der Wert von 50% grenzt als ein Beispiel eine Packungsanordnung ab, die vollständig redundant ist, was zu signifikanten Ausfallbetriebsfähigkeitssystemattributen führt. Ausfallbetriebsfähigkeit bedeutet, daß eine Komponente ausfallen kann, aber das System weiter völlig funktionsfähig ist. Bei einer Überlappung von 50% ist, wenn ein Projektor ausfällt, mindestens ein weiterer bereit, die Leere zu füllen, was zu signifikanten Systemzuverlässigkeitsgewinnen führt.
  • Um Speicherkosten zu sparen, werden die hier beschriebenen Transformationsfunktionen und erweiterten Merkmale, Informations- und Datensätze vorzugsweise als eine Anzahl reduzierter Informationssätze, wie zum Beispiel als affine Transformations- oder Vorwärtsdifferenzierungskoeffizienten oder Kompressionskoeffizienten wie die in den Spezifikationen JPEG oder MPEG empfohlenen repräsentiert und gespeichert. Zur Rekonstruktion der entsprechenden Korrekturfaktoren für einen beliebigen Ort unter den ausgewählten Punkten (siehe 11 unten) kann dann eine Interpolation oder dergleichen verwendet werden.
  • 4 ist ein Blockschaltbild einer beispielhaften Implementierung für den Prozessorblock 52 von 3. Bei dieser beispielhaften Ausführungsform enthält der Prozessorblock 52 einen ersten Subverarbeitungsblock 80 zur Versorgung des ersten Projektors 54 und einen zweiten Subverarbeitungsblock 82 zur Versorgung des zweiten Projektors 56. Ein Eingangsvideosegmentiererblock 84 segmentiert den Videoeingangsstrom 66 und führt dem ersten Subverarbeitungsblock 80 und dem zweiten Subverarbeitungsblock 82 ein entsprechendes segmentiertes Videoeingangssignal zu.
  • Ein Digitalisierer- und Bildspeicherblock 86 empfängt das analoge Videosignal 64 aus der Kamera 62 und setzt es in digitale Form um (in der Regel einen 8-Bit-Wert für Rot und einen 8-Bit-Wert für Grün und einen weiteren für Blau). Das Ausgangssignal der Kamera 62 kann ein Monochromsignal oder ein Farbsignal sein. Wenn das Ausgangssignal der Kamera 62 monochrom ist, können die Testbilder separater Rot-, Grün- und Blauwerte durch den Projektor von Zeit zu Zeit gezeigt und separat oder als Kombination durch die Kamera in Kombination mit dem Digitalisierer- und Bildspeicherblock 86 erfaßt werden. Die Digitalisierungsfunktion muß nicht innerhalb der physischen Schranken des Prozessors verankert sein. Stattdessen kann sie Teil der Kamera selbst sein. Dasselbe gilt für den Bildspeicher. Diese (88, 64 und 86), die vorzugsweise in die Vorrichtung einer CMOS-Kamera implementiert sind, können außerdem in der Hardware des Subprozessorblocks 80 eingebettet sein. Außerdem können sie alle in eine CMOS-LCD-Abbildungseinrichtung eingebettet werden, um den höchsten Integrationsgrad zu erzielen.
  • Da die Kamera 62 ein Bild erfaßt, das beiden Projektoren 54 und 56 entspricht (siehe 3), kann ein Kamerasegmentiererblock 88 vorgesehen werden, um das Fangbild zu segmentieren, und führt dem ersten und dem zweiten Subverarbeitungsblock 80 und 82 die entsprechenden Teile davon zu.
  • Der erste Subverarbeitungsblock 80 hat vorzugsweise Zugang zu den erfaßten und idealen Bildern des ersten Projektors 54 und der benachbarten Projektoren, einschließlich des zweiten Projektors 56. Das Fangbild oder mindestens der entsprechende Teil davon wird durch den ersten Subverarbeitungsblock 80 analysiert. Zur räumlichen Kompensation können mehrere Merkmale aus dem Bild extrahiert werden, darunter z. B. das Suchen, Erkennen, Identifizieren und Extrahieren von Ankerpunkten in dem Bild. Die Ankerpunkte können zum Beispiel Merkmale in einem vorbestimmten Muster (z. B. einem Punktarray) sein oder können aus dem Standardvideoeingangssignal deduziert werden, indem abgeleitet wird, welche Merkmale in dem Eingangsbild, die stochastisch trennbar und eindeutig identifizierbar sind. Zur Farbkompensation kann der Projektor bzw. können die Projektoren, der bzw. die geprüft werden, eine Reihe von Bildern auf die Leinwand projizieren, deren Intensität für Rot, Grün und Blau getrennt von LCD „0" bis LCD „255" reicht. Die Kamera 62 kann ein Farb- oder Monochrombild jedes der Bilder auf der Leinwand erfassen. Diese Fangbilder werden in dem Referenzbilder- und Datenblock 90, der unter Verwendung von Speichermedien implementiert wird, vorzugsweise als ein Array gespeichert. Ferner können die Rot-, Grün- und Blaukompensationsinformationen beim ersten Einrichten erhalten und zum Beispiel durch Skalieren in Echtzeit oder periodisch korrigiert werden. Das heißt, daß das Videoeingangssignal zum Verändern bekannter detaillierter Kompensationsdaten verwendet werden kann, wodurch vorzugsweise die Notwendigkeit, Testbilder anzulegen, um zu erfahren, welche Kompensation über die Zeit und Bedingungen hinweg angewandt werden muß, umgangen wird.
  • Außerdem können die Vignettierungsaspekte der Kameralinsenapertur und -baugruppe erfaßt und in das Ergebnis aufgenommen werden. Der Vignettenaspekt der Kamera kann vorzeitig gemessen werden, indem ein weißes Feldbild verwendet wird, das durch ein gleichförmig beleuchtetes weißes Feldbild bereitgestellt wird und als a-priori-Informationen abgespeichert werden kann. Diese Informationen können außerdem in komprimierter Form in dem Referenzbilder- und Datenblock 90 gespeichert werden.
  • Die Referenz- und gemessenen Bilder werden in dem Blockrücktransformationskalkulator 100 verglichen. Die verschiedenen Testbilder, darunter räumliche und Farbe, werden in diesem Block analysiert. Vorzugsweise unter Verwendung von Varianten von Filter-, Schwellen-, Linearitätskorrektur- und Gammakorrekturverfahren werden betreffende und relevante Merkmale automatisch extrahiert. Um räumliche Kompensation zu erhalten, kann zum Beispiel die affine, perspektivische, bilineare, polynomische, stückweise polynomische oder Global- Spline-Transformation berechnet werden, indem die Merkmale gemessener räumlicher Testmuster mit verankerten Referenztestbildmerkmalen verglichen werden. Für Farbinformationen können Gamma, Verstärkung und Offset der Kamera, des Digitalisierers und der Projektoren extrahiert werden. Diese und damit zusammenhängende Merkmale werden kategorisiert und gelöst, um eine Menge räumlicher und Farbkompensationstransformationskoeffizienten zu erzeugen.
  • Die in der Regel in einem Nicht-Echtzeit-Modus berechneten Transformationskoeffizienten werden in den Echtzeit-Verzerrer- und Farbmischerblock 102 geladen. Dieser Block setzt die Koeffizienten in schnelle Echtzeit-Kompensationssignale um, die dem ersten Projektor 52 zugeführt werden. Das transformierte Videosignal 72 ist vorzugsweise eine vorverzerrte Version des Videoeingangsstroms 66. Die Vorverzerrung kann lokal oder global in bezug auf das Mosaikelement und seine Nachbarn erfolgen. Die Vorverzerrung kann in der Farb- und Raum- oder einer anderen Artefaktdimension (zum Beispiel Zeittrennung) so angewandt werden, daß, wenn das transformierte Videosignal 72 durch das Projektor-Leinwand-System geleitet wird, das Ausgangsbild räumlich-zeitlich und farbausgerichtet mit wenigen oder keinen sichtbaren Artefakten herauskommt.
  • Der Echtzeit-Verzerrer- und Farbmischerblock 102 kann unter Verwendung einer Kombination standardmäßiger Verarbeitungskomponenten implementiert werden, darunter schnelle Nachschlagetabellen, schnelle digitale Signalprozessoren, Bildspeicher, X-, Y-Positionszähler, Einrichtungen zur bilinearen Interpolation und/oder Weiterleitungsdifferenzierungs-Engines (die zum Beispiel aus Koeffizientenregistern, Addierern und Haltespeichern bestehen).
  • Es wird in Betracht gezogen, daß die Ausrichtung auf relative oder absolute Weise implementiert werden kann. Wenn die Ausrichtung zum Beispiel mit Bezug auf eine physische Schablone erfolgt, kann dies als eine absolute Ausrichtung betrachtet werden. Wenn dagegen keine physische Schablone verwendet wird und das Verhalten der Mosaikelemente relativ zu Attributen von benachbarten Mosaikelementen charakterisiert wird, kann dies als eine relative Ausrichtung betrachtet werden.
  • Der zweite Subprozessorblock 82 kann auf ähnliche Weise konstruiert werden. Da bei bestimmten Anwendungen die Berechnung einer Transformationsfunktion für ein Mosaikelement von den Informationen und der Transformationsfunktion eines anderen Mosaikelements abhängen kann, wird in Betracht gezogen, daß zwischen dem ersten und dem zweiten Subprozessorblock 80 und 82 eine Schnittstelle 106 vorgesehen wird. Diese Schnittstelle kann es dem ersten Subverarbeitungsblock 80 erlauben, mit dem zweiten Subverarbeitungsblock zu kommunizieren. Obwohl der Prozessorblock 52 mit zwei getrennten Subverarbeitungsblöcken 80 und 82 gezeigt ist, werden beliebig viele andere Implementierungen in Betracht gezogen. Zum Beispiel kann der Prozessorblock 52 als ein entsprechend programmierter Vielzweckmikroprozessor, ein entsprechend programmierter digitaler Signalprozessor oder als eine beliebige andere Implementierung implementiert werden, solange dasselbe oder ein ähnliches Ergebnis erreicht wird.
  • 5 ist ein Schaltbild einer der in 3 gezeigten ähnlichen Ausführungsform, wobei bei dieser Ausführungsform die Kamera 120 jedoch ein Sichtfeld aufweist, das nur etwa ein Mosaikelement umfaßt. Bei dieser Konfiguration kann die Kamera 120 eine Reihe von Bildern erfassen, und ihr Ausgangssignal wird zur Bestimmung einer Transformationsfunktion für den zweiten Projektor 56 wie oben beschrieben verwendet. Danach kann die Kamera 120 oder ihr Sichtfeld zum Beispiel mit einem Ablenkspiegel bewegt werden, so daß das Sichtfeld der Kamera 120 das diskrete Bild für den ersten Projektor 54 umfaßt, wie bei 122 gezeigt. Dann kann die Kamera 120 wie oben beschrieben eine Reihe von Bildern erfassen, und mit ihrem Ausgangssignal kann eine Transformationsfunktion für den ersten Projektor 54 bestimmt werden. Dies kann solange wiederholt werden, bis für jeden Projektor in der Anzeige eine Transformationsfunktion bestimmt werden kann.
  • 6 ist ein Schaltbild einer der in 3 gezeigten ähnlichen Ausführungsform, wobei die Verarbeitungsfunktion jedoch auf die Projektoren verteilt ist. Folglich sind dem ersten Projektor 54 und dem zweiten Projektor 56 jeweils ein Prozessorblock 130 bzw. 132 zugeordnet.
  • Außerdem ist eine E/A zwischen Prozessoren vorgesehen. Diese E/A-Kanäle können als Videokanäle, parallele und/oder serielle Datenbusübertragungsleitungen oder eine beliebige andere Art von Kommunikationsstrecke, darunter Array-Positionscodierer oder andere Array-Signaturmittel, implementiert werden. Mit der bereitgestellten E/A-Funktion können die Prozessoren 130 und 132 ein verteiltes Prozessorarray bilden, wodurch potentiell ein zentraler Exekutivprozessor unnötig wird. Bei einer Ausführungsform kann der Prozessor 130 eine globale Exekutivfunktion annehmen, der Prozessor 132 die Funktion eines Farbmischkalkulators, während ein weiterer (nicht gezeigt) die Funktion eines Kalkulators für räumliche Verzerrung annehmen kann und ein weiterer die Funktion eines Überwachers für eingebauten Test usw. Vorzugsweise wendet jeder Prozessor dieselbe Art von entsprechender Transformation auf den entsprechenden Teil des Videoeingangsstroms an, um einen. Echtzeit-Transformationsprozeß zu erzielen. Obwohl ein Exekutivprozessor nicht ausgeschlossen wird, erlaubt es die E/A 134 zwischen Prozessoren jedem Mosaikcluster von Betriebsmitteln, in einen Dialog mit seinen Nachbarn zu treten. Dies kann als eine lokale und globale Anordnung von Informationen, einschließlich Bildmessung und Systemkompensation, implementiert werden. Die Funktion des Prozessorarrays kann den Ort jedes Mosaikelements und die benachbarten Mosaikelemente identifizieren und die Ergebnisse, einschließlich gewählter benachbarter Ergebnisse, analysieren. Folglich kann eine beliebige Anzahl und Konfiguration von Mosaikelementen bereitgestellt werden, wodurch die Mosaik-Module transparent durch den Benutzer hinzugefügt oder abgezogen werden können.
  • 7 ist ein Blockschaltbild einer weiteren Ausführungsform der vorliegenden Erfindung. Ein Eingangsbildsignal 140 wird einer Kompensationseinrichtung 142 zugeführt und dort in ein Referenzsignalbild umgesetzt oder als solches verwendet. Hierbei können Merkmale aus dem Eingangsbild extrahiert oder im Fall einer Kalbrationsschablone unverändert verwendet werden. Dort wird das Eingangssignal zu einem Videotreiberblock 144 durchgeroutet. Das Signal wird dann einem LCD-Treiber (Liquid Crystal Display) 146 zugeführt. Der LCD-Treiber setzt das Eingangssignal, so wie es erforderlich ist, um die konkrete Anzeigeeinrichtung anzusteuern, in in der Technik bekannte spezielle Signale um. Die Verwendung einer LCD-Anzeige ist lediglich ein Beispiel. Es wird in Betracht gezogen, daß die Anzeigeeinrichtung eine DMD-, ferroelektrische, CRT- oder beliebige Art von elektronischer Anzeige sein könnte.
  • Bei dem gezeigten Beispiel gibt der Projektor 148 ein Bildsignal als moduliertes Licht, das ein betrachtbares Bild auf der Leinwand 150 erzeugt, aus. Dort wird das Bild von der Kamera 152 gesehen, die das Bild in ein elektronisches Signal umsetzt. In jeder dieser Stufen können Verzerrungen in den Signalstrom eingeführt werden, und dies ist in der Regel der Fall. Das von der Kamera erzeugte Signal wird dann durch den Datenübersetzungsdigitalisiererblock 154 digitalisiert, in eine Bilddarstellung umgesetzt und mit dem Referenzsignalbild verglichen. Der Vergleich erfolgt vorzugsweise im Hinblick auf räumliche und Farbbildattribute.
  • Danach wird eine Transformation erzeugt, die der Verzerrung des Systems entspricht. Um die räumliche Verzerrung zu charakterisieren, wird ein 81-Punkt-Testmuster bereitgestellt (siehe zum Beispiel 11 und 12). Mit dem 81-Punkt-Testmuster werden ein Satz globaler Transformationskoeffizienten oder verschiedene Sätze lokaler Transformationskoeffizienten erzeugt. Die Modelle für die räumliche Verzerrung eines Mosaikelements enthalten zum Beispiel die affinen, perspektivischen, bilinearen, polynomischen, stückweise polynomischen und Global-Spline-Transformationen.
  • Gemäß dem obigen zeigt 8 ein Flußdiagramm eines beispielhaften Verfahrens zum Kalibrieren einer Anzeige. Der Algorithmus beginnt im Element 200 und die Steuerung wird an das Element 202 abgegeben. Das Element 202 erfaßt ein Fangbild mindestens eines Teils des zusammengesetzten Bildes auf einer Leinwand. Dann wird die Steuerung an das Element 204 abgegeben. Das Element 204 bestimmt, ob das Fangbild eine oder mehrere unerwünschte Eigenschaften aufweist. Dann wird die Steuerung an das Element 206 abgegeben. Das Element 206 identifiziert eine Transformationsfunktion, mit der ein Videoeingangssignal verarbeitet und gewählten Projektoren ein verarbeitetes Videoeingangssignal zugeführt werden kann, um die unerwünschten Eigenschaften zu reduzieren. Dann wird die Steuerung an das Element 208 abgegeben, in dem der Algorithmus endet.
  • 9 ist ein Flußdiagramm eines weiteren beispielhaften Verfahrens zum Kalibrieren einer Anzeige und insbesondere einer Mosaikanzeige. Der Algorithmus beginnt im Element 220, in dem die Steuerung an das Element 222 abgegeben wird. Das Element 222 segmentiert das Videoeingangssignal, um einen Teil zu identifizieren, der jedem Mosaikelement einer Mosaikanzeige entspricht. Dann wird die Steuerung an das Element 224 abgegeben. Das Element 224 wählt ein erstes/nächstes Mosaikelement. Dann wird die Steuerung an das Element 226 abgegeben. Das Element 226 wendet auf den Teil des Videoeingangssignals, der dem gewählten ersten/nächsten Mosaikelement entspricht, durch Verwendung der Koeffizienten, die dem ersten/nächsten Mosaikelement entsprechen, eine Transformation an, und wobei durch bilineare Interpolation oder dergleichen ein entsprechendes transformiertes Videoeingangssignal erzeugt wird. Dann wird die Steuerung an das Element 228 abgegeben. Das Element 228 führt dem Projektor bzw. den Projektoren, der bzw. die dem ersten/nächsten Mosaikelement entspricht bzw. entsprechen, das transformierte Videoeingangssignal zu. Dann wird die Steuerung an das Element 230 abgegeben. Das Element 230 bestimmte, ob das gewählte erste/nächste Mosaikelement das letzte Mosaikelement in der Anzeige ist. Falls das gewählte erste/nächste Mosaikelement nicht das letzte Mosaikelement in der Anzeige ist, wird die Steuerung an das Element 224 zurückgegeben. Wenn das gewählte erste/nächste Mosaikelement jedoch das letzte Mosaikelement in der Anzeige ist, wird die Steuerung an das Element 232 abgegeben, in dem der Algorithmus existierte. Obwohl das in 9 gezeigte Flußdiagramm eine sequentielle Verarbeitung jedes der Mosaikelemente zeigt, wird in Betracht gezogen, daß die Mosaikelemente parallel verarbeitet werden können.
  • 10 ist ein Flußdiagramm eines weiteren beispielhaften Verfahrens zum Kalibrieren einer Anzeige, bei dem die durch die Kamera eingeführten Verzerrungen von den durch den Rest der Anzeige eingeführten Verzerrungen unterschieden werden. Der Algorithmus beginnt im Element 240, in dem die Steuerung an das Element 242 abgegeben wird. Das Element 242 stellt eine physische Schablone neben der Leinwand bereit. Die physische Schablone enthält vorzugsweise ein vorbestimmtes Muster. Dann wird die Steuerung an das Element 244 abgegeben. Das Element 244 erfaßt mit einer Kameraeinrichtung ein Fangbild mindestens eines Teils der physischen Schablone. Dann wird die Steuerung an das Element 246 abgegeben. Das Element 246 bestimmt eine durch die Kameraeinrichtung eingeführte Kameraverzerrung durch Vergleichen des Fangbildes mit einem vorbestimmten Erwartungswert. Dann wird die Steuerung an das Element 248 abgegeben. Das Element 248 entfernt die physische Schablone. Dann wird die Steuerung an das Element 250 abgegeben.
  • Das Element 250 führt gewählten Projektoren ein Eingangssignal zu, um eine Anzahl diskreter Bilder zu projizieren, die jeweils ein vorbestimmtes Muster aufweisen. Es versteht sich, daß nicht alle Projektoren, sondern nur gewählte Projektoren ein Muster projizieren müssen. Dann wird die Steuerung an das Element 252 abgegeben. Das Element 252 erfaßt mit der Kameraeinrichtung ein Fangbild mindestens eines Teils der Leinwand. Dann wird die Steuerung an das Element 254 abgegeben. Das Element 254 verringert oder entfernt die durch die Kamera eingeführten Verzerrungen aus dem Fangbild. Die Steuerung wird dann an das Element 256 abgegeben. Das Element 256 bestimmt eine Transformationsfunktion zum Verringern oder Entfernen der durch das Projektionssystem eingeführten Verzerrungen durch Vergleichen des Fangbildes mit einem vorbestimmten Erwartungswert. Dann wird die Steuerung an das Element 258 abgegeben, in dem der Algorithmus endet.
  • 11 ist ein Diagramm eines beispielhaften Musters mit 9 × 9 Punkten, die angezeigt und später zur Bestimmung räumlicher Verzerrungen in einer Anzeige erfaßt werden können. Bei der beispielhaften Ausführungsform wird jedes Mosaikelement 268 der Länge nach in acht Segmente und der Höhe nach in acht Segmente geteilt, so daß 64 rechteckige Regionen entstehen. Die Ecken jeder Region sind die entsprechenden Verknüpfungspunkte. Entsprechend wird mit den Verknüpfungspunkten in dem Array von Regionen die lokale Verzerrung in der Region 270 und in anderen über das Mosaikelement 268 hinweg bestimmt. Verschiedene Sätze lokaler Transformationskoeffizienten entsprechen verschiedenen rechteckigen Regionen. Die geometrischen Verzerrungen in jeder Region werden durch eine Transformationsfunktion modelliert, die durch zwei bilineare Gleichungen mit acht Freiheitsgraden bestimmt wird. Die acht Transformationskoeffizienten werden durch Vergleichen der bekannten Orte der vier Verknüpfungspunkte in dem Fangbild mit den entsprechenden erwarteten Orten, die zum Beispiel unter Verwendung eines Fangbildes der Schablonenüberlagerung bestimmt werden, bestimmt.
  • Der entsprechende Korrekturfaktor für die Orte, die zwischen die Punkte fallen (zum Beispiel Ort 272), kann durch Verwendung einer bilinearen Interpolation oder dergleichen bestimmt werden. Eine weitere Besprechung bilinearer Transformationen findet sich in „Digital Image Warping" von George Wolberg, IEEE Computer Society Press Monograph, Seiten 50–51, worauf hiermit ausdrücklich Bezug genommen wird. Eine weitere Besprechung räumlicher Transformationen findet sich in „Digital Image Processing", 2. Auflage, Refael C. Gonzalez und Paul Wintz, Seiten 246–251, worauf ebenfalls ausdrücklich Bezug genommen wird.
  • Es wird in Betracht gezogen, daß das Punktmuster kein regelmäßiges Punktgitter sein muß, sondern durch Extrahieren stochastisch zuverlässiger Ankerpunkte aus Schnappschüssen des ankommenden Videostroms, die in einem Einzelbild- oder Bildspeicher erfaßt werden, abgeleitet werden kann. Durch Verwendung von Auto- und Kreuzkorrelationsalgorithmen, zum Beispiel Bissels Algorithmus, der gemeinsame Punkte aus einer von verschiedenen Orten aus betrachteten Punktwolke assimilierot, können diese weiter korreliert werden.
  • 12 ist ein Diagramm des beispielhaften Musters von 11, das auf zwei benachbarten und sich überlappenden Mosaikelementen angezeigt wird. Es ist ein erstes Mosaikelement bei 290 und ein zweites Mosaikelement bei 292 gezeigt. Das erste Mosaikelement 290 und das zweite Mosaikelement 292 überlappen sich um einen vorbestimmten Betrag, wie bei 294 gezeigt. Jedes Mosaikelement weist einen (nicht gezeigten) Projektor zum Projizieren eines diskreten Bildes auf das entsprechende Mosaikelement auf. Bei der gezeigten Ausführungsform projiziert jeder der Projektoren ein 9 × 9-Punktarray. Wenn die Projektoren ordnungsgemäß ausgerichtet wären und keine Verzerrungen in dem System bestünden, würden sich alle Punkte in der Überlappungsregion 294 überlappen. Wie in 12 gezeigt, überlappen sich die Punkte jedoch nicht, wenn die Projektoren nicht ausgerichtet sind.
  • Um diese durch die Kamera und das hier beschriebene Rückmeldungssystem erkannte Fehlausrichtung/Verzerrung zu korrigieren, zieht die vorliegende Erfindung eine Vorverzerrung des Videoeingangssignals dergestalt, daß sich die entsprechenden Punkte ordnungsgemäß miteinander ausrichten, in Betracht. Der erste Projektor, der dem ersten Mosaikelement 290 entspricht, projiziert zum Beispiel den Punkt 296, und ein zweiter Projektor, der dem zweiten Mosaikelement 292 entspricht, projiziert einen entsprechenden Punkt 298. Es kann eine erste Transformationsfunktion bereitgestellt werden, um den Ort des ersten Punkts 296 effektiv in Richtung des zweiten Punkts 298 zu bewegen, wenn sie auf das Eingangssignal des ersten Projektors angewandt wird. Alternativ dazu oder zusätzlich kann eine zweite Transformation bereitgestellt werden, um den Ort des zweiten Punkts 298 in Richtung des ersten Punkts 296 zu bewegen, wenn sie auf das Eingangssignal des zweiten Projektors angewandt wird. Wenn dies richtig durchgeführt wird, überlappen sich der erste Punkt 296 und der zweite Punkt 298 auf der Leinwand. Wenn dies ferner gemäß den obenerwähnten absoluten oder relativen Verfahren durchgeführt wird, dann wird das kompensierte Bild global und entsprechend über das gesamte Bild hinweg eingeschränkt.
  • Es wird in Betracht gezogen, daß durch Verwendung eines relativen Kompensationsverfahrens die erste Transformationsfunktion den Ort des ersten Punkts 296 um einen Betrag, der im wesentlichen gleich der Hälfte des Abstands zwischen dem ersten und dem zweiten Punkt ist, in Richtung des zweiten Punkts 298 bewegen kann. Ähnlich kann die zweite Transformationsfunktion den Ort des zweiten Punkts 298 um einen Betrag, der im wesentlichen gleich der Hälfte des Abstands zwischen dem ersten und dem zweiten Punkt ist, in Richtung des ersten Punkts 296 bewegen. Dies ist ein gerader Mittelungsansatz ohne globale Anpassungseinschränkungen, wie etwa sicherstellen zu müssen, daß die angedeuteten Gitterlinien durch die erste Ableitung gerade und gleichförmig beabstandet sind, wie explizit in 13 gezeigt.
  • Als Alternative oder zusätzlich kann die erste Transformationsfunktion den Ort des ersten Punkts 296 um einen Betrag, der durch eine vorbestimmte Mischfunktion oder einen bestimmten anderen Faktor an dem ersten Punkt 296 relativ zu dem zweiten Punkt 298 gewichtet wird, in Richtung des zweiten Punkts 298 bewegen, und die zweite Transformationsfunktion kann den Ort des zweiten Punkts 298 um einen Betrag, der durch eine vorbestimmte Mischfunktion oder einen bestimmten anderen Faktor an dem zweiten Punkt relativ zu dem ersten Punkt 296 gewichtet wird, in Richtung des ersten Punkts 296 bewegen. Dies ist ein gewichteter Mittelungsansatz, der in 14 explizit gezeigt wird. Vorzugsweise hängt die Gewichtungsfunktion mit der Mischfunktion zusammen, die für das Mischen der Farbinformationen der Mosaikelemente verwendet wird. Dabei kann es sich um eine Rampen- oder Spline- oder eine bestimmte andere in der Technik bekannte geeignete Funktion handeln.
  • Wenn mehr als zwei entsprechende Punkte betrachtet werden müssen (wenn sich zum Beispiel drei oder mehr Bilder in einer gewählten Region überlappen), kann jeder der entsprechenden Punkte in Richtung eines korrigierten Orts bewegt werden. Dies läßt sich durch Verwendung eines ähnlichen Ansatzes der Mittelung oder gewichteten Mittelung wie oben besprochen erzielen.
  • Außerdem werden andere Ansätze in Betracht gezogen. Zum Beispiel wird in Betracht gezogen, daß die Transformationsfunktionen eine vorbestimmte Beziehung zwischen gewählten Punkten aufrechterhalten. Zum Beispiel stammen die Punkte 300, 302, 304 und 306 aus einer gemeinsamen Zeile von Punkten und sollten somit auf eine gemeinsame Linie 308 fallen. Die Transformationsfunktionen können eine lineare Beziehung zwischen diesen Punkten aufrechterhalten, während weiterhin die Verzerrungen in dem System kompensiert werden. Ähnlich stammen die Punkte 310, 312 und 314 aus einer gemeinsamen Spalte von Punkten und sollten somit auf eine gemeinsame Linie 316 fallen. Die Transformationsfunktionen können eine lineare Beziehung zwischen diesen Punkten aufrechterhalten, während weiterhin die Verzerrungen in dem System kompensiert werden. Vorzugsweise ergibt die lineare Beziehung Kontinuität durch die erste Ableitung der Linienfunktionen und erhält einen relativ gleichförmigen Abstand zwischen den angedeuteten Verbindungslinien.
  • Gemäß dem obigen ist 15 ein Flußdiagramm eines beispielhaften Verfahrens zum mindestens teilweisen Entfernen einer räumlichen Verzerrung aus der Anzeige. Der Algorithmus beginnt im Element 330, in dem die Steuerung an das Element 332 abgegeben wird. Das Element 332 bewirkt, daß mindestens einer der Projektoren ein diskretes Bild projiziert, das ein vorbestimmtes Muster mit einer Anzahl von Merkmalen aufweist. Dann wird die Steuerung an das Element 334 abgegeben. Das Element 334 erfaßt ein Fangbild eines gewählten Teils des zusammengesetzten Bildes. Dann wird die Steuerung an das Element 336 abgegeben. Das Element 336 identifiziert eine räumliche Verzerrung in dem Fangbild durch Untersuchen des relativen Orts gewählter Merkmale in dem Fangbild. Dann wird die Steuerung an das Element 338 abgegeben. Das Element 338 bestimmt eine Transformationsfunktion, die zumindest teilweise die räumlichen Verzerrungen aus dem zusammengesetzten Bild entfernt. Dann wird die Steuerung an das Element 340 abgegeben, in dem der Algorithmus existierte. Vorzugsweise identifiziert dieses Verfahren die räumlichen Verzerrungen der Anzeige durch Vergleichen projizierten Bildes eines Mosaikelements relativ zu dem projizierten Bild eines benachbarten Mosaikelements, anstelle oder zusätzlich zu, relativ zu einer physischen Schablone zu sein.
  • 16 ist ein Flußdiagramm eines Verfahrens zum Identifizieren einer Transformation für eine Mosaikanzeige zur mindestens teilweisen Entfernung einer räumlichen Verzerrung aus der Mosaikanzeige. Der Algorithmus beginnt im Element 350, in dem die Steuerung an das Element 352 abgegeben wird. Das Element 352 identifiziert ein erstes Merkmal in einer gewählten Überlappungsregion, wobei das erste Merkmal durch einen ersten Projektor projiziert wird. Dieses erste Merkmal kann aus einem Schnappschuß des ankommenden Videobildes extrahiert werden. Dann wird die Steuerung an das Element 354 abgegeben. Das Element 354 identifiziert ein zweites Merkmal in der gewählten Überlappungsregion, wobei das zweite Merkmal durch einen zweiten Projektor projiziert wird, und wobei das zweite Merkmal dem ersten Merkmal entspricht. Wieder kann das zweite Merkmal aus dem ankommenden Standardvideoeingangssignal extrahiert werden. Dann wird die Steuerung an das Element 356 abgegeben. Das Element 356 bestimmt die räumliche Beziehung zwischen dem ersten und dem zweiten Merkmal als Beispiel für die Herstellung der Beziehung zwischen einem Ensemble von Merkmalen. Dann wird die Steuerung an das Element 358 abgegeben. Das Element 358 identifiziert eine erste Transformationsfunktion für den ersten Projektor. Die erste Transformationsfunktion bewegt den Ort des ersten Merkmals effektiv in Richtung eines korrigierenden Orts, wenn sie auf das Eingangssignal des ersten Projektors angewandt wird. Dann wird die Steuerung an das Element 360 abgegeben. Das Element 360 identifiziert eine zweite Transformationsfunktion für den zweiten Projektor. Die zweite Transformationsfunktion, die gleichzeitig mit der ersten beschriebenen angewandt wird, bewegt den Ort des zweiten Merkmals effektiv in Richtung des korrigierenden Orts, wenn sie auf das Eingangssignals des zweiten Projektors angewandt wird. Dann wird die Steuerung an das Element 362 abgegeben, in dem der Algorithmus existierte. Die Berechnung der Korrekturfunktion kann periodisch geschehen, während das Ausgangssignal zur Echtzeitkorrektur an die Transformationsfunktion weitergeleitet wird.
  • Gemäß der vorliegenden Erfindung kann man den Ort der Punkte durch folgendes bestimmen: Abziehen eines schwarzen Fangbildes von dem Fangbild, das die Punkte enthält; Untersuchen des resultierenden Bildinhalts oberhalb einer Rauschschwelle unter Verwendung räumlicher Filter, die einen Allpaßkern aufweisen; Messen des Schwerpunkts der Punkte, um die entsprechenden Punktorte zu finden; Beseitigen von Punkten, deren Energieschwelle unter der Schwelle liegt; Sortieren der Punktorte auf Korrelation mit bekannten oder erwarteten Punktmustern und Ableiten von korrigierenden Transformationsfunktionen daraus.
  • 17 ist ein Graph der Luminanzdome für einen LCD-Projektor mit verschiedenen Eingangsintensitäten. Es ist ersichtlich, daß der Betrag der Luminanzdome tendenziell mit zunehmender Eingangsintensität zunimmt. Außerdem nimmt die Zufallshelligkeitsvariation (z. B. Rauschen) über die Anzeige hinweg ebenfalls tendenziell mit zunehmender Eingangsintensität zu. Durch Filtern mehrerer Zeitabtastwerte von Domfangbildern wird diese Variation gedämpft und somit das Signal/Rausch-Verhältnis verbessert. Dasselbe allgemeine Muster wird für Rot, Grün und Blau gefunden. Außerdem weist jede Farbe in der Regel für dieselbe Eingangsintensität einen verschiedenen Helligkeitswert auf. Außerdem ändert sich zum Beispiel im Fall von Polysilizium-LCDs die Form des Musters als Funktion des Eingangsintensitätspegels, so daß die Kompensationsfunktion geometrische und Eingangsintensitätsvariablen berücksichtigen muß.
  • Um die Farb- und Luminanzverzerrungen eines Projektionssystems und insbesondere eines Mosaikanzeigesystems (Direktansicht oder Projektion) zu bestimmen, können sequentiell mehrere Eingangssignale variierender Eingangsintensität in die Projektionsanzeige eingegeben werden. Dies kann bei der ersten Kalibrierung oder periodisch geschehen. Jedes Eingangssignal kann einem ebenen Feldbild einer gewählten Farbe entsprechen. Zum Beispiel kann ein erstes Eingangssignal einem roten ebenen Feldbild mit einer LCD-Intensität „255" entsprechen. Das nächste Eingangssignal kann auch einem roten ebenen Feldbild entsprechen, aber mit einer LCD-Intensität von „220". Es können Eingangssignale mit schrittweise niedrigerer Intensität bereitgestellt werden, bis das Eingangssignal eine LCD-Intensität von „0" aufweist. Dieser Vorgang kann sowohl für blaue als auch grüne oder andersfarbige ebene Feldbilder wiederholt werden. Eine Kameraeinrichtung kann jedes der ebenen Feldbilder entweder als ein einzelnes Bild, wenn das Sichtfeld der Kameraeinrichtung der gesamten Anzeige entspricht, oder als mehrere Bilder, wenn die Kameraeinrichtung ein kleineres Sichtfeld aufweist, erfassen. Die Auflösung der Kameraeinrichtung kann so gewählt werden, daß sie für das gewählte Sichtfeld geeignet ist. Wenn das Sichtfeld der Kameraeinrichtung zum Beispiel relativ breit ist, so daß ein Bild der gesamten Anzeige erfaßt wird, kann eine höher auflösende Kameraeinrichtung verwendet werden. Ähnlich kann, wenn das Sichtfeld der Kameraeinrichtung relativ schmal ist, wobei ein Bild nur eines kleinen Teils der Anzeige erfaßt wird, eine Kameraeinrichtung mit niedrigerer Auflösung verwendet werden. In jedem Fall werden die resultierenden Bilder vorzugsweise als ein Array von Fangbildern oder Fangbilder mit verringerter Auflösung oder als Kompressionskoeffizienten-Fangbilder gespeichert. Nach der Sammlung können die unerwünschten Eigenschaften jedes Fangbildes bestimmt werden, einschließlich der Luminanz- oder Farbdome für jeden Projektor.
  • Nachdem die Luminanz- oder Farbdome identifiziert wurden, werden vorzugsweise eine Funktion für den oberen und unteren Grenzwert, die eine lineare oder eine Spline- oder eine andere geeignete Funktion sein können, sowohl für Farbe (einschließlich Farbton) als auch für Intensität über die gesamte Anzeige hinweg bestimmt. Zum Beispiel kann bei maximaler Intensität (z. B. LCD „255") ein Projektor heller als ein anderer sein, und die von jedem Projektor bereitgestellte Helligkeit kann in der Nähe der Ränder des Bildes abnehmen. Folglich kann ein oberer Grenzwert so gewählt werden, daß er mit dem dunkelsten Überlagerungsbereich der Mosaikelemente übereinstimmt, wenn alle Projektoren mit maximaler Intensität betrieben werden. Ähnlich kann ein unterer Grenzwert so gewählt werden, daß er mit dem hellsten Superpositionsergebnis der Mosaikelemente übereinstimmt, wenn alle Projektoren mit minimaler Intensität (LCD „0") betrieben werden.
  • Danach kann eine Transformationsfunktion zur Kompensation der Luminanzdome über gewählte Mosaikelemente hinweg bestimmt und die Helligkeit und Farbe jedes Mosaikelements mit benachbarten Mosaikelementen verglichen werden, so daß ein lineares Anzeigesystem resultiert. Die Transformationsfunktion kann zum Beispiel durch eine Farbnachschlagetabelle erfaßter oder komprimierter Farbdome, eine Detektions- und Identifikationsfunktion für die nächsten Nachbarn und eine Interpolationsfunktion zwischen den nächsten Nachbarn repräsentiert werden, um den Eingangspegel zu bestimmen, der an der Anzeige notwendig ist, um den gewünschten linearen Ausgangspegel auszugeben. Vorzugsweise kann die Transformationsfunktion bewirken, daß die Luminanzvariation über die gesamte Anzeige hinweg zum Beispiel für gleichförmige Testbilder weniger als etwa zwei Prozent beträgt, ein Wert, der kleiner als die gerade wahrnehmbare Differenz (JND) gemäß dem Weberschen Gesetz ist. Um diesen Grad an Luminanzgleichförmigkeit zu erzielen, ist es hilfreich, wenn die Transformationsfunktion vorzugsweise eine Funktion des X- und Y-Orts auf dem Mosaikelement und des Eingangsintensitätspegels ist.
  • 18 ist ein schematisches Diagramm der Luminanzdome für drei Mosaik-LCD-Projektoren jeweils bei verschiedenen Eingangsintensitäten. Ein erstes Mosaikelement 370, ein zweites Mosaikelement 372 und ein drittes Mosaikelement 374 weisen jeweils verschiedene maximale Helligkeitswerte für eine gemeinsame LCD-Eingangsintensität, wie zum Beispiel eine Eingangsintensität von „255" wie bei 376, 378 bzw. 380 gezeigt, auf. Die Transformationsfunktion für jedes der Mosaikelemente kompensiert vorzugsweise die Luminanzdome über gewählte Mosaikelemente hinweg unter Verwendung der reduzierten Luminanzdominformationen, um das Verhalten des Doms (abhängig von x, y und Eingangsintensität) jedes Mosaikelements in dem System zu linearisieren, und unter Verwendung der Mischfunktion, um eine Anzeigemosaikelementüberlagerung zu ermöglichen. Die Transformationsfunktion gleicht außerdem den Farbton jedes Mosaikelements unter Verwendung der Rückmeldebildinformationen in Kombination mit bekannten Tristimulus-Farbtransformationen oder äquivalenten Funktionen an angrenzende Mosaikelemente an. Zum Beispiel kann die Transformationsfunktion für das erste Mosaikelement 370 die Helligkeit gemäß Rückmeldeverhalten, das zu einem bestimmten Zeitpunkt aus dem Fangbild des ersten Projektors erfaßt wird, so ändern, daß sie auf der Linie 382 liegt, wenn die Eingangsintensität für den ersten Projektor einen Wert von „255" aufweist, und bei Überlagerung über die Ausgabe des Mosaikelements 372. In dem gezeigten Diagramm kann dies aufgrund der Domform des Luminanzprofils erfordern, daß der Mittenteil des Bildes mehr als die Randteile des Bildes reduziert wird. Ähnlich kann die Transformationsfunktion für das zweite Mosaikelement 372 die Helligkeit gemäß Rückmeldeverhalten, das zu einem bestimmten Zeitpunkt aus dem Fangbild des zweiten Projektors erfaßt wird, so ändern, daß sie ebenfalls entlang der Linie 382 liegt, wenn die Eingangsintensität für den zweiten Projektor einen Wert von „255" aufweist und bei Überlagerung mit den Ausgaben von benachbarten Mosaikelementen. Schließlich kann die Transformationsfunktion für das dritte Mosaikelement 374 die Helligkeit des dritten Projektors so ändern, daß sie entlang der Linie 382 liegt, wenn die Eingangsintensität für den dritten Projektor einen Wert von „255" aufweist, und gemäß Überlagerung mit dem Nachbarmosaikelement 372.
  • Wie oben erwähnt, sind die Transformationsfunktionen vorzugsweise außerdem von der den Projektoren zugeführten Eingangsintensität abhängig. Dies ist das Ergebnis der Abhängigkeit der Fangbilddome von der Eingangsintensität für Bildquellen wie zum Beispiel die Polysilizium-LCD.
  • Bei niedrigeren Eingangsintensitäten können die Transformationsfunktionen die Helligkeit des ersten, des zweiten und des dritten Projektors so ändern, daß sie zum Beispiel entlang den Linien 386 oder 388 als Funktion der Mischfunktionen, der Luminanzdomabhängigkeit von dem X-, Y-Ort auf der Leinwand und der Eingangsintensität für das Mosaikanzeigesystem liegt. Auf diese Weise können die Transformationsfunktionen bewirken, daß die Luminanz-, die Farbton- und Sättigungsvariation über die gesamte Anzeige hinweg ungeachtet der zugeführten Eingangsintensität relativ klein ist. Wenn dies erreicht oder ermöglicht wurde, kann der Bildinhalt beliebig sein, so daß die Mosaikanzeige mit Kamerarückmeldung für die Anzeige allgemeiner Bilder geeignet wird.
  • Gemäß dem obigen ist 19 ein Flußdiagramm eines Verfahrens zum mindestens teilweisen Entfernen einer Luminanzverzerrung aus der Anzeige. Der Algorithmus beginnt im Element 400, in dem die Steuerung an das Element 402 abgegeben wird. Das Element 402 gibt sequentiell eines oder mehrere Eingangssignale, die einem ebenen Feldbild variierender Intensität entsprechen, in jeden Projektor ein. Dann wird die Steuerung an das Element 404 abgegeben. Das Element 404 erfaßt ein Fangbild gewählter ebener Feldbilder. Dann wird die Steuerung an das Element 406 abgegeben. Das Element 406 identifiziert einen Luminanzdom an einem oder mehreren der Fangbilder. Dann wird die Steuerung an das Element 408 abgegeben. Das Element 408 bestimmt eine Rückmeldungstransformationsfunktion (abhängig von X, Y und/oder Eingangsintensität), die die Luminanzdome zumindest teilweise aus dem zusammengesetzten Bild entfernt. Dann wird die Steuerung an das Element 410 abgegeben, in dem der Algorithmus existierte.
  • Schließlich wird ein Verfahren zur Bestimmung der Grenzen jedes Mosaikelements einer Mosaikanzeige bei Verwendung einer Kamera mit einem Sichtfeld, das mehr als ein Mosaikelement umfaßt, in Betracht gezogen. Dieses Verfahren umfaßt das Anzeigen eines weißen Feldbildes zum Beispiel auf allen Mosaikelementen außer einem gewählten. Dann kann die Kamera ein Bild der Anzeige erfassen, das das gewählte Mosaikelement enthält. Es ist dann relativ einfach, die Grenzen des gewählten Mosaikelements zu bestimmen, indem der Ort identifiziert wird, an dem das weiße Feldbild beginnt/aufhört. Ein anderes Verfahren ist das Anzeigen eines Schachbrettmusters, wobei jedes der Mosaikelemente eines von zwei ebenen Feldbildern annimmt. Bei dieser Ausführungsform können die Grenzen für jedes Mosaikelement bestimmt werden, indem der Ort identifiziert wird, an dem jedes der ebenen Feldbilder beginnt/aufhört. Ein anderes Verfahren ist das Anzeigen eines Punktmusters, dessen äußere Grenzen, wenn sie durch die Kamera in Kombination mit einer Detektionsfunktion erkannt werden, ebenfalls die Grenzen jedes Mosaikelements definieren. Mit diesen kann das Rückmelde-Prozessor-Kamera-System u. a. die Ausrichtung der Projektoren zueinander identifizieren. Weiterhin, und wenn sich die diskreten Bilder überlappen, identifizieren diese Verfahren außerdem das Ausmaß der Überlappung.
  • Nachdem somit die bevorzugten Ausführungsformen der vorliegenden Erfindung beschrieben wurden, ist für Fachleute ohne weiteres erkennbar, daß die hier gefundenen Lehren innerhalb des Schutzumfangs der angefügten Ansprüche auch auf andere Ausführungsformen angewandt werden können.

Claims (9)

  1. System zur Steuerung eines Mosaik-Anzeigesystems, das ein Videoeingangssignal (66) empfängt, wobei das Mosaik-Anzeigesystem zwei oder mehr Anzeigen (54, 56) aufweist, die jeweils eines einer Anzahl diskreter Bilder separat auf einer Betrachtungsoberfläche oder – leinwand (58) manifestieren, um ein zusammengesetztes Bild zu erzeugen, umfassend: ein Kameramittel (62) zum Bereitstellen eines Fangbildes mindestens eines Teils des zusammengesetzten Bildes; ein Bestimmungsmittel (52) zum Bestimmen, ob das Fangbild ein oder mehrere unerwünschte sichtbare Artefakte aufweist; und ein Identifizierungsmittel zum Identifizieren einer Transformationsfunktion, die benutzt werden kann, um das Eingangsvideosignal zu verarbeiten und gewählten Anzeigen verarbeitete Eingangsvideosignale zuzuführen, um das eine oder die mehreren unerwünschten sichtbaren Artefakte zu vermindern, dadurch gekennzeichnet, daß sich jedes der diskreten Bilder mit einem benachbarten diskreten Bild überlappt, um mindestens eine Überlappungsregion zu bilden; daß das durch das Kameramittel (62) bereitgestellte Fangbild mindestens einen Teil der mindestens einen Überlappungsregion enthält; daß das Bestimmungsmittel die Bestimmung für den Teil der Überlappungsregion in dem Fangbild durchführt; daß das Bestimmungsmittel die Bestimmung für den Teil für unerwünschte sichtbare Artefakte durchführt; und daß das Mosaik-Anzeigesystem ein Rückprojektionssystem ist, bei dem jedes der diskreten Bilder auf einer Projektions-nicht-Betrachtungsseite der Oberfläche oder Leinwand manifestiert wird, um ein zusammengesetztes Bild auf einer Nicht-Projektions-Betrachtungsseite der Oberfläche oder Leinwand zu erzeugen, und wobei das Fangbild von der Projektions-nicht-Betrachtungsseite der Oberfläche oder Leinwand aus erfaßt wird.
  2. Mosaik-Anzeigesystem nach Anspruch 1, wobei die zwei oder mehr Anzeigen des Projektionstyps sind.
  3. Verfahren zur Steuerung eines Mosaik-Anzeigesystems, das zwei oder mehr Anzeigen (54, 56) aufweist, wobei jede Anzeige eines einer Anzahl diskreter Bilder separat auf einer Betrachtungsoberfläche oder -leinwand (58) manifestiert, um ein zusammengesetztes Bild zu erzeugen, mit den folgenden Schritten: Erfassen (202) eines Fangbildes mindestens eines Teils des zusammengesetzten Bildes; Bestimmen (204), ob das Fangbild ein oder mehrere unerwünschte sichtbare Artefakte aufweist; und Identifizieren (206) einer Transformationsfunktion, die benutzt werden kann, um ein Eingangsvideosignal zu verarbeiten und gewählten Anzeigen ein verarbeitetes Eingangsvideosignal zuzuführen, um die unerwünschten sichtbaren Artefakte zu vermindern, dadurch gekennzeichnet, daß sich jedes der diskreten Bilder mit einem benachbarten diskreten Bild überlappt, um mindestens eine Überlappungsregion zu bilden; daß das Fangbild mindestens einen Teil der mindestens einen Überlappungsregion enthält; daß die Bestimmung in der mindestens einen Überlappungsregion für durch die Überlappung der diskreten Bilder verursachte unerwünschte sichtbare Artefakte durchgeführt wird; und daß das Mosaik-Anzeigesystem ein Rückprojektionssystem ist, bei dem jedes der diskreten Bilder auf einer Projektions-nicht-Betrachtungsseite der Oberfläche oder Leinwand manifestiert wird, um ein zusammengesetztes Bild auf einer Nicht-Projektions- Betrachtungsseite der Oberfläche oder Leinwand zu erzeugen, und wobei das Fangbild von der Projektions-nicht-Betrachtungsseite der Oberfläche oder Leinwand aus erfaßt wird.
  4. Verfahren nach Anspruch 3, wobei die Schritte des Erfassens, des Bestimmens und des Identifizierens während des normalen Funktionsbetriebs der Projektionsanzeige periodisch wiederholt werden.
  5. Verfahren nach Anspruch 3 oder Anspruch 4, wobei jede Anzeige einen Projektor umfaßt, dem ein entsprechendes Eingangssignal zugeführt wird, um so eine Anzahl diskreter Bilder separat auf die Betrachtungsoberfläche oder -leinwand zu projizieren; wobei der Erfassungsschritt mit einer Kameraeinrichtung durchgeführt wird; wobei der Bestimmungsschritt das Bestimmen einer Verzerrung in dem zusammengesetzen Bild durch Isolieren der Position gewählter Merkmale in dem Fangbild umfaßt; und wobei der Identifizierungsschritt das Identifizieren einer Transformationsfunktion umfaßt, die auf das Eingangsvideosignal gewählter Anzeigen angewandt werden kann, um so die Verzerrungen zumindest teilweise aus dem zusammengesetzen Bild zu entfernen.
  6. Verfahren nach Anspruch 5 mit den folgenden Schritten: sequentielles Eingeben eines Eingangssignals, das einem ebenen Feldbild einer ersten Farbe entspricht, für jede einer Anzahl von Luminanzintensitäten, in gewählte Projektoren; Erfassen eines Fangbildes gewählter ebener Feldbilder; Bestimmen einer Verzerrung in der Projektionsanzeige durch Untersuchen der erfaßten ebenen Feldbilder; und Identifizieren einer Transformationsfunktion, die auf das Eingangsvideosignal angewandt werden kann und die die Verzerrungen zumindest teilweise aus dem zusammengesetzen Bild entfernt.
  7. Verfahren nach Anspruch 6, wobei die Schritte des Eingebens, des Erfassens, des Bestimmens und des Identifizierens für jede von zwei oder mehr Farben wiederholt werden.
  8. Verfahren zum Kalibrieren einer Mosaik-Projektionsanzeige nach einem der Ansprüche 3 bis 7, wobei die Mosaik-Projektionsanzeige zwei oder mehr Projektoren aufweist, die jeweils ein Eingangssignal empfangen und jeweils eines einer Anzahl diskreter Bilder separat auf eine Leinwand projizieren, um ein zusammengesetztes Bild zu erzeugen, wobei das Verfahren die folgenden Schritte aufweist: Bereitstellen einer physischen Schablone, die ein vorbestimmtes Muster enthält, neben der Leinwand; Erfassen eines Fangbildes mindestens eines Teils der physischen Schablone unter Verwendung einer Kameraeinrichtung; und Bestimmen einer Kameraverzerrung, die durch die Kameraeinrichtung eingeführt wird, durch Vergleichen des Fangbildes mit einer vorbestimmten Erwartung.
  9. Verfahren nach Anspruch 8, weiterhin mit den folgenden Schritten: Entfernen der physischen Schablone; Bereitstellen eines Eingangssignals für gewählte Projektoren, um eine Anzahl diskreter Bilder zu projizieren, die jeweils ein vorbestimmtes Muster aufweisen; Erfassen eines Fangbildes mindestens eines Teils der Leinwand unter Verwendung einer Kameraeinrichtung; und Bestimmen einer Projektionssystemverzerrung, die durch das Projektionssystem eingeführt wird, durch Vergleichen des Fangbildes mit einer vorbestimmten Erwartung.
DE69917470T 1998-09-23 1999-09-23 Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung Expired - Lifetime DE69917470T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/158,995 US6310650B1 (en) 1998-09-23 1998-09-23 Method and apparatus for calibrating a tiled display
US158995 1998-09-23
PCT/US1999/022089 WO2000018139A1 (en) 1998-09-23 1999-09-23 Method and apparatus for calibrating a tiled display

Publications (2)

Publication Number Publication Date
DE69917470D1 DE69917470D1 (de) 2004-06-24
DE69917470T2 true DE69917470T2 (de) 2005-06-02

Family

ID=22570625

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69917470T Expired - Lifetime DE69917470T2 (de) 1998-09-23 1999-09-23 Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung

Country Status (7)

Country Link
US (2) US6310650B1 (de)
EP (1) EP1116386B1 (de)
JP (1) JP2003524915A (de)
AT (1) ATE267498T1 (de)
CA (1) CA2345226A1 (de)
DE (1) DE69917470T2 (de)
WO (1) WO2000018139A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104346A1 (de) 2021-02-24 2022-08-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einem Kompensieren von Projektionsfehlern bei einer Ausgabe von Bildern, System mit einer Recheneinheit zu einer Ausführung des Verfahrens und Computerprogramm

Families Citing this family (232)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7728845B2 (en) 1996-02-26 2010-06-01 Rah Color Technologies Llc Color calibration of color image rendering devices
JP3714163B2 (ja) * 1997-12-12 2005-11-09 株式会社日立製作所 映像表示システム
JP4288340B2 (ja) * 1999-01-20 2009-07-01 エーユー オプトロニクス コーポレイション 画質評価方法およびそれを利用した画質評価装置
JP3659065B2 (ja) * 1999-01-29 2005-06-15 松下電器産業株式会社 画像表示装置
JP3896719B2 (ja) * 1999-03-04 2007-03-22 三菱電機株式会社 画像ディスプレイ
US6597410B1 (en) * 1999-11-10 2003-07-22 International Business Machines Corporation System for the automatic adaptation of projector images and a method for the implementation thereof
KR100414083B1 (ko) * 1999-12-18 2004-01-07 엘지전자 주식회사 영상왜곡 보정방법 및 이를 이용한 영상표시기기
US6922483B2 (en) * 1999-12-28 2005-07-26 Texas Instruments Incorporated Methods for measuring DMD low frequency spatial uniformity
US7113231B2 (en) * 2000-02-14 2006-09-26 3M Innovative Properties Company Dot-sequential color display system
US6471355B1 (en) * 2000-02-18 2002-10-29 Lockheed Martin Corporation Image control system
US6924816B2 (en) * 2000-03-17 2005-08-02 Sun Microsystems, Inc. Compensating for the chromatic distortion of displayed images
JP2001339742A (ja) * 2000-03-21 2001-12-07 Olympus Optical Co Ltd 立体映像プロジェクション装置、及びその補正量演算装置
EP1210649B1 (de) * 2000-03-31 2011-03-02 Imax Corporation Ausrüstung und techniken zur digitalen projektion
US7102648B1 (en) 2000-04-11 2006-09-05 Rah Color Technologies Llc Methods and apparatus for calibrating a color display
US6727864B1 (en) * 2000-07-13 2004-04-27 Honeywell International Inc. Method and apparatus for an optical function generator for seamless tiled displays
EP1303992A2 (de) 2000-07-17 2003-04-23 Matsushita Electric Industrial Co., Ltd. Mehrfachanzeigevorrichtung und farbtoneinstellungsverfahren zur verwendung in der mehrfachanzeigevorrichtung
JP3497805B2 (ja) * 2000-08-29 2004-02-16 オリンパス株式会社 画像投影表示装置
JP4574819B2 (ja) * 2000-08-30 2010-11-04 パナソニック株式会社 ビデオプロジェクタ装置
US6804406B1 (en) * 2000-08-30 2004-10-12 Honeywell International Inc. Electronic calibration for seamless tiled display using optical function generator
JP2002116500A (ja) * 2000-10-05 2002-04-19 Olympus Optical Co Ltd 画像投影表示装置
US6864921B2 (en) * 2000-10-17 2005-03-08 Sony Corporation Display control system for controlling a display screen formed of multiple display units
JP2004514165A (ja) 2000-11-17 2004-05-13 ディープ ヴィデオ イメージング リミテッド 表示装置スクリーンのマットから光学的に滑らかな表面への変更方法
JP2002257679A (ja) * 2001-02-23 2002-09-11 Internatl Business Mach Corp <Ibm> 輝度情報取得方法、画質評価方法、表示装置の輝度情報取得装置および表示装置の画質評価装置
NZ511255A (en) 2001-04-20 2003-12-19 Deep Video Imaging Ltd Multi-focal plane display having an optical retarder and a diffuser interposed between its screens
US6733138B2 (en) * 2001-08-15 2004-05-11 Mitsubishi Electric Research Laboratories, Inc. Multi-projector mosaic with automatic registration
US6778290B2 (en) * 2001-08-23 2004-08-17 Eastman Kodak Company Printing image frames corresponding to motion pictures
NZ514500A (en) 2001-10-11 2004-06-25 Deep Video Imaging Ltd A multiplane visual display unit with a transparent emissive layer disposed between two display planes
FR2832282B1 (fr) * 2001-11-12 2004-07-30 France Telecom Systeme audiovisuel modulaire avec modules concatenables pour mettre en presence une scene locale et une scene distante
US20040070565A1 (en) * 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
US7133083B2 (en) * 2001-12-07 2006-11-07 University Of Kentucky Research Foundation Dynamic shadow removal from front projection displays
JP2003219324A (ja) * 2002-01-17 2003-07-31 Olympus Optical Co Ltd 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
FR2837056B1 (fr) 2002-03-07 2004-09-17 France Telecom Procede et systeme d'uniformisation du rendu colorimetrique d'une juxtaposition de surfaces d'affichage
JP2005522715A (ja) * 2002-03-17 2005-07-28 ディープ ヴィデオ イメージング リミテッド イメージの点像分布関数をコントロールする方法
US6982744B2 (en) * 2002-04-15 2006-01-03 Radiant Imaging, Inc. Multi-point calibration method for imaging light and color measurement device
CA2492800C (en) 2002-07-15 2011-04-26 Gareth Paul Bell Improved multilayer video screen
NZ521505A (en) 2002-09-20 2005-05-27 Deep Video Imaging Ltd Multi-view display
US7090361B2 (en) * 2002-10-24 2006-08-15 Barco N.V. Bundled light based alignment and maintenance tool for projection systems
US7019713B2 (en) * 2002-10-30 2006-03-28 The University Of Chicago Methods and measurement engine for aligning multi-projector display systems
US7038727B2 (en) * 2002-10-30 2006-05-02 The University Of Chicago Method to smooth photometric variations across multi-projector displays
DE10251217B3 (de) * 2002-10-31 2004-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Autokalibierung von Multiprojektorsystemen
US7215362B2 (en) * 2002-10-31 2007-05-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Auto-calibration of multi-projector systems
US20040085478A1 (en) * 2002-11-06 2004-05-06 Vandruff Dean Radio controlled tiled video display apparatus and method
JP2004165944A (ja) * 2002-11-13 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> 投影情報補正方法、投影情報補正装置、プログラム、および記録媒体
WO2004056131A1 (en) * 2002-12-18 2004-07-01 Koninklijke Philips Electronics N.V. Method of video clipping prevention in color non-uniformity correction systems
US6719433B1 (en) * 2003-01-02 2004-04-13 Richard S. Belliveau Lighting system incorporating programmable video feedback lighting devices and camera image rotation
US20040150649A1 (en) * 2003-01-30 2004-08-05 Jerry Moscovitch Method and apparatus for matching multiple displays in a multi-display environment
US6755537B1 (en) * 2003-03-21 2004-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for globally aligning multiple projected images
TWI241400B (en) * 2003-03-27 2005-10-11 Primax Electronics Ltd A testing method used on a display
WO2004112402A1 (en) * 2003-06-13 2004-12-23 Cyviz As Method and device for combining images from at least two light projectors
WO2005015490A2 (en) * 2003-07-02 2005-02-17 Trustees Of Columbia University In The City Of New York Methods and systems for compensating an image projected onto a surface having spatially varying photometric properties
US20050110959A1 (en) * 2003-10-15 2005-05-26 Seiko Epson Corporation Multi-projection display
US7410263B2 (en) 2003-11-06 2008-08-12 Seiko Epson Corporation Rear projection type multi-projection display
US7338175B2 (en) 2003-12-01 2008-03-04 Seiko Epson Corporation Front projection type multi-projection display
JP4400200B2 (ja) * 2003-12-10 2010-01-20 セイコーエプソン株式会社 画像表示方法、画像表示装置および画像表示プログラム
US7673995B2 (en) 2004-07-06 2010-03-09 Northrop Grumman Corporation System and method for projector alignment
JP2006030600A (ja) * 2004-07-16 2006-02-02 Nec Viewtechnology Ltd 多画面表示システム、多画面表示方法、輝度補正方法及びプログラム
JP4615519B2 (ja) * 2004-09-15 2011-01-19 三菱電機株式会社 画像投影システム及び画像幾何補正装置
WO2006047487A2 (en) * 2004-10-25 2006-05-04 The Trustees Of Columbia University In The City Of New York Systems and methods for displaying three-dimensional images
US7300161B2 (en) * 2004-11-04 2007-11-27 International Business Machines Corporation Portable large scale projection display system
JP2006277283A (ja) * 2005-03-29 2006-10-12 Fuji Xerox Co Ltd 情報処理システムおよび情報処理方法
US7334901B2 (en) * 2005-04-22 2008-02-26 Ostendo Technologies, Inc. Low profile, large screen display using a rear projection array system
TWI309028B (en) * 2005-06-13 2009-04-21 Novatek Microelectronics Corp Method for calibrating a flat panel display
US20070115361A1 (en) * 2005-06-24 2007-05-24 Fakespace Labs, Inc. Dual camera calibration technique for video projection systems
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
US7408595B2 (en) * 2005-08-04 2008-08-05 Tte Technology, Inc. Method and apparatus for image correction
US20070091277A1 (en) * 2005-10-26 2007-04-26 Niranjan Damera-Venkata Luminance based multiple projector system
US20070116458A1 (en) * 2005-11-18 2007-05-24 Mccormack Kenneth Methods and systems for operating a pan tilt zoom camera
US8976080B2 (en) * 2005-12-06 2015-03-10 Dolby Laboratories Licensing Corporation Multi-segment imager
BRPI0619467B1 (pt) * 2005-12-06 2017-12-19 Dolby Laboratories Licensing Corporation The present invention relates to methods for displaying an image on a screen through an image viewer and for calibrating an image viewer.
JP4661576B2 (ja) * 2005-12-16 2011-03-30 セイコーエプソン株式会社 投写画像の位置調整方法
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
US8777418B2 (en) * 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
US7881563B2 (en) * 2006-02-15 2011-02-01 Nokia Corporation Distortion correction of images using hybrid interpolation technique
JP4661651B2 (ja) * 2006-03-24 2011-03-30 セイコーエプソン株式会社 投写画像の位置調整方法
EP2007139A2 (de) * 2006-04-03 2008-12-24 Ko-Cheng Fang Videoinformationsvorrichtung und bildverarbeitungsverfahren
US7808526B2 (en) * 2006-04-04 2010-10-05 Samsung Electronics Co., Ltd. Methods and systems for example-based TV color calibration
US8098336B2 (en) * 2006-10-24 2012-01-17 Sony Corporation System and method for using partial interpolation to undertake 3D gamma adjustment of microdisplay having dynamic iris control
US7742011B2 (en) * 2006-10-31 2010-06-22 Hewlett-Packard Development Company, L.P. Image display system
US20080174703A1 (en) * 2007-01-18 2008-07-24 Piehl Arthur R Sensing modulator
US7835079B2 (en) * 2007-03-06 2010-11-16 Ostendo Technologies, Inc. Micro-structure based screen system for use in rear projection array display systems
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
US9047039B2 (en) 2007-05-14 2015-06-02 Christie Digital Systems Usa, Inc. Configurable imaging system
US7961157B2 (en) 2007-05-14 2011-06-14 Christie Digital Systems Usa, Inc. Configurable imaging system
US7965257B2 (en) 2007-05-14 2011-06-21 Christie Digital Systems Usa, Inc. Configurable imaging system
FR2917188B1 (fr) * 2007-06-06 2009-09-11 Marin Coustol Philippe Procede et dispositif de production d'une image composite ou d'une sequence d'images composites induisant une perception accentuee du relief d'au moins un sujet.
JP4525945B2 (ja) * 2007-08-07 2010-08-18 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラムおよび情報記憶媒体
CN101364032A (zh) * 2007-08-09 2009-02-11 鸿富锦精密工业(深圳)有限公司 投影装置
CN101897196A (zh) * 2007-08-22 2010-11-24 普尔·代普斯有限公司 确定多组件显示器的空隙漫射器的位置
JP5157358B2 (ja) * 2007-10-10 2013-03-06 セイコーエプソン株式会社 画像表示システム、及び画像補正方法
KR101339785B1 (ko) * 2007-10-29 2013-12-11 삼성전자주식회사 분할 영상 처리 장치 및 방법 그리고 제어 인자 계산 장치
WO2009090727A1 (ja) * 2008-01-15 2009-07-23 Mitsubishi Electric Corporation 表示装置
JP5217497B2 (ja) * 2008-02-26 2013-06-19 ソニー株式会社 画像投影システム、制御装置、画像投影方法、プログラム及び記録媒体
US20090244492A1 (en) * 2008-03-28 2009-10-01 Christie Digital Systems Usa, Inc. Automated geometry correction for rear projection
WO2009140678A2 (en) * 2008-05-16 2009-11-19 Mersive Technologies, Inc. Systems and methods for generating images using radiometric response characterizations
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8955984B2 (en) 2008-06-17 2015-02-17 The Invention Science Fund I, Llc Projection associated methods and systems
US8602564B2 (en) 2008-06-17 2013-12-10 The Invention Science Fund I, Llc Methods and systems for projecting in response to position
US8733952B2 (en) 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8641203B2 (en) 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US8262236B2 (en) 2008-06-17 2012-09-11 The Invention Science Fund I, Llc Systems and methods for transmitting information associated with change of a projection surface
US8608321B2 (en) 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8723787B2 (en) 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US8384005B2 (en) 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8944608B2 (en) 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8308304B2 (en) 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
US8376558B2 (en) 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US8267526B2 (en) 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US8936367B2 (en) 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
CN101615929A (zh) * 2008-06-27 2009-12-30 鸿富锦精密工业(深圳)有限公司 数据传输、发送和接收方法
US7918565B2 (en) 2008-07-31 2011-04-05 Christie Digital Systems Usa, Inc. Expanding chassis for imaging systems
JP5343441B2 (ja) * 2008-08-05 2013-11-13 セイコーエプソン株式会社 画像処理装置、画像表示装置、画像処理方法、画像表示方法及びプログラム
US8072504B2 (en) * 2008-08-27 2011-12-06 Micron Technology, Inc. Method and system for aiding user alignment for capturing partially overlapping digital images
US8508671B2 (en) * 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US20100079653A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Portable computing system with a secondary image output
US7881603B2 (en) 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US8830268B2 (en) 2008-11-07 2014-09-09 Barco Nv Non-linear image mapping using a plurality of non-linear image mappers of lesser resolution
US8189965B2 (en) 2008-11-17 2012-05-29 Image Trends, Inc. Image processing handheld scanner system, method, and computer readable medium
WO2010091095A2 (en) * 2009-02-03 2010-08-12 Robe Lighting, Inc. Improvements to digital image projection luminaire systems
US8363067B1 (en) 2009-02-05 2013-01-29 Matrox Graphics, Inc. Processing multiple regions of an image in a graphics display system
US8934018B2 (en) 2009-03-30 2015-01-13 Nec Corporation Multiprojection display system and screen forming method
JP4751939B2 (ja) * 2009-03-31 2011-08-17 アイシン精機株式会社 車載カメラの校正装置
JP5396536B2 (ja) * 2009-05-29 2014-01-22 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. マルチプロジェクタシステム及び方法
US8392507B2 (en) * 2009-07-21 2013-03-05 Honeywell International Inc. Image validation system for remote displays
WO2011061802A1 (ja) * 2009-11-19 2011-05-26 三菱電機株式会社 表示ユニットの情報演算装置
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP2011154345A (ja) * 2009-12-28 2011-08-11 Sanyo Electric Co Ltd 投写型映像表示装置及び画像調整方法
JP5693022B2 (ja) * 2010-03-04 2015-04-01 キヤノン株式会社 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体
FR2959023B1 (fr) * 2010-04-20 2012-05-25 Thales Sa Systeme de visualisation multi-projecteurs asservi
US20110267328A1 (en) * 2010-04-28 2011-11-03 Narayanan Venkatasubramanian Failsafe interconnect for tiled wall display
KR101108145B1 (ko) * 2010-05-07 2012-02-06 광주과학기술원 고해상도 타일드 디스플레이를 지원하는 햅틱기반 네트워크 가상환경 구현 장치 및 방법
JP5848754B2 (ja) 2010-05-12 2016-01-27 ペリカン イメージング コーポレイション 撮像装置アレイおよびアレイカメラのためのアーキテクチャ
US8611072B2 (en) 2010-05-17 2013-12-17 Christie Digital Systems Usa, Inc. Thermal actuator for configurable imaging systems
US20130093805A1 (en) * 2010-06-21 2013-04-18 Imax Corporation Double stacked projection
FR2963093B1 (fr) * 2010-07-26 2012-08-03 Vit Installation d'inspection optique 3d de circuits electroniques
JP5471965B2 (ja) * 2010-08-16 2014-04-16 富士通セミコンダクター株式会社 画像処理装置、撮像装置、及び画像処理方法
CN102413357A (zh) * 2010-09-24 2012-04-11 富泰华工业(深圳)有限公司 测试装置及其测试方法
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US20120086915A1 (en) * 2010-10-06 2012-04-12 Microvision, Inc. Image Projection Apparatus Tiling System and Method
CN101968956B (zh) * 2010-10-15 2012-10-03 广东威创视讯科技股份有限公司 显示单元颜色校准方法
WO2012051715A1 (en) * 2010-10-18 2012-04-26 Will Bauer System and method for controlling media projectors
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
JP2013021674A (ja) * 2011-06-13 2013-01-31 Ricoh Co Ltd 画像計測方法、画像計測装置及び画像検査装置
US9560314B2 (en) * 2011-06-14 2017-01-31 Microsoft Technology Licensing, Llc Interactive and shared surfaces
KR20140045458A (ko) 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
EP2745505B1 (de) 2011-08-16 2020-02-19 Imax Theatres International Limited Hybride bildzersetzung und -projektion
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
JP5884380B2 (ja) * 2011-09-30 2016-03-15 セイコーエプソン株式会社 プロジェクター、およびプロジェクターの制御方法
CA2847999C (en) 2011-10-20 2019-11-12 Imax Corporation Invisible or low perceptibility of image alignment in dual projection systems
CN109889813B (zh) 2011-10-20 2021-02-23 图象公司 用于图像投影的失真补偿
KR20130054868A (ko) * 2011-11-17 2013-05-27 한국전자통신연구원 회귀 베지어 패치 분할에 기반하는 기하 보정 장치 및 방법
IL216515A (en) 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
EP2795572B1 (de) 2011-12-20 2019-08-21 Hewlett-Packard Development Company, L.P. Bilddatentransformation auf grundlage der benutzerposition
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
EP2817955B1 (de) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systeme und verfahren zur manipulation von bilddaten aus einem erfassten lichtfeld
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
JP6016068B2 (ja) * 2012-05-16 2016-10-26 株式会社リコー 画像投影装置及びその制御方法並びにプログラム
EP2873028A4 (de) 2012-06-28 2016-05-25 Pelican Imaging Corp Systeme und verfahren zur erkennung defekter kamera-arrays, optischer arrays und sensoren
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN102821285A (zh) * 2012-07-06 2012-12-12 中影数字巨幕(北京)有限公司 一种数字电影放映方法、优化装置和放映系统
US9870504B1 (en) * 2012-07-12 2018-01-16 The United States Of America, As Represented By The Secretary Of The Army Stitched image
EP4296963A3 (de) 2012-08-21 2024-03-27 Adeia Imaging LLC Verfahren zur tiefenerkennung in mit array-kameras aufgenommenen bildern
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
US9338370B2 (en) 2012-11-05 2016-05-10 Honeywell International Inc. Visual system having multiple cameras
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
EP2936296A1 (de) * 2012-12-21 2015-10-28 Barco NV Automatisierte messung der differentiellen zeitverschiebung zwischen anzeigen
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
EP2972585A4 (de) * 2013-03-15 2016-10-19 Scalable Display Technologies Inc System und verfahren zur kalibrierung eines anzeigesystem mit einer kamera für kurze reichweiten
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US20140306862A1 (en) * 2013-04-15 2014-10-16 Gulfstream Aerospace Corporation Display system and method for displaying information
CN104155765B (zh) 2013-05-15 2019-09-13 北京三星通信技术研究有限公司 在拼接式集成成像显示器中校正三维图像的方法和设备
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
KR20150048967A (ko) * 2013-10-28 2015-05-11 삼성디스플레이 주식회사 표시 장치 및 이의 광학 보상 방법
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9400405B2 (en) 2014-04-16 2016-07-26 Google Inc. Shadow casting alignment technique for seamless displays
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
WO2016013125A1 (ja) * 2014-07-25 2016-01-28 Eizo株式会社 映像変換方法、映像変換装置、映像変換用コンピュータプログラム、映像表示システム
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
KR20160078023A (ko) * 2014-12-24 2016-07-04 삼성전자주식회사 디스플레이 제어 장치 및 디스플레이 제어 방법
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN104931421B (zh) * 2015-06-17 2017-09-15 武汉精测电子技术股份有限公司 液晶面板视觉检测系统的定位对焦方法
JP6701669B2 (ja) * 2015-10-29 2020-05-27 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP6594170B2 (ja) * 2015-11-12 2019-10-23 キヤノン株式会社 画像処理装置、画像処理方法、画像投影システムおよびプログラム
JP6769179B2 (ja) * 2016-08-31 2020-10-14 株式会社リコー 画像投影システム、情報処理装置、画像投影方法及びプログラム
CN108074517B (zh) * 2016-11-17 2019-11-29 西安诺瓦星云科技股份有限公司 逐点校正方法
US10750141B2 (en) 2016-11-23 2020-08-18 Réalisations Inc. Montréal Automatic calibration projection system and method
DE102016013994B4 (de) * 2016-11-23 2019-01-17 domeprojection.com GmbH Verfahren zur automatischen Erzeugung einer optischen Blendmaske
US20180213217A1 (en) * 2017-01-23 2018-07-26 Multimedia Image Solution Limited Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
KR102370367B1 (ko) * 2017-07-17 2022-03-07 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
US20190052851A1 (en) 2017-08-11 2019-02-14 Hilti Aktiengesellschaft System and Method for Recalibrating a Projector System
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
CN109587457A (zh) * 2017-09-29 2019-04-05 中强光电股份有限公司 投影系统及其自动设定方法
US11176694B2 (en) 2018-10-19 2021-11-16 Samsung Electronics Co., Ltd Method and apparatus for active depth sensing and calibration method thereof
EP3821267A4 (de) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. Systeme und verfahren zur oberflächenmodellierung mittels polarisationsauslösern
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
JP2023511747A (ja) 2020-01-30 2023-03-22 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
CN114827555B (zh) * 2021-01-28 2024-05-31 中强光电股份有限公司 显示环景影像的显示系统及其操作方法
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3833764A (en) 1972-12-14 1974-09-03 Singer Co Multiple viewing surface display
US4103435A (en) 1976-10-08 1978-08-01 The United States Of America As Represented By The Secretary Of The Navy Head trackable wide angle visual system
JPS58125986A (ja) 1982-01-22 1983-07-27 Mitsubishi Electric Corp 投写形ビデオデイスプレイ装置
JPS62195984A (ja) 1986-02-24 1987-08-29 Sony Corp プロジエクタ
US4974073A (en) 1988-01-14 1990-11-27 Metavision Inc. Seamless video display
FR2660090B1 (fr) 1990-03-23 1994-07-29 Thomson Csf Dispositif de visualisation par projection a boucle de contre-reaction pour la correction de l'ensemble des defauts de l'image projetee.
JPH04108279A (ja) 1990-08-28 1992-04-09 Matsushita Electric Ind Co Ltd 投写型表示装置
US5136390A (en) 1990-11-05 1992-08-04 Metavision Corporation Adjustable multiple image display smoothing method and apparatus
JP3409330B2 (ja) 1991-02-08 2003-05-26 ソニー株式会社 投射型表示装置の調整装置および調整方法
KR950008134B1 (ko) 1991-05-24 1995-07-25 가부시끼가이샤 히다찌세이사꾸쇼 멀티스크린 디스플레이 장치
US5216504A (en) 1991-09-25 1993-06-01 Display Laboratories, Inc. Automatic precision video monitor alignment system
JPH05300453A (ja) * 1992-04-24 1993-11-12 Asutoro Design Kk 輝度むら補正装置
EP0618476A1 (de) 1993-03-31 1994-10-05 Hughes Aircraft Company Durchlicht-Projektionsschirm mit Unterdrückung von ausser-axialem Sonnenlicht
JPH0764522A (ja) * 1993-08-30 1995-03-10 Hitachi Ltd マルチディスプレイ装置の自動調整システム
JPH07239504A (ja) * 1994-03-01 1995-09-12 Mitsubishi Heavy Ind Ltd 大型表示装置
JPH07333760A (ja) * 1994-06-15 1995-12-22 Hitachi Ltd 自動調整システム
JPH0850469A (ja) * 1994-08-05 1996-02-20 Hitachi Denshi Ltd 高解像度大画面拡大表示装置
US5555035A (en) 1994-10-03 1996-09-10 Hughes Aircraft Company Very high resolution light valve writing system based on tilting lower resolution flat panels
CN1070013C (zh) * 1994-12-14 2001-08-22 松下电器产业株式会社 具有校正亮度不均匀性的电路的投影型图像显示装置
JPH08201021A (ja) * 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
JP3458132B2 (ja) 1995-04-21 2003-10-20 ソニー株式会社 合成画像投影装置及び画像調整方法
JP3488313B2 (ja) 1995-04-21 2004-01-19 ソニー株式会社 映像信号処理装置および合成画面投影装置
US5777589A (en) 1995-04-26 1998-07-07 Texas Instruments Incorporated Color display system with spatial light modulator(s) having color-to-color variations in data sequencing
US5796425A (en) 1995-05-16 1998-08-18 Mitsubishi Denki Kabushiki Kaisha Elimination of the effect of difference in vertical scanning frequency between a display and a camera imaging the display
US5657073A (en) 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
US5793441A (en) 1995-06-07 1998-08-11 Hughes-Jvc Technology Corporation Method and apparatus for measuring illumination uniformity of a liquid crystal light valve projector
US5626410A (en) 1995-09-20 1997-05-06 Palomar Technologies Corporation Rear projection screen with uniform brightness for tiling the images from an array of projectors
JPH0984036A (ja) * 1995-09-20 1997-03-28 Hitachi Ltd 投写型ディスプレイ装置とこれを用いたマルチディスプレイ装置,マルチディスプレイシステム
EP0786687A1 (de) 1996-01-29 1997-07-30 Hughes-Jvc Technology Corporation Projizierte Bildeinblendung von mehrfachen Bildern
US5661531A (en) 1996-01-29 1997-08-26 Rainbow Displays Inc. Tiled, flat-panel display having invisible seams
US5668569A (en) 1996-04-05 1997-09-16 Rainbow Displays Inc. Tiled, flat-panel displays with luminance-correcting capability
JPH09312861A (ja) * 1996-05-23 1997-12-02 Sony Corp カラー表示装置の画質測定装置及び画質測定方法
JP3735158B2 (ja) * 1996-06-06 2006-01-18 オリンパス株式会社 画像投影システム、画像処理装置
IL119259A (en) * 1996-09-17 2000-12-06 Comview Graphics Ltd Electro-optical display apparatus and method of using same
JP3309738B2 (ja) * 1996-11-01 2002-07-29 松下電器産業株式会社 画像表示装置
GB9713227D0 (en) * 1997-06-23 1997-08-27 Seos Displays Ltd Multi-channel visual display apparatus
BE1011580A5 (nl) 1997-12-01 1999-11-09 Barco Naamloze Vennootschap Werkwijze en inrichting voor het regelen van een of meer projectoren.
JP3714163B2 (ja) 1997-12-12 2005-11-09 株式会社日立製作所 映像表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104346A1 (de) 2021-02-24 2022-08-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einem Kompensieren von Projektionsfehlern bei einer Ausgabe von Bildern, System mit einer Recheneinheit zu einer Ausführung des Verfahrens und Computerprogramm

Also Published As

Publication number Publication date
EP1116386A1 (de) 2001-07-18
WO2000018139A1 (en) 2000-03-30
CA2345226A1 (en) 2000-03-30
DE69917470D1 (de) 2004-06-24
US6310650B1 (en) 2001-10-30
US6525772B2 (en) 2003-02-25
EP1116386B1 (de) 2004-05-19
JP2003524915A (ja) 2003-08-19
ATE267498T1 (de) 2004-06-15
US20020027608A1 (en) 2002-03-07

Similar Documents

Publication Publication Date Title
DE69917470T2 (de) Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung
DE69914615T2 (de) Verfahren und gerät zur abgleichung einer bildanzeigevorrichtung mit einer gruppe von kameras
KR100858985B1 (ko) 광함수생성장치를 이용한 씸레스 타일 디스플레이 전자 교정 방법 및 씸레스 타일 디스플레이 시스템
DE60311915T2 (de) Bildprojektor mit Sensor zur Detektion von Hindernissen auf dem Projektionsschirm
DE69933436T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE60302485T2 (de) Bildanzeigesystem, Bildverarbeitungsverfahren und Informationsspeichermedium
DE60126554T2 (de) Bildanzeigesystem, Bildverarbeitungsverfahren und Informationsspeichermedium
DE602004008975T2 (de) Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode
DE60110399T2 (de) Sich an die umgebung anpassendes anzeigesystem, bildverarbeitungsverfahren und bildspeichermedium
DE602004008985T2 (de) Bildverarbeitungssystem und -verfahren
DE69907936T2 (de) Verfahren und vorrichtung zur erzeugung einer nahtlosen verteilten darstellung
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
US20070171380A1 (en) Calibration of a super-resolution display
EP2188661A2 (de) Verfahren und beleuchtungsvorrichtung zur optischen kontrastverstärkung
US7457458B1 (en) Method and apparatus for defining and correcting image data
US7161558B1 (en) Calibration system for an electronic sign
DE10322884B4 (de) Kameragestütztes Präsentationssystem
US5796425A (en) Elimination of the effect of difference in vertical scanning frequency between a display and a camera imaging the display
DE102013206832A1 (de) Bilddarstellungsvorrichtung, mobiltelefon und verfahren
EP1434434A1 (de) Autokalibrierung von Multiprojektorsystemen
EP1104180B1 (de) Verfahren und Einrichtung zur Bestimmung und mindestens teilweisen Korrektur der Fehler eines Bildwiedergabesystems
DE19644587A1 (de) Fotografiekopiergerät
JPH06105185A (ja) 輝度補正方法
KR100188193B1 (ko) 투사형 프로젝터의 보정량생성장치
Chen et al. Fundamentals of scalable high-resolution seamlessly tiled projection system

Legal Events

Date Code Title Description
8364 No opposition during term of opposition