DE19714101C2 - Verfahren und Vorrichtung zum Bearbeiten von Bilddaten - Google Patents

Verfahren und Vorrichtung zum Bearbeiten von Bilddaten

Info

Publication number
DE19714101C2
DE19714101C2 DE19714101A DE19714101A DE19714101C2 DE 19714101 C2 DE19714101 C2 DE 19714101C2 DE 19714101 A DE19714101 A DE 19714101A DE 19714101 A DE19714101 A DE 19714101A DE 19714101 C2 DE19714101 C2 DE 19714101C2
Authority
DE
Germany
Prior art keywords
image
camera
data
real
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19714101A
Other languages
English (en)
Other versions
DE19714101A1 (de
Inventor
Karl-Heinz Klotz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Discreet Logic Inc
Original Assignee
Discreet Logic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Discreet Logic Inc filed Critical Discreet Logic Inc
Publication of DE19714101A1 publication Critical patent/DE19714101A1/de
Application granted granted Critical
Publication of DE19714101C2 publication Critical patent/DE19714101C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Circuits (AREA)
  • Automatic Focus Adjustment (AREA)

Description

Die vorliegende Erfindung bezieht sich auf Verfahren und Vorrichtungen zum Bearbeiten von Bilddaten, bei denen von einer Kamera erzeugte Daten eines reelen Bildes mit Daten eines synthetisch gebildeten Bildes kombiniert werden.
Aufgrund der ständigen Abnahme der Kosten von Bearbei­ tungskomponenten mit hoher Leistungsfähigkeit und der ständigen Fortschritte in der Kunst der grafischen Bear­ beitungsverfahren werden Techniken zum Erzeugen realisti­ scher dreidimensionaler synthetisch gebildeter Bilder in einer zunehmenden Anzahl verschiedener Anwendungen einge­ führt. Mit fortschreitender Realitätsnähe der synthetisch gebildeten Bilder wird die klare Forderung erhoben, syn­ thetisch gebildete Bilder herzustellen, die nicht von re­ ellen Bildern unterscheidbar sind. Obwohl dieses Ziel vielleicht erreichbar ist, wenn ein einziges Bild erzeugt werden soll, erfordert die schnelle Erzeugung einer Folge von Einzelbildern in Echtzeit, die komplizierte sich be­ wegende und miteinander wechselwirkende Objekte darstel­ len, einen erheblichen Aufwand hinsichtlich der zur Ver­ fügung zu stellenden Rechenleistung. Dieses Ziel ist noch schwerer zu erreichen, wenn reelle Bilder in Echtzeit mit synthetisch gebildeten Bildern kombiniert werden, da das menschliche Auge empfindlich für subtile Unterschiede zwischen Eigenschaften von Bildern ist.
Ein sich entwickelnder Anwendungsbereich dreidimensiona­ ler Grafik in Echtzeit ist das virtuelle Studio. In einem virtuellen Studio werden Bilder eines reellen Szenenauf­ baus, der üblicherweise einen Fernsehmoderator umfaßt, mit Bildern kombiniert, die von einem virtuellen Szenen­ aufbau erzeugt werden. Die meisten der realen Studios be­ stehen aus einem blauen Hintergrund, der dann elektro­ nisch durch den virtuellen Szenenaufbau ersetzt wird. Teile des reellen Bildes, die nicht blau gefärbt sind, werden dem virtuellen Szenenaufbau in einer solchen Weise überlagert, daß das gesamte, kombinierte Bild realistisch erscheint. Ein Studio dieser Art ist in der US-Patent­ schrift 5479597 offenbart.
Ein Vorteil des virtuellen Studios besteht darin, daß nur wenig Platz eines realen Studios benötigt wird, über den das Bild eines viel größeren virtuellen Studios überla­ gert werden kann, einschließlich verschiedener dreidimen­ sionaler Requisiten der Bühne und für ein bestimmtes Fernsehprogramm spezifischer Logos. Wenn eine Aufnahme für ein bestimmtes Programm beendet ist, kann der gesamte virtuelle Szenenaufbau sofort ausgetauscht werden, so daß das Studio für die Verwendung in einem vollständig ande­ ren Fernsehprogramm bereit ist. In einem herkömmlichen Studio werden dagegen vielleicht verschiedene Gegenstände in der Form von Requisiten der Bühne usw. für jedes ver­ schiedene Programm benötigt. Im Laufe einer Woche werden vielleicht viele Dutzend verschiedener Fernsehprogramme mit unterschiedlichen Requisiten für die Bühne benötigt, die entweder sorgfältig aufbewahrt oder alternativ von Neuem aufgebaut werden müßten.
Eine wesentliche Einschränkung beim Betrieb eines virtu­ ellen Studios ist das Erfordernis, eine präzise Abstim­ mung zwischen den Merkmalen und der Position der reellen Kamera und der virtuellen Kamera, die in dem das Bild synthetisierenden Computer modelliert wird, aufrecht zu erhalten. Das menschliche Auge ist leicht in der Lage, subtile Unterschiede zwischen reellen und virtuellen Bil­ dern, beispielsweise eine Fehlanpassung im Fokus, zu er­ kennen, was dann zu einer weniger überzeugenden Wahrneh­ mung des kombinierten Bildes des Studios führen wird.
Aus der Druckschrift Fukui, Kazuo; Hayashi, Masaki; Yama­ nouchi, Yuko: A Virtual Studio System for TV Program Pro­ duction. SMPTE Journal, Juni 1994, Seiten 386-390, ist ein virtuelles Studio-System bekannt, das ein Verfahren zum Bearbeiten von Bilddaten beinhaltet, bei dem von ei­ ner Kamera erzeugte Daten eines reellen Bildes mit Daten eines synthetisch gebildeten Bildes kombiniert werden. Das Verfahren umfaßt das Erzeugen von Daten der Kamera einschließlich Positionsdaten, wobei diese Daten eine An­ gabe über die Steuerung der Brennweite beinhalten. Wei­ terhin umfaßt das Verfahren das Erzeugen eines syntheti­ schen Bildes in Abhängigkeit von den Positionsdaten der Kamera. Schließlich umfaßt das Verfahren das Einstellen des wahrgenommen Fokus des synthetischen Bildes in Abhän­ gigkeit von der Einstellung der Steuerung der Brennweite in der Weise, daß die Parameter der realen und der virtu­ ellen Kamera übereinstimmen.
Aus der Veröffentlichung Sommerhäuser, Frank: Das virtu­ elle Studio. Grundlagen einer neuen Studioproduktions­ technik. Fernseh- und Kino-Technik (FKT), Nr. 1-2, 50. Jahrgang, 1996, Seiten 11-22, ist ebenfalls ein virtuel­ les Studio bekannt. Auch hier zählen Zoom und Fokus zu den erfaßten Parametern der realen Kamera. Um ein identi­ sches Verhalten von realer Kamera und virtueller Kamera zu erzielen, wird das Analysieren der Bewegungen und Ein­ stellungen der einen Kamera und das Steuern der anderen Kamera entsprechend dieser Analyse vorgeschlagen.
Die Erfindung geht von der Aufgabenstellung aus, Ver­ fahren und Vorrichtungen zum Bearbeiten von Bilddaten, bei denen Daten eines reellen Bildes, die von einer Ka­ mera erzeugt werden, mit Daten eines synthetisch gebilde­ ten Bildes kombiniert werden, zu schaffen, mit denen eine größere Realitätsnähe des kombinierten Gesamtbildes er­ zielt wird. Ferner richtet sich die Erfindung darauf, dies in der kurzen zur Verfügung stehenden Zeit für die Erzeugung eines Einzelbildes einer Bildfolge zu errei­ chen.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 bzw. durch eine Vor­ richtung mit den Merkmalen des Anspruchs 8 gelöst. Wei­ tere vorteilhafte Merkmale sind Gegenstand der Unteran­ sprüche.
Nach einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Bearbeiten von Bilddaten bereitge­ stellt, bei dem von einer Kamera erzeugte Daten eines re­ ellen Bildes mit Daten eines synthetisch gebildeten Bil­ des kombiniert werden, das einen Schritt zum Erzeugen von Positionsdaten der Kamera, die Merkmale der Kamera ein­ schließlich einer Angabe über die Steuerung der Brennweite darstellen, einen Schritt zum Erzeugen eines synthe­ tisch gebildeten Bildes in Abhängigkeit von den Posi­ tionsdaten der Kamera, und einen Schritt zum Einstellen des wahrgenommenen Fokus des synthetisch gebildeten Bil­ des in Abhängigkeit von der Einstellung der Steuerung der Brennweite, um hierdurch einen Unterschied der Fokussie­ rung zwischen einem Teil des reellen Bildes und einem Teil des synthetisch gebildeten Bildes zu bewirken, um­ faßt.
Nach einem bevorzugten Merkmal wird vorgeschlagen, daß ein Teil des synthetisch gebildeten Bildes defokussiert wird, um seine Lage hinter dem Teil des reellen Bildes zu betonen.
Die folgenden Ausführungsbeispiele der Erfindung lassen weitere vorteilhafte Merkmale und Besonderheiten erken­ nen, die anhand der Darstellung in den Zeichnungen im folgenden näher beschrieben und erläutert werden.
Es zeigen:
Fig. 1 einen realen Szenenaufbau in einem virtuellen Studio, einschließlich eines Fernsehmonitors,
Fig. 2 das auf dem in Fig. 1 dargestellten Monitor dargestellte kombinierte Bild,
Fig. 3 Einzelheiten der zum Erzeugen des in Fig. 2 dargestellten Bildes benutzten Kontrollausrü­ stung einschließlich eines Grafikprozessors,
Fig. 4 Einzelheiten der Verbindung zwischen dem in Fig. 3 dargestellten Grafikprozessor und ande­ rer, in dem virtuellen Studio benutzter Ausrü­ stung,
Fig. 5 Einzelheiten des in Fig. 3 und Fig. 4 darge­ stellten Grafikprozessors, einschließlich eines Wiedergabeprozessors und eines gemeinsam ge­ nutzten Speichers,
Fig. 6 Einzelheiten des Prozesses zum Kombinieren von Live-Kamera-Signalen mit Bildern eines virtuel­ len Szenenaufbaus, der durch den in Fig. 5 dar­ gestellten Wiedergabeprozessor durchgeführt wird,
Fig. 7 Einzelheiten von in dem in Fig. 5 dargestellten gemeinsam genutzten Speicher gespeicherten Da­ tenstrukturen, einschließlich eines Szenen­ baums, ausführbarer Manuskripte und Funktionen zur Animation von Objekten,
Fig. 8 Einzelheiten der Prozesse und Beziehungen zum Modifizieren des in Fig. 7 dargestellten Sze­ nenbaumes, einschließlich eines Prozesses zum Aufbauen einer Bildliste,
Fig. 9 Einzelheiten des in Fig. 8 dargestellten Pro­ zesses zum Aufbauen einer Bildliste,
Fig. 10 Einzelheiten einer Anordnung zum Defokussieren von Bildern, die im wesentlichen gemäß den in Fig. 8 dargestellten Operationen erzeugt wur­ den, einschließlich der Berechnung einer verän­ derten Projektionsmatrix,
Fig. 11 Einzelheiten der in Fig. 10 benutzten Projek­ tionsmatrix,
Fig. 12 Einzelheiten der Struktur einer Matrix des in Fig. 11 dargestellten Typs, die für dreidimen­ sionale grafische Manipulationen benutzt wird,
Fig. 13 Einzelheiten einer algebraischen Expansion der in Fig. 11 dargestellten Projektionsmatrix,
Fig. 14 Einzelheiten des Randes eines virtuellen Objek­ tes, das gemäß dem in Fig. 10 dargestellten Prozess defokussiert wurde und
Fig. 15 eine Aufsicht auf den Objekte defokussierenden Prozess.
Die Erfindung wird im folgenden unter Bezugnahme auf die beigefügten, vorstehend genannten Figuren beispielhaft beschrieben.
In Fig. 1 ist ein virtuelles Studio dargestellt, das einen Moderator 101 vor einem blauen Hintergrund 102 um­ faßt. Eine Fernsehkamera 103, die mit einer Linse 104 mit variabler Brennweite (Zoomlinse) ausgestattet ist, ist drehbar auf einem festen Dreibein 108 montiert. Die Ka­ mera 103 erzeugt ein Videosignal, das über ein Videokabel 105 einer Bearbeitungsausrüstung zugeführt wird. Auf der Kamera 103 und zwischen der Kamera 103 und dem Dreibein 108 montierte Sensoren erzeugen Signale, die den Schwenk, die Drehung und die Neigung der Kamera 103 definieren, sowie Brennweite und Fokus (Entfernungseinstellung) der Linse 104 mit veränderlicher Brennweite. Diese Signale werden in einer auf der Kamera montierten Schnittstellen- und Prozessorschaltung kombiniert und über ein serielles RS432 Datenkabel 106 zu der Bearbeitungsausrüstung gelei­ tet.
Der Moderator 101 kann die resultierenden kombinierten reellen und virtuellen Bilder auf einem Videomonitor 107 betrachten, der an der Seite des Szenenaufbaus aufge­ stellt ist. In manchen Fällen wird es für den Moderator notwendig sein, den Ort virtueller Objekte, die nicht physikalisch in dem reellen Szenenaufbau angeordnet sind, zu erkennen, um eine überzeugende Illusion ihres Vorhan­ denseins zu erhalten. Auf diese Weise kann der Moderator auf ein virtuelles Objekt, das nicht physikalisch exi­ stiert, zeigen und dabei seine Bewegungen mit dem resul­ tierenden, auf dem Videomonitor 107 dargestellten Bild koordinieren.
Das auf dem in Fig. 1 abgebildeten Videomonitor 107 wie­ dergegebene Bild ist in Fig. 2 detailliert dargestellt. Der Moderator 101 ist der einzige Teil des reellen Sze­ nenaufbaus, der in dem kombinierten Bild enthalten ist. Alle anderen Bereiche 102 des reellen Studios innerhalb des Sichtbereiches der Kamera 103 sind blau gefärbt und werden somit durch einen synthetisch gebildeten virtuel­ len Szenenaufbau ersetzt. Die Bestandteile des virtuellen Szenenaufbaus umfassen einen Sockel 202, auf dem eine Statue 203 plaziert ist. Dahinter ist ein zweidimensiona­ ler Hintergrund 204, der aus bewegten Bildern eines Fil­ mes besteht, angeordnet.
Der virtuelle Szenenaufbau beinhaltet somit sowohl drei­ dimensionale als auch zweidimensionale Objekte, die von einer virtuellen Kamera aus betrachtet werden. Der virtu­ elle Ort der virtuellen Kamera wird derart gewählt, daß er dem reellen Ort der reellen Kamera folgt, so daß eine Veränderung in der Blickrichtung auf den Moderator 101 zu einer passenden Änderung des Blicks auf die Objekte in dem virtuellen Szenenaufbau führt. Beispielsweise kann die reelle Kamera 103 nach links schwenken und etwas nä­ her heranzoomen, so daß das Zentrum der Ansicht von dem Moderator 101 auf die Statue 203 wechselt. Weil alle vir­ tuellen Objekte genau in drei Dimensionen modelliert wer­ den, verändert sich die Parallaxe zwischen der Statue 203 und dem Hintergrund entsprechend. Außerdem wird der auf dem virtuellen Hintergrund 204 dargestellte zweidimensio­ nale Film verschieden dargestellt, um den Zusammenhang zwischen reellen und virtuellen Bildern aufrecht zu er­ halten.
Die Kontrolle über die virtuelle Studioumgebung, ein­ schließlich der Auswahl der virtuellen Objekte, die in dem erzeugten Gesamtbild enthalten sein sollen, wird von der in Fig. 3 dargestellten Ausrüstung durchgeführt. Ein hochqualitatives Grafikterminal 301, beispielsweise ge­ fertigt von Silicon Graphics Inc., zeigt die kombinierten reellen und virtuellen Bilder an, die von dem virtuellen Studio produziert werden. Ein Grafikprozessor 302 stellt die Rechenleistung zum Erzeugen des virtuellen Szenenauf­ baus zur Verfügung. Der Grafikprozessor 302 erhält auch Videosignale von der reellen Kamera 103 und kombiniert diese mit dem synthetisch gebildeten Bild des virtuellen Szenenaufbaus. Der Grafikprozessor 302 ist ein SGI Onyx Reality Engine Two, hergestellt von Silicon Graphics In­ corporated.
Ein Bearbeitungsterminal 303 wird zum Kontrollieren des Szenenaufbaus des virtuellen Studios mittels eines Text­ editors benutzt. Das Bearbeitungsterminal 303 ist an eine SGI Indigo Workstation 304 angeschlossen, das Speicher- und Editiereinrichtungen zur Verfügung stellt. Die Work­ station 304 kommuniziert mit dem Grafikprozessor 302 über eine Ethernet-Verbindung. Auf diese Weise kann ein Benut­ zer die Grafikumgebung, die durch die Graphik Workstation 302 synthetisiert und auf dem hochqualitativen Graphikmo­ nitor 301 dargestellt wird, mit dem Terminal 303 kontrol­ lieren, das an die Workstation 304 angeschlossen ist.
Typische Operationen, die von Benutzern, welche die in Fig. 3 dargestellte Ausrüstung verwenden, ausgeführt wer­ den, betreffen bestimmte Erfordernisse beim Betrieb eines virtuellen Studios. Als erstes ist es wesentlich, daß die Orte der reellen und virtuellen Kameras in Übereinstim­ mung gebracht werden sollten. Wenn die Kamera 103 auf ih­ rem Dreibein 108 positioniert worden ist, wobei viel­ leicht ein Typ einer Linse 104, die für das zu sendende oder aufzunehmende Programm geeignet ist, ausgewählt wurde, ist es daher erforderlich, den exakten physikalischen Ort der Kamera zu bestimmen. Dies wird in zwei Schritten durchgeführt. Zuerst wird das optische Zentrum der Linse ermittelt. Beim Montieren einer Linse auf eine Kamera kann ein präziser Ort nicht mit absoluter Genauig­ keit vorhergesagt werden, obwohl die Linse fest montiert ist. Der Teil des Videobildes, der beim Auf- und Abzoomen stationär bleibt, ist daher typischerweise geringfügig nicht richtig mit dem elektronisch gemessenen Zentrum des Bildes ausgerichtet.
Beispielsweise umfaßt das Bild in einer Videokamera, die Charge Coupled Devices (CCD) als Bildsensoren benutzt, eine Matrix von Pixeln, wobei jedes Pixel drei Subpixel umfaßt, welche die rote, grüne und blaue Komponente defi­ nieren, die von drei separaten CCD-Sensoren produziert werden. Das Bild hat eine genaue Anzahl von Pixeln in der horizontalen und vertikalen Richtung. Typischerweise kann diese Anzahl in der Größenordnung von 600 Pixeln vertikal mal 800 Pixeln horizontal liegen. Das elektronische Zen­ trum des Bildes befindet sich bei den Pixelkoordinaten (400,300).
Nachdem eine Linse montiert wurde, zoomt der Kameramann auf und ab, um zu ermitteln, welcher Teil des Bildes stationär bleibt. Dieser Ort wird dann als optisches Zen­ trum der Kombination aus Kamera und Linse angesehen. Nachdem das optische Zentrum kalibriert wurde, braucht der Kameramann den physikalischen Ort der Kamera nicht zu bestimmen; dies wäre keine nützliche Messung, da die er­ forderlichen Messungen in bezug zu dem genauen Ort eines auf die CCD-Ebene fokussierten Bildes durchgeführt werden müssen, der sich an einem unbekannten oder zumindest nicht hinreichend genau bekannten Ort innerhalb des Ge­ häuses der Kamera 103 befinden kann.
Um den physikalischen Ort der Kamera genau zu kalibrie­ ren, bzw. genauer, um den Ort des fokussierten Bildes in der reellen Kamera mit dem des von der virtuellen Kamera produzierten Bildes in Übereinstimmung zu bringen, werden Zielaufnahmen verschiedener bekannter Punkte in dem reel­ len Studio durchgeführt. Daher werden zur Bestimmung des Ortes der Kamera in drei Dimensionen Zielaufnahmen von drei Punkten in dem Studio angefertigt, indem das opti­ sche Zentrum, das jetzt durch ein Kreuz auf dem Monitor markiert ist, mit Marken in dem Studio in Übereinstimmung gebracht wird. Die Orte dieser drei Punkte sind in drei Dimensionen genau bekannt und fest. Eine bessere Genauig­ keit kann durch Zielaufnahmen von vier oder mehr bekann­ ten Punkten erreicht werden, wobei Inkonsistenzen zwi­ schen den kombinierten Ergebnissen gemittelt werden, um ein Ergebnis verbesserter Genauigkeit zu erzielen.
Wenn beispielsweise fünf Punkte aufgenommen werden, wer­ den diese fünf in alle mögliche Permutationen von Gruppen zu drei aufgeteilt. Die Position der Kamera wird für jede Permutation berechnet und der Mittelwert der Ergebnisse wird zur Definition der Kameraposition benutzt. Somit liefert eine Folge von Kalibrationen, die von dem Kamera­ mann, der verschiedene Zielaufnahmen macht, und einem Bediener des Terminals, der das Terminal 303 benutzt, durchgeführt werden, geeignete Kontrollanweisungen für das System derart, daß von den Rotations-, Schwenk-, Nei­ gungs-, Fokus- und Zoom-Sensoren der Kamera erhaltene Da­ ten in geeigneter Weise während der Kalibrierprozesse kombiniert werden.
Die in Fig. 1 dargestellte Kamera 103 liefert zwei Typen elektrischer Signale. Der erste Signaltyp ist ein Video­ signal, eine elektrische Darstellung des auf den CCD-Sen­ sor in der Kamera fokussierten Bildes. Der zweite Typ elektrischer Signale definiert die Position der Kamera und ihrer Linseneinstellungen. Eine typische, auf eine Fernsehkamera montierte Linse 104 mit veränderlicher Brennweite umfaßt Einstellringe für Brennweite, Entfer­ nung (Fokus) und Blende. Von diesen sind die Brennweite und die Entfernung erforderlich, um realistisches Echt­ zeitverhalten der virtuellen Kamera zu definieren. Es sind daher Drehsensoren auf der Kameralinse montiert.
Diese Drehsensoren beinhalten optische Zwillings-Emitter und -Detektoren, die durch eine gezahnte Scheibe getrennt sind. Die Scheibe ist mechanisch an die Bewegung eines Einstellringes der Linse derart gekoppelt, daß der Durch­ gang von Licht zwischen einem Emitter-Sensor-Paar zeit­ lich vorrangig vor dem Durchgang des Lichtes zwischen dem anderen Emitter-Sensor-Paar erfolgt. Auf diese Weise kann die Drehrichtung der gezahnten Scheibe durch den Vorrang des elektrischen Signals eines der optischen Sensoren vor dem des anderen Sensors detektiert werden. Weiterhin führt die Drehung der gezahnten Scheibe zu einem wieder­ holten Unterbrechen und Freigeben des jeden der Sensoren erreichenden Lichtes und kann daher zur Bestimmung einer Veränderung der Position benutzt werden. Diese Technik ist als optische Quadraturmessung bekannt und erzeugt elektrische Pulse, die insbesondere für die Verarbeitung in digitalen elektronischen Schaltungen geeignet sind.
Jeder der Einstellringe für die Brennweite und Entfernung hat einen Rotationssensor, der elektrische Signale lie­ fert, die interpretiert werden können, um eine relative Angabe über die jeweilige Lage des Einstellringes zu lie­ fern. Durch Kalibrieren der absoluten Position der Ein­ stellringe der Linse in Bezug auf ein bekanntes sicht­ bares Ziel können die relativen zunehmenden und abneh­ menden elektrischen Signale der Rotationssensoren benutzt werden, um in Verbindung mit geeigneten Kalibrationsan­ weisungen, die von dem in Fig. 3 dargestellten Terminal 303 geliefert werden, eine absolute Position der Ein­ stellringe für Brennweite und Entfernung zu bestimmen.
Zusätzliche Rotationssensoren sind auf der Kamera und de­ ren zugehörigem Kameramontagekopf angeordnet, der vieldi­ mensional beweglich ist und die freie Bewegung der gesam­ ten Kamera in den Richtungen von Schwenk - Rotation um eine vertikale Achse, oder vertikales Panorama - und Nei­ gung - Rotation um eine horizontale Achse, oder horizon­ tales Panorama - ermöglicht. Die absoluten Werte dieser Sensoren werden während dieses oben beschriebenen Kali­ brationsverfahrens mit Zielaufnahmen bestimmt.
Die Verbindungen zwischen der Kamera 103 und der anderen Studioausrüstung sind in Fig. 4 dargestellt. Der Kamera­ zusammenbau, der schematisch mit 401 bezeichnet ist, er­ zeugt einen Videoausgang 402 und einen Positionsausgang 403. Der Positionsausgang wird einer Schnittstelle 404 zugeführt, die wiederum die Positionsdaten einem Bildsyn­ thetisierungsprozess 405 zuführt. Der Bildsynthetisie­ rungsprozess 405 erzeugt ein synthetisch gebildetes Vi­ deobild, das auf Bewegungen und Veränderungen des Kamera­ zusammenbaus 401 in ähnlicher Weise reagiert, wie ein konventionelles Videosignal auf solche Veränderungen rea­ gieren würde.
Das von dem Kamerazusammenbau 401 erzeugte konventionelle Videosignal wird einem Videotakt-Farbumsetzer-System 406 zugeführt, das ein Helligkeits- oder Maskensignal er­ zeugt, das dem gesättigten blauen Hintergrund entspricht. Das Videosignal wird auch einem Videoeingang eines Video­ umsetzers 407 zugeführt, wobei der Ausgang des Bildsyn­ theseprozesses 405 und der Ausgang der Videokamera am Videoausgang 402 in Abhängigkeit von dem von dem Farb­ umsetzer 406 erzeugten Farbsignal kombiniert oder umge­ setzt werden.
Der zusammengesetzte Ausgang kann auf einem dem Monitor 107 ähnlichen Monitor 408 betrachtet werden, und zusätz­ lich wird dieser Ausgang einem Studiomischer 409 zuge­ führt. Der Studiomischer 409 empfängt andere Videoaus­ gänge auf den Leitungen 410 und von diesen Videoeingängen wird eine Auswahl getroffen, um auf der Leitung 411 ein Sendeausgangssignal zu liefern. Dieses Ausgangssignal kann auch über einen weiteren Videomonitor 412 betrachtet werden.
Der in Fig. 4 dargestellte Grafikprozessor 302 ist in Fig. 5 im Detail beschrieben. Vier Hauptprozessoren, CPU1 501, CPU2 502, CPU3 503 und CPU4 504 führen die ver­ schiedenen Berechnungen und Datenmanipulationsprozesse durch, die notwendig sind, um den virtuellen Szenenaufbau zu erzeugen und mit Bildern von der reellen Kamera zu mi­ schen. Jeder Prozessor hat einen lokalen Hochgeschwindig­ keitsspeicher 505, 506, 507 und 508. Die CPU4 504 ist di­ rekt an einen Wiedergabeprozessor 509 angeschlossen, der für die Durchführung einer Pixelwiedergabe bei hoher Ge­ schwindigkeit spezifisch ausgebildet ist. Er weist einen lokalen Speicher 510 auf.
Alle vier Hauptprozessoren 501, 502, 503 und 504 sind über eine gemeinsame parallele Schnittstelle verbunden. Die Durchführung der Synthetisierung des Bildes ist in logische Prozessaufgaben geteilt, wobei Anfangs- und End­ bedingungen für jede Aufgabe allen Prozessoren zugänglich gemacht sein können, aber wobei die Berechnungen in jeder Aufgabe unabhängig durchgeführt werden. Dies ermöglichst es, daß jede Aufgabe mit hoher Geschwindigkeit durchgeführt wird, da es nicht erforderlich ist, mit anderen Aufgaben oder Prozessoren zu kommunizieren, bis eine be­ arbeitete Aufgabe beendet ist. Ferner können die lokalen Hochgeschwindigkeitsspeicher 505, 506, 507 und 508 zum Speichern von Daten und Instruktionen für jede Aufgabe benutzt werden, wodurch sich das Erfordernis der Kommuni­ kation über den globalen Kommunikationsbus 511 reduziert.
Beim Kommunizieren über den Bus 511 ist es erforderlich, zu gewährleisten, daß zu jeder Zeit nur ein Prozessor versucht, den Bus 511 zu kontrollieren, was Zeitbus- Zugangsprotokolle erforderlich macht. Bei vier vorhan­ denen Prozessoren wird die maximale Datenbandbreite des Busses theoretisch durch vier geteilt. In der Praxis ist die Verringerung der Bandbreite durch die Zugangsproto­ kolle größer als dieser Wert.
Eine weitere Einschränkung ist Busanordnungen, die meh­ rere Prozessoren verbinden, inhärent. Die Geschwindig­ keit, mit der Signale über eine elektrische Verbindung kommunizieren können, ist in gewissem Maße von der Ent­ fernung abhängig, die von den Signalen überbrückt werden muß. Wenn Prozessoren über mehrere Schaltkreise verteilt sind, ist die Geschwindigkeit des Busses 511 beschränkt, insbesondere im Vergleich zu der Geschwindigkeit der Da­ tenübertragung zwischen digitalen Komponenten, die in einem einzigen Schaltkreis oder in dicht benachbarten Schaltkreisen kommunizieren. Daher werden, wo immer es möglich ist, Prozesse in spezifische Aufgaben geteilt, wobei vorteilhafterweise die benutzte, besondere Prozes­ sorarchitektur berücksichtigt werden kann. Für bestimmte Typen von Aufgaben können Daten von Prozessoren gemeinsam benutzt werden. Der gemeinsam benutzte Speicher 512 ist hierfür vorgesehen. Die Kommunikation mit externen Ein­ heiten über Ethernet, RS432, und hochauflösenden Monitoren, Computertastaturen usw. wird über die Eingangs­ schnittstelle 513 bereitgestellt.
Der Bildsyntheseprozess 405 aus Fig. 4 ist in Fig. 6 de­ tailliert beschrieben. Die Positionsdaten der Kamera wer­ den einem Prozess 601 zur Konstruktion des Szenenaufbaus zugeführt, der zum Erzeugen von Einzelbildern mit einer Videotaktrate ausgebildet ist. Es ist zu bemerken, daß die Erzeugung von Einzelbildern in Echtzeit derart durch­ geführt wird, daß jedes Einzelbild einer Videosequenz in­ dividuell erzeugt wird, um zu gewährleisten, daß Bewegun­ gen und Übergänge glatt erfolgen und als ebenso reell wahrgenommen werden, wie reelle Objekte, die der virtuel­ len Szene hinzugefügt werden.
Die Positionsdaten der Kamera werden über eine Leitung 602 übermittelt und eine externe Kontrolle wird über einen Kontrollprozessor 603 empfangen.
Der Konstruktionsprozess 601 des Szenenaufbaus ist in der Lage, Oberflächen und Objekte aus polygonalen Grundformen darzustellen. Zusätzlich können voll bewegte Videobild­ ebenen in den Szenenaufbau in Abhängigkeit des Empfanges einer oder mehrerer Videostrukturen von einem Videostruk­ turierungsprozess 604 eingefügt werden. Der Szenenaufbau- Konstruktionsprozess 601 im Videotakt liefert einen syn­ thetisch gebildeten Ausgang 605.
Die in Fig. 6 dargestellten Prozeduren zur Konstruktion des Szenenaufbaus sind durch in dem in Fig. 5 dargestell­ ten gemeinsam genutzten Speicher 512 gespeicherte Daten definiert. Der virtuelle Szenenaufbau ist durch eine Da­ tenstruktur definiert, die Szenenbaum genannt wird. Eine Darstellung des Szenenbaums und anderer Schlüsseldaten­ strukturen, die in dem gemeinsam genutzten Speicher gespeichert sind, ist in Fig. 7 gezeigt. Der Szenenbaum 701 umfaßt eine Anzahl von Objekten, die rekursiv definiert sind. Dabei stellt das Objekt 702 den in Fig. 2 darge­ stellten Hintergrund 204 der Bühne dar und ein innerhalb des Hintergrundes definiertes Objekt ist ein mit einem Film, der von einer externen Echtzeit-Videoquelle bereit­ gestellt wird, verbundenes Objekt 703.
Andere einfache Objekte sind nicht-rekursiv definiert, beispielsweise der in Fig. 2 dargestellte Sockel 202, der durch das nicht rekursive Objekt 704 dargestellt wird. Komplexe Objekte wie die ebenfalls in Fig. 2 dargestellte Statue 203 sind durch viele Schichten eines rekursiven Objektes innerhalb eines die Gesamtstatue definierenden Gesamtobjektes 705 definiert. Bei einer Analyse des Sze­ nenbaums werden die Objekte umso einfacher, je niedriger das Rekursionsniveau ist. Daher sind auf dem niedrigsten Rekursionsniveau die Objekte als Grundformen definiert, mit anderen Worten als Form wie einem Polygon, deren Ba­ sisstruktur von dem Wiedergabeprozessor 509 verstanden wird, und sie müssen nicht näher definiert werden.
Die wiederholten Bezugnahmen auf ein einziges Beispiel eines einfachen Objektes wie einem Polygon ermöglicht es, komplexe dreidimensionale Strukturen aus einfacheren zu konstruieren, bis zu jedem gewünschten Grad an Detail­ liertheit. In dem gemeinsam benutzten Speicher befinden sich auch ausführbare Manuskripte 711, die zu Beginn je­ des Einzelbildes ausgeführt werden und die Manipulation von Datenstrukturen erlauben, die in dem Szenenbaum 701 definiert sind. Animationsfunktionen 712 für Objekte er­ lauben es, Objekte in dem Szenenbaum in Form einer Anima­ tion zu manipulieren, beispielsweise die Rotation eines Propellers an einem Objekt eines virtuellen Flugzeugs, während es durch den virtuellen Szenenaufbau fliegt.
Die Manipulation des Szenenbaums 701 ist in Fig. 8 zusam­ mengefaßt. Der Szenenbaum ist eine Datei, die mittels ei­ nes Texteditors 801 betrachtet und verändert werden kann, jedoch nicht in Echtzeit. Der Texteditor 801 ist auch in der Lage, Manipulationen an den ausführbaren Manuskripten 711 durchzuführen. Diese sind in der Programmiersprache C geschrieben und so kompiliert, daß sie zu Beginn jedes Konstruktionsprozesses eines Einzelbildes des virtuellen Szenenaufbaus automatisch ausgeführt werden können.
Eine Kontrollschnittstelle 802 liefert Kontrolldaten an den Szenenbaum 701 und an die Animationsfunktionen 712. Dies dient dem Zweck, eine Echtzeitkontrolle auszuüben, oder möglicherweise eine Synchronisation über verschie­ dene Aspekte des virtuellen Szenenaufbaus. Beispielsweise kann es gewünscht sein, daß ein virtuelles Flugzeug nicht zu einem vorbestimmten Zeitpunkt durch den virtuellen Szenenaufbau fliegt, sondern in Abhängigkeit von einem Befehl des Produzenten des Programms. Die Kameraschnitt­ stelle 803 kontrolliert die Art, in der der Szenenbaum 701 manipuliert wird, dadurch, daß Daten der kalibrierten reellen Kamera benutzt werden, um die perspektivische Projektion der realen Welt auf eine zweidimensionale Ebene zu definieren.
Das dreidimensionale Modellieren ist eine zeitaufwendige Aufgabe. Beispielsweise ist die in Fig. 2 dargestellte Statue 203 eine hochkomplexe Form und ist vielleicht so­ gar durch eine dreidimensionale Weißlicht-Laserabtastung eines realen Objektes bestimmt worden. Daher können drei­ dimensionale Modelle über einen Importprozess 804 für dreidimensionale Modelle in den Szenenbaum eingefügt wer­ den. Dies ermöglicht den Zugang zu einer reichhaltigen Bibliothek dreidimensionaler Formen von einer großen Anzahl von Quellen. Auf diese Weise können verschiedene Da­ ten oder elektrische Signale benutzt werden, um abhängige Aspekte der Struktur des Szenenbaums 701 zu bestimmen, bevor er als Beschreibung eines bestimmten Zeitpunktes des virtuellen Szenenaufbaus interpretiert wird. Nachdem diese externen Einflüsse berücksichtigt worden sind, wird der Szenenbaum in einem Optimierungsprozess 805 opti­ miert. Der Optimierungsprozess 805 versucht zu gewährlei­ sten, daß die Struktur des Szenenbaums, der dem Wiederga­ beprozess zugeführt wird, so effizient wie möglich ist. Nach der Optimierung wird der Szenenbaum in dem Prozess 806 in eine Bildliste konvertiert.
Der die Bildliste erzeugende Prozess 806 löst den Szenen­ baum in Scheitelpunkte (Vertices) von Grundformen von Ob­ jekten auf, die dann dem Wiedergabeprozessor 509 zuge­ führt werden können. Der Wiedergabeprozessor kann dann Scheitelpunkte mit Linien verbinden, Polygone oder andere Grundformen mit Oberflächen und Strukturen füllen, und andere mit der dreidimensionalen grafischen Wiedergabe von Grundformen von Objekten verbundene Aufgaben ausfüh­ ren.
Der Prozess 806 der Erzeugung einer Bildliste ist in Fig. 9 dargestellt. Im Prozess 901 (wähle nächstes Objekt) wird das nächste Objekt ausgewählt. Im Prozess 902 (re­ kursiv verkettete Objekttransformationen) werden Objekt­ transformationen verkettet. Jedes Objekt, egal ob es eine Grundform ist oder nicht, kann in vielfältiger Weise ma­ nipuliert werden, um Animation oder ähnliche Funktionen durchzuführen. Diese Manipulationen sind Kombinationen von Bewegungen oder Verschiebungen, Dehnungen oder Dreh­ ungen. Dieses Basistransformationen sind als affine Transformationen bekannt. Jede derartige Manipulation wird arithmetisch durch das Berechnen einer Transformationsmatrix durchgeführt, die mit den Punkten, welche die Scheitelpunkte eines Objektes darstellen, multipliziert wird. Bei Vorgabe einer Menge von Punkten im dreidimen­ sionalen virtuellen Raum, die allgemein als Scheitel­ punkte im Welt Raum bezeichnet werden, kann jeder Schei­ telpunkt nacheinander mit jeder beliebigen Anzahl von Transformationsmatrizen multipliziert werden, wodurch die Durchführung komplexer Manipulationen ermöglicht wird, ohne eine einzige Gleichung für eine der unendlichen Vielzahl möglicher geometrischer Transformationen berech­ nen zu müssen.
Weiterhin wird es durch das sequentielle Multiplizieren mit mehreren Transformationsmatrizen in der Form einer Liste von Transformationen möglich, Transformationsmatri­ zen aus der Liste zu entfernen, um so Effekte, die sich als ungewünscht herausstellen, rückgängig zu machen. Dies ist der generelle Ansatz, der in den meisten zweidimen­ sionalen und dreidimensionalen Grafik-Systemen gewählt wird. Der Prozess der Multiplikation mit einer Liste von Matrizen wird als Matrizenverkettung bezeichnet. Matrizen können für andere spezielle Operationen als die Verände­ rung der Position oder der Form im Welt Raum verwendet werden, einschließlich der Projektion einer Ansicht eines dreidimensionalen Modells in eine zweidimensionale Ebene, wie der eines Videobildes.
Ein nicht intuitiver Aspekt von Transformationsmatrizen ist, daß Matrizen für die Anwendung in zwei Dimensionen durch drei mal drei Matrizen definiert sind, und daß dreidimensionale Transformationen unter Verwendung von vier mal vier Transformationsmatrizen durchgeführt wer­ den. Das Koordinatensystem, das in einem System einer vier mal vier Matrix benutzt wird, ist nicht x, y, z, son­ dern x/w, y/w, z/w und w. Die Variable w ist keine physikalisch meßbare Größe, sondern liefert eine mathematische Darstellung, welche die allgemeine Technik der Matrixver­ kettung möglich macht.
Da in dem Prozess 902 Objekte rekursiv definiert werden können, wird das Objekt in seine kleinsten Objekt-Be­ standteile zerlegt. Dann werden bei der Rückwärtsbearbei­ tung der rekursiven Datenstruktur bei jedem Niveau Trans­ formationen auf die Liste der Scheitelpunkte verkettet, die zur Bildung des Objekts dem momentanen Niveau der Re­ kursion definiert sind. Auf diese Weise kann z. B. der Propeller eines virtuellen Modells eines Flugzeugs rotie­ ren. Dieser Propeller ist selbst Teil eines größeren Ob­ jekts, dem Flugzeug, das von einer Seite des Studios zur anderen fliegt. Somit wird eine Transformation der Rota­ tion für das Objekt des Propellers verkettet, und dann werden Transformationen für das Objekt des Flugzeugs ver­ kettet, welche die Flugbahn definieren. Betrachtet man einen einzelnen Scheitelpunkt des Propellers, so wird dieser eine Rotation und die verschiedenen damit verket­ teten Transformationen der Flugbahn aufweisen, während andere Teile des Flugzeugs nur die Transformationen der Flugbahn aufweisen werden. Dies ist daher der hoch struk­ turierte Ansatz für die dreidimensionale Modellierung, der bei der Definition von Objekten zur Benutzung in einem virtuellen Studio gewählt wird.
Im Prozess 903 (verkette Betrachtungsmatrix) wird zusätz­ lich zu den anderen Transformationen, die bereits verket­ tet wurden, eine Betrachtungsmatrix verkettet. Die Be­ trachtungsmatrix ist eine spezielle Matrix, die durch den Ort der reellen Kamera definiert ist und benötigt wird, um die Projektion des dreidimensionalen Welt Raums auf eine zweidimensionale Ebene vereinfachen, die durch den Prozess 904 durchgeführt wird.
Der Welt Raum, in dem Objekte durch den Szenenbaum defi­ niert sind, kann als ein festes Volumen betrachtet wer­ den, in dem jeder Punkt durch x,y,z-Koordinaten definiert ist; dabei ist aber das Vier-Koordinatensystem (x/w, y/w, z/w und w) bevorzugt. Der anfängliche, nicht transfor­ mierte Zustand jedes Schnittpunktes hat den Wert w = 1, so daß x/w, y/w und z/w tatsächlich gleich x, y und z sind, bevor die Transformationen angewendet wurden. Auf einer Stufe des Wiedergabeprozesses wird es notwendig sein, ein Bild auf eine zweidimensionale Ebene zu proji­ zieren, die als Ebene des fokussierten Bildes in der vir­ tuellen Kamera angesehen werden kann, und als Bild der virtuellen Welt, das auf einem Monitor angezeigt würde.
Diese zweidimensionale Projektion hat einen variablen Winkel gegenüber den x, y und z-Achsen des virtuellen Welt Raumes. Eine Gleichung kann benutzt werden, um diese Ebene in Größen der x, y und z-Koordinaten des Welt Rau­ mes zu definieren. Dann wäre es vielleicht möglich, unter Benutzung elementarer geometrischer Gleichungen dieses dreidimensionale Modell auf diesen Raum zu projizieren. In drei Dimensionen erfordert dieser Ansatz erheblichen Rechenaufwand, und eine einfachere Lösung besteht darin, alle Objekte im Welt Raum derart zu drehen und zu bewe­ gen, daß die Projektionsebene durch die xy-Achsen defi­ niert und senkrecht zu der z-Achse ist. Auf diese Weise bewirkt die im Prozess 903 durchgeführte Verkettung der Betrachtungsmatrix eine Drehung und Bewegung jedes Ob­ jekts im Welt Raum, so daß das Koordinatensystem für den Ort der Projektionsebene normalisiert ist. Eine andere Art, dies zu betrachten ist, daß die virtuelle Kamera still stehen bleibt, während die virtuelle Welt um sie herum bewegt wird; entsprechend einer festen realen Welt, die durch eine sich bewegende reale Kamera betrachtet wird. Die relativen Bewegungen sind gleich.
Im Prozess 904 (verkette Betrachtungsmatrix) wird die perspektivische Projektion des momentan ausgewählten Ob­ jekts auf die Projektionsebene durch Verkettung einer Projektionsmatrix ausgeführt. Es ist jedoch zu beachten, daß die z-Koordinate nicht verworfen oder gleich Null ge­ setzt wird, da sie benötigt wird, um das Entfernen ver­ deckter Oberflächen durchzuführen.
Im Prozess 905 (Objektauswahl) wird eine Auslese der Ob­ jekte durchgeführt. Objekte, die außerhalb des x,y-Koor­ dinatenbereichs der Projektionsebene liegen, werden ver­ worfen, ebenso wie Objekte, die zu dicht an oder zu weit entfernt von der virtuellen Kamera sind; andernfalls wer­ den beispielsweise Objekte, die hinter der virtuellen Ka­ mera sind, vielleicht in invertierter Form dargestellt, wenn sie überhaupt nicht dargestellt werden sollten.
Im Prozess 907 (füge Objekt der Bildliste hinzu) werden die resultierenden Scheitelpunkte der Bildliste hinzuge­ fügt, zusammen mit einem Verweis auf die Objektgrundfor­ men, welche sie definieren, und anderen Einzelheiten wie die Art von Oberfläche, Struktur, spiegelnde Reflektivi­ tät usw.. Diese Information wird später in dem Grafik- Wiedergabeprozessor 509 benutzt, der hoch optimierte Schaltungen für die Übersetzung dieser Information in Bildpixeldaten in Echtzeit hat.
Im Prozess 908 (weiteres Objekt?) wird die Frage ge­ stellt, ob irgendwelche weiteren Objekte verblieben sind, die der Bildliste hinzugefügt werden sollen. Wenn keine anderen Objekte vorhanden sind, wird die Bildliste der Grafikdatenleitung (pipeline) des Wiedergabeprozessors 509 zugeführt (Prozess 909, Ausgabe der Bildliste an den Wiedergabeprozessor). Der Aufbau der Bildliste nimmt eine beträchtliche Zeit in Anspruch, die von der Anzahl und der Komplexität der Objekte und Transformationen abhängt, die sie definiert. Auf diese Weise wird die Bildliste vielleicht rechtzeitig vor dem nächsten Bild produziert, oder erfordert vielleicht länger als die Dauer eines Ein­ zelbildes zur Berechnung. Die Grafikdatenleitung ist ein Konzept, das Bildlisten mit Videobildausgängen synchroni­ siert. Wenn eine Bildliste zu früh ist, wird sie somit in der Datenleitung gespeichert, bis sie benötigt wird. Wenn die Bildliste nicht rechtzeitig vor dem nächsten Bild er­ zeugt werden kann, wird die vorausgehende Bildliste be­ nutzt, wodurch die sichtbaren Effekte minimiert werden. Offensichtlich wird diese Situation soweit wie möglich vermieden, da sie die Realitätstreue des resultierenden Bildes reduziert.
Aufgrund der in dem System durchgeführten Menge an Paral­ lelbearbeitung tritt eine Verzögerung von wenigen Bildern auf. Daher ist das Bild der kombinierten virtuellen Welt und der realen Welt merklich um den Bruchteil einer Se­ kunde gegenüber der realen Zeit verzögert. Diese Verzöge­ rung ist mit der Rechenkapazität der zur Wiedergabe der virtuellen Bilder benutzten Computerhardware verknüpft und wird voraussichtlich geringer, wenn mehr Rechenlei­ stung verfügbar wird.
Die Folge der in Fig. 9 dargestellten Schritte resultiert in einem Bild, das von dem Wiedergabeprozessor 509 ge­ zeichnet wird. Alle von der virtuellen Kamera betrachte­ ten Objekte haben einen scharfen Fokus, wogegen nur die­ jenigen Objekte, die in der Schärfenebene des realen Stu­ dios liegen, einen solchen scharfen Fokus haben werden. Daher wird, wenn die reale Kamera 103 auf die in Fig. 2 dargestellte Statue 203 zoomen wird, der virtuelle Hin­ tergrund 204 perfekt im Fokus und somit scharf bleiben. Daraus resultiert eine Abweichung zu einem idealen virtu­ ellen Studio, in dem alle Objekte, egal ob real oder vir­ tuell, in einem einzigen zusammenhängenden Studio zu exi­ stieren scheinen und durch eine Kameraoptik betrachtet werden, die nicht zwischen realen und virtuellen Bildern unterscheidet.
Eine verbesserte Prozedur ist in Fig. 10 dargestellt. Im Prozess 1001 wird ein Zähler N auf den Wert Null zurück­ gesetzt. Im Prozess 1002 (lösche RGB- und z-Pufferspei­ cher) werden vier Pufferspeicher für Pixelebenen auf Null zurückgesetzt. Jeder Pufferspeicher enthält einen einzel­ nen Speicherplatz für jedes Pixel, wobei jeder Speicher­ platz von einer bestimmten Anzahl Bits definiert ist, die von der gewünschten Genauigkeit abhängt. Auf diese Weise gibt es Pufferspeicher für Pixelebenen für Pixel mit roter, grüner und blauer Farbe. Zusätzlich wird ein z-Pufferspeicher benutzt, um durch das Speichern eines z-Wertes für jedes Pixel das Entfernen verdeckter Ober­ flächen zu erleichtern. Bei der Wiedergabe jedes Objektes werden rote, grüne und blaue Pixel nur dazugeschrieben, wenn der z-Wert für das neue Objekt größer als der momen­ tan in dem z-Pufferspeicher für dieses Pixel gespeicherte z-Wert ist.
Im Prozess 1003 (berechne veränderte Projektionsmatrix) wird eine Projektionsmatrix berechnet, in der die Posi­ tion der virtuellen Kamera geringfügig in den x- und y-Ebenen verschoben ist. Die Matrix wird derart berech­ net, daß das Ausmaß der Verschiebung proportional zu dem z-Wert des projizierten Scheitelpunkts ist. Die Ebene im Fokus wird betrachtet, als ob sie einen z-Wert von Null hat. Objekte vor oder hinter der Ebene im Fokus haben zunehmend größere, in negativer oder positiver Richtung, z-Werte, was zu einer zunehmenden Größe der Verschiebung führt. Die Ebene im Fokus ist aus der Messung der Ver­ stellung des Entfernungseinstellringes der Linse 104 der realen Kamera 103 bekannt, die in Verbindung mit Kalibra­ tionsdaten für diese spezielle Linse benutzt wird, um einen speziellen z-Wert für die Ebene im Fokus für jedes Videobild, das von der Kamera erzeugt wird, zu bestimmen.
Auf diese Weise wird diese Information, wenn der Kamera­ mann den Entfernungseinstellring an der Linse manuell verstellt, an den Grafikprozessor übermittelt und für die Berechnung einer Betrachtungsmatrix benutzt, die im Schritt 903 der Fig. 9 auf Scheitelpunkte von Objekten derart verkettet wird, daß die Position der Ebene im Fokus immer auf einen z-Wert von Null normalisiert wird, bevor die Projektion im Schritt 904 durchgeführt wird.
Im Schritt 1004 (zeichne Szene) wird die Szene in Über­ einstimmung mit den in Fig. 9 dargestellten Prozessen dargestellt. Dies führt zu einem bestimmten Bild, das im Speicher gespeichert wird und die Ansicht darstellt, die durch die im Prozess 1003 berechnete Projektionsmatrix erzeugt wird. Im Prozess 1005 (sammle veränderte Projek­ tion der Szene in die Pufferspeicher) wird dieses Bild mit zuvor erzeugten, aus der veränderten Projektionsma­ trix resultierenden Bildern gesammelt. Auf diese Weise wird jedes für die momentane Iteration der Szene erzeugte Pixel mit vorherigen Iterationen der Szene angesammelt. In einem großen festen Objekt, das außerhalb der Fokus­ ebene angeordnet ist, wird der größte Teil der Fläche des wiedergegebenen Objektes das Ergebnis mehrerer Iteratio­ nen von verschiedenen angesammelten Szenendarstellungen sein. An den Rändern des Objektes wird jedoch aufgrund des geringen Versatzes in den x- und y-Richtungen jeder dargestellten Szene eine Anzahl weniger intensiver Wie­ dergaben des Objektes sein, wodurch die Illusion der De­ fokussierung hervorgerufen wird.
Im Prozess 1006 (erhöhe N) wird der Zähler N erhöht. Im Prozess 1007 (N = Qualität?) wird die Frage gestellt, ob der Wert von N jetzt gleich einem vorbestimmten Wert ist. Wenn N kleiner als dieser Wert ist, wird die Kontrolle dem Prozess 1002 übergeben, und eine andere Version der Szene wird dargestellt, und zwar diesmal von einem ge­ ringfügig anderen Betrachtungspunkt. Auf diese Weise hängt die Anzahl, wie oft diese Schleife durchlaufen wird, von der geforderten Qualität der Defokussierung ab. Offensichtlich erfordert es Zeit, um eine Szene mehrmals darzustellen, und verschiedene Qualitätsstufen können entsprechend ausgewählt werden.
Im Prozess 1008 (teile gesammelte Pufferspeicherinhalte durch N) werden die angesammelten Inhalte des Pufferspei­ chers durch N dividiert, der Anzahl von Durchläufen der Schleife. Auf diese Weise wird ein rotes Pixel, das den wahren Farbwert 15 hat, acht mal auf die angesammelte Pi­ xelebene geschrieben, so daß der resultierende gesammelte rote Pixelwert 120 sein wird. Durch Division dieses Wer­ tes durch N wird der wahre Farbwert 15 zurückgewonnen. Wenn das rote Pixel am Rand eines defokussierten Objektes war, ist es möglich, daß mehrere verschiedene Rotwerte gesammelt werden. Die Division durch N liefert den Mit­ telwert dieser Werte, der im Endbild benutzt wird, so daß auf diese Weise eine für den Defokussierungseffekt erfor­ derliche Änderung in der Farbintensität erreicht wird. Wenn die Inhalte des Pufferspeichers im Prozess 1008 durch N dividiert wurden, wird die Kontrolle an den Pro­ zess 1009 (Defokussierung beendet) übergeben, wodurch bekannt ist, daß die Defokussierung für das momentane Bild beendet ist.
Die im Prozess 1003 der Fig. 10 verwendete veränderte Projektionsmatrix ist in Fig. 11 dargestellt. Ebenfalls dargestellt sind in dieser Figur Gleichungen zur Berech­ nung von dx und dy, welche die kleinen, in x und y be­ nutzten Inkremente sind, um den Defokussierungseffekt zu erzeugen. dx und dy hängen jeweils von verschiedenen an­ deren Variablen ab, die an anderer Stelle in dem Grafik­ system definiert sind, einschließlich kx und ky. kx und ky sind experimentell bestimmte Konstanten, die das Aus­ maß der in jeder Iteration der Defokussierungsschleife erzeugten Verschiebung definieren. Andere Werte sind rechts, links, oben und unten, welche die minimalen und maximalen x- und y-Werte für die Projektionsebene sind. Die Fenster-Auflösungen in x und y werden verwendet, so daß kx und ky in Werten von Pixeleinheiten definiert wer­ den können.
Die Operation einer vier mal vier Matrix ist in den Fig. 12A, 12B und 12C dargestellt. In Fig. 12A ist eine vier mal vier Transformationsmatrix dargestellt. Wie oben erläutert, werden aus Gründen der mathematischen Berech­ nung vier Dimensionen benutzt. Die vierte Dimension ist w, und die physikalischen x, y und z-Dimensionen sind durch x/w, y/w und z/w ersetzt. Typischerweise beginnen Scheitelpunkte mit einem w-Wert von eins. Nur bei der perspektivischen Betrachtung oder bei einer bestimmten Anzahl anderer, ungewöhnlicher Transformationen tritt der Fall auf, daß ein Scheitelpunkt einen von eins abweichen­ den Wert für w aufweist.
In Fig. 12A stellen die vertikalen Spalten x'/w', y'/w', z'/w' und w' Ausgänge dar, während die horizontalen Spalten die x/w, y/w, z/w und w-Eingänge darstellen. An jedem Schnittpunkt einer Zeile und einer Spalte befindet sich ein Wert oder eine Funktion, die berechnet werden kann. Die Kombinationen dieser Funktionen definieren, wie Scheitelpunkt-Eingangs-Koordinaten x/w, y/w, z/w, w in ihre entsprechenden x'/w', y'/w', z'/w' und w'-Koordina­ ten umgeformt werden. Die Beziehungen zwischen Eingangs­ koordinaten und Ausgangskoordinaten sind gemäß den in Fig. 12B dargestellten Gleichungen definiert. Es ist zu erkennen, daß jede Ausgangskoordinate durch jede mathema­ tische Abhängigkeit von den vier Eingangskoordinaten de­ finiert werden kann.
Typischerweise werden in den meisten Matrizen viele der Matrixwerte gleich Null gesetzt, so daß z. B. x'/w' nicht von y/w abhängt, wenn b gleich Null gesetzt ist. Die Stärke der zusätzlichen w-Koordinate wird bei Betrachtung der Fig. 12C ersichtlich. Hier werden die x', y' und z'-Koordinaten aus x'/w', y'/w', z'/w' und w' zurückge­ wonnen. Die Werte x', y' und z' können alle verändert werden, wenn der Wert von w' an einer Stelle in den Ma­ trixberechnungen geändert wurde. Diese Tatsache ermög­ licht es, weitaus komplexere Gleichungen in Matrixform darzustellen, als wenn nur drei physikalische Dimensionen benutzt werden. Diese Art von Koordinaten sind als homo­ gene Koordinaten bekannt.
Es ist daher möglich, die von der in Fig. 11 abgebildeten Matrix dargestellten Operationen in direkter algebrai­ scher Form auszuschreiben. Hier ist zu erkennen, daß die Abweichung in x und y proportional zu z gemacht ist, so daß keine Abweichung für Objekte in der Ebene im Fokus auftritt, für die z gleich Null ist. Die anderen Aspekte dieser Gleichungen beziehen sich auf die Projektion einer Linie von einem Scheitelpunkt durch eine vertikale, zweidimensionale Ebene bei der Ebene im Fokus, durch den vor­ deren Knotenpunkt der Kameralinse. Der vordere Knoten­ punkt der Linse ist der Punkt, in dem Strahlen theore­ tisch konvergieren. Dieser Punkt ändert sich in Abhängig­ keit von der Brennweitenposition. Somit wird der vordere Knotenpunkt aus der momentanen Position der Zoomlinse in Verbindung mit Kalibrationsdaten für die Linse, aus denen der vordere Knotenpunkt bestimmbar ist, berechnet.
Fig. 14 zeigt den Effekt der wiederholten Verschiebung des Betrachtungspunktes auf ein Objekt, das sich außer­ halb der Ebene im Fokus befindet. Der Hauptteil des Ob­ jektes hat seinen wahren Farbwert, wogegen die Ränder hinsichtlich ihrer Intensität entsprechend der Anzahl, mit der die Rot-, Grün- und Blauwerte für das Objekt in den entsprechenden Pixelpufferspeichern gesammelt wurden, abweichen.
Fig. 15 zeigt eine Ansicht von oben auf die Ebene eines virtuellen Szenenaufbaus. Zwei (virtuelle) Kamerapositio­ nen 1501 und 1502 sind durch einen Abstand dx entfernt, der gemäß der in Fig. 11 dargestellten Gleichung berech­ net ist. Die (fokussierten virtuellen) Objekte 1504, 1505 und 1506 in der Fokusebene 1503 verschieben sich nicht, da ihre z-Koordinate Null ist. Ein weit von der Fokus­ ebene 1503 entferntes virtuelles (defokussiertes) Objekt 1507 wird beträchtlich verschoben. Fig. 15 zeigt die Si­ tuation nach zwei Iterationen der in Fig. 10 dargestell­ ten Defokussierungsschleife. In der Praxis wird üblicher­ weise eine größere Zahl von Iterationen als notwendig an­ gesehen werden, um einen geeigneten Grad an Qualität zu erreichen, wobei eine typische Anzahl im Bereich zwischen vier und acht liegt.

Claims (11)

1. Verfahren zum Bearbeiten von Bilddaten, bei dem von einer Kamera (103) erzeugte Daten eines reellen Bil­ des mit Daten eines synthetisch gebildeten Bildes kombiniert werden, umfassend folgende Schritte:
  • - Erzeugen von Positionsdaten (403) der Kamera (103), die Merkmale der Kamera (103) darstellen, ein­ schließlich einer Angabe über die Steuerung der Brennweite,
  • - Erzeugen eines synthetisch gebildeten Bildes in Ab­ hängigkeit von den Positionsdaten (403) und
  • - Einstellen des wahrgenommenen Fokus des synthetisch gebildeten Bildes in Abhängigkeit von der Einstel­ lung der Steuerung der Brennweite, um einen Fokus­ sierungsunterschied zwischen einem Teil des reellen Bildes und einem Teil des synthetisch gebildeten Bildes zu bewirken.
2. Verfahren nach Anspruch 1, bei dem ein Bereich des synthetisch gebildeten Bildes defokussiert wird, um seinen Ort hinter dem Teil des reellen Bildes zu be­ tonen.
3. Verfahren nach Anspruch 1, bei dem ein Teil des syn­ thetisch gebildeten Bildes defokussiert wird, um sei­ nen Ort vor dem Teil des reellen Bildes zu betonen.
4. Verfahren nach den Ansprüchen 2 und 3, bei dem das Defokussieren eines synthetisch gebildeten Bildes das Defokussieren von Teilen sowohl hinter als auch vor dem reellen Bild umfaßt.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem die Defokussierung durch eine Variation von Projekti­ onsmatrizen bewirkt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem die Defokussierung mehrmals durchgeführt wird, wobei die Anzahl der Durchführungen einstellbar ist.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem berechnete Pixelwerte bei jeder Iteration gesammelt und die gesammelten Werte durch die Anzahl der durch­ geführten Iterationen dividiert werden.
8. Vorrichtung zum Bearbeiten von Bilddaten, umfassend
eine Kamera (103) zum Erzeugen von Daten eines reel­ len Bildes (402),
ein Synthetisierungsmittel zum synthetischen Bilden von Bilddaten,
Mittel zum Erzeugen von Positionsdaten, die Kamerapo­ sitionsdaten (403) erzeugen, die Merkmale der Kamera (103) darstellen, einschließlich einer Angabe über die Steuerung der Brennweite, wobei
das Synthetisierungsmittel zum Bilden eines synthe­ tisch gebildeten Bildes in Abhängigkeit von den Posi­ tionsdaten (403) ausgebildet ist und
das Synthetisierungsmittel zum Einstellen des wahrge­ nommenen Fokus des synthetisch gebildeten Bildes in Abhängigkeit von der Steuerung der Brennweite ausge­ bildet ist, um einen Fokussierungsunterschied zwischen einem Teil des reellen Bildes und einem Teil des synthetisch gebildeten Bildes zu bewirken.
9. Vorrichtung nach Anspruch 8, in der das Synthetisie­ rungsmittel zum Defokussieren eines Teiles des syn­ thetisch gebildeten Bildes ausgebildet ist, um seinen Ort hinter dem Teil des reellen Bildes zu betonen.
10. Vorrichtung nach Anspruch 8, in der das Synthetisie­ rungsmittel zum Defokussieren eines Teiles des syn­ thetisch gebildeten Bildes ausgebildet ist, um seinen Ort vor dem Teil des reellen Bildes zu betonen.
11. Vorichtung nach Anspruch 8, umfassend Mittel zum An­ sammeln von Pixelwerten, die von einer Mehrzahl von Defokussierungsoperationen gebildet werden.
DE19714101A 1996-04-11 1997-04-05 Verfahren und Vorrichtung zum Bearbeiten von Bilddaten Expired - Fee Related DE19714101C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GBGB9607541.1A GB9607541D0 (en) 1996-04-11 1996-04-11 Processing image data

Publications (2)

Publication Number Publication Date
DE19714101A1 DE19714101A1 (de) 1997-10-30
DE19714101C2 true DE19714101C2 (de) 2003-02-20

Family

ID=10791909

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19714101A Expired - Fee Related DE19714101C2 (de) 1996-04-11 1997-04-05 Verfahren und Vorrichtung zum Bearbeiten von Bilddaten

Country Status (5)

Country Link
US (1) US5949433A (de)
CA (1) CA2201680C (de)
DE (1) DE19714101C2 (de)
GB (1) GB9607541D0 (de)
IL (1) IL120539A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020119601A1 (de) 2020-07-24 2022-01-27 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrundwiedergabesystem

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19716958A1 (de) * 1997-04-17 1998-10-22 Zbigniew Rybczynski Optisches Abbildungssystem
US6392665B1 (en) * 1997-05-29 2002-05-21 Sun Microsystems, Inc. Capture mechanism for computer generated motion video images
CA2239279C (en) * 1997-06-02 2002-04-23 Nippon Telegraph And Telephone Corporation Image generating apparatus and method
JP3559154B2 (ja) * 1997-11-10 2004-08-25 富士通株式会社 三次元モデル作成装置及び方法並びに三次元モデル作成プログラムを記録したコンピュータ読み取り可能な記録媒体
GB2334643A (en) 1998-02-20 1999-08-25 Discreet Logic Inc Generating registration data for a virtual set
GB2336057B (en) 1998-04-02 2002-05-08 Discreet Logic Inc Producing image data in a virtual set
JP3646969B2 (ja) * 1998-05-25 2005-05-11 富士通株式会社 3次元画像表示装置
DE19829658C2 (de) * 1998-07-02 2001-10-31 Gerhard Haidinger Virtuelles Studio
US6646687B1 (en) * 1999-04-16 2003-11-11 Ultimatte Corporation Automatic background scene defocusing for image compositing
AU2000267822A1 (en) * 2000-03-08 2001-09-17 Mitchell Kriegman An improved method and apparatus for enhanced puppetry or similar types of performances utilizing a virtual set
US6870574B2 (en) * 2000-03-08 2005-03-22 Mitchell Kriegman Method and apparatus for enhanced puppetry or similar types of performances utilizing a virtual set
FR2810830B1 (fr) * 2000-06-23 2002-09-27 Symah Vision Procede et dispositif de calibration de camera
NO20014275L (no) * 2000-09-08 2002-03-11 Fraunhofer Ges Forschung Fremgangsmåte for å lage et bilde i et virtuelt studio
ES2377193T3 (es) * 2000-10-25 2012-03-23 Shotoku Ltd. Procedimiento de captación de imagen y sistema de captación de imagen
GB2370738B (en) * 2000-10-27 2005-02-16 Canon Kk Image processing apparatus
JP4731703B2 (ja) * 2001-02-22 2011-07-27 キヤノン株式会社 眼科装置
JP3719590B2 (ja) * 2001-05-24 2005-11-24 松下電器産業株式会社 表示方法及び表示装置ならびに画像処理方法
US6995762B1 (en) * 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
KR100739676B1 (ko) * 2003-07-31 2007-07-13 삼성전자주식회사 그래픽 데이터를 포함하는 정보저장매체, 그 처리장치 및처리방법
US7164462B2 (en) * 2004-03-03 2007-01-16 Louise Lamarre Filming using rear-projection screen and image projector
US7852353B1 (en) * 2005-03-31 2010-12-14 Apple Inc. Encoding a transparency (alpha) channel in a video bitstream
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US20090153550A1 (en) * 2007-12-18 2009-06-18 Disney Enterprises, Inc. Virtual object rendering system and method
US8279325B2 (en) 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8908058B2 (en) * 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US20120002061A1 (en) * 2010-07-01 2012-01-05 Gay Michael F Systems and methods to overlay remote and local video feeds
US8768102B1 (en) 2011-02-09 2014-07-01 Lytro, Inc. Downsampling light field images
US9184199B2 (en) 2011-08-01 2015-11-10 Lytro, Inc. Optical assembly including plenoptic microlens array
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
WO2013155203A2 (en) * 2012-04-13 2013-10-17 Lightcraft Technology Llc Hybrid precision tracking
CN104303493A (zh) 2012-05-09 2015-01-21 莱特洛公司 用于改进的光场捕获和操作的光学系统的优化
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US8997021B2 (en) 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9456141B2 (en) 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus
JP5770214B2 (ja) * 2013-03-06 2015-08-26 オリンパス株式会社 撮像操作端末、撮像システム、ソフトウェア抽出方法及びプログラム
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9305375B2 (en) 2014-03-25 2016-04-05 Lytro, Inc. High-quality post-rendering depth blur
EP3185747B8 (de) 2014-08-31 2025-11-12 Berestka, John Systeme zur analyse des auges
US9635332B2 (en) 2014-09-08 2017-04-25 Lytro, Inc. Saturated pixel recovery in light-field images
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US9958267B2 (en) * 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
GB2635586A (en) 2023-11-07 2025-05-21 Lightfield Medical Inc Systems and methods for analyzing the eye

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
EP0669758A1 (de) * 1993-09-06 1995-08-30 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Verarbeitungs-und anzeigevorrichtung für zeitlich variable bilder
DE19518891A1 (de) * 1994-05-25 1995-11-30 Grass Valley Group Verfahren und Vorrichtung zur Durchführung einer programmierbaren Videotransformation
US5479597A (en) * 1991-04-26 1995-12-26 Institut National De L'audiovisuel Etablissement Public A Caractere Industriel Et Commercial Imaging system for producing a sequence of composite images which combine superimposed real images and synthetic images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751927A (en) * 1991-03-26 1998-05-12 Wason; Thomas D. Method and apparatus for producing three dimensional displays on a two dimensional surface
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
US5479597A (en) * 1991-04-26 1995-12-26 Institut National De L'audiovisuel Etablissement Public A Caractere Industriel Et Commercial Imaging system for producing a sequence of composite images which combine superimposed real images and synthetic images
EP0669758A1 (de) * 1993-09-06 1995-08-30 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Verarbeitungs-und anzeigevorrichtung für zeitlich variable bilder
DE19518891A1 (de) * 1994-05-25 1995-11-30 Grass Valley Group Verfahren und Vorrichtung zur Durchführung einer programmierbaren Videotransformation

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FUKUI, Kazuo *
HAYASHI, Masaki *
SOMMERHÄUSER, Frank: Das virtuelle Studio. Grund- lagen einer neuen Studioproduktionstechnik, Fernseh- und Kino-Technik (FKT), Nr. 1-2, 50. Jg.,1996, S. 11-22 *
YAMANOUCHI, Yuko: A Virtual Studio System for TV Program Production SMPTE Journal, June 1994, S. 386-390 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020119601A1 (de) 2020-07-24 2022-01-27 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrundwiedergabesystem
US11665307B2 (en) 2020-07-24 2023-05-30 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Background display system
US12212875B2 (en) 2020-07-24 2025-01-28 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Background display system

Also Published As

Publication number Publication date
GB9607541D0 (en) 1996-06-12
CA2201680A1 (en) 1997-10-11
IL120539A (en) 2000-02-17
DE19714101A1 (de) 1997-10-30
CA2201680C (en) 2004-05-25
IL120539A0 (en) 1997-07-13
US5949433A (en) 1999-09-07

Similar Documents

Publication Publication Date Title
DE19714101C2 (de) Verfahren und Vorrichtung zum Bearbeiten von Bilddaten
DE69430182T2 (de) Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive
EP4020973B1 (de) Hintergrund-wiedergabeeinrichtung, hintergrundwiedergabesystem, aufnahmesystem, kamerasystem, digitale kamera und verfahren zum steuern einer hintergrund-wiedergabeeinrichtung
DE69425481T2 (de) Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive
DE69635347T2 (de) Verfahren und system zum wiedergeben und kombinieren von bildern
DE60218317T2 (de) Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen
DE19825302B4 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
EP3944604B1 (de) Hintergrundwiedergabesystem
DE69506856T2 (de) Verbessertes chromakey-system
DE69221346T2 (de) Vorrichtung und Verfahren zur Erstellung stereoskopischer Bilder
DE3686233T2 (de) Videosignalverarbeitung.
DE69832611T2 (de) Computergrafiksystem
US5533181A (en) Image animation for visual training in a simulator
DE69411849T2 (de) Verfahren zur Verarbeitung von Luminanzpegel in einem zusammengesetzten Bild und Bildverarbeitungssystem zur Anwendung dieses Verfahrens
DE69329049T2 (de) Methode zur Verarbeitung von Daten, die dreidimensionale graphische Objekte repräsentieren
DE69022349T2 (de) Verfahren zur Herstellung einer Anzeigevorrichtung mit Beugungsgitterstrukturen.
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE19815106B4 (de) Verfahren zum Messen von Kamera- und Linseneigenschaften zur Kameranachführung
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE69714969T2 (de) Verbesserte tiefenschärfe für fotografie
DE112011100538T5 (de) Verfahren zur Darstellung einer dreidimensionalen Anfangsszene aufgrund der Bildaufnahmeergebnisse in einer zweidimensionalen Projektion (Ausgestaltungen)
DE29522001U1 (de) Vorrichtung zur Herstellung einer Bildsequenz
DE69622900T2 (de) Verfahren und Gerät zur dreidimensionalen Bildverarbeitung
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8304 Grant after examination procedure
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: PATENTANWAELTE JANY & MOMMER PARTNERSCHAFT, 76137 K

8339 Ceased/non-payment of the annual fee