Verfahren und Datenverarbeitungssystem zur Synthese von Bildern
HINTERGRUND DER ERFINDUNG
1. Gebiet der Erfindung
Die Erfindung betrifft ein Verfahren zum Erstellen einer zweiten Abfolge von Einzelbildern mittels einer ersten Abfolge von Einzelbildern, wobei die Einzelbilder der ersten Abfolge von Einzelbildern mithilfe eines Objektivs aufgenommen wurden. Insbesondere betrifft die Erfindung ein softwarebasiertes Verfahren für die Modifikation oder/und das Erstellen von bewegten Bildern aufgrund vordefinierter Parameter.
2. Beschreibung des Standes der Technik
Heutzutage werden Animationen beispielsweise für Spielfilme, Computerspiele, medizini sche Bildgebung, Sicherheitsanwendungen zur Gesichtserkennung, bei computerbasierten Simulationen, bei Virtual-Reality-Anwendungen oder auch in der industriellen Messtechnik mittels Bildsynthese, auch Rendern oder Rendering genannt, erzeugt. Eine beispielsweise dabei angewandte Technik sieht vor, den virtuellen Strahlengang von einem virtuellen Sensorpunkt durch eine virtuelle Lochkamerablende in eine virtuelle dreidimensionale Szene zu berechnen und dem Sensorpunkt die entsprechende Farbe und Intensität je nach Auftreffpunkt in der virtuellen Szene zuzuordnen.
Oftmals besteht der Wunsch, mit dieser Form der Bildsynthese erzeugt Filmsequenzen mit real gefilmten Szenen zu überlagern bzw. zu vereinen. Es soll also beispielsweise in eine real gefilmte Bildfolge, die beispielsweise eine Studiosituation mit realen Schauspielern zeigt, eine Bildfolge mit wie beschrieben erzeugten Bildinhalten, die beispielsweise virtu elle, computeranimierte Lebewesen oder Hintergründe zeigt, eingebettet werden.
Dabei besteht das Bestreben, die in die reale Bildfolge einzubettenden Bildinhalte so naht- los wie nur möglich zu integrieren. Je nach Bildinhalt kommt es dabei nicht unbedingt da rauf an, dem Betrachter zu suggerieren, es handle sich tatsächlich um realen Inhalt, son dern es soll vielmehr der Eindruck erzeugt werden, dass der gesamte Bildinhalt nativ ohne
Nachbearbeitung entstanden ist. Für diesen Eindruck wird momentan ein großer Aufwand betrieben, der in erster Linie Bild-für-Bild-Manipulationen in der Post-Produktion umfasst. Dabei werden mittels Bildbearbeitungsprogrammen Änderungen an einzelnen Bildinhalten vorgenommen mit dem Ziel, diese möglichst gut in die real gefilmte Szenerie einzupassen. Diese Bildnachbearbeitungen müssen größtenteils manuell vorgenommen werden und ba sieren auf Erfahrungswerten. Für ein überzeugendes Seherlebnis ist es entscheidend, dass die einmodellierten Spezialeffekte gewissermaßen mit dem realen Bildinhalt verschmelzen und der Betrachter keinen Bruch wahrnimmt. Die für die entsprechende Situation zutref fenden Einstellungen (FOV, Öffnung, Eintrittspupille, Lage, Brennweite, etc.) werden mittels physikalischer Modelle simuliert.
ZUSAMMENFASSUNG DER ERFINDUNG
Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erstellen einer zweiten Abfolge von Einzelbildern mittels einer ersten Abfolge von Einzelbildern anzugeben, das die oben genannten Anforderungen erfüllt, einen höheren Grad an nahtloser Integration liefert und gleichzeitig einen geringeren manuellen Aufwand erfordert. Diese Aufgabe wird durch ein Verfahren gemäß dem unabhängigen Anspruch 1 gelöst.
Das erfindungsgemäße Verfahren zum Erstellen einer zweiten Abfolge von Einzelbildern mittels einer ersten Abfolge von Einzelbildern, wobei die Einzelbilder der ersten oder der zweiten Abfolge von Einzelbildern mithilfe eines Objektivs aufgenommen wurden, umfasst die Schritte eines Bestimmens der Eigenschaften eines Lichtstrahls innerhalb des Objektivs für die Einzelbilder der ersten Abfolge und des Erstellens oder Anpassens der Einzelbilder der zweiten Abfolge unter Berücksichtigung der Eigenschaften eines Lichtstrahls innerhalb des Objektivs des jeweiligen Einzelbilds der ersten Abfolge.
Bei dem Anpassen des Bildinhalts der Einzelbilder der zweiten Abfolge kann es sich um ein nachträgliches Umrechnen bereits errechneter oder anderweitig erzeugter Einzelbildfolgen handeln. Dabei können beispielsweise die Einzelbilder der ersten Abfolge exakt mit den Bildern der zweiten Abfolge zusammengefügt werden. Bei dem Erstellen der Einzelbilder der zweiten Abfolge kann es sich um ein Erstellen der Einzelbilderfolge mittels eines Ob jektivs, also ein Aufnehmen einer Bildfolge im herkömmlichen Sinn, oder um ein Errechnen
einer Einzelbildfolge im Sinne einer Bildsynthese (Rendering) auf Basis einer virtuellen Szene handeln. Dabei können beispielsweise aus den Bildern der zweiten Abfolge einzelne Elemente wie beispielsweise Personen oder Gegenstände extrahiert und in die Bilder der ersten Abfolge integriert werden. Bei einer bevorzugten Ausführungsform umfasst der Schritt des Bestimmens der Eigen schaften eines Lichtstrahles innerhalb des Objektivs ein Bestimmen der Eintrittspupille und des Sichtfeldes des Objektivs für die Einzelbilder der ersten Abfolge.
Der Schritt des Bestimmens der Eintrittspupille und des Sichtfeldes, auch Field of View (FoV) genannt, des Objektivs ermöglicht es, bei dem Anpassen oder Erstellen des Bildin- halts der Einzelbilder der zweiten Abfolge die genaue Blickrichtung, das von dem Objektiv tatsächlich erfasste Sichtfeld und die Eintrittspupille für die Berechnung oder Umrechnung des Bildinhalts der zweiten Abfolge zu berücksichtigen.
Beispielsweise kann sich bei einem Fokussiervorgang des Objektivs zur Anpassung an ei nen anderen Objektiv-Motiv-Abstand die Eintrittspupille oder /und das Sichtfeld leicht, aber doch merkbar, ändern. Dieser Effekt macht sich unter anderem als Veränderung des Bildausschnitts bemerkbar und ist auch als Pumpen (engl „focus breathing") bekannt. Während dieser Effekt bei Einzelaufnahmen kaum relevant ist, macht er sich bei Filmse quenzen bemerkbar und stellt insbesondere bei der nachträglichen Einfügung von simu lierten oder virtuellen, d.h. errechneten Bildinhalten eine große Herausforderung für die herkömmliche Vorgehensweise dar. Werden hingegen bei der Errechnung der hinzuzufü genden Bildinhalte bereits die Eintrittspupille und das Sichtfeld berücksichtigt, kann ein Zusammenfügen der Bildinhalte auf wesentlich einfachere Weise und vor allem weitge hend ohne manuelle Eingriffe erfolgen.
Eine bevorzugte Ausführungsform der Erfindung umfasst einen Schritt eines Zusammenfü- gens des Bildinhalts einer ersten Abfolge von Einzelbildern und des Bildinhalts einer zwei ten Abfolge von Einzelbildern, wobei das Zusammenfügen ein Anpassen des Bildinhalts der Einzelbilder der zweiten Abfolge an den Bildinhalt der Einzelbilder der ersten Abfolge oder ein Erstellen der Einzelbilder der zweiten Abfolge umfasst, jeweils unter Berücksichti gung der Eintrittspupille und des Sichtfelds des Objektivs des jeweiligen Einzelbilds der
ersten Abfolge. Nachdem das Erzeugen bzw. das Anpassen der zweiten Abfolge von Ein zelbildern unter Kenntnis der Informationen bezüglich der Lage der Eintrittspupille und des Sichtfeldes des Objektivs erfolgte, ist ein Zusammenfügen der beiden Bilderfolgen - beispielsweise ein Überlagern beider Bilderfolgen oder ein Einfügen eines Bildinhalts der zweiten Einzelbildfolge in den Bildinhalt der ersten Bilderfolge - ohne größere Anpassun gen möglich.
Bei einer weiteren Ausführungsform der Erfindung ist vorgesehen, bei dem Schritt des An- passens oder des Erstellens der Einzelbilder neben der Eintrittspupille und des Sichtfeldes eine Position einer Austrittspupille, eine Schärfentiefe, eine gegebenenfalls auch farbab- hängige Vignettierung, eine Verzeichnung, ein Bokeh, einen Farbfehler, einen Fokus, eine Position von Linsenelementen innerhalb eines Objektivs, eine Apertur, eine Belichtungs dauer, eine Farberscheinung oder/und einen Reflex innerhalb der Kamera zu berücksichti gen. Die genannten Parameter können einzeln oder in einer beliebigen Kombination Be rücksichtigung finden. Des Weiteren können auch andere relevante Parameter wie bei- spielsweise die Position von Lichtquellen, die Art der Lichtquelle, die Verteilung und die In tensität von Schatten, eine Bewegungsunschärfe etc. erfasst werden. Bei der Lichtquelle kann beispielsweise die Spektralverteilung des Lichtes, die Abstrahlcharakteristik, die In tensität der Strahlung etc. erfasst werden. Je mehr Eigenschaften des Objektivs oder der Szene bei dem Schritt des Anpassens oder Erstellens zur Verfügung stehen und Berück- sichtigung finden, desto besser ist eine Anpassung des Bildinhalts der zweiten Bildfolge an den der ersten Bildfolge möglich.
Wird eine hinreichend hohe Anzahl der genannten Parameter bei dem Schritt des Anpas sens oder insbesondere des Erstellens der Einzelbilder berücksichtigt, kann bei dem Be trachter der Eindruck erweckt werden, die zusammengefügte Bildfolge wäre ohne ein nachträgliches Zusammenfügen entstanden.
Bei einer Ausführungsform der Erfindung ist vorgesehen, dass der Schritt des Erstellens der Einzelbilder der zweiten Abfolge ein Erstellen der Einzelbilder mittels eines Renderns einer virtuellen Szene umfasst. Dies stellt eine häufige Anforderung dar und kann mittels
der Erfassung der Lage der Eintrittspupille in der Szene und des Sichtfelds des Objektivs für die Einzelbilder der ersten Abfolge auf einfache Weise gelöst werden.
Alternativ hierzu kann bei einer Ausführungsform der Erfindung der Schritt des Anpassens der Einzelbilder der zweiten Abfolge ein Erstellen der Einzelbilder mittels eines Objektivs für eine Kamera vorausgehen. Bei dem Objektiv für die Kamera muss es sich nicht um das gleiche Objektiv handeln, mit dem die erste Abfolge der Einzelbilder aufgenommen wurde. Vielmehr kann aufgrund der Bestimmung der Eintrittspupille und des Sichtfelds eine Umrechnung des Bildinhalts der zweiten Einzelbildfolge derart vorgenommen wer den, dass ein problemloses Zusammenfügen der ersten und der zweiten Abfolge von Ein- zelbildern erfolgen kann.
Bei einer Weiterbildung der Erfindung ist vorgesehen, dass der Schritt des Bestimmens ein Aufzeichnen eines oder mehrerer Abbildungsparameter des Objektivs bei der Aufnahme der ersten Abfolge der Einzelbilder umfasst. Die so für beispielsweise für jedes Einzelbild oder für eine Mehrzahl an Einzelbilder erfassten Abbildungsparameter - wie eben die Ein- trittspu pille, das Sichtfeld, etc. können bei dem Erstellen oder dem Anpassen der zweiten Abfolge der Einzelbilder verwendet werden. Dies reduziert den Aufwand für das Zusam menfügen der ersten und der zweiten Abfolge der Einzelbilder. So können beispielsweise bei einer sogenannten Bluescreen- oder Greenscreen-Aufnahme, bei der Schauspieler oder Gegenstände vor einem neutralen (beispielsweise blauen oder grünen) Hintergrund aufgenommen werden, die bei dieser Aufnahme verwendeten Parameter erfasst, insbe sondere auch zeitaufgelöst, und bei der Erstellung einer virtuellen Szene auf Basis dieser Aufnahme verwendet werden. Dies bietet den Vorteil, dass keine nachträglichen Berech nungen bezüglich der möglicherweise verwendeten Einstellungen vorgenommen werden müssen, die Bildinhalte der beiden Einzelbildfolgen auf einfache Weise zusammengefügt werden können und das Endergebnis sehr realistisch/authentisch wirkt.
Bei einer Weiterbildung dieser Ausführungsform ist vorgesehen, dass die Abbildungspara meter des Objektivs in Echtzeit zur Erstellung der Einzelbilder der zweiten Abfolge verwen det werden. Dies kann beispielsweise dafür eingesetzt werden, eine Greenscreen- /
Bluescreen-Szene während der Entstehung, d.h. der Aufnahme, in Echtzeit an einen Simu lationsrechner weiterzugeben, der in Echtzeit das vorgesehene Zusammenfügen mit be reits vorbereiteten Bildinhalten oder mit im Moment errechneten Bildinhalten vornimmt und auf einer Anzeige wie beispielsweise einem Monitor oder einem Okular darstellt. So- mit kann eine entsprechende Bluescreen- / Greenscreeen-Aufnahme bereits bei der Ent stehung beurteilt und gegebenenfalls korrigiert oder wiederholt werden.
Bei einer Ausführungsform der Erfindung ist vorgesehen, dass der Schritt des Bestimmens der Eigenschaften eines Lichtstrahls für ein erstes Objektiv erfolgt und der Schritt des Er stellens der Einzelbilder der zweiten Abfolge zusätzlich unter Berücksichtigung der Eigen- schäften eines Lichtstrahls innerhalb eines zweiten Objektivs erfolgt. Somit kann beispiels weise eine erste Einzelbildfolge, die mit einem ersten Objektiv (beispielsweise einem Weit winkelobjektiv) aufgenommen wurde, in eine zweite Einzelbildfolge umgerechnet werden, die dann den Eindruck hervorruft, als wäre sie mit einem anderen Objektiv (beispielsweise einem Tele-Objektiv) aufgenommen worden. Bei einer Weiterbildung der Erfindung ist vorgesehen, dass der Schritt des Bestimmens ein Aufzeichnen einer zeitlichen Abfolge von Abbildungsparametern umfasst. Somit können insbesondere bei einer Filmaufnahme, welche die Aufnahme einer Reihe von Einzelbildern in enger zeitlicher Reihenfolge umfasst, für alle Einzelbilder oder für eine bestimmte Un termenge der Einzelbilder die für ein Zusammenfügen erforderlichen Parameter erfasst und berücksichtigt werden. Beispielsweise kann vor dem eigentlichen Drehbeginn der Ka meramann in einer virtuellen Szene mit einer virtuell arbeitenden Kamera eine Aufnahme vorab durchspielen und so die aufzunehmende Szene planen. Man kann dies als Prävisua lisierung oder Previsualizing bezeichnen.
Auf diese Weise können beispielsweise verschiedene Kameraeinstellungen oder verschie- dene Objektivarten bezüglich künstlerischer Aspekte oder/und einer möglichen techni schen Realisierbarkeit ausprobiert und überprüft werden. Mögliche zeitaufgelöst erfass bare Parameter können beispielsweise die Position des Objektivs, die Richtung des Objek tivs, die momentanen Einstellungen bezüglich Fokus, Blende oder/und Zoom sein. Diese
Aufzeichnungen können in einem späteren Arbeitsschritt für die Planung eines Sets ver wendet werden.
Da die Aufnahmezeit eines Filmes normalerweise teuer und oft begrenzt ist, wird die Vor abvisualisierung mittels Rendering angewendet um die allgemeinen Kosten zu minimieren. Der Vorteil der Vorabvisualisierung (eng.„Previsualisation") besteht darin, dass ein Regis seur, Kameramann oder VFX-Supervisor mit verschiedenen Inszenierungs- und Kunstrich tungsanwendungsoptionen wie Beleuchtung, Kameraplatzierung, -bewegung und opti schen Einstellungen des Objektivs wie z.B. Fokusabschnitt, Brennweite oder Schärfentiefe, Regieausrichtung und Bearbeitung experimentieren kann, ohne dass signifikante Kosten für die Produktion anfallen. Bei Projekten mit größerem Budget arbeiten die Regisseure mit Schauspielern in der Abteilung für visuelle Effekte oder in speziellen Räumen.
Prävisualisierungen können Musik, Soundeffekte und Dialoge hinzufügen, um das Ausse hen vollständig produzierter und bearbeiteter Szene-Sequenzen zu emulieren. Sie werden am häufigsten in Szenen mit Stunts und Spezialeffekten (wie Chroma-Key) verwendet. Während der Vorabvisualisierung werden Digitale Videos, Fotografie, handgezeichnete Kunst, Clip-Art und 3D-Animationen kombiniert. Außer bei der Film-Industrie und Photo graphie kann die Anwendung von Rendering zur Previsualisation bei der Bauplanung, der Schönheitschirurgie oder der Positionierung von medizinischen Implantaten angewendet werden. In diesem Zusammenhang kann das erfindungsgemäße Verfahren wie eben beschrieben zusätzlich ein Planen einer Aufnahme der ersten Abfolge von Einzelbildern anhand der Aufzeichnung der zeitlichen Abfolge von Abbildungsparametern oder /und ein Aufneh men der ersten Abfolge von Einzelbildern unter Verwendung der Aufzeichnung der zeitli chen Abfolge von Abbildungsparametern umfassen. Dies ermöglicht wie bereits erläutert das Erstellen von Bildsequenzen mit einem hohen Maß an Vorplanung mittels einer sehr realistisch wirkenden Aufnahmesimulation.
Des Weiteren betrifft die Erfindung ein Datenverarbeitungssystem mit Mitteln zum Aus führen des erfindungsgemäßen Verfahrens sowie ein Computerprogramm.
Es können mit der Erfindung das Optikdesign, also die Abmessungen, Eigenschaften und die Lage der Linsen innerhalb eines Objektivs in der Simulation einer Szene verwendet werden. Wie bereits erläutert werden moderne Animationen für Spielfilme mittels Ren- dering erzeugt. Dabei werden virtuelle Strahlen von einem virtuellen Sensorpixel durch eine virtuelle Lochkamerablende in eine virtuelle dreidimensionale Szene verfolgt. Der Pi xel erhält dann, je nachdem, wo der Strahl in der Szene auftrifft, eine entsprechende Farbe und Intensität. Durch die vorliegende Erfindung wir das einfache Lochblendenmodell durch das Raytracing eines Optikdesignprogramms ersetzt. Dies führt zu einer extrem rea listischen Simulation des Objektivs. Um den Realitätsgrad weiter zu steigern, können ne- ben oder zusätzlich zu dem Raytracing-Verfahren auch wellenoptische Effekte simuliert werden. Hierbei kann beispielsweise die Point-Spread-Funktion mittels eines Beugungsin tegrals berechnet werden.
Eine mögliche Ausführungsform der Erfindung kann darin bestehen, ein dreidimensionales Computermodell eines Filmsets zur Planung von Szenen zu verwenden (Prävisualisierung). In einem solchen Modell können zu filmende Szenen beispielsweise nur grob modelliert oder/und animiert werden und daraus - ausgehend von der gewünschten Szene - Anfor derungen an Schauspieler, Kamera (und deren Einstellungen und Positionen), dem benö tigten Equipment, Kulissen und/oder Spezialeffekten abgeleitet werden. Vor Drehbeginn plant der Kameramann in einer virtuellen Szene mit einer virtuellen Kamera die Aufnahme. Mit der realistischen Simulation der Kamera können hier verschiedene Kameraeinstellun gen beispielsweise vor dem eigentlichen Drehen ausgetestet werden. So können Kosten gespart, unerwartete Situationen erkannt und so Szenen besser geplant werden. Beispiels weise kann die üblicherweise manuell durchgeführte Fokuseinstellung besonders bei schnell bewegten Motiven geübt werden oder die Eignung bestimmter Objektivarten (re- ale oder noch nicht realisierte Prototypen) getestet werden. Es können auch Einstellungen in Bezug auf künstlerische Aspekte und technische Realisierbarkeit ausprobiert werden. Beispielsweise können Position, Richtung, Fokus, Blenden, Zoom-Stellung bei der Simula tion zeitaufgelöst gespeichert werden. Diese Informationen werden dann benutzt um das Set zu planen. Wahlweise können diese Daten dann auf eine elektronische gesteuerte re- ale Kamera übertragen werden und diese Sequenz von Einstellungen auf der realen Ka mera abgespielt werden.
Eine andere Ausführungsform kann die teilweise oder vollständige, photorealistische Er stellung von Filmszenen ausgehend von 3D Modellen umfassen. Es können Realfilmszenen mit computeranimierten Szenen überlagert werden, beispielsweise virtuelle Lebewesen in reale Szenerien oder/und Schauspieler in virtuelle Szenerien oder Kombinationen von bei- dem. Hierzu werden oft sogenannte Greenscreens verwendet. Für die Qualität der Kombi nation von realen Szenen mit Computeranimationen ist es wichtig wie gut die Beleuch tungsbedingungen, die Bewegungsunschärfe, die Farbwiedergabe, das Rauschen etc. im Modell mit der Aufnahme der realen Szenerie übereinstimmen. Produktionen, bei denen diese modellierten Spezialeffekte nicht mit der Szenerie verschmelzen, wirken beim Be- trachter sofort nicht professionell genug. Die Modellierung des Objektivs mit einem Loch kamera-Modell berücksichtigt nur die (konstante) Brennweite des Objektivs in stark ver einfachter Weise. Allein die perspektivische Wiedergabe einer Szene hängt von der Lage der Eintritts- und Austrittspupille sowie der Brennweitenänderung des Objektivs ab. Diese Pupillenlagen sind dabei individuell vom Objektiv abhängige Funktionen der Fokussierent- fernung und Zoomstellung. Außerdem ist die Blendenzahl wichtig, die mit die Tiefen schärfe der Szene bestimmt. Daneben gibt es eine Reihe von Objektivparametern wie Ver zeichnung, Randlichtabfall, Farbwiedergabeabweichungen, chromatischen Fehler, Reflex abhängigkeiten etc. Konkret können bei einer Greenscreen-Szene beispielsweise Position, Richtung, Fokus-, Blenden- und Zoomstellung bei der Bildaufnahme zeitaufgelöst gespei- chert. Diese Einstellungen werden bei der Erstellung der virtuellen Szene benutzt. Als Vor teile lassen sich ein authentischer Look und eine einfache Überlagerung der Bilder nennen.
Alternativ oder zusätzlich können bei einer Greenscreen-Szene beispielsweise Position, Richtung, Fokus-, Blenden- und Zoomstellung bei der Bildaufnahme direkt an eine Echt zeit-Simulation weitergegeben und beide Bilder überlagert im Okular oder auf dem Dis- play überlagert.
Insgesamt können mit der Erfindung je nach Ausführungsform eine Reihe von Vorteilen realisiert werden: Es können Einstellzeiten der Kamera durch einer Voraberstellung der Ein stellungen innerhalb einer virtuellen Szene verkürzt werden. Es können ganze Kameraauf nahmen im Voraus geplant werden und Kameraeinstellungen und Veränderungen dersel- ben in einer virtuellen Kamera aufgezeichnet und auf einer realen Kamera wiedergegeben
werden. Es kann die Aufnahmequalität bestimmter Filmaufnahmen insbesondere bei Sze nen, die nicht beliebig oft wiederholt werden können, durch vorheriges Training des Ka meramanns verbessert werden. Es kann bei der Aufnahme einer virtuellen Szene der glei che Eindruck wie bei der Aufnahme einer realen Szene durch eine exakte Simulation des realen Objektivs erzeugt werden. Es können mit einer realen Kamera simulierte Szenen animiert/erzeugt werden. Es kann ein virtuelles Prototyping für eine noch real existieren des Objektiv / eine Kamera durchgeführt werden.
Eine Ausführungsform der Erfindung sieht vor, eine 3D-Bildsimulation im Rahmen eines Computerprogramms mit gespeicherten und interpolierten Point-Spread-Function-Daten durchzuführen. Das Verfahren weist die Schritte auf:
Bestimmen einer Größe, einer Form und einer Lage der Austrittspupille eines Objektivs für eine ausgewählte Gruppe an Bildpunkten; beispielsweise kann hierfür ein 2-D-Punktgitter mit einem Rasterabstand von ca. 5,4 mm gewählt werden;
Interpolation der Größe, Form und Lage von Bildpunkten zwischen den ausgewählten Bild- punkten für andere Bildpositionen;
Eingabe einer Objektraumfunktion; unter der Objektraumfunktion kann eine dreidimensio nale Funktion von Intensitäten abhängig von dem Abstand relativ zu der Eintrittspupille eines Objektivs verstanden werden; die Objektraumfunktion umfasst beispielsweise die spektralen Eigenschaften wie beispielsweise RGB-Daten oder Graustufen-Daten oder/und den Abstand von Objekt zu Eintrittspupille (Tiefenkarte);
Erstellen einer Point-Spread-Funktion durch eine Verknüpfung der Objektraumfunktion mit einer Objektivfunktion, welche die Zuordnung von Objektraum und Bildraum vor nimmt; auf diese Weise umfasst die Point-Spread-Funktion die optischen Designdaten des Objektivs, gegebenenfalls einschließlich der Beschichtungsdaten einzelner oder aller opti- scher Elemente in dem Objektiv;
Integration der Point-Spread-Funktion über Objektkoordinaten;
Integration der Point-Spread-Funktion über die Form der Austrittspupille, um so eine Wel lenfront-Deformation durch die Austrittspupille zu berücksichtigen;
Erzeugen eines gerenderten Objektraumes.
Zusätzlich kann bei dieser Ausführungsform eine Kompensation für eine digitale Aberra- tion (Verzerrung oder/und Schattierung, etc.) erfolgen.
Eine weitere Alternative Ausführungsform der Erfindung sieht vor, eine 3-D-Bildsimulation mit Daten einer optischen Transferfunktion durchzuführen. Das Verfahren weist die Schritte auf:
Bestimmen einer Größe, einer Form und einer Lage der Austrittspupille eines Objektivs für eine ausgewählte Gruppe an Bildpunkten; beispielsweise kann hierfür ein 2-D-Punktgitter mit einem Rasterabstand von ca. 5,4 mm gewählt werden;
Interpolation einer Größe, einer Form und einer Lage von Bildpunkten zwischen den aus gewählten Bildpunkten für andere Bildpositionen, um eine Austrittspupillenfunktion zu er halten; Eingabe einer Objektraumfunktion; unter der Objektraumfunktion kann eine dreidimensio nale Funktion von Intensitäten abhängig von dem Abstand relativ zu der Eintrittspupille eines Objektivs verstanden werden; die Objektraumfunktion kann man beispielsweise aus einer Kombination der Wellenlängen und einer optischen Transferfunktion erhalten; um die optische Transferfunktion zu erhalten, wird eine Faltung der Austrittspupillenfunktion (Autokorrelation) durchgeführt;
Berechnen einer kontinuierlichen Fourier-Transformation aus der Objektraumfunktion;
Integrieren des Produkts aus optischer Transferfunktion und fouriertransformierter Ob jektraumfunktion über die Austrittspupillenkoordinaten für eine feste Wellenlänge;
Wiederholung der Berechnung über viele Wellenlängen; Integrieren über die Wellenlängen über jedem Farbkanal (spektrale Response-Funktion) und der spektralen Verteilung der Lichtquelle;
Erzeugen eines Bildes für jeden Farbkanal (RGB);
Überlagern der Bilder für jeden Farbkanal (RGB), um ein realistisches Bild zu erhalten.
Bei den genannten Ausführungsformen stellt sich das Problem, eine Fouriertransformation für stark defokussierte Objektraumpunkte durchzuführen. Dies erfordert ein sehr hohes Rastersamplen der Austrittpupille, beispielsweise 10.000 x 10.000 statt 30 x 30. Dies ist zeitaufwändig und die Laufzeiten sind sehr hoch.
Dementsprechend sieht eine alternative Ausführungsform der Erfindung vor, ein strahlver- folgungsbasiertes (Raytracing) Rendering einer 3-D-Bildsimulation durchzuführen. Das Verfahren basiert darauf, dass die in ein Objektiv einfallenden Lichtstrahlen zur Lichtquelle zurückverfolgt werden. Das Verfahren weist die Schritte auf:
Bestimmen einer Größe, einer Form und einer Lage der Austrittspupille eines Objektivs für eine ausgewählte Gruppe an Bildpunkten; beispielsweise kann hierfür ein 2-D-Punktgitter mit einem Rasterabstand von ca. 5,4 mm gewählt werden;
Interpolation der Größe, Form und Lage von Bildpunkten zwischen den ausgewählten Bild- punkten für andere Bildpositionen;
Berechnung einer Strahlrichtung; beispielsweise platziert innerhalb der durch die Aus trittspupille definierten Begrenzung;
Erstellen einer Strahlfunktion; diese kann beispielsweise eine Wahrscheinlichkeitsfunktion darstellen und die richtungsabhängige Verteilung von Strahlen angeben und beispiels- weise die Eingangskoordinaten mit den Ausgangskoordinaten verknüpfende einem Ein gangsstrahl können von hunderten bis mehreren Millionen Ausgangsstrahlen rauskom men, je nach Qualität des Renderns die man erreichen möchte.
Simulieren aller Strahlen bis zur Lichtquelle;
Integrieren über den Winkelraum der Lichtquelle und der Entfernung zur Lichtquelle für alle diskreten Ausgangsstrahlen;
Wiederholen des Verfahrens für jeden Eingangsstrahl, der aus dem Objektiv zum Objekt führt; beispielsweise für 10.000 Strahlen;
Integrieren aller Ausgangsstrahlen, die an der Lichtquelle ankommen, für alle Eingangs strahlen; Erzeugen eines Bildes.
KURZE BESCHREI BUNG DER ZEICHN UNGEN
Nachfolgend werden Ausführungsbeispiele der Erfindung anhand der Zeichnungen näher erläutert. In diesen zeigen:
Figuren 1 A, 1 B ein Ablaufdiagramm und eine schematische Darstellung eines ersten erfindungsgemäßen Verfahrens; Figuren 2A, 2B ein Ablaufdiagramm und eine schematische Darstellung eines zwei ten erfindungsgemäßen Verfahrens;
Figuren 3A, 3B ein Ablaufdiagramm und eine schematische Darstellung eines drit ten erfindungsgemäßen Verfahrens; und
Figur 4 eine schematische Darstellung eines vierten erfindungsgemäßen
Verfahrens.
BESCHREI BUNG BEVORZUGTER AUSFUHRUNGSBEISPIELE
Die Figuren 1 A, 1 B geben ein erstes erfindungsgemäßes Verfahren zum Erstellen einer zweiten Abfolge von Einzelbildern mittels einer ersten Abfolge von Einzelbildern wieder. In einem ersten Schritt S1 1 wird eine erste Einzelbilderfolge mittels einer realen Kamera 10 erzeugt. Für das erste Verfahren ist es nicht von Belang, ob diese erste Einzelbilderfolge tatsächlich gespeichert wird. Die Einzelbilderfolge kann gespeichert werden, sie kann aber auch lediglich erzeugt und nicht aufgezeichnet werden.
In einem zweiten Schritt (S12) werden die Kameraeinstellungen und die Kamerapositionen der ersten Bildfolge erfasst. Dies geschieht bevorzugt während des Erzeugens der Bild folge, d.h. der Aufnahme der ersten Bildfolge mittels der realen Kamera 10. Wird dies wäh rend der Aufnahme durchgeführt, kann die Aufzeichnung der ersten Bilderfolge unterblei- ben. Bei den Kameraeinstellungen und -Positionen kann es sich zumindest um die Position der Eintrittspupille und das Sichtfeld des aufnehmenden Objektivs handeln, es können aber zusätzlich weitere Parameter wie beispielsweise eine Blende/Apertur, eine Belich tungsdauer, eine Zoomstellung, einen Fokus etc. erfasst werden.
In einem weiteren Schritt (S13) werden die Kameraeinstellungen und -Positionen als Daten 1 1 auf eine virtuelle Kamera 12 übertragen. Auch dieser Schritt kann nach den ersten bei den Schritten S1 1, S12 oder gleichzeitig mit diesen erfolgen. Es können also die Aufnahme der ersten Bilderfolge (S1 1 ), das Erfassen der Kameraeinstellungen und -Positionen (S12) und das Übertragen derselben (S13) gleichzeitig oder bei geeigneter Zwischenspeicherung auch nacheinander mit einem zeitlichen Versatz erfolgen. Entsprechend kann die Übertra- gung der Kameraeinstellungen und -Positionen
Bei der virtuellen Kamera 12 kann es sich beispielsweise um einen Parametersatz für Ein stellungen eines Bildsyntheseprogramms 18 handeln, mit dem eine virtuelle Bilderfolge 14, resultierend aus einer virtuellen Szene 16 entsprechend dem weiteren Schritt S14 eine zweite Bilderfolge mittels der Kameraeinstellungen und -Positionen erzeugt werden kann. Bei dem Bildsyntheseprogramm kann es sich beispielsweise um ein Berechnungspro gramm handeln, das einen Raytracing-Algorithmus einsetzt. Mittels den von der realen Kamera 10 erhaltenen Daten sowie eventuell bereits vorab bekannten Daten kann in dem Bildsyntheseprogramm ein Modell der Kamera 10 angelegt werden. Mittels dieses Modells - eben der virtuellen Kamera 12 - können einerseits objektivspezifische und damit für die optische Abbildung relevante Effekte einbezogen werden. Dies ermöglicht eine realistische Simulation des eingesetzten Objektivs bzw. der ganzen Kamera 10. Andererseits können aufgrund einer gegebenenfalls auch zeitaufgelösten Erfassung der Eintrittspupille und des Sichtfeldes die Bewegung der realen Kamera 10 und damit gegebenenfalls auch verbun dene Effekte wie der Einfluss von Beleuchtungsbedingungen an verschiedenen Orten oder
Effekte wie eine Bewegungsunschärfe, eine Farbwiedergabe oder ein Rauschen bei der Er zeugung des virtuellen Bildes Einfluss finden.
Bei einer konkreten Ausgestaltung dieses Verfahrens könnte beispielsweise eine reale Ka mera 10 gewissermaßen als Controller einer virtuellen Kamera 12 für die Erzeugung einer virtuellen Bilderfolge 14 innerhalb einer virtuellen Szene 16 eingesetzt werden. Auf diese Weise kann eine computeranimierte Szene auf einfache Weise erzeugt werden.
Die Figuren 2A, 2B zeigen eine zweite Ausführungsform eines erfindungsgemäßen Verfah rens. Für die folgenden Ausführungsformen werden für gleiche oder vergleichbare Merk male gleiche Bezugszeichen verwendet und nicht nochmals gesondert erläutert, um Wie- derholungen zu vermeiden. Das Verfahren der Figuren 2A, 2B sieht ebenfalls wie bei dem vorangehend beschriebenen Verfahren ein Aufnehmen einer ersten Bilderfolge mittels ei ner realen Kamera 10 (S21 ) vor. Dabei ist bei diesem Verfahren vorgesehen, dass das Auf nehmen der ersten Bilderfolge in einer tatsächlich existenten realen Szene 20 vor sich geht und in einer realen Bilderfolge 22 resultiert. Wie bereits vorher erläutert werden auch bei diesem Verfahren die Kameraeinstellungen und -Positionen erfasst (S22) und auf eine vir tuelle Kamera 12 übertragen (S23).
Die bei diesen Schritten S21 -S23 gewonnenen Informationen werden nun dazu verwendet, in einem weiteren Schritt (S24) eine zweite Bilderfolge 24 mit einer virtuellen Kamera 12 innerhalb einer virtuellen Szene 16 mittels eines Bildsyntheseprogramms 18 unter Berück- sichtigung der Kameraeinstellungen und -Positionen 1 1 zu erzeugen. Bei der Erzeugung der zweiten, virtuellen Bilderfolge 24 stehen bereits die Informationen 1 1 beispielsweise über Lage der Eintrittspupille und das Sichtfeld der Kamera 10 der realen Bilderfolge 22 zur Verfügung. Bei einer konkreten Anwendung könnte es sich bei der ersten realen Bild folge 22 beispielsweise um eine Greenscreen-Szene bei einer Filmaufnahme handeln. In einem solchen Fall könnte beispielsweise Position und Ausrichtung der Kamera 10, Fokus, Blende, Zoomstellung bei der Bildaufnahme zeitaufgelöst erfasst werden. Diese Informati onen können dann entsprechend bei der Erstellung der virtuellen Szene 16 und letztend lich bei der Erstellung der virtuellen Bilderfolge 24 verwendet werden.
In einem weiteren Schritt S24 können die erste, reale Bilderfolge 22 und die zweite, virtu elle Bilderfolge 24 zu einer zusammengefügten Bilderfolge 26 zusammengefügt werden. Dabei kann in dem genannten Beispiel der Greenscreen-Technik der virtuelle Bildinhalt der virtuellen Bilderfolge 24 in den Bildinhalt der realen Bilderfolge 22 integriert werden. Es ergibt sich aufgrund der weitgehend nahtlosen Einfügemöglichkeit ein authentisches Aus sehen der zusammengefügten Bilderfolge 26. Zudem kann das Überlagern/Einfügen auf eine sehr einfache Weise erfolgen.
Eine weitere Ausführungsform des erfindungsgemäßen Verfahrens ist in den Figuren 3A,
3B dargestellt. In einem ersten Schritt (S31) wird eine virtuelle Szene 16 unter Berücksichti- gung der räumlichen und sonstigen Daten 13 einer realen Szene 20 erstellt. In einem zwei ten Schritt (S32) wird eine erste Bilderfolge 24 mittels der virtuellen Kamera 12 aufgenom men. Da bei kommt es in dieser Ausführungsform nicht darauf an, diese erste Bilderfolge 24 abzuspeichern. Vielmehr ist es bei dieser Ausführungsform das Ziel, dem Kameramann vor dem eigentlichen Aufnehmen einer realen Bilderfolge 22 die Möglichkeit zu geben, verschiedene Einstellungen der Kamera auszutesten und zu planen. Mit einer realistischen Simulation der realen Kamera 10 durch die virtuelle Kamera 12 können auf diese Weise verschiedenen Kameraeinstellungen und -Positionen beispielsweise auch in Bezug auf künstlerische Aspekte und technische Realisierbarkeit geplant und ausprobiert werden.
Entsprechend werden in einem weiteren Schritt die Kameraeinstellungen und die Kame- rapositionen der virtuellen Kamera 12 erfasst (S33). Dies geschieht in bevorzugter Weise zeitaufgelöst, d.h. jeder erfassten Kameraeinstellung und -position ist eine Zeitmarke zu geordnet. Bevorzugt werden die Einstellungen und Positionen für jedes Einzelbild der Ein zelbildfolge erfasst. Je nach Ausgestaltung kann die Erfassungshäufigkeit aber auch den Gegebenheiten angepasst werden. So kann beispielsweise eine geringere Häufigkeit als für jedes Bild vorgesehen sein. Die Häufigkeit kann dabei auf eine feste Häufigkeit - jedes n-te Bild - einstellbar sein oder in Abhängigkeit von stattfindenden Veränderungen an passbar sein. Die erfassten Einstellungen können beispielsweise Position, Richtung, Fokus, Blende oder Zoomstellung umfassen. Die so erfassten Informationen können dann dazu verwendet werden, den Set und den Kameradreh zu planen.
Wahlweise können die so erfassten Kameraeinstellungen und -Positionen in einem weite ren Schritt auf eine reale Kamera 10 übertragen (S34) werden. Diese Einstellungen können dann bei den realen Aufnahmen der zweiten Abfolge von Einzelbildern berücksichtigt wer den. Beispielsweise können die Kameraeinstellungen während der Aufnahme in der realen Kamera 20 als Einstellungssequenz abgespielt werden, so dass der Kameramann entlastet ist und sich während der Aufnahme um weniger Aufnahmedetails kümmern muss.
Eine weitere Ausführungsform des erfindungsgemäßen Verfahrens ist in Figur 4 darge stellt. Das Verfahren, wie es in Figur 4 beschrieben ist, sieht mit den Schritten S41 und S42 zwei Verfahrensschritte vor, die zeitlich unabhängig voneinander stattfinden können. Mit Schritt S41 wird eine Ausgangsbasis für ein nachfolgendes Rendering erzeugt, hier als VFX-Generation bezeichnet. Die Ausgangsbasis können beispielsweise die Daten einer vir tuellen Szene sein, welche die notwendigen dreidimensionalen Informationen enthalten.
Es kann auch jede andere Basis verwendet werden, die es ermöglicht, aus dreidimensiona len Informationen ein Rendering derart durchzuführen, dass eine Abfolge von Einzelbil- dern entsteht. Beispielsweise kann es sich auch schon um ein vorverarbeitetes zweidimen sionales Bild mit zusätzlichen Tiefeninformationen oder um ein zweidimensionales Bild handeln, bei dem jedem Bildpunkt eine 3D-Position in einer dreidimensionalen Szene zu geordnet ist. Dabei können die 3D-lnformationen in das zweidimensionale Bild integriert sein, hinsichtlich der dargestellten Szene vordefiniert sein, für die dargestellte Szene emu- liert sein oder für die dargestellte Szene generiert werden, beispielsweise auf Basis von dreidimensionalen Daten, die durch eine Erfassung der dargestellten realen Szene bei spielsweise mittels 3D-Sensoren gewonnen worden sind.
In Schritt S42 werden Objektiv-/Kamera-Daten aufgenommen, die einer Abfolge von Ein zelbildern (Frames einer Filmsequenz) zuordenbar sind. Die Erfassung kann sich beispiels- weise auf ein Objektiv einer Kamera beziehen und kann beispielsweise mittels des Objek tivs erfolgen.
Bevorzugt kann gleichzeitig zu der Erfassung der Objektiv-/Kameradaten (S42) eine Erfas sung einer Filmsequenz (S43) erfolgen.
Die Objektiv-/Kamera-Daten können eine Abfolge von Objektivdaten umfassen, wobei die Abfolge beispielsweise jeweils einen Satz an Objektiv-/Kamera-Daten für des Einzelbild (Frame) aufweist. Alternativ oder zusätzlich können nur der gesamten Abfolge von Einzel bildern (Filmsequenz) zuordenbare Objektiv-/Kamera-Daten erfasst werden. Die Objektiv-/Kamera-Daten können beispielsweise Informationen über mögliche Eigen schaften oder/und Einstellungen des Objektivs selbst umfassen wie beispielsweise eine Identifikation des Objektivtyps oder des Einzelobjektivs, Informationen über die Art des Objektivs, die Brennweite des Objektivs, einen kalibrierten Fokusabstand, einen kalibrier ten T-Stop-Wert, eine Schärfentiefe, ein hyperfokaler Abstand, ein horizontaler Bildwinkel oder die Position und/oder Größe der Eintrittspupille, Diese Objektiv-/Kamera-Daten kön nen beispielsweise von einer realen Kamera oder einem realen Objektiv während der Auf zeichnung einer ersten Abfolge von Einzelbildern (Filmsequenz) aufgenommen werden.
Die Ermittlung/Berechnung oder/und Aufzeichnung der Objektiv-/Kamera-Daten kann beispielsweise für jeden Fokuspunkt und jeden effektiven T-Stop-Wert und/oder für jedes Einzelbild (Frame) erfolgen.
Alternativ oder zusätzlich können die Objektiv-/Kameradaten spezifische physikalische Da ten umfassen, die eines oder mehrere, bevorzugt alle optischen Elemente wie beispiels weise Linsen, Blenden oder/und Filter in dem Objektiv charakterisieren. Bei diesen physika lischen Daten kann es sich beispielsweise um die Linsenform, die Apertur des Elements, die maximale Apertur beispielsweise eines Objektivs (kleinste Blendenzahl), die spektrale Transmittanz u.ä. handeln. Generell können die spezifischen physikalischen Daten solche Daten sein, die einen Rückschluss auf das Optikdesign des Objektivs und damit eine Be rechnung der Abbildungseigenschaften oder/und einer Durchführung eines Verfahrens er möglichen, das ein Raytracing, ein Raycasting, eine Point-Spread-Funktion oder eine opti- sehe Transferfunktion einsetzen.
Zusätzlich oder alternativ können die Objektiv-/Kamera-Daten Informationen über den dreidimensionalen Aufbau der real gefilmten Szene umfassen. Die Erfassung dieser 3D- Daten (S44) kann beispielsweise parallel zu der Erfassung der Eigenschaften oder/und Ein stellungen des Objektivs erfolgen (S42).
Die 3D-Daten können in die Objektiv-/Kameradaten integriert sein. Alternativ oder zusätz lich können die 3D-Daten auch den Filmsequenz-Daten hinzugefügt werden (S45).
Bei der Erfassung der 3D-Daten können beispielsweise ein oder mehrere 3D-Sensoren zum Einsatz kommen, die beispielsweise über optische oder akustische Abtastung der ge- filmten Szene räumliche Daten erzeugen, die der gefilmten Abfolge von Einzelbildern (Filmsequenz) zugeordnet werden können. Der oder die Sensoren können beispielweise separat von dem Objektiv oder der Kamera angeordnet sein. Bevorzugt befinden sich der oder die Sensoren an der Kamera oder dem Objektiv oder sind in die Kamera oder das Objektiv integriert. Alternativ oder zusätzlich können die Objektiv-/Kamera-Daten Positions-, Lage- und/oder Bewegungsdaten umfassen, welche zusätzlich zeitlich aufgelöst aufgezeichnet werden, also beispielsweise den Einzelbildern (Frames) der Abfolge von Einzelbildern (Filmsequenz) zuordenbar. Die Positions-, Lage- und/oder Bewegungsinformationen ermöglichen eine Bestimmung der Position der Kamera oder/und des Objektivs bezüglich der gefilmten rea- len Szene und die Ausrichtung der Kamera oder/und des Objektivs bezüglich der gefilm ten Szene. Durch eine zeitliche aufgelöste Erfassung können auch direkt oder indirekt In formationen über die Bewegung der Kamera oder/und des Objektivs erfasst oder abgelei tet werden. So können beispielsweise aus der Veränderung der Lage oder der Position Be wegungen der Kamera oder/und des Objektivs abgeleitet werden, Es können alternativ o- der zusätzlich Sensoren verwendet werden, welche direkt eine Bewegung der Kamera/des Objektivs erfassen, wie beispielsweise Gyrosensoren.
Zusammenfassend können die Objektiv-/Kamera-Daten objektivspezifische Daten, 3D-Da- ten der realen Szene oder/und Positions-/Lage-/Bewegungsdaten umfassen.
Es kann vorgesehen sein, dass diese Objektiv-/Kamera-Daten bereits während der Auf- Zeichnung in Echtzeit weiterverarbeitet und für ein Rendering zur Verfügung gestellt wer den (S46).
Alternativ oder zusätzlich können die Objektiv-/Kamera-Daten aufgezeichnet und erst in einem nachfolgenden Weiterverarbeitungsschritt, der zeitlich nachgelagert der Aufzeich nung erfolgt, eingesetzt werden (S47).
In Schritt S48 erfolgt ein Rendern, d.h. ein Erzeugen eines zweidimensionalen Bildes auf Basis von dreidimensionalen Daten.
Bei dem Rendern können die Objektiv-/Kamera-Daten (S46, S47) berücksichtigt werden.
Das Rendern kann unter Verwendung eines Algorithmus erfolgen, der eine oder mehrere der folgenden Verfahren einsetzt: ein Raytracing (Strahlfunktion), ein Raycasting, eine Point-Spread-Funktion oder/und eine optische Transferfunktion. Alternativ oder zusätzlich kann - wie bereits oben erläutert - bei der Erzeugung des zwei dimensionalen Bildes beispielsweise ein bereits vorverarbeitetes zweidimensionales Bild mit Tiefeninformationen oder ein zweidimensionales Bild mit integrierten dreidimensiona len Informationen eingesetzt werden. Das Rendern kann auch nur ein Korrigieren eines bereits bestehenden zweidimensionalen Bildes auf Basis der Objektiv-/Kamera-Daten dar- stellen.
Mittels der Verwendung der Objektiv-/Kamera-Daten kann dem gerenderten Einzelbild (Frame) bzw. der Abfolge an Einzelbildern (Filmsequenz) ein Aussehen verliehen werden, das den Eindruck erweckt, es wäre mit dem Objektiv/mit der Kamera, welche zu den Ob- jektiv-/Kamera-Daten gehört, aufgenommen worden. Die Objektiv-/Kamera-Daten können dabei in Echtzeit während der Aufnahme der Objek- tiv-/Kamera-Daten für das Rendern eingesetzt werden. Dabei können die Objektiv-/Ka- mera-Daten in Echtzeit dem Render-Vorgang zur Verfügung gestellt werden (S46), bei spielsweise mittels einer drahtlosen oder kabelgebundenen Übertragung der Objektiv- /Kamera-Daten an einen Render-Computer, und für das Rendern eingesetzt werden. Alternativ oder zusätzlich kann vorgesehen sein, dass Objektiv-/Kamera-Daten, die bereits vorher aufgenommen worden sind, für das Rendern eingesetzt werden (S47).
Dabei kann vorgesehen sein, dass die Objektiv-/Kamera-Daten beispielsweise nur objek tiv- oder/und linsenspezifische Daten enthalten, die nicht zeitaufgelöst sind.
Alternativ oder zusätzlich können die Objektiv-/Kamera-Daten beispielsweise nur Positi- ons- und/oder Lage- und/oder Bewegungsdaten umfassen. Bei einer Ausführungsform können auch verschiedene Objektiv-/Kamera-Daten bei dem Rendering kombiniert eingesetzt werden. Beispielsweise können nicht zeitaufgelöste ob jektiv- oder/und linsenspezifische Daten eines ersten Objektivs mit Positions- und/oder Lage- und/oder Bewegungsdaten eines zweiten Objektivs/einer zweiten Kamera kombi niert werden. So kann beispielsweise eine mit einem ersten Objektiv gefilmte Filmsequenz Positions- und/oder Lage- und/oder Bewegungsdaten für ein Rendering mit den objektiv oder/und linsenspezifische Daten eines zweiten Objektivs liefern. So kann der Eindruck er weckt werden, eine Filmsequenz wäre mit einem anderen Objektiv gefilmt worden. Das Rendering kann dabei in Echtzeit erfolgen oder in einem nachgelagerten Schritt stattfin den. Das Rendering kann beispielsweise Filmsequenzen mit einer Auflösung von 2K in Echtzeit bei einer Framerate von 24 fps erzeugen. Mit zunehmender Rechenleistung sind auch Auf lösungen in 4K oder 8K mit der genannten Framerate möglich.
Die gerenderten Filmsequenzen können während oder nach der Erzeugung (S44) auf ei nem Rendering-Monitor betrachtbar dargestellt werden (S49). Die so unter Einbeziehung der Objektiv-/Kamera-Daten gerenderte ersten Abfolge von Einzelbildern (erste Filmsequenz) kann in einem nachfolgenden Schritt S50 mit einer real gefilmten zweiten Abfolge von Einzelbildern (zweite Filmsequenz) zusammengefügt („Composite") werden. Ist die erste Filmsequenz mit den Objektiv-/Kamera-Daten geren- dert bzw. korrigiert worden, mit denen die zweite Filmsequenz gefilmt worden ist, ist das Zusammenfügen der beiden Filmsequenzen auf einfache und bruchlose Weise möglich.
Die zu einer Filmsequenz zusammengefügten Filmsequenzen können aufgezeichnet wer den (S51 ) und auf einem Composite-Monitor betrachtbar dargestellt werden (S52).