DE102007041719A1 - Augmented reality producing method for use in e.g. TV studio, involves synchronizing camera with video projectors, and modulating images in luminance and/or chrominance in pixelwise, and integrating coded structure into projected images - Google Patents
Augmented reality producing method for use in e.g. TV studio, involves synchronizing camera with video projectors, and modulating images in luminance and/or chrominance in pixelwise, and integrating coded structure into projected images Download PDFInfo
- Publication number
- DE102007041719A1 DE102007041719A1 DE102007041719A DE102007041719A DE102007041719A1 DE 102007041719 A1 DE102007041719 A1 DE 102007041719A1 DE 102007041719 A DE102007041719 A DE 102007041719A DE 102007041719 A DE102007041719 A DE 102007041719A DE 102007041719 A1 DE102007041719 A1 DE 102007041719A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- difference
- foreground
- images
- complementary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/12—Projectors or projection-type viewers; Accessories therefor adapted for projection of either still pictures or motion pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/75—Chroma key
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Circuits (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Erzeugung erweiterter Realität in einem Raum.The The invention relates to a method for generating augmented reality in one Room.
Viele
moderne Fernsehproduktionen wenden virtuelle Studiotechnologie an.
Chroms Keying ist das wichtigste Verfahren, um live aufgenommene oder
gespeicherte Videosignale eines realen Blue-Screen-Studios mit virtuellen
Inhalten zu überlagern.
Dabei wird das Videosignal analysiert und Pixel des Videos mit einer
vordefinierten Farbe (z.B. blau oder grün) werden durch computergenerierte Grafiken
ersetzt. Dies ermöglicht
die Benutzung von Bildverarbeitungstechniken, um den Vordergrund
effektiv vom Hintergrund zu trennen und anschließend reale Objekte (wie einen
Schauspieler oder einen Moderator) nahtlos in eine rein virtuelle
Umgebung zu integrieren. Blue-Screen-Techniken beschränken virtuelle
Studiotechnologie allerdings auf besondere Aufnahmeumgebungen. Deshalb
untersuchen neueste Forschungsanstrengungen die Möglichkeiten erweiterter
Realität
(AR – augmented
reality) für Fernsehproduktionen.
Im Gegensatz zu Blue-Screen-Studios
werden voll ausgestattete reale Fernsehstudios mittels virtueller
Inhalte erweitert indem das aufgenommene Videomaterial mit Computergrafiken überlagert
wird. In Anlehnung an den Begriff virtuelles Studio verwenden wir
hierfür
im Folgenden den Begriff erweitertes Studio. Verschiedene Gruppen
haben bereits die Vorzüge
erweiterter Realität
im Rahmen von Studioproduktionen gezeigt. In (
Es ist eine Aufgabe der Erfindung, ein neuartiges Verfahren zur Erzeugung erweiterter Realität in einem Raum anzugeben.It It is an object of the invention to provide a novel method of production augmented reality in a room.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.The The object is achieved by a method having the features of claim 1.
Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.advantageous Further developments are the subject of the dependent claims.
Bei einem erfindungsgemäßen Verfahren zur Erzeugung erweiterter Realität in einem Raum werden zumindest auf einen Teil den Raum begrenzender und/oder im Raum befindlicher Oberflächen mittels mindestens eines digitalen Videoprojektors Bilder projiziert, wobei die Bilder räumlich und/oder zeitlich in Luminanz und/oder Chrominanz moduliert werden, insbesondere pixelweise. Es ist mindestens eine Kamera vorgesehen, die mit mindestens einem der Videoprojektoren synchronisiert ist und zumindest einen Teil des Raumes aufnimmt.at a method according to the invention to create augmented reality in a room, the space becomes at least a part of it and / or in-surface surfaces by means of at least one digital video projector projects images, with the images spatially and / or temporally modulated in luminance and / or chrominance, in particular pixel by pixel. There is at least one camera provided with at least one of the video projectors is synchronized and at least one Part of the room.
Vorzugsweise wird in mindestens einem der projizierten Bilder mindestens eine kodierte Struktur integriert. In einem unmittelbar nachfolgenden der projizierten Bilder wird ein Komplement der kodierten Struktur so integriert, dass die Struktur nur für einen Betrachter oder nur für die Kamera sichtbar ist. Die aufeinanderfolgende Projektion zweier zueinander komplementärer Bilder mit einer hinreichend hohen Bildwiederholfrequenz von beispielsweise 120 Hz führt für den Betrachter infolge der Beschränkungen des menschlichen Sehvermögens zu einer Wahrnehmung einer gemittelten Summe beider Bilder. Eine mit dem Videoprojektor synchronisierte Kamera kann jedoch beide Bilder separat aufnehmen.Preferably At least one of the projected images will have at least one integrated coded structure. In an immediately following the projected image becomes a complement of the coded structure integrated so that the structure only for a viewer or only for the Camera is visible. The successive projection of two complementary images with a sufficiently high refresh rate of, for example 120 Hz leads for the Viewer due to the limitations of the human eyesight to a perception of an averaged sum of both images. One with However, the camera synchronized with the video projector can take both pictures record separately.
Auf diese Weise wird mittels für den Betrachter nicht sichtbarer Strukturen beispielsweise optisches Tracking, das heißt die Nachführung einer Kameraposition anhand der projizierten Struktur, möglich, ohne dass zusätzliche Marker außerhalb des Sichtfeldes der Kamera erforderlich sind.On this way is by means of the observer not visible structures, for example, optical Tracking, that is the tracking a camera position based on the projected structure, possible, without that extra Markers outside the field of view of the camera are required.
Ebenso können für den Betrachter sichtbare, jedoch für die Kamera unsichtbare Strukturen eingeblendet werden, beispielsweise Regieanweisungen für einen Moderator, wodurch kein Teleprompter benötigt wird. Dies geschieht beispielsweise, in dem die Kamera so synchronisiert wird, dass sie nur jedes zweite projizierte Bild aufnimmt, während die Struktur jeweils dann eingeblendet wird, wenn die Kamera nicht aufnimmt.As well can for the Viewer visible, however, for the camera invisible structures are displayed, for example Director's instructions for a moderator, which does not require a teleprompter. This happens, for example, in which the camera is synchronized so that it only every second projected image picks up while the structure will be displayed whenever the camera is not receives.
Die auf die Oberflächen projizierten Bilder können auch zur zumindest partiellen Beleuchtung des Raumes dienen. Dabei wird beispielsweise Licht mit einem einheitlichen Farbton mittels radiometrischer Kompensation auf zumindest einen Teil der im Raum befindlichen Oberflächen projiziert. Eine solche Projektion kann mit beliebiger Frequenz durchgeführt werden und kann auch integrierte Strukturen enthalten. Die Projektion kann mit einer Kamera aufgenommen und einem Chroma-Keying verfahren zugrunde gelegt werden, analog zu virtuellen Blue-Screen-Studios, jedoch vor beliebigen Hintergründen. Eine solche Beleuchtung ist sowohl statisch als auch dynamisch möglich.The on the surfaces projected images can also serve for at least partial illumination of the room. there For example, light with a uniform hue using radiometric compensation on at least part of the space located surfaces projected. Such a projection can be at any frequency carried out and can also contain integrated structures. The projection can be taken with a camera and chroma-keying underlying, however, similar to virtual blue-screen studios, but before any backgrounds. Such lighting is possible both statically and dynamically.
Vorzugsweise wird zur Einblendung der Struktur in das Bild eine für ein menschliches Auge gerade wahrnehmbare Differenz für mindestens ein Pixel mindestens eines Originalbildes aus einer Originalbildfolge berechnet. Das bedeutet beispielsweise, dass ermittelt wird, wie sehr das Originalbild zur Einblendung der Struktur modifiziert werden kann, damit der Unterschied für einen Betrachter gerade erkennbar wird. Zur Einblendung einer für den Betrachter oder eine der Kameras nicht wahrnehmbaren Struktur wird ein positionsgleiches Pixel in einem aus dem Originalbild abgeleiteten Bild zumindest in einem roten und/oder blauen und/oder grünen Farbkanal maximal um die gerade wahrnehmbare Differenz und in einem komplementären Bild maximal um ein Negatives der gerade wahrnehmbaren Differenz verändert. Das Bild und das komplementäre Bild werden aufeinander folgend projiziert. Die gerade wahrnehmbare Differenz ist vom Bildinhalt abhängig und wird dementsprechend für wechselnde Originalbilder und/oder wechselnde Strukturen jeweils neu berechnet.Preferably becomes one for a human to show the structure in the picture Eye just noticeable difference for at least one pixel at least an original image calculated from an original sequence. The means, for example, that it determines how much the original image can be modified to display the structure so that the Difference for a viewer is just recognizable. To display one for the viewer or one of the cameras imperceptible structure becomes a positionally equal Pixels in an image derived from the original image, at least in a red and / or blue and / or green color channel at most around the just perceptible difference and in a complementary image changed by a maximum of the currently perceivable difference. The Picture and the complementary Image are projected consecutively. The just noticeable Difference depends on the image content and is accordingly for changing original pictures and / or changing structures respectively recalculated.
Die abwechselnde Projektion erfolgt vorzugsweise mit einer Bildwiederholfrequenz, die größer als eine Flimmerfrequenz ist. Als Flimmerfrequenz soll eine Maximalfrequenz verstanden werden, bei der bei aufeinanderfolgender Projektion von Bildern von einem menschlichen Auge ein Flimmern wahrgenommen wird.The alternating projection is preferably carried out with a refresh rate, the bigger than is a flicker frequency. As a flicker frequency is a maximum frequency be understood in the case of successive projection of images from a human eye a flicker is perceived.
Flimmerfreie Darstellung ist ab ungefähr 45 Hell-Dunkel-Wechseln pro Sekunde möglich, bei denen die meisten Menschen das Flimmern nur noch unbewusst wahrnehmen. Allerdings können sehr helle und kontrastreiche Bilder auch hier noch zum Flimmern führen. Ab etwa 60 Hell-Dunkel-Wechseln pro Sekunde ist Flimmern weitgehend ausgeschaltet. Insbesondere erfolgt die abwechselnde Projektion mit einer Bildwiederholfrequenz von 120 Hz. Auf diese Weise sind die in jedem zweiten Bild projizierten Strukturen bzw. ihre Komplemente nicht als Flimmern wahrnehmbar.flicker Presentation is about from 45 light-dark-changes per second possible, with which most People perceive the flicker only unconsciously. Indeed can very bright and high-contrast images even here to flicker to lead. From about 60 light-dark changes per second is flicker largely switched off. In particular, the alternating projection takes place with a refresh rate of 120 Hz. In this way, the in every second image projected structures or their complements not noticeable as flicker.
Vorzugsweise wird die gerade wahrnehmbare Differenz auf einer regionalen Bildhelligkeit und/oder einer räumlichen Auflösung und/oder einer Raumfrequenz des Originalbildes und/oder der Struktur und/oder einer zeitlichen Frequenz des Bildes und/oder des komplementären Bildes und/oder einer maximalen Geschwindigkeit einer Augenbewegung basierend pixelweise ermittelt. Die Kenntnis der Verhältnisse zwischen diesen Parametern ermöglicht eine dynamische und inhaltsabhängige regionale Adaption der gerade wahrnehmbaren Differenz. Die maximale Geschwindigkeit der Augenbewegung kann insbesondere empirisch ermittelt werden.Preferably is the just noticeable difference on a regional image brightness and / or a spatial resolution and / or a spatial frequency of the original image and / or the structure and / or a temporal frequency of the image and / or the complementary image and / or a maximum speed of eye movement determined pixel by pixel. The knowledge of the relationships between these parameters allows one dynamic and content dependent regional adaptation of the just perceptible difference. The maximal Speed of eye movement can be determined in particular empirically become.
Bevorzugt wird mindestens eine der Kameras auf die Bildwiederholfrequenz synchronisiert, wobei das Originalbild aus einem Mittelwert des aufgenommenen Bildes und des aufgenommenen komplementären Bildes und die Struktur aus einer Differenz oder einem Quotienten aus dem aufgenommenen Bild und dem aufgenommenen komplementären Bild rekonstruiert wird. Der Quotient der beiden Bilder ist größer oder kleiner Eins während die Differenz beider Bilder größer oder kleiner Null ist, abhängig vom integrierten Bit. Um einen Einfluss der Übertragungs- oder Antwortfunktion der Kamera oder des Projektors zu vermeiden, können diese linearisiert sein. Nach der Linearisierung kann eine Gammakorrektur angewandt werden, um die Farbkonsistenz sicher zu stellen.Prefers if at least one of the cameras is synchronized to the refresh rate, the original image being an average of the captured image and the recorded complementary Picture and the structure of a difference or a quotient reconstructed from the recorded image and the recorded complementary image becomes. The quotient of the two pictures is larger or smaller one while the Difference between both pictures bigger or less than zero is dependent from the integrated bit. To influence the transmission or response function camera or projector, these can be linearized. After linearization, gamma correction can be applied to ensure the color consistency.
Es können sowohl binäre Strukturen als auch Strukturen variabler Intensitäten integriert sein.It can both binary Structures as well as structures of variable intensities integrated be.
Vorzugsweise wird ein Kantendetektions-Algorithmus auf das aufgenommene Bild und auf das aufgenommene komplementäre Bild angewandt, ein optischer Fluss berechnet und eine Homografie-Matrix ermittelt, um das aufgenommene Bild und das aufgenommene komplementäre Bild aneinander auszurichten. Auf diese Weise werden beispielsweise schnelle Kamerabewegungen kompensiert. Als Kantendetektions-Algorithmus kommt beispielsweise ein Canny-Algorithmus in Betracht.Preferably becomes an edge detection algorithm on the captured image and applied to the captured complementary image, an optical one River is calculated and a homography matrix is determined to be recorded Align image and the recorded complementary image to each other. In this way, for example, fast camera movements compensated. As an edge detection algorithm, for example, comes Canny algorithm into consideration.
Insbesondere zur regionalen Adaption der gerade wahrnehmbaren Differenz ist die Bestimmung der Raumfrequenz des darzustellenden Bildes in Echtzeit vorteilhaft. Zu diesem Zweck wird vorzugsweise ein Laplace-Pyramiden-Algorithmus angewandt. Die verwendete Laplace-Pyramide weist vorzugsweise sechs Stufen auf. Beispielsweise werden die absoluten Differenzen jeder Stufe der Gauß-Pyramide benutzt und jede Stufe der daraus resultierenden Laplace-Pyramide normiert. Das Ergebnis sind die Verhältnisse der Raumfrequenzen innerhalb jedes der erzeugten Frequenzbänder. Die Ergebnisse werden abhängig von der Entfernung des Betrachters von einer Bildebene und der Größe der Projektion in Einheiten von Zyklen pro Grad konvertiert, mit denen sich das Auflösungsvermögen des menschlichen Auges besonders gut beschreiben lässt. Das Eingabebild für den Laplace-Pyramiden-Algorithmus wird in sein physikalisches Helligkeits-Äquivalent mit der Einheit cd/m2 transformiert (Die Antwort-Funktion des Projektors wurde mit einem Fotometer gemessen.). Mit diesen Parametern kann die gerade wahrnehmbare Differenz für eine beliebige Region innerhalb des Originalbildes mit der kodierten Struktur ermittelt werden.In particular for the regional adaptation of the currently perceivable difference, the determination of the spatial frequency of the image to be displayed in real time is advantageous. For this purpose, a Laplace pyramid algorithm is preferably used. The Laplace pyramid used preferably has six stages. For example, the absolute differences of each stage of the Gaussian pyramid are used and normalized to each stage of the resulting Laplace pyramid. The result is the ratios of the spatial frequencies within each of the generated frequency bands. The results are converted depending on the distance of the viewer from an image plane and the size of the projection in units of cycles per degree, with which the resolution of the human eye can be described very well. The input image for the Laplace pyramid algorithm is transformed into its physical brightness equivalent with the unit cd / m 2 (the response function of the projector was measured with a photometer). With these parameters, the just noticeable difference for any region within the original image with the coded structure can be determined.
Vorzugsweise wird der grüne Kanal des Originalbildes um eine geringere Differenz verändert als der rote und der blaue Kanal. Dies ist eine weitere Möglichkeit, um die Sichtbarkeit der Strukturen in den projizierten Bildern zu verringern, da das menschliche Auge für Licht im Wellenlängenbereich grünen Lichts besonders empfindlich ist. Insbesondere beträgt die Differenz im grünen Kanal maximal ein Viertel der Differenz im roten und/oder im blauen Kanal. Bei deutlich verminder ter Wahrnehmbarkeit durch einen Beobachter kann die Struktur so dennoch mit hoher Qualität projiziert werden. Trotz der unterschiedlichen Differenzen in den Farbkanälen wird vom Betrachter keine Farbverschiebung wahrgenommen, da das Bild in gleicher Weise durch das komplementäre Bild kompensiert wird. Vorzugsweise wird die maximale Differenz in den drei Farbkanälen statt einer mittleren Differenz im Graukanal zur Schwellwertbestimmung benutzt.Preferably becomes the green one Channel of the original image changed by a smaller difference than that red and the blue channel. This is another way to the visibility of the structures in the projected images decrease, since the human eye for light in the wavelength range green light is particularly sensitive. In particular, the difference is in the green channel maximum one quarter of the difference in the red and / or blue channel. at significantly diminished perceptibility by an observer the structure can still be projected with high quality. In spite of the different differences in the color channels is not the viewer Color shift perceived as the image in the same way the complementary picture is compensated. Preferably, the maximum difference in the three color channels instead of a mean difference in the gray channel for thresholding used.
Wenn die Auflösung der Kamera niedriger ist als die des Projektors, können individuelle Pixel am Übergang von Markergrenzen falsch klassifiziert werden. Bei schnellen Kamerabewegungen kann die integrierte Struktur durch die geometrische Missregistrierung nicht mehr für jedes Pixel korrekt rekonstruiert werden. Dieser Defekt kann durch Anwendung eines Median-Filters effizient entfernt werden.If the resolution the camera is lower than that of the projector, can be customized Pixel at the transition of marker boundaries are misclassified. For fast camera movements can the integrated structure through the geometric misregistration not for anymore every pixel is correctly reconstructed. This defect can through Application of a median filter can be efficiently removed.
In einer bevorzugten Ausführungsform wird, insbesondere bei zeitlich variierenden Strukturen die Differenz zum Originalbild über eine Folge von Bildern und komplementären Bildern schrittweise von Null bis maximal bis auf die gerade wahrnehmbare Differenz angehoben und/oder von maximal der gerade wahrnehmbaren Differenz bis auf Null abgesenkt. Das bedeutet, dass eine Struktur nicht abrupt in das Bild projiziert, sondern stufenweise eingeblendet wird, wodurch die Wahrnehmung von Flackern an den Übergängen vermieden wird. Insbesondere wird zum Ausblenden die Differenz in einer Anzahl von Schritten um einen konstanten Wert bis auf Null reduziert. Wenn die Differenz Null ist, kann auf eine neue Struktur umgeschaltet und diese wieder schrittweise eingeblendet werden.In a preferred embodiment, in particular with temporally varying structures, the difference to the original image over a sequence of images and complementary images is gradually increased from zero to maximum except for the just perceptible difference and / or from maximum of the just noticeable difference to zero lowers. This means that a structure is not abruptly projected into the image, but gradually faded in, avoiding the perception of flickering at the transitions. In particular, to hide the difference in a number of steps is reduced by a constant value to zero. If the difference is zero, you can switch to a new structure and display it again step by step.
Eine Anzahl der Schritte, über die die Differenz angehoben oder abgesenkt wird, wird bevorzugt in Abhängigkeit von einer mittels der lokalen Raumfrequenz und der lokalen Helligkeit bestimmten gerade wahrnehmbaren Helligkeits- und/oder Kontrastdifferenz ermittelt. Diese Parameter können aus einer so genannten Threshold-vs-Intensity-Funktion (TVI) und einer Kontrast-Empfindlichkeits-Funktion abgeleitet werden. Dies sind Funktionen der lokalen Raumfrequenz und des Helligkeitspegels. Auf diese Weise kann eine optimale Anzahl von Schritten für den Vorgang des Ein- und Ausblendens einer kodierten Struktur für jede Region im Bild bestimmt werden. Insbesondere werden Mittelwerte der Raumfrequenzen und Helligkeitspegel von Bildbereichen benutzt, für die bereits die gerade wahrnehmbare Differenz berechnet wurde. Die TVI-Funktion und die Kontrast-Empfindlichkeits-Funktion werden angewandt und ihre Ergebnisse multipliziert, um die größte nicht wahrnehmbare Helligkeitsdifferenz pro Schritt zu bestimmen. Auf diese Weise wird die Anzahl der jeweils erforderlichen Schritte zum Ein- und Ausblenden für die entsprechende Bildregion bestimmt.A Number of steps, over the difference is raised or lowered, is preferred in dependence one by means of the local spatial frequency and the local brightness certain just perceivable brightness and / or contrast difference determined. These parameters can from a so-called Threshold vs Intensity function (TVI) and a contrast sensitivity function be derived. These are functions of the local spatial frequency and the brightness level. In this way can be an optimal number of steps for the A process of fading in and out of a coded structure for each region to be determined in the picture. In particular, mean values of the spatial frequencies become and brightness levels of image areas used for that already the just noticeable difference was calculated. The TVI function and the contrast sensitivity function are applied and their results multiplied to the largest imperceptible brightness difference to determine per step. In this way, the number of each required Steps to show and hide for the corresponding image region certainly.
Wird das Originalbild in der Originalbildfolge gegenüber einem vorangegangenen Originalbild verändert, beispielsweise bei einem Szenenwechsel, bei Videos oder interaktiven Inhalten, während die gerade projizierte Struktur dennoch beibehalten werden soll, beispielsweise wenn es sich um einen Marker für die Kameraverfolgung und -nachführung handelt, wird die gerade wahrnehmbare Differenz vorzugsweise neu bestimmt und auch der Ein- oder Ausblendvorgang entsprechend angepasst, damit die Struktur nicht plötzlich sichtbar wird oder eine andere Wahrnehmungsstörung verursacht, beispielsweise infolge einer veränderten Raumfrequenz.Becomes the original picture in the original picture sequence compared to a previous original picture changed For example, during a scene change, for videos or interactive Content while the currently projected structure should still be preserved, for example, if it is a marker for camera tracking and -nachführung the currently noticeable difference is preferably new determined and also the fade-in or fade-out adjusted accordingly, so that the structure does not suddenly becomes visible or causes another perception disorder, for example, as a result an altered one Spatial frequency.
Als Strukturen werden beispielsweise zweidimensionale Marker in das Bild und entsprechend in das komplementäre Bild eingebettet, die zur Kameraverfolgung und -nachführung verwendet werden.When Structures, for example, become two-dimensional markers in the Picture and accordingly embedded in the complementary picture, the Camera tracking and tracking be used.
Vorzugsweise wird eine Position und/oder eine Größe des Markers während der Bildfolge zumindest dann dynamisch neu berechnet und im Bild und im komplementären Bild verändert, wenn eine der Kameras bewegt oder auf eine andere der Kameras umgeschaltet wird und der bisherige Macker infolge Abschattung durch ein Objekt oder eine Person in einem Vordergrund nicht oder schlecht sichtbar ist, wobei Objekte und/oder Personen in einem Vordergrund mittels eines Keying-Verfahrens extrahiert werden.Preferably is a position and / or a size of the marker during the Image sequence at least then recalculated dynamically and in the image and in the complementary Image changed, when one of the cameras moves or switches to another of the cameras is and the previous markers due to shading by an object or a person in a foreground not or poorly visible is where objects and / or people in a foreground means a keying process be extracted.
Die Größe und Position der Marker wird dabei vorzugsweise mittels eines Quad-Trees bestimmt, wobei die Markergröße entsprechend der Sichtbarkeit maximiert wird. Ein Quadtree ist in der Informatik eine spezielle Baum-Struktur, in der jeder innere Knoten bis zu vier Kinder haben kann. Das Begriff Quad-Tree leitet sich von der Zahl der Kinder eines inneren Knotens ab (quad (vier) + tree (Baum) = Quad-Tree). Diese Struktur wird hauptsächlich zur Organisation zweidimensionaler Daten im Bereich der Computergrafik eingesetzt. Die Wurzel des Baumes repräsentiert dabei eine quadratische Fläche. Diese wird rekursiv in je vier gleich große Quadranten zerlegt bis die gewünschte Auflösung erreicht ist und die Rekursion in einem Blatt endet. Durch rekursive Anwendung dieser Zerteilung kann die vom Wurzelknoten repräsentierte Fläche beliebig fein aufgelöst werden. Beispielsweise wird ein Quad-Tree berechnet, der eine Vielzahl von Marker verschiedener Größen an verschiedenen Positionen in jeder Ebene des Quad-Trees umfasst. Von einer höheren Ebene zur nächstniedrigeren vervierfacht sich die Anzahl der Marker während ihre Größe sich um den Faktor 2 verringert. Wir bezeichnen dies als Markerbaum. Adaptive Markerpositionierung wird in mehreren Schritten umgesetzt.The Size and position the marker is preferably determined by means of a quad-tree, wherein the marker size accordingly visibility is maximized. A quadtree is in computer science a special tree structure in which every inner node is up to can have four children. The term quad-tree derives from the Number of children of an inner node (quad (four) + tree (tree) = Quad-tree). This structure becomes mainly two-dimensional for organization Data used in the field of computer graphics. The root of the tree represents while a square area. These is recursively divided into four equal quadrants each until the desired resolution is reached and the recursion ends in a leaf. By recursive application This division allows the surface represented by the root node to be arbitrary finely resolved. For example, a quad-tree is calculated that has a plurality of Markers of different sizes at different Includes positions in each level of the quad-tree. From a higher level to the next lower The number of markers quadruples as their size quadruples reduced by a factor of 2. We call this a marker tree. Adaptive marker positioning is implemented in several steps.
Zuerst wird ein Vollbild-Quad in Projektorauflösung erzeugt und eine projektive Transformation berechnet, auf die die erzeugte Vordergrundprojektion aus der Kameraperspektive abgebildet ist. Dies wird erreicht durch Nutzung der Model-View-Matrix, die sich aus der in den zuvor dargestellten Bildern rekonstruierten Struktur zur Kameranachverfolgung ergibt.First is a full-screen Quad generated in projector resolution and a projective Transformation calculates to which the generated foreground projection from the camera perspective is shown. This is achieved by Use of the model view matrix, the to be reconstructed from the pictures presented above Structure for camera tracking results.
Das Ergebnis ist ein Binärbild, das die Sichtbarkeit jedes Projektorpixels aus Kamerasicht enthält, was wir als Sichtbarkeitskarte bezeichnen wollen. Diese Technik ist analog zu herkömmlichem Shadow Mapping. Die ursprüngliche Sichtbarkeitskarte wird dann benutzt, um die kleinstmögliche Markergröße zu berechnen, die benutzt wird, indem die Anzahl der Projektorpixel, die im Kamerabild aus der vorherigen Perspektive sichtbar sind, ermittelt wird. Wir rechnen die Sichtbarkeitskarte mittels Unterabtastung zu einer Bildpyramide, die die größtmögliche Markergröße in der obersten Ebene (z.B. per Definition 2×2 Marker) bis herunter zu der festgelegten kleinstmöglichen Markergröße in der untersten Ebene (z.B. 16×16 Pixel pro Marker) umfasst. Dies führt zu einer Sichtbarkeitskarte mit multipler Auflösung, die wir Sichtbarkeitsbaum nennen. Während der Laufzeit werden der Markerbaum und der Sichtbarkeitsbaum in den korrespondierenden Ebenen kombiniert: In einer Top-Down-Richtung werden nur Einträge, die weder verschaffet (d.h. die in der selben Sichtbarkeitsbaum-Ebene als sichtbar markiert sind) noch bereits durch Marker höherer Ebenen belegt sind, behandelt. Die verbleibenden Einträge werden dann in der aktuellen Ebene des Markerbaums als belegt gekennzeichnet. Regionen, die über alle Ebenen unsichtbar sind, werden auf der untersten Ebene der Markerpyramide gekennzeichnet. Wenn die unterste Ebene erreicht ist, wird der markierte Markerbaum kollabiert und die nichtüberlappenden Einträge, die durch verschiedene Ebenen belegt sind, werden kombiniert. Daraus ergibt sich ein kodiertes Bild, das die Menge optimal skalierter und platzierter Marker bezüglich der Vordergrundverdeckungen und der Kameraperspektive enthält. Lokale Markerregionen können zeitlich geblendet werden, wenn eine Änderung der Marker in einem bestimmten Bereich des Bildes stattfindet.The result is a binary image that contains the visibility of each projector pixel from the camera's point of view, which we call a visibility map. This technique is analogous to traditional shadow mapping. The original visibility map is then used to calculate the smallest possible marker size that is used by determining the number of projector pixels that are visible in the camera image from the previous perspective. We sub-scan the visibility map to create an image pyramid that includes the largest possible marker size in the top level (eg by definition 2 × 2 markers) down to the lowest possible marker size in the lowest level (eg 16 × 16 pixels per marker). This leads to a visibility map with multiple resolution, which we call visibility tree. During runtime, the marker tree and the visibility tree are combined in the corresponding levels Bound: In a top-down direction, only entries that are neither assigned (that is, marked as visible in the same visibility tree level) are already covered by higher-level markers are treated. The remaining entries are then marked as occupied in the current level of the marker tree. Regions that are invisible over all levels are marked at the lowest level of the marker pyramid. When the lowest level is reached, the marked marker tree is collapsed and the non-overlapping entries occupied by different levels are combined. The result is a coded image that contains the set of optimally scaled and placed markers for foreground occlusion and camera perspective. Local marker regions may be blinded when a change in markers occurs in a particular area of the image.
Vorzugsweise wird beim Keying-Verfahren der Vordergrund blitzartig jeweils nur im Bild oder nur im komplementären Bild beleuchtet, wobei Objekte und/oder Personen im Vordergrund anhand der im Bild und im komplementären Bild unterschiedlichen Helligkeit vom gleichbleibend hellen Hintergrund unterscheiden werden. Diese Technik wird auch als Real-Time-Flash-Keying bezeichnet.Preferably In the keying method, the foreground is only ever in a flash in the picture or only in the complementary one Illuminated image, with objects and / or people in the foreground based on the different brightness in the picture and in the complementary picture be distinguished from the consistently bright background. These Technology is also referred to as real-time flash keying.
Zur Extraktion des Vordergrunds werden vorzugsweise nur Helligkeitsunterschiede berücksichtigt, die einen bestimmten Schwellwert übersteigen. Insbesondere ist dieser Schwellwert größer als das Doppelte der aktuell größten Differenz, d.h. der Intensitätsdifferenz, die zur Integration der Struktur verwendet wird.to Extraction of the foreground preferably only brightness differences considered, which exceed a certain threshold. In particular this threshold is greater than twice the currently largest difference, i.e. the intensity difference, which is used to integrate the structure.
Die blitzartige Beleuchtung erfolgt bevorzugt durch mindestens einen LED-Blitz oder durch mindestens einen der Videoprojektoren. Beispielsweise wird der Vordergrund 60 mal pro Sekunde mit Blitzen von jeweils acht Millisekunden Länge beleuchtet, so dass bei 120 Hz Bildwiederholfrequenz jeweils nur der Vorder grund des Bilds oder des komplementären Bilds beleuchtet ist. Beispielsweise können weiße LEDs mit einer Farbtemperatur von 5600 K benutzt werden. Zusätzlich können Farbfilter verwendet werden.The Lightning-like lighting is preferably carried out by at least one LED flash or through at least one of the video projectors. For example the foreground 60 times per second with flashes of eight each Milliseconds in length illuminated, so that at 120 Hz refresh rate only the Foreground of the image or the complementary image is illuminated. For example can white LEDs be used with a color temperature of 5600 K. In addition, color filters be used.
Insbesondere bei schnellen Kamerabewegungen können das aufgenommene Bild und das aufgenommene komplementäre Bild ebenfalls mit Hilfe einer Homografiematrix korrigiert werden, bevor der Vordergrund extrahiert wird.Especially with fast camera movements can the captured image and the captured complementary image also be corrected with the help of a homography matrix before the Foreground is extracted.
In einer weiteren Ausführungsform wird beim Keying-Verfahren der Vordergrund konstant beleuchtet, wobei Objekte und/oder Personen im Vordergrund anhand der gleichbleibenden Helligkeit vom Hintergrund unterschieden werden, der anhand der im Bild und im komplementären Bild unterschiedlich hellen, nicht wahrnehmbaren Strukturen identifiziert wird.In a further embodiment the foreground is constantly illuminated during the keying process, with objects and / or people in the foreground based on the same Brightness can be distinguished from the background, based on the in the Picture and in the complementary Image different bright, imperceptible structures is identified.
Vorzugsweise werden zwei der Kameras zueinander koaxial angeordnet, wobei eine der Kameras auf den Vordergrund und die andere der Kameras auf den Hintergrund fokussiert wird und die aufgenommenen Bilder und/oder die aufgenommenen komplementären Bilder beider Kameras zur Extraktion des Vordergrunds genutzt werden.Preferably two of the cameras are arranged coaxially with each other, with a the cameras on the foreground and the other of the cameras on the Background is focused and the captured images and / or the recorded complementary Images from both cameras can be used to extract the foreground.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Zeichnungen näher erläutert.in the Below are embodiments of the Invention explained in more detail with reference to drawings.
Darin zeigen:In this demonstrate:
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.each other corresponding parts are in all figures with the same reference numerals Mistake.
In
In
In
Wird
eine Struktur C unter Beachtung der gerade wahrnehmbaren Differenz Δ in das projizierte Bild
I und/oder das komplementäre
Bild I' eingebettet, so
verhält
sich die wahrnehmbare relative Intensität, wie in
In
den
Das
Ergebnis ist ein Binärbild,
das die Sichtbarkeit jedes Projektorpixels aus Kamerasicht enthält, was
wir als Sichtbarkeitskarte bezeichnen, wie in
Die Bildwiederholfrequenz von 120 Hz wurde exemplarisch gewählt. Es kann eine andere Bildwiederholfrequenz verwendet werden.The Refresh rate of 120 Hz was selected as an example. It a different refresh rate can be used.
Zur Vermeidung von Clipping bei der Addition und/oder Subtraktion der gerade wahrnehmbaren Differenz Δ zum Bild I oder zum komplementären Bild I kann das Originalbild O skaliert werden. Dabei genügt eine Kontrastreduzierung von 2Δ. Die Helligkeit kann hierfür beispielsweise um 10% angehoben werden, um Kamerarauschen in dunklen Bildregionen zu reduzieren. Praktisch führt dies zu einer Kontrastreduzierung um etwa 10% bis 20%. Das Originalbild O wird insbesondere linear skaliert.to Avoiding clipping in the addition and / or subtraction of the just noticeable difference Δ to Picture I or complementary Image I, the original image O can be scaled. One is enough Contrast reduction of 2Δ. The brightness can do this For example, raised by 10% to camera noise in dark Reduce image regions. In practice, this leads to a reduction in contrast by about 10% to 20%. The original image O becomes, in particular, linear scaled.
- 11
- Raumroom
- 22
- Kameracamera
- 33
- Digitaler Videoprojektordigital video projector
- 44
- Räumliche Erweiterungspatial extension
- 55
- projizerte Filmsequenzprojizerte movie
- 66
- analoge Lichtquelleanalog light source
- 77
- Personperson
- 88th
- Markermarker
- 99
- Computercomputer
- 1010
- Produktionseinheitproduction unit
- 1111
- Vordergrundobjektforeground object
- 1212
- Hintergrundbackground
- 1313
- relative integrierte Lichtmengerelative integrated amount of light
- BA B A
- aufgenommene Bildfolgerecorded image sequence
- BP B P
- projizierte Bildfolgeprojected image sequence
- ΔΔ
- gerade wahrnehmbare Differenzjust noticeable difference
- II
- Bildimage
- II
- komplementäres Bildcomplementary picture
- OO
- Originalbildoriginal image
- ss
- Anzahlnumber
Claims (31)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007041719A DE102007041719B4 (en) | 2006-11-06 | 2007-09-04 | Method for creating augmented reality in a room |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006052507 | 2006-11-06 | ||
DE102006052507.8 | 2006-11-06 | ||
DE102007041719A DE102007041719B4 (en) | 2006-11-06 | 2007-09-04 | Method for creating augmented reality in a room |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102007041719A1 true DE102007041719A1 (en) | 2008-05-15 |
DE102007041719B4 DE102007041719B4 (en) | 2010-01-28 |
Family
ID=39277819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007041719A Expired - Fee Related DE102007041719B4 (en) | 2006-11-06 | 2007-09-04 | Method for creating augmented reality in a room |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102007041719B4 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012038009A1 (en) | 2010-09-20 | 2012-03-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
DE102011117659A1 (en) * | 2011-11-04 | 2013-05-08 | Eizo Gmbh | Method for operating an image processing device and corresponding image processing device |
WO2015107257A1 (en) * | 2014-01-16 | 2015-07-23 | Nokia Technologies Oy | Method and apparatus for multiple-camera imaging |
DE102021215048A1 (en) | 2021-12-27 | 2023-06-29 | Friedrich-Schiller-Universität Jena | Arrangement and method for distinguishing between a background and a foreground object of a scene |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021106488A1 (en) | 2020-12-23 | 2022-06-23 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Background display device, background display system, recording system, camera system, digital camera and method for controlling a background display device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0993204B1 (en) * | 1996-02-01 | 2006-09-06 | Vi[Z]Rt Ltd | Chroma keying studio system |
GB2386489B (en) * | 2002-03-15 | 2006-10-04 | British Broadcasting Corp | Virtual studio system |
-
2007
- 2007-09-04 DE DE102007041719A patent/DE102007041719B4/en not_active Expired - Fee Related
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11165973B2 (en) * | 2010-09-20 | 2021-11-02 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery |
US20220046187A1 (en) * | 2010-09-20 | 2022-02-10 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery |
KR101826178B1 (en) * | 2010-09-20 | 2018-03-22 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Method for differentiating background and foreground of a setting and method for replacing a background in image of a setting |
EP3340610A3 (en) * | 2010-09-20 | 2018-09-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
AU2016202378B2 (en) * | 2010-09-20 | 2018-05-24 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. | Method for Differentiating Background and Foreground of a Setting and Method for Replacing a Background in Images of a Setting |
US11950014B2 (en) * | 2010-09-20 | 2024-04-02 | Fraunhofer-Gesellschaft Zur Foerderungder Angewandten Forschung E.V | Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery |
RU2572207C2 (en) * | 2010-09-20 | 2015-12-27 | Фраунхофер-Гезелльшафт Цур Фёрдерунг Дер Ангевандтен Форшунг Э.Ф. | Method of differentiating between background and foreground of scene and method of replacing background in scene images |
AU2011304767B2 (en) * | 2010-09-20 | 2016-01-14 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
US9355325B2 (en) | 2010-09-20 | 2016-05-31 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery |
KR20180015757A (en) * | 2010-09-20 | 2018-02-13 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Method for differentiating background and foreground of a setting and method for replacing a background in image of a setting |
CN103155539A (en) * | 2010-09-20 | 2013-06-12 | 弗劳恩霍弗应用技术研究院 | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
EP4175286A1 (en) * | 2010-09-20 | 2023-05-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
WO2012038009A1 (en) | 2010-09-20 | 2012-03-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting |
US10313607B2 (en) | 2010-09-20 | 2019-06-04 | Fraunhofer-Gesellschaft-Zur Foerderung Der Angewandten Forschung E.V. | Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery |
KR102002331B1 (en) | 2010-09-20 | 2019-07-23 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Method for differentiating background and foreground of a setting and method for replacing a background in image of a setting |
DE102011117659B4 (en) * | 2011-11-04 | 2013-10-31 | Eizo Gmbh | Method for operating an image processing device and corresponding image processing device |
DE102011117659A1 (en) * | 2011-11-04 | 2013-05-08 | Eizo Gmbh | Method for operating an image processing device and corresponding image processing device |
US9088801B2 (en) | 2011-11-04 | 2015-07-21 | Eizo Gmbh | Method for identifying improper transmission of images in an image-processing device and a corresponding image-processing device |
WO2015107257A1 (en) * | 2014-01-16 | 2015-07-23 | Nokia Technologies Oy | Method and apparatus for multiple-camera imaging |
DE102021215048A1 (en) | 2021-12-27 | 2023-06-29 | Friedrich-Schiller-Universität Jena | Arrangement and method for distinguishing between a background and a foreground object of a scene |
WO2023126311A1 (en) | 2021-12-27 | 2023-07-06 | Leibniz-Institut Für Photonische Technologien E.V. | Arrangement and method for distinguisihing between a background and a foreground object in a scene |
Also Published As
Publication number | Publication date |
---|---|
DE102007041719B4 (en) | 2010-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7340094B2 (en) | Image segmentation by means of temporal parallax difference induction | |
CA2284032C (en) | Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image | |
DE69602515T2 (en) | DEVICE AND METHOD FOR REAL-TIME DISPLAY IN VIDEO IMAGES USING ADAPTIVE OCCLUSION WITH A SYNTHETIC REFERENCE IMAGE | |
US7054478B2 (en) | Image conversion and encoding techniques | |
US8073247B1 (en) | Minimal artifact image sequence depth enhancement system and method | |
DE69506856T2 (en) | IMPROVED CHROMAKEY SYSTEM | |
Grundhofer et al. | Dynamic adaptation of projected imperceptible codes | |
US20120063681A1 (en) | Minimal artifact image sequence depth enhancement system and method | |
US20110164109A1 (en) | System and method for rapid image sequence depth enhancement with augmented computer-generated elements | |
MXPA03010039A (en) | Image sequence enhancement system and method. | |
EP3427474B1 (en) | Image processing method, image processing means and image processing device for generating images of a portion of a three-dimensional space | |
US9928582B2 (en) | Method and system for processing image content for enabling high dynamic range (UHD) output thereof and computer-readable medium comprising UHD content created using same | |
DE112006000534T5 (en) | Positioning a subject with respect to a background scene in a digital camera | |
DE102007041719B4 (en) | Method for creating augmented reality in a room | |
US9990702B2 (en) | Method and system for processing image content for enabling high dynamic range (UHD) output thereof and computer-readable medium comprising UHD content created using same | |
DE69705499T2 (en) | COLOR PUNCH STUDIO SYSTEM | |
JP2001503574A (en) | Backing luminance non-uniformity compensation in real-time synthesis systems | |
US20210166399A1 (en) | Background Balancing in a Collection of Digital Images | |
DE19713648C2 (en) | Process for electronically reducing the light / dark contrast of video images as soon as they are recorded | |
EP2137983B1 (en) | Using a region restricted cleanup signal to bridge a signal level mismatch between a blue screen and an adjoining garbage matte | |
JP2688811B2 (en) | How to color black and white images | |
US20080063275A1 (en) | Image segmentation by means of temporal parallax difference induction | |
WO2009036831A1 (en) | Device and method for aligning a 3d object in an image corresponding to a field of view of a recording device | |
DE112008002083T5 (en) | Method and software for image transformation | |
Thomas | Virtual Graphics for Broadcast Production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8381 | Inventor (new situation) |
Inventor name: ZOLLMANN, STEPHANIE, 07743 JENA, DE Inventor name: KOLSTER, DANIEL, 99423 WEIMAR, DE Inventor name: GRUNDHOEFER, ANSELM, 8053 ZUERICH, CH Inventor name: BIMBER, OLIVER, 35394 GIESSEN, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |