DE10011744B4 - Automatische Hintergrundszenendefokussierung für die Bildzusammensetzung - Google Patents

Automatische Hintergrundszenendefokussierung für die Bildzusammensetzung Download PDF

Info

Publication number
DE10011744B4
DE10011744B4 DE10011744A DE10011744A DE10011744B4 DE 10011744 B4 DE10011744 B4 DE 10011744B4 DE 10011744 A DE10011744 A DE 10011744A DE 10011744 A DE10011744 A DE 10011744A DE 10011744 B4 DE10011744 B4 DE 10011744B4
Authority
DE
Germany
Prior art keywords
background
defocusing
image
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10011744A
Other languages
English (en)
Other versions
DE10011744A1 (de
Inventor
Paul Vlahos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ultimatte Corp
Original Assignee
Ultimatte Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ultimatte Corp filed Critical Ultimatte Corp
Publication of DE10011744A1 publication Critical patent/DE10011744A1/de
Application granted granted Critical
Publication of DE10011744B4 publication Critical patent/DE10011744B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Verfahren zum automatischen Defokussieren einer Hintergrundszene mit Hintergrund-Pixeln, wenn die Hintergrundszene mit einem Vordergrundobjekt während der Aufnahme eines Objekts zusammengesetzt wird, wobei die Hintergrundszene zunehmend defokussiert wird, wenn sich das Objekt an die Kamera anzunähern scheint, wobei: a) eine Quelle des Hintergrundbildsignals mit einem Hintergrundeingang einer Zusammensetzeinrichtung verbunden wird, die in der Lage ist, eine ausgewählte Gruppe von Hintergrundpixeln zu mitteln, wobei jeder der Hintergrund-Pixel einen Signalpegel aufweist, b) eine Quelle des Vordergrundbildsignals mit einem Vordergrundeingang der Zusammensetzeinrichtung verbunden wird, c) auf ein von der Zusammensetzeinrichtung erzeugtes Matte-Signal zugegriffen wird, d) das Matte-Signal verwendet wird, um das Verhältnis der Vordergrundobjektfläche zur Bildfläche zu bestimmen, e) das Flächenverhältnis verwendet wird, um für jedes Pixel in dem Hintergrundbild eine Anzahl benachbarter Pixel auszuwählen, die zu einem Mittelwert verknüpft werden, um einen Mittelwert des Pixels zu bilden, und f) die Werte jedes Hintergrund-Pixels durch den zugehörigen Mittelwert ersetzt werden, wodurch eine Defokussierung der Hintergrundszene erzeugt wird, die mit einer scheinbaren Verringerung des Abstands der Kamera zum Objekt zunimmt.

Description

  • Die Erfindung betrifft ein Verfahren und eine Einrichtung zum automatischen Defokussieren einer Hintergrundszene, wenn die Hintergrundszene mit einem Vordergrundobjekt während der Aufnahme des Objekts zusammengesetzt wird.
  • Die Szene hinter einer scharf fokussierten Nahaufnahme eines Objekts ist normalerweise unscharf, da dies die Erfahrung ist, die typische fotographischen Linsen und die Linse des menschlichen Auges bieten. Wenn sich jedoch das Objekt in einem Abstand von 30 Fuß oder mehr befindet, wird erwartet, daß der Hintergrund sich in einem annehmbar scharfen Fokus befindet.
  • Verbesserungen beim Entfernen des blauen Hintergrunds bei mit Hilfe der Blue-Screen-Technik zusammengesetzten Aufnahmen und verbesserte Techniken zum Erfassen und Berücksichtigen von Kamerabewegungen haben die Verwendung eines virtuellen Studios für Live-Fernsehsendungen praktikabel gemacht.
  • Das virtuelle Studio ersetzt herkömmliche Hintergründe, die aus Bauholz, Farbe und Tapete hergestellt wurden, durch Hintergrundszenen, die von einem Künstler oder einem Fotografen erzeugt werden. Da er ein Bild ist, ändert sich die Scharfeinstellung des Hintergrunds nicht, wenn der Vordergrundkamerabrennpunkt dem Objekt folgt, wenn es sich an die Kamera annähert oder von ihr entfernt. Dieses Fehlen der Schärfenänderung des Hintergrunds bei einer Änderung des Brennpunkts der Kamera stellt einen der Fehler in dem virtuellen Studiokonzept dar.
  • Aus der EP 0 610 080 A1 ist eine Bild-Defokussiereinrichtung bekannt. Dort wird ein Objekt modelliert, indem Pixelwerte des Bildes geändert werden, um den fokussierenden Effekt einer Optik anzunähern.
  • Die WO 98/44456A2 beschreibt Verfahren, um die Realitätsnähe synthetisch generierter Bilder zu verbessern. Dabei wird eine virtuelle Kameralinse verwendet, welche eine künstliche Unschärfe hervorruft.
  • Aus der GB 2312125A ist ein virtuelles Studio bekannt, wobei reale Bilddaten mit synthetischen Bilddaten gemischt werden. Der wahrgenommene Fokus der synthetischen Daten wird in Abhängigkeit vom eingestellten Zoom berechnet. Hierbei wird ein Teil des synthetischen Bildes defokussiert, um die Anordnung hinter dem Teil des realen Bildes zu betonen.
  • Die WO 98/48381A1 offenbart ein Verfahren zur Verbesserung der Tiefenwahrnehmung eines Bildes. Objekte in einem aufgenommenen Bild werden segmentiert und entweder dem Vordergrund oder Hintergrund zugehörig kategorisiert.
  • Aus Rotthaler, Max, Vitual Studio Technology, EBU Technical Review, Summer 1996, Seiten 2–6 ist außerdem ein Überblick über den Stand der Technik zu virtuellen Studios bekannt. Außerdem wird zu virtuellen Studios auf Wojdala, Andrew, Challanges of Virtual Set Technology, IEEE Multimedia, Vol. 5, No. 1, 1998, pp. 50–57 verwiesen.
  • Aufgabe der Erfindung ist es, das mit Hilfe der Blue-Screen-Technik zusammengesetzte Bild eines Vordergrundobjekts und eines Hintergrundbildes derart zu verbessern, daß es sich der Realität annähert, insbesondere die Defokussierung des Hintergrundbildes bei der Annäherung des Objekts an die Kamera nachzubilden.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 bzw. eine Einrichtung mit den Merkmalen des Patentanspruchs 12 gelöst.
  • Ein Schauspieler, der sich entfernt von der Kamera aufhält, belegt nur eine geringe Fläche auf dem Bildrahmen (der Bildfläche). Wenn sich der Schauspieler in der Nähe der Kamera befindet, wie beispielsweise bei Nahaufnahmen, so füllt er einen großen Teil des Bildrahmens. Das Verhältnis der Objektfläche zur Einzelbildfläche ist eines der Kriterien zum Abschätzen des Ausmaßes der Hintergrunddefokussierung, die bei verschiedenen Abständen des Objekts zur Kamera auftreten sollte.
  • Die Fläche des Objekts wird von dem beim Zusammensetzen verwendeten ”Matte”-Signal zur Verfügung gestellt. Einstellbare Grenzen des Verhältnisses werden vorgegeben, bei denen die erzeugte Defokussierung (Unschärfe) initiiert und beendet werden soll. Die Defokussier- und Refokussier-Rate wird gesteuert, wenn ein sich in der Nähe der Kamera befindender Schauspieler das Einzelbild betritt oder verläßt.
  • Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
  • Im folgenden wird die Erfindung anhand von in den Zeichnungen dargestellten Ausführungsbeispielen näher beschrieben. In den Zeichnungen zeigen:
  • 1 ein Diagramm, das den Betrag der Defokussierung als Funktion der von einem Objekt belegten Bildfläche in Prozent zeigt. Der Betrag der Defokussierung wird als Prozentsatz der höchstmöglichen Defokussierung dargestellt, wobei als höchstmögliche Defokussierung der Gesamtdurchschnitt sämtlicher Pixel (Farben) in dem Einzelbild genommen wird.
  • 2 ist ein Diagramm, das einen Bereich von Verhältnissen der Abbildfläche zu Gesamtbildfläche zeigt, bei denen nach Auswahl durch einen Bediener die Defokussierung einsetzen soll.
  • 3 ist ein Diagramm, das den Bereich der Defokussierraten veranschaulicht, die ein Bediener auswählen kann.
  • 4 veranschaulicht einen Bereich, über welchen ein Bediener Maximal- und Minimaldefokussiergrenzen auswählen kann.
  • 5 veranschaulicht ein allmähliches Initiieren und Beenden der Defokussierung zwischen ausgewählten Maximal- und Minimalgrenzen.
  • 6 ist eine Blockdarstellung einer Implementierung der vorgeschlagenen automatischen Hintergrunddefokussierung.
  • 7 zeigt die Details des ”Berechne d”-Blocks gemäß 6.
  • 8 ist ein Zustandsübergangsgraph des ”ERFASSE OBJEKTZUSTAND”-Blocks gemäß 6.
  • Jede Zusammensetzeinrichtung oder jedes Software-Zusammensetzprogramm erzeugt ein Matte-Signal, das auch Austastsignal oder Alphakanal genannt wird. Das Matte-Signal stellt eine Silhouette des Objekts dar und belegt folglich die gleiche Gesamtbildfläche wie das Objekt. Bei Zusammensetzeinrichtungen, beispielsweise den von der Ultimatte Corporation erhältlichen, ist das Matte-Signal in dem undurchsichtigen Objektbereich gleich Null. Das Verhältnis der Anzahl von Matte-Pixeln, die einen Matte-Pegel von Null haben, zu der Gesamtzahl von Pixeln in dem Einzelbild ist der Prozentsatz des von dem Objekt belegten Bildrahmens. In dem Maße, wie die Distanz des Objekts zur Kamera absinkt, oder abzusinken scheint, belegt das Objekt einen größeren Abschnitt der Einzelbildfläche. Die Änderung der Distanz des Objekts zur Kamera kann simuliert werden, indem die Brennweite der Linse bei einer Zoom-Linse geändert wird.
  • Die x-Achse gemäß 1 zeigt den Prozentsatz des von dem Objekt belegten Einzelbildrahmens (Objektgröße), und die y-Achse zeigt einen sich erhöhenden Betrag der Defokussierung eines Hintergrunds, wenn sich die Objektgröße erhöht. 1 zeigt, daß der Hintergrund gerade beginnt, an Schärfe zu verlieren, wenn das Objekt gerade erst ein entfernt angeordneter Fleck ist, der keine signifikante Einzelbildfläche belegt.
  • Da alle Linsen eine Tiefenschärfe aufweisen, sollte die Hintergrunddefokussierung solange nicht beginnen, bis das Objekt näher ist als die hyperfokale Distanz der Vordergrundlinse. Diese Distanz ist beispielsweise 50 Fuß bei einer 50 mm-Linse bei f/4.0. Da die Feststellung eines scharfen Fokus subjektiv ist, ist der Defokussierstartpunkt ebenfalls subjektiv und hängt von der Szene und der Entscheidung des Bedieners ab. In 2 wird eine Objektgröße von 20% als Minimalobjektgröße ausgewählt, bei der die Defokussierung des Hintergrunds beginnen soll.
  • Sobald ein geeigneter Defokussierstartpunkt ausgewählt worden ist, wählt der Bediener dann eine Defokussierrate aus, d. h., um welchen Betrag der Hintergrund defokussiert werden soll bei einer gegebenen inkrementalen Erhöhung in der Objektgröße. 3 veranschaulicht ein Bereich von Defokussierraten mit einer durchgezogenen Linie, die eine von dem Bediener ausgewählte Rate anzeigt.
  • Sobald der Hintergrund um einen substantiellen Betrag defokussiert worden ist, gibt es kein Erfordernis, die Defokussierung weiter fortzusetzen. Es kann wünschenswert sein, die Defokussierung auf einen eher moderaten Betrag zu begrenzen, wenn der Hintergrund nicht soweit defokussiert werden soll, daß er unerkennbar wird. Der Maximalbetrag der Defokussierung kann durch Bedienerauswahl eingeschränkt werden. Es wurde eine mittlere Grenze ausgewählt, wie es in 4 gezeigt ist. 4 zeigt darüber hinaus eine ausgewählte Minimaldefokussiergrenze, die nützlich ist, wenn der Fokus nicht zu einem fernen Hintergrund zurückkehren soll. Der Linsenfokus beginnt nicht, sich abrupt zu ändern, so daß es folglich realistischer wäre, wenn die Fokussieränderungsrate ein wenig nichtlinear wäre, wie es in 5 gezeigt ist.
  • Damit sie zu ein praktikables System wird, sollte die automatische Defokussierfunktion möglichst narrensicher sein und minimale Bedieneraufmerksamkeit erfordern. Was geschieht beispielsweise, wenn ein sich in der Nähe der Kamera befindender Schauspieler aus der Szene an einer Seite des Bildrahmens hinausläuft? Wahrscheinlich bleibt die Kamera auf den Schauspieler fokussiert, wenn er die Szene verläßt.
  • Da er in der Nähe der Kamera ist, füllt der Schauspieler einen großen Prozentsatz des Bildrahmens, aber wenn er aus der Szene herausläuft, schrumpft dieser Prozentsatz auf Null. Da der Prozentsatz der von dem Objekt belegten Bildfläche auf Null reduziert wird, würde die Defokussierlogik normalerweise den Hintergrund in die Scharfeinstellung zurückbringen, obwohl die Kameralinse ihre Brennweite nicht ändert. Um die Änderung der Hintergrunddefokussierung zu vermeiden, friert die Logik des Systems die Hintergrunddefokussierung bei ihrer aktuellen Einstellung ein, wenn das Objekt zuerst den linken oder rechten Rand des Bildrahmens berührt. Man könnte diese Kantenberührungslogik derart erweitern, daß der obere oder untere Rand eingeschlossen werden, aber wenn die Objekte Menschen sind, werden der linke und rechte Rand vorzuziehen sein.
  • Wenn das Objekt den Bildrahmen verlassen hat, wird das Einfrieren der Hintergrunddefokussierung nach einer Zeitspanne von wenigen Sekunden freigegeben, um die Aktivitäten des Kamerabedieners, der die Kamerabrennweite ändert, zu simulieren.
  • Wenn ein Objekt in das Einzelbild in der Nähe der Kamera eintritt, kann es sein, daß sein exakter Abstand von der Kamera nicht bekannt ist. Es kann angenommen werden, daß die Kamerabrennweite zu dem Schauspieler hin verschoben wird, welches eine gleichzeitige Defokussierung des Hintergrunds verursachen sollte. Die typische Geschwindigkeit der Brennweitenänderung durch einen Bediener wird durch die Geschwindigkeit der Defokussieränderung durch die Defokussierlogik angenähert.
  • Die maximale Geschwindigkeit, bei welcher ein Defokussieren/Refokussieren auftreten kann, wird auf eine ausgewählte Geschwindigkeit begrenzt, die die Geschwindigkeit simuliert, bei welcher ein Bediener die Kamerabrennweite ändern würde. Folglich täuscht der plötzliche Eintritt eines Objekts in den Einzelbildrahmen die Defokussierlogik nicht derart, daß sie die Hintergrundfokussierung plötzlich ändert.
  • Die Technologie für eine Defokussierung eines Bildes ist in der Bildverarbeitung gut bekannt. Ein einfaches Mittel zum Defokussieren eines Bildes besteht darin, für jedes Pixel in dem Hintergrund einen Mittelwert der RGB-Pegel einer kleinen Gruppe benachbarter Pixel einzusetzen. Ein gewichteter Pixelmittelwert, wobei die Wichtung sehr gering ist, wenn die Defokussierung beginnt, und sich erhöht, wenn eine größere Anzahl von Pixeln in die Mittelwertbildung einbezogen wird, schafft eine sehr sanfte und stufenlose Defokussierwirkung am unteren Ende der Kurve gemäß 5. Der sich ändernde Anstieg am oberen Ende gemäß 5 kann erreicht werden, indem eine geringere Zunahme der Anzahl der Pixel, die in die Mittelwertbildung einbezogen werden, vorgenommen wird, wenn die Defokussierung sich ihrem ausgewählten Maximum nähert.
  • Es werden Vorkehrungen zum Einfrieren (Verriegeln) der Bedienereinstellungen für jeden der gesteuerten Parameter getroffen. Derartige feste Einstellungen gestatten es dem Bediener, einen fest vorgegebenen Betrag der Defokussierung aufrechtzuerhalten, der während eines Segments einer Sendung bestehen bleibt. Der Bediener kann darüber hinaus jederzeit die Defokussierfunktion bei ihrem aktuellen Zustand einfrieren oder ausschalten, um zu einem scharf abgebildeten Hintergrund zurückzukehren.
  • Es ist nicht das Ziel, irgendeine gegebene Linse und eine f-Blende zu simulieren, sondern stattdessen einen Bereich der Defokussierung zu erzeugen, der aufgrund früherer Erfahrungen von Fachleuten auf dem Gebiet der Erfindung erwartet würde. Mit den vorgesehenen Steuermöglichkeiten hat der Bediener die gesamte erforderliche Flexibilität, um Parameter einzustellen, die einen Hintergrund erzeugen, der welch verläuft, wie man erwarten würde, wenn sich ein Schauspieler der Kamera nähert, und sie führen dies automatisch aus. Auf die Standardeinstellungen für jeden der oben beschriebenen Parameter wird zugegriffen, wenn die Defokussierfunktion erstmalig ausgewählt wird. Diese Standardeinstellungen basieren auf der Erfahrung von Ultimatte, können aber auch auf andere Werte zurückgesetzt werden.
  • Eine Änderung der Kamerabrennweite kann außerdem geringfügige Änderungen in der Bildgröße bewirken. Änderungen der Bildgröße führen Nachführfehler zwischen den Kamerabewegungen und den entgegengesetzten Bewegungen der Hintergrundszene ein. Bei einer virtuellen Studioumgebung ist es übliche Praxis, den Lichtpegel anzuheben und die Kameralinse abzublenden, um eine große Tiefenschärfe zu erreichen, wodurch die Notwendigkeit einer Änderung der Kamerabrennweite vermieden wird.
  • Selbst wenn man Sensoren an dem Fokussierring der Kameralinse befestigen würde, um Brennweitenänderungen zu erfassen, und derartige Änderungen verwenden würde, um den Hintergrund zu defokussieren, wäre ihre Zweck weitgehend durch die große Tiefenschärfe vereitelt. Die Verwendung des Objektprozentsatzes des Einzelbildes könnte selbst dann gut verwendet werden, wenn die Kameralinse mit Kameralinsenfokussiersensoren ausgerüstet wäre.
  • 6 ist eine Blockdarstellung einer Implementierung der vorgeschlagenen automatischen Hintergrunddefokussierung. Der Zustand der Objektposition in Bezug auf den Einzelbildrahmen wird aus dem berechneten Matte-Signal (Block 2) und dem Bildrahmen (Block 3) bestimmt (Block 4). Die Defokussierparameter (Block 1) sind die folgenden:
    INITDEF – anfänglicher Defokussierbetrag. Ein voreingestellter Betrag der Defokussierung, der verwendet wird, wenn das Objekt erstmalig eintritt.
  • MINSIZE – das Verhältnis der Objektfläche zur Einzelbildfläche, bei welchem die Defokussierung einsetzt.
  • RATE – die Geschwindigkeit der Änderung des Defokussierbetrags, die der Änderung des Prozentsatzes der von dem Objekt belegten Bildfläche entspricht.
  • MINDEF – minimaler Defokussierbetrag. Der geringstmögliche Betrag der Defokussierung. MINDEF wird typischerweise auf INITDEF initialisiert.
  • MIN2DEF – sekundärer voreingestellter Defokussierbetrag. MINDEF wird auf MIN2DEF zurückgesetzt, wenn der Defokussierbetrag MIN2DEF übersteigt, was eine Rückkehr zu einem geringeren Defokussierbetrag verhindert.
  • MAXDEF – der maximal gestatte Defokussierbetrag.
  • Wenn festgestellt wird, daß das Objekt gerade in den Rahmen eintritt, wird der Defokussierbetrag allmählich (innerhalb von 2 Sekunden) von Null bis zu INITDEF, einem vorgegebenen Wert, verschoben (Block 5). Wenn das Objekt in den Rahmen innerhalb der vergangenen zwei Sekunden eingetreten ist, wird der Defokussierbetrag allmählich zu d, dem Ausgangssignal von Block 6, verschoben (Block 8). Wenn das Objekt in den Rahmen vor mehr als zwei Sekunden eingetreten ist, wird der Defokussierbetrag auf d, dem Ausgangssignal von Block 6, gesetzt (Block 9). Wenn das Objekt den Rahmen verläßt, wird der Defokussierbetrag eingefroren (Block 7). Wenn schließlich das Objekt den Rahmen innerhalb der letzten zwei Sekunden verlassen hat, wird der Defokussierbetrag allmählich auf Null verschoben (Block 10). In jedem Fall wird der neue Hintergrund (Block 34) dann um den Defokussierbetrag defokussiert (Block 35).
  • 7 zeigt die Details des ”Berechne d”-Blocks gemäß 6. Dieser Block nimmt die Defokussierparameter (Block 1 gemäß 6), das berechnete Matte-Signal und die Größe des Rahmens (Gesamtanzahl der Pixel), um einen provisorischen ”Defokussierbetrag” d zu berechnen, welcher entweder direkt verwendet wird oder mit anderen voreingestellten oder vom Bediener eingestellten Werten, wie sie in 6 beschrieben sind, gemischt wird. Die Anzahl n derjenigen Pixel, für welche das Matte-Signal (Block 11) gleich Null ist, werden gezählt (Block 12) und durch die Gesamtzahl d der Pixel in dem Rahmen (Block 13) geteilt (Block 14). Dieses Verhältnis schätzt die relative Größe s des Objekts ab, von welcher MINSIZE, die Minimalgröße für eine Defokussierung (Block 15), dann subtrahiert wird (Block 16), um eine eingestellte Größe sM zu erzeugen. sM wird dann mit dem Parameter RATE (Block 17) multipliziert, um einen provisorisch verwendeten Defokussierbetrag d zu erzeugen. Optional wird dann, wenn d größer als (Block 20) ein sekundärer Minimaldefokussierbetrag MIN2DEF ist (Block 33), der primäre Defokussierbetrag MINDEF (Block 21), der anfänglich auf INITDEF gesetzt wurde, auf MIN2DEF zurückgesetzt (Block 19). Dies gestattet es, daß die Defokussierung bei einem geringen Wert (0 oder INITDEF) beginnt, aber verhindert optional später eine Rückkehr zu einem geringen Wert. An diesem Punkt wird d (aus Block 18) mit MINDEF (Block 21) verglichen (Block 22). Wenn d geringer als MINDEF ist, wird es auf MINDEF zurückgesetzt. Anderenfalls wird d mit MAXDEF (Block 24), dem maximal gestatteten Betrag der Defokussierung, verglichen (Block 25). Wenn d größer als MAXDEF ist, wird es auf MAXDEF zurückgesetzt. Dies schließt die Berechnung von d ab. Im Block 18 kann als Alternative ein nichtlinearer Defokussierbetrag unter Verwendung einer Nachschlagetabelle (LUT) und durch Ersetzen des Produkts sM·RATE durch die Formel MAXDEF·LUT[sM·RATE/MAXDEF] berechnet werden. Die LUT wird so eingerichtet, daß sie diskrete Werte zwischen 0,0 und 1,0 auf diskrete zwischen Werte 0,0 und 1,0 abbildet. Wie sie in der obigen Formel verwendet wird, ist sie unabhängig von den Defokussierparametern.
  • 8 ist ein Zustandsübergangsgraph des Blocks ”ERFASSE OBJEKTZUSTAND” gemäß 6: Bei dieser Figur wird angenommen, daß das Objekt dann ”ausgewählte Rahmenränder berührt” (linke, rechte, obere und/oder untere), wenn es Pixel mit einem Matte-Signalpegel von Null an oder benachbart zu einem ausgewählten Rand des Rahmens gibt. Das Objekt gilt als ”erscheinend”, wenn es irgendwelche Matte-Signalpegel von Null in dem Rahmen gibt. Die veranschaulichten Zustandsübergänge sind die folgenden:
    Wenn sich das System in dem ”Räume Rahmen”-Zustand (Block 27) befindet, bewirkt ein Erscheinen eines Objekts (ein Matte-Bereich von Null) einen Übergang in den ”In den Rahmen eintretend”-Zustand (Block 28).
  • Wenn sich das System in dem ”In den Rahmen eintretend”-Zustand (Block 28) befindet und das Objekt in dem Rahmen ist, aber keine ausgewählten Rahmenränder berührt, geht das System in den ”Jüngst eingetreten”-Zustand (Block 29) über.
  • Wenn das System in dem ”In den Rahmen eintretend”-Zustand (Block 28) ist und das Objekt sich nicht mehr länger in dem Rahmen befindet, geht das System in den Zustand ”Den Rahmen jüngst geräumt” (Block 32) über.
  • Wenn das System in dem ”Jüngst eingetreten”-Zustand (Block 29) ist und das Objekt in dem Rahmen ist, aber die ausgewählten Rahmenränder für mehr als zwei Sekunden nicht berührt hat, geht das System in den Zustand ”Im Rahmen” (Block 30) über.
  • Wenn das System in dem ”Jüngst eingetreten”-Zustand (Block 29) ist und das Objekt ausgewählte Rahmenränder berührt, geht das System in den Zustand ”Den Rahmen verlassend” (Block 31) über.
  • Wenn das System sich in dem Zustand ”Im Rahmen” (Block 30) befindet, und das Objekt ausgewählte Rahmenränder berührt, geht das System in den Zustand ”Den Rahmen verlassend” (Block 31) über.
  • Wenn sich das System in dem Zustand ”Im Rahmen” (Block 30) befindet und das Objekt sich nicht mehr länger in dem Rahmen befindet, geht das System in den Zustand ”Den Rahmen jüngst geräumt” (Block 32) über.
  • Wenn sich das System in dem Zustand ”Den Rahmen verlassend” (Block 31) befindet, und das Objekt nicht mehr länger in dem Rahmen ist, geht das System in den Zustand ”Den Rahmen jüngst geräumt” (Block 32) über.
  • Wenn sich das System in dem Zustand ”Den Rahmen verlassend” (Block 31) befindet und das Objekt in dem Rahmen ist, aber keine ausgewählten Rahmenränder berührt, geht das System in den Zustand ”Jüngst eingetreten” (Block 29) über.
  • Wenn sich das System in dem Zustand ”Den Rahmen jüngst geräumt” (Block 32) befindet und das Objekt sich für mehr als zwei Sekunden nicht in dem Rahmen befand, geht das System in den Zustand ”Rahmen geräumt” (Block 27) über.
  • Wenn sich das System in dem Zustand ”Den Rahmen jüngst geräumt” (Block 32) befindet und das Objekt erscheint, geht das System in den Zustand ”In den Rahmen eintretend” (Block 28) über.

Claims (12)

  1. Verfahren zum automatischen Defokussieren einer Hintergrundszene mit Hintergrund-Pixeln, wenn die Hintergrundszene mit einem Vordergrundobjekt während der Aufnahme eines Objekts zusammengesetzt wird, wobei die Hintergrundszene zunehmend defokussiert wird, wenn sich das Objekt an die Kamera anzunähern scheint, wobei: a) eine Quelle des Hintergrundbildsignals mit einem Hintergrundeingang einer Zusammensetzeinrichtung verbunden wird, die in der Lage ist, eine ausgewählte Gruppe von Hintergrundpixeln zu mitteln, wobei jeder der Hintergrund-Pixel einen Signalpegel aufweist, b) eine Quelle des Vordergrundbildsignals mit einem Vordergrundeingang der Zusammensetzeinrichtung verbunden wird, c) auf ein von der Zusammensetzeinrichtung erzeugtes Matte-Signal zugegriffen wird, d) das Matte-Signal verwendet wird, um das Verhältnis der Vordergrundobjektfläche zur Bildfläche zu bestimmen, e) das Flächenverhältnis verwendet wird, um für jedes Pixel in dem Hintergrundbild eine Anzahl benachbarter Pixel auszuwählen, die zu einem Mittelwert verknüpft werden, um einen Mittelwert des Pixels zu bilden, und f) die Werte jedes Hintergrund-Pixels durch den zugehörigen Mittelwert ersetzt werden, wodurch eine Defokussierung der Hintergrundszene erzeugt wird, die mit einer scheinbaren Verringerung des Abstands der Kamera zum Objekt zunimmt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Flächenverhältnis der Objektfläche zur Bildfläche, bei welchem die Defokussierung einsetzt, einem ausgewählten Minimum des Flächenverhältnisses entspricht.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Geschwindigkeit der Defokussieränderung für eine vorgegebene Geschwindigkeit der Änderung der Objektfläche selektiv bestimmt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die Anzahl der für die Mittelwertbildung ausgewählten Pixel den Betrag der Defokussierung bestimmt.
  5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die ausgewählte Defokussiergeschwindigkeit nichtlinear gewählt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß ein gerade vorhandener Zustand der Defokussierung automatisch eingefroren wird, wenn sich ein Objekt derart bewegt, daß es ausgewählte Ränder des Bildrahmens berührt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Defokussierung innerhalb einer vorgegebenen Zeitdauer zu einer scharfen Fokussierung zurückkehrt, wenn das Objekt den Bildrahmen verlassen hat.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß der Hintergrund innerhalb einer vorgegebenen Zeitdauer defokussiert wird, wenn das Objekt in den Bildrahmen über ausgewählte Bildränder eintritt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß sich der Betrag der Hintergrunddefokussierung verringert, wenn sich der Abstand der Kamera zum Objekt zu erhöhen scheint.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die für die Mittelwertbildung ausgewählte Anzahl der Pixel ein ausgewähltes Maximum nicht überschreiten kann.
  11. Verfahren zum automatischen Defokussieren einer Videohintergrundszene hinter einem Objekt in Echtzeit, wobei die Hintergrundszene proportional zu einem Prozentsatz der von dem Objekt belegten Gesamtbildfläche defokussiert wird, wobei in Abhängigkeit von der vom Objekt belegten Gesamtbildfläche für jedes Pixel der Hintergrundszene eine Anzahl von benachbarten Pixeln zur Bildung eines gemittelten Signal-Pegels bestimmt wird.
  12. Einrichtung zum automatischen Defokussieren einer Hintergrundszene mit Hintergrund-Pixeln mit jeweils einem Signal-Pegel, wenn die Hintergrundszene mit einem Vordergrundobjekt während der Aufnahme des Objekts zusammengesetzt wird, wobei die Hintergrundszene zunehmend defokussiert wird, wenn sich das Objekt an die Kamera anzunähern scheint, aufweisend: eine Zusammensetzeinrichtung mit einem Vordergrundeingang zum Empfangen von Vordergrundbildsignalen und einem Hintergrundeingang zum Empfangen von Hintergrundbildsignalen, wobei die Einrichtung in der Lage ist, eine ausgewählte Gruppe von Hintergrundpixeln aus dem empfangenen Hintergrundbildsignal zu mitteln und ein Matte-Signal zu erzeugen, wobei die Einrichtung das Matte-Signal verwendet, um ein Verhältnis der Vordergrundobjektfläche zur Gesamtbildfläche zu bestimmen, und das so bestimmte Flächenverhältnis verwendet, um für jedes Pixel des Hintergrundbildes eine Anzahl benachbarter Pixel für eine Mittelwertbildung auszuwählen, um einen Pixelmittelwert des zugehörigen Pixels zu bilden, wobei die Einrichtung ferner den Signalpegel bei jedem Pixel der Hintergrundszene durch den zugehörigen Pixelmittelwert ersetzt, um die Hintergrundszene proportional zu der scheinbaren Reduktion des Abstandes der Kamera zum Objekt zu defokussieren.
DE10011744A 1999-04-16 2000-03-13 Automatische Hintergrundszenendefokussierung für die Bildzusammensetzung Expired - Lifetime DE10011744B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/293,746 US6646687B1 (en) 1999-04-16 1999-04-16 Automatic background scene defocusing for image compositing
US293746 1999-04-16

Publications (2)

Publication Number Publication Date
DE10011744A1 DE10011744A1 (de) 2000-10-19
DE10011744B4 true DE10011744B4 (de) 2013-06-13

Family

ID=23130406

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10011744A Expired - Lifetime DE10011744B4 (de) 1999-04-16 2000-03-13 Automatische Hintergrundszenendefokussierung für die Bildzusammensetzung

Country Status (4)

Country Link
US (1) US6646687B1 (de)
JP (1) JP4128711B2 (de)
DE (1) DE10011744B4 (de)
GB (1) GB2349027B (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063383A1 (en) * 2000-02-03 2003-04-03 Costales Bryan L. Software out-of-focus 3D method, system, and apparatus
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
GB0227566D0 (en) 2002-11-26 2002-12-31 British Telecomm Method and system for estimating global motion in video sequences
GB0227570D0 (en) 2002-11-26 2002-12-31 British Telecomm Method and system for estimating global motion in video sequences
US20050179808A1 (en) * 2004-02-02 2005-08-18 Lite-On Technology Corporation Image capturing device and method with negative out of focus module
US7164462B2 (en) * 2004-03-03 2007-01-16 Louise Lamarre Filming using rear-projection screen and image projector
US8331723B2 (en) 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
US20060033824A1 (en) * 2004-08-10 2006-02-16 Nicholson Bruce A Sodium screen digital traveling matte methods and apparatus
US7599555B2 (en) * 2005-03-29 2009-10-06 Mitsubishi Electric Research Laboratories, Inc. System and method for image matting
US7657171B2 (en) * 2006-06-29 2010-02-02 Scenera Technologies, Llc Method and system for providing background blurring when capturing an image using an image capture device
JP5300433B2 (ja) * 2007-11-22 2013-09-25 株式会社半導体エネルギー研究所 画像処理方法及び表示装置
JP2009188697A (ja) * 2008-02-06 2009-08-20 Fujifilm Corp 多焦点カメラ装置、それに用いられる画像処理方法およびプログラム
US8687918B2 (en) * 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
CN101587586B (zh) * 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
JP4892046B2 (ja) * 2009-08-28 2012-03-07 株式会社コナミデジタルエンタテインメント 画像生成装置、画像生成方法、ならびに、プログラム
GB2473263B (en) * 2009-09-07 2012-06-06 Sony Comp Entertainment Europe Image processing apparatus, system, and method
US9025873B2 (en) * 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
US9083850B1 (en) * 2013-06-29 2015-07-14 Securus Technologies, Inc. Video blurring in a secure environment
US9514558B2 (en) * 2013-09-06 2016-12-06 Imatte, Inc. Method for preventing selected pixels in a background image from showing through corresponding pixels in a transparency layer
GB202011524D0 (en) * 2020-07-24 2020-09-09 Mo Sys Engineering Ltd Camera focus control
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610080A1 (de) * 1993-02-02 1994-08-10 Matsushita Electric Industrial Co., Ltd. Bilddefokusierungsverfahren und -vorrichtung
GB2312125A (en) * 1996-04-11 1997-10-15 Discreet Logic Inc Virtual studio with zoom control
WO1998044456A2 (en) * 1997-03-27 1998-10-08 British Broadcasting Corporation Improvements in artificial image generation
WO1998048381A1 (en) * 1997-04-18 1998-10-29 At & T Corp. Integration of monocular cues to improve depth perception

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL109487A (en) * 1994-04-29 1996-09-12 Orad Hi Tec Systems Ltd Chromakeying system
GB9422089D0 (en) * 1994-11-02 1994-12-21 Philips Electronics Uk Ltd Blurring for computer graphics
US6034740A (en) * 1995-10-30 2000-03-07 Kabushiki Kaisha Photron Keying system and composite image producing method
GB9607541D0 (en) * 1996-04-11 1996-06-12 Discreet Logic Inc Processing image data
US6771823B2 (en) * 2000-03-21 2004-08-03 Nippon Hoso Kyokai Coding and decoding of moving pictures based on sprite coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610080A1 (de) * 1993-02-02 1994-08-10 Matsushita Electric Industrial Co., Ltd. Bilddefokusierungsverfahren und -vorrichtung
GB2312125A (en) * 1996-04-11 1997-10-15 Discreet Logic Inc Virtual studio with zoom control
WO1998044456A2 (en) * 1997-03-27 1998-10-08 British Broadcasting Corporation Improvements in artificial image generation
WO1998048381A1 (en) * 1997-04-18 1998-10-29 At & T Corp. Integration of monocular cues to improve depth perception

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ROTTHALER, Max: Virtual Studio Technology. EBU Technical Review, Summer 1996, pp. 2-6. *
WOJDALA, Andrew: Challenges of Virtual Set Technology. IEEE Multimedia, Vol. 5, No. 1, January - March 1998, pp. 50-57. *

Also Published As

Publication number Publication date
GB2349027B (en) 2003-03-12
DE10011744A1 (de) 2000-10-19
JP4128711B2 (ja) 2008-07-30
US6646687B1 (en) 2003-11-11
JP2000307952A (ja) 2000-11-02
GB2349027A (en) 2000-10-18
GB0002634D0 (en) 2000-03-29

Similar Documents

Publication Publication Date Title
DE10011744B4 (de) Automatische Hintergrundszenendefokussierung für die Bildzusammensetzung
DE69513541T2 (de) Verfahren zum Detektieren von durch Kamarabewegungen verursachte Szenenänderungen
DE19504304C2 (de) Farbtaster-Vorrichtung mit Korrektureinrichtung für Defekte im Hintergrund
DE19619734C2 (de) Elektronisches Endoskopsystem
DE3216652C2 (de) Video-Umrandungsgenerator
DE69728604T2 (de) Verfahren zur Erzeugung von unsichtbaren Fensterkanten in Bildzusammensetzungssystemen
DE69415562T2 (de) Videokamera mit elektronischem Zoom
DE69423573T2 (de) Verfahren und Schaltung zur Bildverbesserung
DE19825302B4 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE112006000358T5 (de) Verfahren und Vorrichtung zur Erstellung eines Panoramabildes
DE69515647T2 (de) Schnittstelle für videokamera und intra / inter-frame kodierer
DE2845427A1 (de) Anordnung zur fernsehmaessigen darstellung und aufzeichnung von bewegungsbahnen
DE102005023461A1 (de) Überwachungsvorrichtung
DE3942273A1 (de) Verfahren zum verdecken von fehlern in einem videosignal
DE2612042A1 (de) Verschiebbares video-mattscheibensystem
DE102018118187A1 (de) Verfahren und Datenverarbeitungssystem zur Synthese von Bildern
DE69736372T2 (de) Bildsignalverarbeitung
DE69809191T2 (de) Vorrichtung und verfahren zur szenenbewegungsbasierten dynamischen anpassung der verschlussgeschwindigkeit einer videocamera
DE19713648C2 (de) Verfahren zur elektronischen Reduktion des Hell/Dunkelkontrastes von Videobildern bereits bei der Aufnahme
DE4142782C2 (de) Variable Chrominanz-Filterung zur Kodierung von TV-Signalen
DE102007041719A1 (de) Verfahren zur Erzeugung erweiterter Realität in einem Raum
DE102015119871A1 (de) Verfahren zum Betreiben eines Kamerasystems mit einer Vielzahl von Bildsensorelementen und Kraftfahrzeug
DE19825837B4 (de) Verfahren und Vorrichtung zur Steuerung von Lichtstellanlagen
DE102006048006A1 (de) Verfahren und Vorrichtung zur Steuerung einer schwenkbaren Kamera
DE102015119137B3 (de) Erfindung betreffend Verfahren zur Blendeneinstellung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130914

R071 Expiry of right