DE112022003647T5 - System und Verfahren für zeitliches Keying in einer Kamera - Google Patents

System und Verfahren für zeitliches Keying in einer Kamera Download PDF

Info

Publication number
DE112022003647T5
DE112022003647T5 DE112022003647.8T DE112022003647T DE112022003647T5 DE 112022003647 T5 DE112022003647 T5 DE 112022003647T5 DE 112022003647 T DE112022003647 T DE 112022003647T DE 112022003647 T5 DE112022003647 T5 DE 112022003647T5
Authority
DE
Germany
Prior art keywords
key
frames
sequence
frame
media content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022003647.8T
Other languages
English (en)
Inventor
Klaas Jan Damstra
Marcel Koutstaal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grass Valley Canada ULC
Original Assignee
Grass Valley Canada ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grass Valley Canada ULC filed Critical Grass Valley Canada ULC
Publication of DE112022003647T5 publication Critical patent/DE112022003647T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Circuits (AREA)

Abstract

Es wird ein System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern bereitgestellt, das eine Kamera, die eine Sequenz von Medieninhalten einer Live-Szene aufnimmt, die eine elektronische Anzeige mit einer höheren Bildfrequenz als eine Ausgabebildfrequenz der Kamera beinhaltet, und einen Key-Signalprozessor beinhaltet, der alle Einzelbilder in der Sequenz von Medieninhalten in die Ausgabebildfrequenz der Kamera konvertiert, eine Sequenz von Einzelbilder analysiert, um das Key-Signal auf Grundlage der elektronischen Anzeige zu bestimmen, die eine Sequenz von Einzelbilder ausgibt, die Medieninhalte und wenigstens ein in der Sequenz enthaltenes Key-Einzelbild beinhaltet, und die verbleibenden Einzelbilder der Sequenz von Einzelbilder kombiniert, um ein Live-Ausgabesignal zu bilden. Darüber hinaus bestimmt der Key-Signalprozessor für jedes Pixel in den Einzelbildern, ob das Pixel eine bestimmte Farbart aufweist, und erzeugt für jedes Pixel in jedem Einzelbild eine Key-Maske.

Description

  • BEZUG AUF VERWANDTE ANWENDUNGEN
  • Die vorliegende Anmeldung beansprucht Priorität für die US-Patentanmeldung Nr. 17/813,230 , eingereicht am 18. Juli 2022, und für die vorläufige US-Patentanmeldung Nr. 63/224,549 , eingereicht am 22. Juli 2021, die jeweils den Titel „System and Method for Temporal Keying in a Camera“ tragen und deren gesamter Inhalt hiermit durch Bezug aufgenommen wird.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf die Video- und Medienproduktion und insbesondere auf ein System und ein Verfahren zum Erfassen eines Key-Signals - das bei elektronischen Anzeigen mit hoher Bildfrequenz erzeugt wird und für den Betrachter nicht sichtbar ist - innerhalb eines Videobildes.
  • STAND DER TECHNIK
  • Live-Fernsehübertragungen schließen in der Regel das Aufnehmen von Medieninhalten von einer Live-Szene (z. B. eines Sportveranstaltungsorts, einer Nachrichtensendung usw.), das Übertragen an eine entfernte Produktionsstätte, wo die Video- und Audiosignale von Produktionsbildtechnikern verwaltet werden, und dann das Kodieren der Signale für den Transport zu einem Verteilernetz ein. Es gibt auch viele bekannte Systeme zum Analysieren der aufgenommenen Inhalte und zum Einsetzen zusätzlicher Inhalte in den Medienstrom, die beispielsweise zielgerichtete Werbung auf Grundlage der geografischen Lage der Endverbraucher (z. B. Kunden) anbieten können. Ein beispielhaftes System ist in dem US-Patent Nr. 10,200,749 mit dem Titel „Method and Apparatus for Content Replacement in Live Production“ beschrieben, das am 5. Februar 2019 erteilt wurde und dessen Inhalt hiermit durch Bezug aufgenommen wird.
  • 1 veranschaulicht ein Blockdiagramm eines herkömmlichen Systems zum Produzieren einer Live-Fernsehsendung. Wie gezeigt, kann das System 100 eine oder mehrere Kameras 20 beinhalten, die Medieninhalte von einem Veranstaltungsort 10 (z. B. einem Sportveranstaltungsort) aufnehmen und einen Medien- oder Datenstrom 30 der aufgenommenen Inhalte bereitstellen. Oft wird ein Encoder verwendet, um die Datenströme zu kodieren und die Medien als Beitrags-Feeds an eine entfernte Produktionsstätte 40 bereitzustellen, beispielsweise unter Verwendung von Satellitenkommunikation. Die Produktionsstätte 40 beinhaltet in der Regel Videoproduktionsgeräte 41, die aus Produktionsschaltern, Steuervorrichtungen, Prozessoren, Zeitsteuerungsmodulen, einem Codec und anderen Geräten, die für die Verarbeitung der eingehenden Medien/Datenströme für eine Mediensendungsproduktion bereitgestellt werden, bestehen können. Darüber hinaus kann sich ein technischer Leiter 22 in der entfernten Produktionsstätte 40 befinden, um die Videobildtechniker zu kontrollieren und redaktionelle und künstlerische Entscheidungen für die Videoproduktion treffen. Wie auch in dem US-Patent Nr. 10,200,749 beschrieben, können die Geräte 41 verschiedene Produktionskomponenten, Workflow-Manager und Ähnliches beinhalten, um den Inhalt zu modifizieren, bevor er für die Ausstrahlung verteilt wird.
  • In jüngster Zeit werden bei Live-Veranstaltungen elektronische Anzeigen (z. B. elektronische Werbetafeln) bereitgestellt, um Inhalte (z. B. Werbung oder andere elektronische Videokommunikation) für das Publikum anzuzeigen, das die Live-Veranstaltung tatsächlich besucht. In der Regel werden die Inhalte auch von einer Kamera (z. B. der in 1 gezeigten Kamera 20) aufgezeichnet, deren Datenstrom die Inhalte/Werbung für die Zuschauer zu Hause, die die Medienproduktion der Live-Veranstaltung konsumieren, aufnimmt und anzeigt. Es wird darauf hingewiesen, dass im Allgemeinen der zeitlich voraufgezeichnete Inhalt (z. B. Werbung) auf den elektronischen Anzeigen angezeigt wird, die sich näher an dem Feld (oder der Spielfläche) befinden. Inhalte von Kameras (z. B. Nahaufnahmen des Tores) werden auf anderen Anzeigen gezeigt, die oft höher als die Werbetafeln positioniert sind. Der Grund dafür ist, dass der Droste-Effekt entstehen kann, wenn Werbetafeln in der Umgebung des Felds verwendet werden, um den Inhalt der Kamera anzuzeigen, während dieselbe Kamera ebenso die Ausgabe der Werbetafel aufnimmt.
  • Da Live-Veranstaltungen heute in alle Ecken der Welt übertragen werden, ist es in jedem Fall wünschenswert, das unterschiedliche Publikum (z. B. im Stadion/Studio und die Zuschauer der Übertragung zu Hause) besser zu bedienen, indem in dem Stadion/Studio andere Werbung und Inhalte angezeigt werden als die Werbung und Inhalte, die für die Übertragung für die Zuschauer zu Hause bereitgestellt werden. Das heißt, dass die Inhalte als verschiedene Versionen der Live-Veranstaltungen mit unterschiedlicher Werbung und unterschiedlichen Inhalten angezeigt werden können, beispielsweise für Zuschauer an verschiedenen geografischen Standorten mit lokalisierter Werbung.
  • Dementsprechend wird eine Lösung benötigt, um einerseits Werbung in dem Stadion anzuzeigen und andererseits automatisch alternative Inhalte/Werbung auf den in den übertragenen (oder aufgezeichneten) Live-Streams sichtbaren Bildschirmen „einzugeben“.
  • Die derzeit vorgeschlagenen Lösungen basieren auf Kameras mit hoher Bildrate, die aufgrund der Beschaffenheit von Kameras mit hoher Bildrate in Kombination mit dem Einschluss mehrerer Werbungsströme auf einer Anzeige mit hoher Bildrate eine geringere Empfindlichkeit aufweisen. Unterschiedliche Werbungsströme werden also in verschiedenen Phasen der hohen Einzelbildaufnahme durch die Kamera erfasst. Neben der geringeren Empfindlichkeit besteht ein Nachteil darin, dass die verschiedenen Werbungsströme im Auge des Zuschauers in dem Stadion/Studio gemittelt werden, sodass an dem Veranstaltungsort selbst keine angemessene Werbung gezeigt werden kann.
  • ZUSAMMENFASSUNG
  • Dementsprechend wird hierin ein System und Verfahren offenbart, das ein Key-Signal eines sehr kurzen Zeitzyklus eines Key-Bildschirms innerhalb eines KameraVideoeinzelbildes aufnimmt und das aufgenommene Key-Signal als Key-Signal neben dem regulären Video bereitstellt. Im Allgemeinen wird die Infrastruktur des Systems bei einer Live-Veranstaltung (z. B. einem Sportspiel) bereitgestellt, bei der elektronische Anzeigen an dem Ort der Veranstaltung, das aufgenommen wird, verwendet werden, die mit einer Bildrate laufen, die ein Vielfaches der von der/den Kamera(s) ausgegebenen Bildrate ist. Darüber hinaus werden eine oder mehrere Kameras an dem Ort der Veranstaltung mit Kameraverfolgungsinformationen versehen, die von dem Kamerasystem oder einer externen Lösung bereitgestellt werden. Schließlich kann eine Grafik-Engine nachgeschaltet bereitgestellt werden und dazu konfiguriert ist, für verschiedene Versionen des Programms, das auf Grundlage der identifizierten Key-Signale erzeugt wird, unterschiedliche Werbung/Inhalte auf den aufgenommenen Anzeigen einzusetzen.
  • In einer beispielhaften Ausführungsform werden ein System und ein Verfahren bereitgestellt, das ein Einzelbild, das die grüne Anzeige enthält, aus den anderen Einzelbildern des aufgenommenen Medienstroms extrahiert oder anderweitig trennt. Dieses getrennte Bild wird in die normale Bildrate umgewandelt und zusammen mit dem kombinierten Strom (der mehrere Einzelbilder zu einer normalen Bildrate kombiniert) ausgegeben.
  • In einem anderen beispielhaften Aspekt wird ein System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern bereitgestellt. Darüber hinaus beinhaltet das System eine Kamera, die dazu konfiguriert ist, eine Sequenz von Medieninhalten einer Live-Szene aufzunehmen, die eine elektronische Anzeige mit einer höheren Bildfrequenz als eine Ausgabebildfrequenz der Kamera umfasst; und einen Key-Signalprozessor in der Kamera, der dazu konfiguriert ist, alle Bilder in der Sequenz von Medieninhalten in die Ausgabebildfrequenz der Kamera umzuwandeln, eine Sequenz von Bildern der aufgenommenen Medieninhalte zu analysieren, um das Key-Signal darin auf Grundlage der elektronischen Anzeige zu identifizieren, die eine Sequenz von Einzelbildern ausgibt, die Medieninhalte und wenigstens ein in der Sequenz beinhaltetes Key-Einzelbild beinhaltet, und die verbleibenden Einzelbilder der Sequenz von Bildern zu kombinieren, um ein Live-Ausgabesignal zu erzeugen.
  • In einer anderen beispielhaften Ausführungsform wird ein System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern bereitgestellt. In diesem Aspekt beinhaltet das System eine Kamera, die dazu konfiguriert ist, Medieninhalte einer Live-Szene aufzunehmen, die eine elektronische Anzeige mit einer höheren Bildrate als die Ausgabebildrate der Kamera beinhaltet. Darüber hinaus beinhaltet das System einen Key-Signalprozessor, der dazu konfiguriert ist, eine Sequenz von Einzelbildern des aufgenommenen Medieninhalts zu analysieren, um das Key-Signal darin zu identifizieren. Darüber hinaus beinhaltet der Key-Signalprozessor einen Pixelfarbdetektor, der dazu konfiguriert ist, für jedes Pixel in jedem Einzelbild in der Einzelbildfolge zu bestimmen, ob das Pixel eine eingestellte Farbart aufweist, und eine Key-Maske für jedes Pixel in jedem Einzelbild zu erzeugen, wobei die Key-Maske anzeigt, ob das Pixel ein Key-Einzelbild oder einen Videoinhalt umfasst, einen Verstärkungskorrektor, der dazu konfiguriert ist, das Key-Einzelbild zu korrigieren, und eine Key-Signalausgabe, die dazu konfiguriert ist, einen Ein-Bit-Strom des Key-Einzelbildes in einem am wenigstens bedeutenden Bit eines Blau- (Cb in YCrCb) Kanals zu multiplexen, sodass das Key-Signal und der Videoinhalt als ein einziger Datenstrom ausgegeben werden. Alternativ kann die Key-Maske auch als separater Strom von Key-Bits ausgegeben werden, quasi als ein Metadatenstrom für den nachgeschalteten Keyer.
  • Die vorstehend vereinfachte Zusammenfassung der Beispielaspekte dient dazu, ein grundlegendes Verständnis der vorliegenden Offenbarung bereitzustellen. Diese Zusammenfassung ist kein umfassender Überblick über alle in Betracht gezogenen Aspekte und soll weder Key- oder kritische Elemente aller Aspekte aufzeigen noch den Umfang einiger oder aller Aspekte der vorliegenden Offenbarung abgrenzen. Sie dient lediglich dazu, einen oder mehrere Aspekte in vereinfachter Form darzustellen, um die nachfolgende ausführlichere Beschreibung der Offenbarung einzuleiten. Für die Erfüllung des Vorstehenden beinhalten der eine oder die mehreren Aspekte der vorliegenden Offenbarung die in den Ansprüchen beschriebenen und beispielhaft dargestellten Merkmale.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen, die in diese Patentschrift aufgenommen werden und einen Teil dieser bilden, veranschaulichen einen oder mehrere Beispielaspekte der vorliegenden Offenbarung und dienen zusammen mit der ausführlichen Beschreibung der Erläuterung ihrer Prinzipien und Implementierungen.
    • 1 veranschaulicht ein Blockdiagramm eines herkömmlichen Systems zum Produzieren einer Live-Fernsehsendung.
    • 2 veranschaulicht eine schematische Darstellung eines Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform.
    • 3 veranschaulicht ein Blockdiagramm eines Key-Signalprozessors des Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform.
    • 4 veranschaulicht eine Sequenz von Einzelbildern, die von der elektronischen Anzeige bereitgestellt werden, die in dem System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform verwendet wird.
    • 5A-5B veranschaulichen eine schematische Darstellung eines Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform.
    • 6A-6B veranschaulichen Flussdiagramme für Verfahren zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß beispielhaften Ausführungsformen.
    • 7 ist ein Blockdiagramm, das ein Computersystem veranschaulicht, auf dem Aspekte von Systemen und Verfahren zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die nachstehende ausführliche Beschreibung in Verbindung mit den beigefügten Zeichnungen ist als Beschreibung verschiedener Konfigurationen gedacht und soll nicht die einzigen Konfigurationen darstellen, in denen die hierin beschriebenen Konzepte praktiziert werden können. Die ausführliche Beschreibung beinhaltet spezifische Einzelheiten mit dem Zweck, ein umfassendes Verständnis verschiedener Konzepte bereitzustellen. Es wird jedoch für Fachleute offensichtlich sein, dass diese Konzepte auch ohne diese spezifischen Details praktiziert werden können. In einigen Fällen werden bekannte Strukturen und Komponenten in Form von Blockdiagrammen gezeigt, um solche Konzepte nicht zu verdecken.
  • Bestimmte Aspekte des Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern werden nun unter Bezugnahme auf verschiedene Einrichtungen und Verfahren dargestellt. Diese Einrichtungen und Verfahren werden in der folgenden ausführlichen Beschreibung beschrieben und in der beiliegenden Zeichnung durch verschiedene Blöcke, Module, Komponenten, Schaltkreise, Schritte, Prozesse, Algorithmen usw. (zusammenfassend als „Elemente“ oder „Komponenten“ bezeichnet) veranschaulicht. Diese Elemente können unter Verwendung von elektronischer Hardware, Computersoftware oder einer beliebigen Kombination davon implementiert werden. Ob solche Elemente als Hardware oder als Software implementiert werden, hängt von der bestimmten Anwendung und den für das Gesamtsystem geltenden Gestaltungsvorgaben ab.
  • So kann beispielsweise ein Element oder ein beliebiger Abschnitt eines Elements oder eine Kombination von Elementen als „Verarbeitungssystem“ implementiert werden, das einen oder mehrere Prozessoren beinhaltet. Beispiele für Prozessoren beinhalten Mikroprozessoren, Mikrocontroller, Grafikverarbeitungseinheiten (GPUs), zentrale Verarbeitungseinheiten (CPUs), Anwendungsprozessoren, digitale Signalprozessoren (DSPs), Prozessoren für die Berechnung mit reduziertem Anweisungssatz (RISC), Systeme auf einem Chip (SoC), Basisbandprozessoren, Field Programmable Gate Arrays (FPGAs), programmierbare Logikvorrichtungen (PLDs), Zustandsmaschinen, Gated Logic, diskrete Hardwareschaltungen und andere geeignete Hardware, die dazu konfiguriert ist, die verschiedenen in dieser gesamten Offenbarung beschriebenen Funktionen durchzuführen. Ein oder mehrere Prozessoren in dem Verarbeitungssystem können Software ausführen. Software ist weit auszulegen und bezeichnet Anweisungen, Anweisungssätze, Code, Codesegmente, Programmcode, Programme, Unterprogramme, Softwarekomponenten, Anwendungen, Softwareanwendungen, Softwarepakete, Routinen, Teilroutinen, Objekte, ausführbare Dateien, Ausführungsstränge, Vorgehensweisen, Funktionen usw., unabhängig davon, ob sie als Software, Firmware, Middleware, Mikrocode, Hardwarebeschreibungssprache oder anderweitig bezeichnet werden.
  • Dementsprechend können in einer oder mehreren Beispielausführungsformen die beschriebenen Funktionen in Hardware, Software oder einer beliebigen Kombination davon implementiert werden. Wenn die Funktionen in Software implementiert sind, können sie als eine oder mehrere Anweisungen oder Code auf einem computerlesbaren Medium gespeichert oder codiert werden. Computerlesbare Medien können flüchtige oder nichtflüchtige Computerspeichermedien zum Tragen oder Aufweisen von darauf gespeicherten computerausführbaren Anweisungen oder Datenstrukturen. Sowohl flüchtige als auch nichtflüchtige Speichermedien können alle verfügbaren Medien sein, auf die ein Computer als Teil des Verarbeitungssystems zugreifen kann. Solche computerlesbaren Medien können beispielsweise und ohne Begrenzung einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM), einen elektrisch löschbaren programmierbaren ROM (EEPROM), einen optischen Plattenspeicher, einen Magnetplattenspeicher, andere magnetische Speichervorrichtungen, Kombinationen der vorgenannten Arten von computerlesbaren Medien oder jedes andere Medium umfassen, das für die Speicherung von computerausführbarem Code in der Form von Anweisungen oder Datenstrukturen verwendet werden kann, auf die ein Computer zugreifen kann. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine Kombination davon) an einen Computer übertragen oder an diesen bereitgestellt werden, bestimmt der Computer oder das Verarbeitungssystem die Verbindung ordnungsgemäß als ein flüchtiges oder nichtflüchtiges computerlesbares Medium, je nach dem speziellen Medium. Daher wird jede derartige Verbindung ordnungsgemäß als ein computerlesbares Medium bezeichnet. Auch Kombinationen des Vorstehenden sollten in den Umfang der computerlesbaren Medien einbezogen werden. Nichtflüchtige computerlesbare Medien schließen Signale an sich und die Luftschnittstelle aus.
  • Darüber hinaus bezieht sich der hierin verwendete Begriff „Modul“ für Offenbarungszwecke auf eine reale Vorrichtung, eine Komponente oder eine Anordnung von Komponenten, die unter Verwendung von Hardware implementiert werden, wie beispielsweise durch eine anwendungsspezifische integrierte Schaltung (ASIC) oder FPGA, oder als Kombination von Hardware und Software, wie durch ein Mikroprozessorsystem und einen Satz von Anweisungen für die Implementierung der Funktionalität des Moduls, die (während der Ausführung) das Mikroprozessorsystem in eine Spezialvorrichtung verwandeln. Ein Modul kann auch als eine Kombination aus den zwei implementiert werden, wobei bestimmte Funktionen allein durch Hardware ermöglicht werden und andere Funktionen durch eine Kombination aus Hardware und Software ermöglicht werden. In bestimmten Ausführungsformen kann wenigstens ein Abschnitt, in manchen Fällen sogar das gesamte Modul auf dem Prozessor eines Computersystems ausgeführt werden. Dementsprechend kann jedes Modul in einer Vielzahl geeigneter Konfigurationen realisiert werden und sollte nicht auf eine bestimmte, hierin beispielhaft beschriebene Implementierung beschränkt sein.
  • 2 veranschaulicht eine schematische Darstellung eines Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Im Allgemeinen wird das System 200 im Zusammenhang mit der Aufnahme von Videoinhalten bei einer Live-Sportveranstaltung, wie einem Baseballspiel, gezeigt (obwohl angemerkt wird, dass es sich um jede Art von Live-Veranstaltung handeln kann). Wie gezeigt, beinhaltet das System 200 eine Kamera 220 (oder eine Mehrzahl von Kameras), die dazu konfiguriert sind, Medieninhalte bei einer Veranstaltung 240, wie einer Sportveranstaltung, aufzunehmen. Obwohl nur eine Kamera gezeigt ist, sollte angemerkt werden, dass bei der Veranstaltung beispielsweise Dutzende oder sogar Hunderte von Medienströmen von verschiedenen Kameras erzeugt werden können.
  • Gemäß der beispielhaften Ausführungsform kann die Kamera 220 von einem Benutzer 210 (z. B. einem Kameramann, der sich vor Ort befindet) gesteuert werden, obwohl die Kamera 220 in alternativen Aspekten auch stationär oder ferngesteuert und beispielsweise robotergesteuert sein könnte. Wie gezeigt, weist die Kamera 220 ein Sichtfeld (FOV) 222 auf, das dazu konfiguriert ist, einen Abschnitt des Live-Ereignisses 240 aufzunehmen, das in diesem Beispiel ein Baseballspiel ist. Darüber hinaus kann die Live-Szene 240 (z. B. in einem Baseballstadion) eine elektronische Anzeige 250 oder eine Werbetafel beinhalten, die dazu konfiguriert ist, elektronische Bilder von Medieninhalten (z. B. elektronische Videowerbung) anzuzeigen, die auf die Fans abzielen, die an der Live-Sportveranstaltung teilnehmen. Wie nachstehend ausführlich beschrieben wird, zeigt die elektronische Anzeige 250 eine Sequenz von Einzelbildern an, die ein oder mehrere Einzelbilder beinhalten, die als Key-Einzelbilder konfiguriert sind und von der Kamera 220 erkannt werden können.
  • Im Allgemeinen wird das Abtasten häufig unter Verwendung eines permanenten blauen oder grünen Bildschirms durchgeführt. Abtasten ist ein Zusammenstelleffekt, der auftritt, wenn ein System einen Teil des Videosignals transparent macht. Der Abschnitt des Videosignals kann auf Grundlage von Farbe (z. B. blauer oder grüner Bildschirm), Luminanz oder sogar einer Maske ausgewählt werden, beispielsweise. Gemäß dem beispielhaften Aspekt unterstützen Leuchtdioden (LED-) Anzeigen (z. B. die elektronische Anzeige 250) Videoinhalte mit hoher Frequenz und sind in der Lage, ein kurzzeitiges Key-Farbeinzelbild in die Sequenz der regulären Inhaltseinzelbilder einzusetzen. Dies kann so geschehen, dass das Publikum bei der Veranstaltung nur den regulären Inhalt auf diesen LED-Anzeigen, wie der elektronischen Anzeige 250, sieht, die dargestellte Videosequenz jedoch ein oder mehrere Key-Farbeinzelbilder beinhaltet. Das heißt, die Aktualisierungsrate der Ausgabe durch die elektronische Anzeige 250 kann mit einer höheren Frequenz erfolgen, als das menschliche Auge erkennen kann (z. B. 300-400 Einzelbilder pro Sekunde), wobei nur eine Teilmenge für das Key-Signal grün ist.
  • Gemäß dem beispielhaften Aspekt beinhaltet die Kamera 220 einen Key-Signalprozessor 230, der dazu konfiguriert ist, das Key-Signal eines solchen sehr kurzen Zeitzyklus eines Key-Bildschirms (z. B. eines grünen Bildschirms, der auf der elektronischen Anzeige 250 dargestellt wird) innerhalb eines Kameravideoeinzelbildes aufzunehmen und den Strom dieser Key-Einzelbilder in eine Standardbildrate zu konvertieren, bevor er die konvertierten Key-Einzelbilder als Key-Signal neben dem regulären Video bereitstellt. Das heißt, wie nachstehend ausführlicher beschrieben wird, dass der auf der elektronischen Anzeige 250 angezeigte Videoinhalt eine Sequenz von Key-Farbeinzelbildern und regulären Inhaltseinzelbildern mit einer solchen Frequenz anzeigt, dass der Key-Signalprozessor 230 das Vorhandensein und die Position der elektronischen Anzeige 250 innerhalb des großen Bildes des aufgenommenen Inhalts 240 identifizieren kann. Das Key-Signal bezeichnet die spezifischen Pixel des aufgenommenen Einzelbildes (d. h. eine Untergruppe von Pixeln innerhalb des FOV 222), die der elektronischen Anzeige 250 entsprechen. Dieses Key-Signal kann wiederum nachgelagert verarbeitet werden, um alternative Inhalte (z. B. lokalisierte Werbung) an der Stelle der elektronischen Anzeige 250 innerhalb des großen Bildes des aufgenommenen Inhalts 240 einzusetzen. Infolgedessen sehen die Personen auf der Veranstaltung (z. B. im Stadion) lediglich die regulären Inhalte, da sie auf diese Personen zielgerichtet sind. Die nachfolgenden Mediensignale können jedoch modifiziert werden, um den von der elektronischen Anzeige 250 angezeigten Inhalt durch alternative Inhalte oder Werbung auf Grundlage des identifizierten Key-Signals zu ersetzen.
  • 3 veranschaulicht ein Blockdiagramm eines Key-Signalprozessors des Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Im Allgemeinen entspricht der Key-Signalprozessor 230 dem Key-Signalprozessor 230 der Kamera 220, wie vorstehend unter Bezug auf 2 beschrieben. Darüber hinaus kann der Key-Signalprozessor 230 durch eine Kombination von Hardware- und/oder Softwarekomponenten oder „Modulen“ implementiert werden, die für die Ausführung der hierin beschriebenen Algorithmen konfiguriert sind.
  • Wie gezeigt, beinhaltet der Key-Signalprozessor 230 eine Steuereinheit 305 zum Steuern der Aufnahme der Pixeldaten. Insbesondere kann die Steuereinheit 305 dazu konfiguriert sein, Steuersignale bereitzustellen, die zum Steuern eines Pixelzellenarrays der Kamera 220 und zum Ausgeben der aufgenommenen und empfangenen Pixeldaten an den Pixelfarbdetektor 310 verwendet werden. Beispielsweise kann die Steuereinheit 305 in Verbindung mit einem Zeilendekodierer Aktivierungssignale erzeugen, um die Gates des Pixelzellenarrays zum Aufnehmen und Übertragen der Videodaten zu aktivieren. Ein beispielhaftes System für die Bilderfassung einer Produktionskamera ist in dem US-Patent Nr. 10,284,801 mit dem Titel „Differential Digital Double Sampling Method and CMOS Image Sensor for Performing Same“ beschrieben, das am 7. Mai 2019 erteilt wurde und dessen Inhalt hiermit durch Bezug aufgenommen wird. In einem beispielhaften Aspekt kann die Steuereinheit 305 dazu konfiguriert werden, dass sie die Kameraeinzelbildsteuerung der Einzelbildaufnahme durch das Pixelzellenarray steuert und/oder anpasst.
  • Unter erneute Bezugnahme auf 2: Um die Live-Veranstaltung (z. B. den Inhalt 240) aufzunehmen, sollte die Kamera 220 dazu konfiguriert sein, die Szene und die Anzeige(n) in der Szene (z. B. die elektronische Anzeige 250) mit der gleichen Einzelbildrate und/oder mit einem Vielfachen der Einzelbildrate aufzunehmen, mit der die elektronische Anzeige 250 ihren Inhalt von Einzelbildern ausgibt. Mit anderen Worten: Die Ausgabe der Kamera 220 sollte mit der elektronischen Anzeige 250 synchronisiert werden, sodass sich ein einzelnes Einzelbild oder mehrere Einzelbilder auf der elektronischen Anzeige 250 zeitlich genau mit dem Einzelbild/den Einzelbildern überschneiden, die von der Kamera 220 aufgenommen wurden. Wenn beispielsweise die Kamera 220 ihr Signal mit 50 Hz ausgibt, sollte die elektronische Anzeige 250 mit einem Vielfachen von 50 Hz (z. B. 300 Hz) laufen. So kann die Zeitsteuerung des Key-Einzelbildes, sowohl die Startzeit als auch die Dauer, fixiert oder angepasst werden und passt in die normale Kamereinzelbildzeitsteuerung, um mit der Einzelbildsequenz der Anzeige synchronisiert zu werden. In einem Fall kann diese Zeitsteuerung für den Inhalt, der von der elektronischen Anzeige 250 ausgegeben wird, angepasst und eingestellt werden, d. h. er wird durch den Erzeuger des darauf angezeigten Inhalts vorbestimmt.
  • In einem anderen beispielhaften Aspekt kann der Key-Signalprozessor 230 einen Bildfrequenzaufnahmeanpasser 325 beinhalten (der in gestrichelten Linien als eine optionale Komponente gezeigt ist). In diesem Aspekt kann der Bildfrequenzaufnahmeanpasser 325 dazu konfiguriert sein, ein Datensignal (z. B. von einem entfernten Produktionszentrum) zu empfangen (oder zu speichern), das die Bildfrequenz der elektronischen Anzeige 250 angibt, die, wie vorstehend erwähnt, 300 Hz betragen kann. Im Gegenzug kann der Bildfrequenzaufnahmeanpasser 325 dazu konfiguriert sein, ein Steuersignal an die Steuereinheit 305 zu erzeugen, die ihrerseits die Rate der Bildfrequenzaufnahme anpassen kann, um sicherzustellen, dass die elektronische Anzeige 250, wie vorstehend erörtert, mit der Kamera 220 synchronisiert ist und Einzelbilder mit der gleichen Rate oder einem Vielfachen davon aufnimmt, mit der die elektronische Anzeige 250 an der Live-Veranstaltung 240 ihr Videosignal erzeugt.
  • Darüber hinaus kann der Bildfrequenzaufnahmeanpasser 325 dazu konfiguriert sein, das Ausgabesignal der Kamera 220 anzupassen. Eine übliche Bildfrequenz für eine Ausgabe einer Kamera beträgt in Europa beispielsweise 50 Hz. In einem beispielhaften Aspekt kann die elektronische Anzeige 250 dazu konfiguriert sein, den Videoinhalt (z. B. eine Videowerbung bei der Live-Veranstaltung) mit einer Bildfrequenz von 300 Hz oder mehr anzuzeigen. Bei 300 Hz gibt die elektronische Anzeige 250 effektiv Einzelbilder mit 1/300 Sekunde (d. h. alle 3,3 Millisekunden) auf der elektronischen Anzeige 250 aus. In diesem Beispiel nimmt die Kamera 220 sechs Anzeigeeinzelbilder auf, um ein Kameraeinzelbild auszugeben (d. h. 1/50 Sekunde = 20 Millisekunden), das beispielsweise an die Endnutzer ausgesendet wird. Dementsprechend kann die Kamera 220 dazu konfiguriert oder anderweitig gesteuert werden, eine Gesamtsequenz von sechs Einzelbildern aufzunehmen und ein Einzelbild zu trennen, das dazu konfiguriert ist, ein Key-Signal zu bilden (z. B. ein grünes Einzelbild).
  • Da die normale Ausgabe beispielsweise 50 Hz betragen kann, kann der Key-Signalprozessor 230 (z. B. der Bildfrequenzaufnahmeanpasser 325) dazu konfiguriert sein, das aufgenommene Einzelbild von 3,3 Millisekunden in 20 Millisekunden (d. h. als das 50-Hz-Ausgabesignal) zu konvertieren, indem er eine Zeitsteuerungsumwandlung durchführt (z. B. die Länge des Einzelbildes verlängert), wie es von einem Fachmann erkannt werden würde. Dieses Ausgabesignal kann (z. B. als ein separater Metadatenstrom) an einen nachgeschalteten Keyer übertragen werden. Dieses separate Signal wiederum ermöglicht es einem Keyer, einen Key zu bilden und das Grün (d. h. die Teilmenge von Pixeln, die der Position der elektronischen Anzeige 250 innerhalb des FOV 222 entspricht) durch ein Einzelbild einer ausgewählten Werbung/eines ausgewählten Inhalts zu ersetzen, das dem ausgestrahlten Sendungsstream hinzugefügt werden muss.
  • Es sollte klar sein, dass in alternativen Aspekten auch variable Einzelbildzeiten verwendet werden können. Anstatt die Belichtungszeit in einem Einzelbild so anzupassen, dass nur die Zeit integriert wird, in der die Anzeige grün ist, kann der Key-Signalprozessor 230 beispielsweise auch dazu konfiguriert sein, eine Sequenz zu erzeugen, in der eine Einzelbildzeit kürzer ist als die anderen Einzelbildzeiten.
  • 4 veranschaulicht eine Sequenz für ein aufgenommenes Einzelbild, die von der elektronischen Anzeige 250 bereitgestellt werden, die in dem System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform verwendet wird. Wie gezeigt, entspricht die Sequenz 410 einer Bildaufnahmesequenz, die beispielsweise von dem Einzelbildsensor der Kamera 220 aufgenommen wurde.
  • Wie gezeigt, beinhaltet die Sequenz 410 eine beispielhafte Sequenz von Einzelbildern 411-418 (z. B. Einzelbild n bis Einzelbild n+7), die von der elektronischen Anzeige 250 (z. B. während der Live-Sportveranstaltung) erzeugt und angezeigt wird und die mehrere Arten von Einzelbildern beinhalten kann. In diesem Beispiel entsprechen die Einzelbilder mit der Kreuzschraffur (d. h. die Einzelbilder 411-413 und 415-418) dem normalen Videoinhalt, der in diesem Beispiel eine Videowerbung für das Publikum sein kann, das sich physisch auf der eigentlichen Veranstaltung befindet. Außerdem entspricht das Einzelbild 414 mit dieser Punktschraffur dem grünen Einzelbild (z. B. einem grünen Blitz). Vorzugsweise und für eine optimale Leistung wird das grüne Einzelbild in der Mitte der Sequenz 410 positioniert, sodass das grüne Einzelbild unter Berücksichtigung der Bewegung des normalen Videoinhaltssignals am besten positioniert ist und das Key-Signal zeitlich optimal an der Ausgabe ausgerichtet ist, die Einzelbilder auf 50 Hz kombiniert. Außerdem können in einem beispielhaften Aspekt Ausgleichseinzelbilder in die Sequenz 410 aufgenommen werden, um die Farbe des grünen Einzelbilds zu versetzen, obwohl solche Ausgleichseinzelbilder für die Zwecke dieser Offenbarung nicht erforderlich sind und in der Sequenz 410 nicht gezeigt werden. Wie nachstehend erörtert wird, ist der Key-Signalprozessor 230 dazu konfiguriert, dieses Key-Signal (d. h. das grüne Einzelbild 414) zu erkennen, obwohl das Publikum aufgrund der Frequenz des Signals nur den regulären Videoinhalt wie vorstehend beschrieben sieht.
  • Die Sequenz 420 veranschaulicht eine Ausgabesequenz (z. B. von sechs Einzelbildern), die aus dem internen Speicher für den Bildsensor der Kamera 220 ausgegeben wird, wie dem internen DDR-Speicher, der in dem US-Patent Nr. 10,284,801 beschrieben ist, wie vorstehend erwähnt und durch Bezug einbezogen. In solchen Kameras, wie darin beschrieben, gibt die Kamera sechs Einzelbilder aus, wobei jedes Einzelbild über 3,3 ms integriert wurde (z. B. im Falle einer vollständigen Belichtung). Außerdem weist jedes Einzelbild einen eigenen Verarbeitungskanal in der Kamera auf, was bedeutet, dass die Kamera intern sechs „normale Bildfrequenzströme“ parallel verarbeitet. In einer Zeitlupenkamera erzeugt der Kameraprozessor eine kombinierte Live-Ausgabe, die sich aus der Addition dieser sechs Ströme ergibt. In einem beispielhaften Aspekt des hierin offenbarten Systems nutzt der Key-Signalprozessor 230 diese Konfiguration jedoch derart aus, dass die sechs Einzelbilder wie für die Sequenz 420 gezeigt kombiniert werden, die unabhängigen Phasen jedoch mit Ausnahme des Key-Einzelbildes (z. B. grünes Einzelbild 414) nicht verfügbar gemacht werden. Vorteilhaft ist, dass das System kein Zeitlupensystem ist, sondern durch die Addition der einzelnen Phasen die Ausgabesignale kaum an Empfindlichkeit verlieren, obwohl die Bildaufnahme mit einer höheren Bildfrequenz erfolgt.
  • Wie weiter gezeigt, ist der Key-Signalprozessor 230 dazu konfiguriert, zwei Ausgabesignale zu erzeugen, obwohl diese Ausgabesignale in einem Aspekt letztlich als ein einziger Ausgabestrom gemultiplext werden können. Das erste Signal 430 entspricht dem normalen Videoinhalt, der von der elektronischen Anzeige 250 angezeigt wird. Insbesondere ist das Ausgabesignal 430 ein kombiniertes Signal, das die Einzelbild n, n+1, n+2, n+4 und n+5 beinhaltet. Darüber hinaus kann der Key-Signalprozessor 230 dazu konfiguriert sein, eine Zeitanpassung oder -umwandlung durchzuführen, um sicherzustellen, dass das Ausgabesignal in die normale Rate der Kamera umgewandelt wird, z. B. 50 Hz oder 20 Millisekunden pro Einzelbild.
  • Darüber hinaus entspricht das zweite Signal 440 der Key-Maske oder dem Key-Signal des identifizierten grünen Blitzes (z. B. 3 Millisekunden grüner Blitz 414), der von der elektronischen Anzeige erzeugt wird, die von dem Key-Signalprozessor 230 erkannt werden kann, aber von den Zuschauern in dem Stadion, wie vorstehend erörtert, nicht wahrgenommen werden kann. Dieses Signal 440 kann beispielsweise als Metadatenstrom bereitgestellt werden, um die nachgelagerte Verarbeitung, die den Werbungsersatz beinhaltet, zu ermöglichen.
  • Unter erneute Bezugnahme auf 3: Der Key-Signalprozessor 230 kann auch einen Pixelfarbdetektor 310 beinhalten, der dazu konfiguriert ist, das Key-Signal, das in dem aufgenommenen Signal des Live-Ereignisses enthalten ist, dynamisch zu erkennen, wie die Live-Veranstaltung 240, die die Anzeige der elektronischen Anzeige 250 mit den grünen Einzelbild beinhaltet, wie vorstehend erörtert. In dieser Implementierung wird das Key-Signal (z. B. Grün) mit dem Pixelfarbdetektor 310 (z. B. einer internen Farberkennungsschaltung) verarbeitet, der für jedes Pixel in dem aufgenommenen Einzelbild bestimmt, ob der Pixelwert eine bestimmte Farbart aufweist, und die Entscheidung als Key-Maske (z. B. die vorstehend erörterte Key-Maske 440) für jedes Pixel als „0“ oder „1“ ausgibt. Insbesondere bedeutet eine „1“, dass das Key-Signal „grün“ ist, und eine „0“ bedeutet, dass das Key-Signal nicht „grün“ ist und es sich somit um reguläre Videoinhalte handelt, wie die auf der Anzeige 250 angezeigten regulären Videoinhalte. So bestimmt der Pixelfarbdetektor 310 für jedes Pixel in dem normalen Ausgabestrom ein zusätzliches Bit, das anzeigt, dass das Video (Pixel) durch das Video (Pixel) der alternativen Werbung/Inhalte ersetzt werden kann.
  • Darüber hinaus kann eine Key-Signalausgabe 320 dazu konfiguriert sein, diesen einen Bitstrom in das am wenigstens bedeutende Bit des blauen (Cb in YCrCb) Kanals zu multiplexen, da das LSB des blauen Kanals nur Rauschen enthält. Auf diese Weise muss die Kamera 220 nur einen Strom über die Key-Signalausgabe 320 an die Produktionsumgebung ausgeben. Im Allgemeinen wird auch darauf hingewiesen, dass der Farbartpegel oder die Schwelle für die Erkennung des Key-Signals vorbestimmt werden kann. So kann der grüne Blitz einen anderen Farbwertpegel haben als beispielsweise grünes Gras auf dem Feld, und der Pixelfarbdetektor 310 kann dazu vorkonfiguriert werden, zum Zwecke der Erzeugung der Key-Maske zwischen den beiden zu unterscheiden.
  • Wie ferner gezeigt, kann in einer Verfeinerung des beispielhaften Aspekts ein Verstärkungskorrektor 315 bereitgestellt werden. Er ist als eine optionale Komponente in gestrichelten Linien gezeigt. In der Kamera 220 werden sowohl das Live-Einzelbild als auch das Key-Einzelbild wie in einer normalen Kamera verarbeitet. Der Verstärkungskorrektor 315 kann jedoch dazu konfiguriert werden, das Key-Einzelbild, das mit einer reduzierten Belichtungszeit aufgenommen wurde, aufgrund seiner kurzen Belichtungszeit um die Verstärkung für den reduzierten Videopegel zu korrigieren und für die Erzeugung eines kamerainternen Key-Signals unter Verwendung einer Farberkennungsschaltung genutzt werden kann. Der Verstärkungskorrektor 315 kann eine separate Komponente sein oder alternativ beispielsweise in den Pixelfarbdetektor 310 integriert werden.
  • 5A-5B veranschaulichen eine schematische Darstellung eines Systems zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Es wird allgemein darauf hingewiesen, dass das darin gezeigte System 500 dem vorstehend unter Bezug auf 2 gezeigten Beispielsystem entspricht und die gleichen Komponenten mit den gleichen Nummern hierin nicht wiederholt werden. Diese Figuren zeigen jedoch, wie die Einzelbildfolge der elektronischen Anzeige 250 zwischen einer grünen Anzeige und einem normalen Inhalt wechseln kann.
  • Insbesondere in 5A blinkt auf der elektronischen Anzeige 250A ein grünes Key-Einzelbilder, das dem grünen Blitz 414 entsprechen kann, wie vorstehend in der Fame-Sequenz 410 beschrieben. Darüber hinaus veranschaulicht 5B, wie die elektronische Anzeige 250B den normalen Videoinhalt anzeigt (z. B. eine lokale Werbung, die für das Stadionpublikum zielgerichtet ist) und einem der Einzelbilder 411, 412, 415, 416 und 417 entsprechen kann, wie vorstehend in der Fame-Sequenz 410 beschrieben. Die Kamera 220 und insbesondere der Pixelfarbdetektor 310 des Key-Signalprozessors 230 ist dazu konfiguriert, das Key-Signal für jedes Einzelbild auf Grundlage der Farbart und die Entscheidung als Key-Maske auszugeben. Wie ebenso vorstehend beschrieben, kann dieses Key-Maskensignal verwendet werden, um die Pixel (d. h. der spezifische Pixelort mit dem Einzelbild) zu identifizieren, die sich innerhalb des Sichtfeldes 222 befinden, das der elektronischen Anzeige 250 entspricht. Darüber hinaus kann ein nachgeschalteter Prozessor (z. B. als Teil einer Videosendungsproduktion) eine zielgerichtete Werbung (oder einen anderen Inhalt) in die Pixel einfügen (z. B. als Überlagerung), die eine Key-Maske mit dem Wert „1“ aufweisen, sodass Fernkonsumenten des Videoinhalts eine zielgerichtete Werbung sehen, die so aussieht, als wäre sie in der ursprünglichen Live-Szene bei der Veranstaltungangezeigt worden. Mit anderen Worten, die Pixel mit einer Key-Maske von „1“ definieren effektiv einen Ort, wie eine rechteckige Form der Anzeige 250, in dem Einzelbild 240, der dann von dem nachgeschalteten Prozessor durch einen neuen Video- oder Einzelbildinhalt ersetzt werden kann.
  • 6A veranschaulicht ein Flussdiagramm für ein Verfahren 600A zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Im Allgemeinen kann das Verfahren 600 mit den vorstehend beschriebenen Systemen und Komponenten durchgeführt werden. Wie vorstehend beschrieben, ist die Kamera 220 dazu konfiguriert, Einzelbilder einer Live-Szene (z. B. bei einer Sportveranstaltung) aufzunehmen, wobei die Sportveranstaltung eine elektronische Anzeige 250 zum Anzeigen von Videoinhalten, wie einer Werbung, mit einer vorbestimmten Frequenz (z. B. 300 Hz) beinhalten kann.
  • Wie gezeigt, wird das aufgenommene Signal in Schritt 605 dem Key-Signalprozessor 230 bereitgestellt. In Schritt 610 wird die Bildfrequenz des aufgenommenen Inhalts in die normale Ausgabe der Kamera umgewandelt. Wenn beispielsweise die normale Bildfrequenz 50 Hz- oder 60 Hz-Ausgaben beträgt, kann der Key-Signalprozessor 230 dazu konfiguriert werden, eine Taktratenumwandlung der grünen Einzelbilder, die bei einer elektronischen Anzeige von 300 Hz eine Länge von 3,3 Millisekunden haben können, in 20 Millisekunden durchzuführen, um die Ausgabe als 50-Hz-Signal bereitzustellen. Durch die Umwandlung des empfangenen Signals in die niedrigere Bildfrequenz können die sechs Einzelbilder parallel und mit geringerer Geschwindigkeit verarbeitet werden. Vorteilhaft ist, dass zu jedem Zeitpunkt innerhalb eines Einzelbildes die Informationen zu diesem Pixel in den vorherigen Einzelbildern verfügbar sind.
  • Sobald das Signal in die normale (z. B. 50 Hz) Bildfrequenz umgewandelt wurde, ist der Key-Signalprozessor 230 dazu konfiguriert, anhand der vorstehend beschriebenen Techniken zu bestimmen, welche Einzelbilder (und welche Pixel) den grünen Anzeigebildschirm aus dem Datenstrom mit hoher Bildfrequenz (z. B. der elektronischen Anzeige 250) enthalten. Sobald diese grünen Einzelbilder (z. B. Key-Einzelbilder) von den aufgenommenen Medieninhalten getrennt sind, können die verbleibenden Einzelbilder in Schritt 620 kombiniert werden, um eine normale Live-Ausgabe zu bilden (z. B. Ausgabesequenz 430, wie in 4 gezeigt).
  • 6B veranschaulicht ein Flussdiagramm für ein Verfahren 600B zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Im Allgemeinen ist das Verfahren 600B eine Verfeinerung des vorstehend gezeigten beispielhaften Verfahrens 600A, wobei Schritt 605 dem Empfangen von aufgenommenen Medieninhalten durch den Key-Signalprozessor 230 entspricht.
  • Nach dem Empfangen des aufgenommenen Signals beinhaltet das Verfahren optional eine Verstärkungsanpassung (wie in den gestrichelten Kästchen in Schritt 622 gezeigt), bei der der Verstärkungskorrektor 315 das empfangene Signal um die kürzere Integrationszeit (aufgrund der kurzen Belichtung) korrigieren kann, bevor das Maskensignal erzeugt wird. Als Nächstes bestimmt der Pixelfarbdetektor 310 in Schritt 625 für jedes Pixel in jedem aufgenommenen Einzelbild, ob der Pixelwert ein bestimmte Farbart aufweist, die beispielsweise dem grünen (oder blauen) Key-Einzelbildsignal entspricht. In jedem Fall gibt der Pixelfarbdetektor 310, wenn die Antwort aus dem Verarbeitungsschritt 625 JA lautet, (in Schritt 630) die Entscheidung als eine Key-Maske mit einer „1“ aus, was bedeutet, dass das Key-Signal eine Key-Farbe ist, wie Grün. Wenn die Antwort aus dem Verarbeitungsschritt 625 NEIN lautet, gibt der Pixelfarbdetektor 310 (in Schritt 635) die Entscheidung als eine Key-Maske von „0“ aus, was bedeutet, dass das Pixel einem normalen Inhalt entspricht, wie anderen Abschnitten der Live-Szene 240 als die elektronische Anzeige 250.
  • In Schritt 640 wird der Key-Signalprozessor 230 dazu konfiguriert, die Signale für das nachgeschaltete Keying auszugeben. Beispielsweise kann die Key-Signalausgabe 320 dazu konfiguriert werden, in Schritt 630 einen Ein-Bit-Strom in dem am wenigstens bedeutenden Bit des blauen (Cb in YCrCb) Kanals zu multiplexen. Auf diese Weise muss die Kamera 220 nur einen Strom über die Key-Signalausgabe 320 an die Produktionsumgebung ausgeben, wie vorstehend beschrieben. In einem anderen Beispiel können die Ausgabeströme (z. B. die Ausgabeströme 430 und 440 in 4) als unabhängige Videoströme oder als ein Videostrom (kombinierte Ausgabe) plus ein unabhängiger Metadatenstrom bereitgestellt werden.
  • In Schritt 645 schließlich kann eine nachgelagerte Verarbeitungskomponente (z. B. ein entferntes Produktionszentrum) die von der Key-Maske bereitgestellten Daten verwenden, um die Pixel mit einem „1“-Key-Maskenwert durch neue Inhalte zu ersetzen, wie durch eine neue Werbung, die beispielsweise auf eine bestimmte geografische Region zielgerichtet ist. Die Medienproduktion kann dann unter Verwendung herkömmlicher Rundfunk- und Medienverteilungssysteme, wie sie dem Fachmann bekannt sind, an die Endverbraucher der Inhalte übertragen werden.
  • In einem beispielhaften Aspekt ist die Kamera 220 (z. B. Key-Signalausgabe 320) dazu konfiguriert, das (z. B. grüne) Keying-Signal neben der normalen Bildfrequenzausgabe mit dem aufgenommenen Szeneninhalt 240 auszugeben. In dieser Implementierung wird das Key-Einzelbild, das wie vorstehend beschrieben in sehr kurzer Zeit aufgenommen wird, zeitlich verlängert (z. B. in eine niedrigere Taktfrequenz umgewandelt) und verwendet, um daraus eine zweite Ausgabe mit normaler Bildfrequenz zu machen. So kann die Kamera 220 dazu konfiguriert werden, ein normales Ausgabesignal (z. B. das Ausgabesignal 420 in 4) zusammen mit einem Key-Signal (z. B. das Ausgabesignal 430 in 4) bereitzustellen, das mit einem externen Keyer verwendet werden kann, um in der aufgenommenen Szene den Inhalt der Anzeige(n) durch einen alternativen Inhalt zu ersetzen.
  • Es sollte klar sein, dass die Key-Maske als verschiedene Arten von Ausgabesignalen für die Verarbeitung durch den nachgeschalteten Keyer ausgegeben werden kann. In einem anderen beispielhaften Aspekt wird das (z. B. grüne) Key-Signal der ersten Implementierung nicht als ein separater Strom ausgegeben, sondern als 0:2:2-Strom zu dem 4:2:2-Strom der Produktionsausgabe hinzugefügt, um eine 4:4:4-Ausgabe zu erzeugen. Alternativ kann das Key-Bit auch als ein separater Metadatenstrom ausgegeben werden.
  • Darüber hinaus kann für jedes Pixel, das aus mehr als einem Bit besteht, auch ein Key-Signal gebildet werden. Für jeden Pixelwert kann der Pixelfarbdetektor (z. B. eine Farberkennungsschaltung) dazu konfiguriert werden, einen Zwei-Bit-Wert zu bilden, wobei das erste Bit angibt, ob die Key-Farbe erkannt wurde, und das zweite Bit Grenzinformationen angibt, die es dem Keyer ermöglichen, die Pixelposition der elektronischen Anzeige 250 innerhalb des aufgenommenen Inhalts 240 genauer zu bestimmen. Andere Erweiterungen, die dem Fachmann auf dem Gebiet des Keying bekannt sind, können in der Kamera 220 implementiert werden, wobei das vorstehend beschriebene Grundprinzip erneut verwendet wird.
  • Schließlich wird in einer weiteren Implementierung der beispielhaften Ausführungsform das Key-Bit als das MSB in 12-Bit-Werten hinzugefügt, sodass das Key-Bit beispielsweise externe Kompressionsverfahren überstehen kann. In diesem Fall haben Grün und Rot reguläre 12-Bit-Werte, während Blau 11-Bit-Werte verwendet und eine 0,5-fache Verstärkung innerhalb der Kamera 220 (z. B. durch den Verstärkungskorrektor 315) und eine 2-fache Verstärkung außerhalb der Kamera 220 erhalten muss.
  • 7 ist ein Blockdiagramm, das ein Computersystem veranschaulicht, auf dem Aspekte von Systemen und Verfahren zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern gemäß einer beispielhaften Ausführungsform. Im Allgemeinen ist anzumerken, dass das Computersystem 20 einem beliebigen Computersystem entsprechen kann, das für den Key-Signalprozessor 230 oder beliebige Komponenten darin konfiguriert ist. Obwohl es sich bei dem Computersystem 20 vorzugsweise um ein Verarbeitungssystem innerhalb der Kamera 220 handelt, wird darauf hingewiesen, dass die beispielhafte Ausführungsform für die Erkennung von Key-Signalen nachgeschaltet sein kann und in Form mehrerer Rechenvorrichtungen oder in Form einer einzigen Rechenvorrichtung vorliegen kann, beispielsweise eines Desktop-Computers, eines Notebooks, eines Laptops, einer mobilen Rechenvorrichtung, eines Smartphones, eines Tablet-Computers, eines Servers, eines Großrechners, einer eingebetteten Vorrichtung und anderer Formen von Rechenvorrichtungen.
  • Wie gezeigt, beinhaltet das Computersystem 20 eine zentrale Verarbeitungseinheit (CPU) 21, einen Systemspeicher 22 und einen Systembus 23, der die verschiedenen Systemkomponenten, einschließlich des der zentralen Verarbeitungseinheit 21 zugeordneten Speichers, miteinander verbindet. Der Systembus 23 kann einen Busspeicher oder eine Busspeicher-Steuervorrichtung, einen Peripheriebus und einen lokalen Bus umfassen, der mit jeder anderen Busarchitektur interagieren kann. Beispiele für solche Busse können PCI, ISA, PCI-Express, HyperTransport™, InfiniBand™, Serial ATA, I2C und andere geeignete Verbindungsleitungen beinhalten. Die zentrale Verarbeitungseinheit 21 (auch als Prozessor bezeichnet) kann einen einzelnen oder mehrere Sätze von Prozessoren mit einzelnen oder mehreren Kernen beinhalten. Der Prozessor 21 kann einen oder mehrere computerausführbare Codes ausführen, die die Techniken der vorliegenden Offenbarung implementieren. Der Systemspeicher 22 kann ein beliebiger Speicher zum Speichern von hierin verwendeten Daten und/oder Computerprogrammen sein, die von dem Prozessor 21 ausgeführt werden können. Der Systemspeicher 22 kann einen flüchtigen Speicher wie einen Direktzugriffsspeicher (RAM) 25 und einen nichtflüchtigen Speicher wie einen Festwertspeicher (ROM) 24, einen Flash-Speicher usw. oder eine beliebige Kombination davon beinhalten. Das Basis-Eingabe/Ausgabe-System (BIOS) 26 kann die grundlegenden Vorgehensweisen für die Übertragung von Informationen zwischen den Elementen des Computersystems 20 speichern, wie jenen zum Zeitpunkt des Ladens des Betriebssystems mit der Verwendung des ROM 24.
  • Das Computersystem 20 kann eine oder mehrere Speichervorrichtungen beinhalten, wie eine oder mehrere entfernbare Speichervorrichtungen 27, eine oder mehrere nicht entfernbare Speichervorrichtungen 28 oder eine Kombination davon. Der oder die entfernbaren Speichervorrichtungen 27 und die nicht entfernbaren Speichervorrichtungen 28 sind über eine Speicherschnittstelle 32 mit dem Systembus 23 verbunden. In einem Aspekt sind die Speichervorrichtungen und die entsprechenden computerlesbaren Speichermedien leistungsunabhängige Module für die Speicherung von Computeranweisungen, Datenstrukturen, Programmmodulen und anderen Daten des Computersystems 20. Der Systemspeicher 22, die entfernbaren Speichervorrichtungen 27 und die nicht entfernbaren Speichervorrichtungen 28 können eine Vielzahl von computerlesbaren Speichermedien verwenden. Beispiele für computerlesbare Speichermedien beinhalten Maschinenspeicher wie Cache, SRAM, DRAM, Zero-Capacitor-RAM, Twin-Transistor-RAM, eDRAM, EDO-RAM, DDR-RAM, EEPROM, NRAM, RRAM, SONOS, PRAM; Flash-Speicher oder andere Speichertechnologien wie in Solid-State-Laufwerken (SSDs) oder Flash-Laufwerken; Magnetkassetten, Magnetbänder und Magnetplattenspeicher wie Festplattenlaufwerke oder Disketten; optische Speicher wie Compact Disks (CD-ROM) oder Digital Versatile Disks (DVDs); und jedes andere Medium, das für die Speicherung der gewünschten Daten verwendet werden kann und auf das das Computersystem 20 zugreifen kann.
  • Der Systemspeicher 22, die entfernbaren Speichervorrichtungen 27 und die nicht entfernbaren Speichervorrichtungen 28 des Computersystems 20 können verwendet werden, um ein Betriebssystem 35, zusätzliche Programmanwendungen 37, andere Programmmodule 38 und Programmdaten 39 zu speichern. Das Computersystem 20 kann eine Peripherieschnittstelle 46 für die Übertragung von Daten von Eingabevorrichtungen 40, wie einer Tastatur, einer Maus, einem Stift, einem Spielcontroller, einer Spracheingabevorrichtung, einer Berührungseingabevorrichtung oder anderen Peripherievorrichtungen, wie einem Drucker oder Scanner, über einen oder mehrere E/A-Anschlüsse, wie einen seriellen Anschluss, einen parallelen Anschluss, einen universellen seriellen Bus (USB) oder eine andere Peripherieschnittstelle, beinhalten. Eine Anzeigevorrichtung 47, z. B. ein oder mehrere Monitore, Projektoren oder integrierte Anzeigen, kann auch über eine Ausgabeschnittstelle 48, wie einen Videoadapter, mit dem Systembus 23 verbunden werden. Zusätzlich zu den Anzeigevorrichtungen 47 kann das Computersystem 20 mit anderen peripheren Ausgabevorrichtungen (nicht gezeigt) ausgestattet sein, wie Lautsprechern und anderen audiovisuellen Vorrichtungen.
  • Das Computersystem 20 kann in einer Netzwerkumgebung unter Verwendung einer Netzwerkverbindung zu einem oder mehreren entfernten Computern 49 arbeiten. Bei dem entfernten Computer (oder Computern) 49 kann es sich um lokale Computerarbeitsstationen oder Server handeln, die die meisten oder alle der vorstehend genannten Elemente für die Beschreibung der Beschaffenheit eines Computersystems 20 umfassen. Darüber hinaus kann der entfernte Computer (oder Computern) 49 einer beliebigen nachgeschalteten Vorrichtung für die Verarbeitung der Datenströme entsprechen, wie hierin beschrieben.
  • In dem Computernetz können ebenso andere Vorrichtungen vorhanden sein, wie Router, Netzwerkstationen, Peer-Vorrichtungen oder andere Netzknoten. Das Computersystem 20 kann eine oder mehrere Netzwerkschnittstellen 51 oder Netzwerkadapter für die Kommunikation mit den entfernten Computern 49 über ein oder mehrere Netzwerke wie ein lokales Computernetzwerk (LAN) 50, ein Weitverkehrs-Computernetzwerk (WAN), ein Intranet und das Internet (z. B. Internet 103) beinhalten. Beispiele für die Netzwerkschnittstelle 51 können eine Ethernet-Schnittstelle, eine Frame-Relay-Schnittstelle, eine SONET-Schnittstelle und drahtlose Schnittstellen beinhalten.
  • Im Allgemeinen wird darauf hingewiesen, dass es sich bei den beispielhaften Aspekten der vorliegenden Offenbarung um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln kann. Das Computerprogrammprodukt kann ein computerlesbares Speichermedium (oder Medien) mit computerlesbaren Programmanweisungen darauf beinhalten, um einen Prozessor zu veranlassen, Aspekte der vorliegenden Offenbarung auszuführen.
  • Das computerlesbare Speichermedium kann eine greifbare Vorrichtung sein, die Programmcode in Form von Anweisungen oder Datenstrukturen aufnehmen und speichern kann, auf die ein Prozessor einer Rechenvorrichtung, wie das Rechensystem 20, zugreifen kann. Das computerlesbare Speichermedium kann eine elektronische Speichervorrichtung, eine magnetische Speichervorrichtung, eine optische Speichervorrichtung, eine elektromagnetische Speichervorrichtung, eine Halbleiterspeichervorrichtung oder eine beliebige Kombination davon sein. Ein solches computerlesbares Speichermedium kann beispielsweise einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM), EEPROM, einen tragbaren Compact-Disc-Festwertspeicher (CD-ROM), eine Digital Versatile Disk (DVD), einen Flash-Speicher, eine Festplatte, eine tragbare Computerdiskette, einen Memory-Stick, eine Diskette oder sogar eine mechanisch kodierte Vorrichtung wie Lochkarten oder erhabene Strukturen in einer Rille mit darauf aufgezeichneten Anweisungen sein. Der Begriff „computerlesbares Speichermedium“ ist hierin nicht so zu verstehen, dass es sich um flüchtige Signale an sich handelt, wie Radiowellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein Übertragungsmedium ausbreiten, oder elektrische Signale, die durch eine Leitung übertragen werden.
  • Die hierin beschriebenen computerlesbaren Programmanweisungen können von einem computerlesbaren Speichermedium auf die jeweiligen Rechenvorrichtungen oder auf einen externen Computer oder eine externe Speichervorrichtung über ein Netzwerk, beispielsweise das Internet, ein lokales Netz, ein Weitverbundnetz und/oder ein drahtloses Netz, heruntergeladen werden. Das Netz kann Kupferübertragungskabel, optische Übertragungsfasern, drahtlose Übertragung, Router, Firewalls, Switches, Gateway-Computer und/oder Edge-Server umfassen. Eine Netzwerkschnittstelle in jeder Rechenvorrichtung empfängt computerlesbare Programmanweisungen von dem Netz und leitet die computerlesbaren Programmanweisungen für die Speicherung in einem computerlesbaren Speichermedium innerhalb der jeweiligen Rechenvorrichtung weiter.
  • Die computerlesbaren Programmanweisungen für die Ausführung von Vorgängen der vorliegenden Offenbarung können Zusammenbauanweisungen, Instruktionssatzarchitektur- (ISA-) Anweisungen, Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, Zustandsdaten oder entweder Quellcode oder Objektcode sein, der in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen, einschließlich einer objektorientierten Programmiersprache, und herkömmlichen prozeduralen Programmiersprachen geschrieben wurde. Die computerlesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernten Computer oder vollständig auf dem entfernten Computer oder Server ausgeführt werden. Im letzteren Fall kann der entfernte Computer mit dem Computer des Benutzers über eine beliebige Art von Netzwerk verbunden sein, einschließlich LAN oder WAN, oder die Verbindung kann zu einem externen Computer hergestellt werden (beispielsweise über das Internet). In einigen Aspekten können elektronische Schaltungen, die beispielsweise programmierbare Logikschaltungen, Field Programmable Gate Arrays (FPGA) oder programmierbare Logik-Arrays (PLA) beinhalten, die computerlesbaren Programmanweisungen ausführen können, indem sie Zustandsinformationen der computerlesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Offenbarung durchzuführen.
  • Im Interesse der Klarheit werden hierin nicht alle Routinemerkmale der Aspekte offenbart. Es wird angemerkt, dass bei der Entwicklung einer tatsächlichen Implementierung der vorliegenden Offenbarung zahlreiche implementierungsspezifische Entscheidungen getroffen werden müssen, um die spezifischen Ziele des Entwicklers zu erreichen, und diese spezifischen Ziele werden für verschiedene Implementierungen und verschiedene Entwickler unterschiedlich sein. Es versteht sich von selbst, dass ein solcher Entwicklungsaufwand komplex und zeitaufwendig sein kann, aber dennoch ein Routineunternehmen der Technik für Durchschnittsfachleute ist und den Vorteil dieser Offenbarung aufweist.
  • Darüber hinaus ist zu verstehen, dass die hierin verwendete Phraseologie oder Terminologie der Beschreibung und nicht der Einschränkung dient, sodass die Terminologie oder Phraseologie der vorliegenden Patentschrift von dem Fachmann im Lichte der hierin dargelegten Lehren und Anleitungen in Kombination mit dem Wissen des Fachmanns in der relevanten Kunst/den relativen Künsten zu interpretieren ist. Darüber hinaus soll keinem Begriff in der Patentschrift oder den Ansprüchen eine ungewöhnliche oder besondere Bedeutung zugeschrieben werden, wenn nicht ausdrücklich als solcher bezeichnet.
  • Die verschiedenen Aspekte, die hierin offenbart werden, schließen gegenwärtige und zukünftige bekannte Äquivalente zu den bekannten Modulen ein, auf die sich hierin für die Veranschaulichung bezogen wird. Auch wenn Aspekte und Anwendungen gezeigt und beschrieben wurden, ist es für Fachleute, die mit dieser Offenbarung vertraut sind, offensichtlich, dass viele weitere Modifikationen als die vorstehend genannten möglich sind, ohne von den hierin offenbarten erfinderischen Konzepten abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 17813230 [0001]
    • US 63224549 [0001]
    • US 10200749 [0003, 0004]
    • US 10284801 [0025, 0033]

Claims (20)

  1. System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern, wobei das System umfasst: eine Kamera, die dazu konfiguriert ist, eine Sequenz von Medieninhalten einer Live-Szene aufzunehmen, die eine elektronische Anzeige mit einer höheren Bildrate als die Ausgabebildrate der Kamera beinhaltet; und einen Key-Signalprozessor, der konfiguriert ist, zum: Konvertieren aller Einzelbilder in der Sequenz der Medieninhalte in die Ausgabebildfrequenz der Kamera, Analysieren einer Sequenz von Einzelbilder des aufgenommenen Medieninhalts, um das Key-Signal auf Grundlage der elektronischen Anzeige zu bestimmen, die eine Sequenz von Einzelbilder ausgibt, die Medieninhalt und wenigstens ein in der Sequenz enthaltenes Key-Einzelbild beinhaltet, und Kombinieren der verbleibenden Einzelbilder der Sequenz von Einzelbildern, um ein Live-Ausgabesignal zu bilden, wobei der Key-Signalprozessor einen Pixelfarbdetektor beinhaltet, der dazu konfiguriert ist, für jedes Pixel in jedem Einzelbild in der Sequenz von Einzelbildern zu bestimmen, ob das Pixel eine eingestellte Farbart aufweist, und eine Key-Maske für jedes Pixel in jedem Einzelbild zu erzeugen, wobei die Key-Maske anzeigt, ob das Pixel das Key-Einzelbild umfasst.
  2. System nach Anspruch 1, wobei der Key-Signalprozessor einen Verstärkungskorrektor beinhaltet, der dazu konfiguriert ist, das Key-Einzelbild zu korrigieren.
  3. System nach Anspruch 1, wobei der Key-Signalprozessor eine Key-Signalausgabe beinhaltet, die dazu konfiguriert ist, einen Ein-Bit-Strom des Key-Einzelbildes in ein am wenigstens bedeutendes Bit eines blauen Kanals zu multiplexen, sodass das Key-Signal und der Medieninhalt als ein einziger Datenstrom ausgegeben werden.
  4. System nach Anspruch 1, wobei der Key-Signalprozessor eine Key-Signalausgabe beinhaltet, die dazu konfiguriert ist, das Live-Ausgabesignal mit einem Metadatenstrom des wenigstens einen Key-Einzelbildes mit der konvertierten Bildfrequenz zu multiplexen.
  5. System nach Anspruch 1, wobei die elektronische Anzeige dazu konfiguriert ist, ein Key-Farbeinzelbild als das Key-Signal in die Sequenz von Medieninhalten einzusetzen, wobei das Key-Farbeinzelbild mit einer Frequenz eingesetzt wird, die derart konfiguriert ist, dass ein menschlicher Betrachter der Sequenz von Medieninhalten das Key-Farbeinzelbild nicht erkennen kann.
  6. System nach Anspruch 1, wobei die Key-Maske einen nachgeschalteten Keyer dazu konfiguriert, einen Key zu erzeugen und die jeweiligen Pixel mit dem Key-Einzelbild in der Sequenz von Einzelbildern durch zusätzliche Medieninhalte zu ersetzen.
  7. System nach Anspruch 6, wobei der Key-Signalprozessor einen Pixelfarbdetektor beinhaltet, der dazu konfiguriert ist, einen Zwei-Bit-Wert zu erzeugen, wobei ein erstes Bit anzeigt, ob eine Key-Farbe erkannt wurde, und ein zweites Bit Grenzinformationen anzeigt, um den nachgeschalteten Keyer in die Lage zu versetzen, eine Position des jeweiligen Pixels in der elektronischen Anzeige innerhalb des aufgenommenen Medieninhalts zu bestimmen.
  8. System nach Anspruch 1, wobei das Key-Einzelbild in der Sequenz von Einzelbilder in der Mitte der Sequenz von Einzelbildern zwischen den Einzelbildern des Medieninhalts positioniert ist.
  9. Verfahren nach Anspruch 1, ferner umfassend: einen Speicher, wobei der Key-Signalprozessor dazu konfiguriert ist, Anweisungen in dem Speicher zu implementieren, um bereitzustellen: einen Bildfrequenzaufnahmeanpasser, der dazu konfiguriert ist, alle Einzelbilder in der Sequenz von Medieninhalten in die Ausgabebildfrequenz der Kamera zu konvertieren, den Pixelfarbdetektor, der dazu konfiguriert ist, die Sequenz von Einzelbilder des aufgenommenen Medieninhalts zu analysieren, um das Key-Signal auf Grundlage der elektronischen Anzeige zu bestimmen, die die Sequenz von Einzelbilder ausgibt, die den Medieninhalt und wenigstens das in der Sequenz enthaltene Key-Einzelbild beinhaltet, und die Key-Signalausgabe dazu konfiguriert ist, die verbleibenden Einzelbilder der Sequenz von Einzelbildern zu kombinieren, um das Live-Ausgabesignal zu bilden.
  10. System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern, wobei das System umfasst: einen Speicher; und einen Key-Signalprozessor, der dazu konfiguriert ist, Anweisungen in dem Speicher zu implementieren, um bereitzustellen: Konvertieren von Einzelbildern in einer Sequenz von Medieninhalten einer Live-Szene, die von einer Kamera aufgenommen wurde, in eine Ausgabebildfrequenz der Kamera, wobei die Live-Szene eine elektronische Anzeige mit einer höheren Bildfrequenz als die Ausgabebildfrequenz der Kamera beinhaltet; Analysieren einer Sequenz von Einzelbilder des aufgenommenen Medieninhalts, um das Key-Signal auf Grundlage der elektronischen Anzeige zu bestimmen, die eine Sequenz von Einzelbilder ausgibt, die Medieninhalt und wenigstens ein in der Sequenz enthaltenes Key-Einzelbild beinhaltet; und Kombinieren der verbleibenden Einzelbilder der Sequenz von Einzelbildern, um ein Live-Ausgabesignal zu bilden.
  11. System nach Anspruch 10, wobei der Key-Signalprozessor einen Pixelfarbdetektor beinhaltet, der dazu konfiguriert ist, für jedes Pixel in jedem Einzelbild in der Sequenz von Einzelbildern zu bestimmen, ob das Pixel eine eingestellte Farbart aufweist, und eine Key-Maske für jedes Pixel in jedem Einzelbild zu erzeugen, wobei die Key-Maske anzeigt, ob das Pixel das Key-Einzelbild umfasst.
  12. System nach Anspruch 10, ferner umfassend einen Verstärkungskorrektor, der dazu konfiguriert ist, das Key-Einzelbild zu korrigieren.
  13. System nach Anspruch 10, wobei der Key-Signalprozessor eine Key-Signalausgabe beinhaltet, die dazu konfiguriert ist, einen Ein-Bit-Strom des Key-Einzelbildes in ein am wenigstens bedeutendes Bit eines blauen Kanals zu multiplexen, sodass das Key-Signal und der Medieninhalt als ein einziger Datenstrom ausgegeben werden.
  14. System nach Anspruch 10, wobei der Key-Signalprozessor eine Key-Signalausgabe beinhaltet, die dazu konfiguriert ist, das Live-Ausgabesignal mit einem Metadatenstrom des wenigstens einen Key-Einzelbildes mit der konvertierten Bildfrequenz zu multiplexen.
  15. System nach Anspruch 10, wobei die elektronische Anzeige dazu konfiguriert ist, ein Key-Farbeinzelbild als das Key-Signal in die Sequenz von Medieninhalten einzusetzen, wobei das Key-Farbeinzelbild mit einer Frequenz eingesetzt wird, die derart konfiguriert ist, dass ein menschlicher Betrachter der Sequenz von Medieninhalten das Key-Farbeinzelbild nicht erkennen kann.
  16. System nach Anspruch 10, wobei die Key-Maske einen nachgeschalteten Keyer dazu konfiguriert, einen Key zu erzeugen und die jeweiligen Pixel mit dem Key-Einzelbild in der Sequenz von Einzelbildern durch zusätzliche Medieninhalte zu ersetzen.
  17. System nach Anspruch 16, wobei der Key-Signalprozessor einen Pixelfarbdetektor beinhaltet, der dazu konfiguriert ist, einen Zwei-Bit-Wert zu erzeugen, wobei ein erstes Bit anzeigt, ob eine Key-Farbe erkannt wurde, und ein zweites Bit Grenzinformationen anzeigt, um den nachgeschalteten Keyer in die Lage zu versetzen, eine Position des jeweiligen Pixels in der elektronischen Anzeige innerhalb des aufgenommenen Medieninhalts zu bestimmen.
  18. System nach Anspruch 10, wobei das Key-Einzelbild in der Sequenz von Einzelbilder in der Mitte der Sequenz von Einzelbildern zwischen den Einzelbildern des Medieninhalts positioniert ist.
  19. System zum Aufnehmen eines Key-Signals innerhalb von Videoeinzelbildern, wobei das System umfasst: Mittel zum Konvertieren von Einzelbildern in einer Sequenz von Medieninhalten einer Live-Szene, die von einer Kamera aufgenommen wurde, in eine Ausgabebildfrequenz der Kamera, wobei die Live-Szene eine elektronische Anzeige mit einer höheren Bildfrequenz als die Ausgabebildfrequenz der Kamera beinhaltet; Mittel zum Analysieren einer Sequenz von Einzelbilder des aufgenommenen Medieninhalts, um das Key-Signal auf Grundlage der elektronischen Anzeige zu bestimmen, die eine Sequenz von Einzelbilder ausgibt, die Medieninhalt und wenigstens ein in der Sequenz enthaltenes Key-Einzelbild beinhaltet; und Mittel zum Kombinieren der verbleibenden Einzelbilder der Sequenz von Einzelbildern, um ein Live-Ausgabesignal zu bilden.
  20. System nach Anspruch 19, das ferner Mittel zum Bestimmen für jedes Pixel in jedem Einzelbild in der Folge von Einzelbildern, ob das Pixel eine bestimmte Farbart aufweist, und Mittel zum Erzeugen einer Key-Maske für jedes Pixel in jedem Einzelbild umfasst, wobei die Key-Maske anzeigt, ob das Pixel das Key-Einzelbild umfasst.
DE112022003647.8T 2021-07-22 2022-07-20 System und Verfahren für zeitliches Keying in einer Kamera Pending DE112022003647T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163224549P 2021-07-22 2021-07-22
US63/224,549 2021-07-22
US17/813,230 US11849244B2 (en) 2021-07-22 2022-07-18 System and method for temporal keying in a camera
US17/813,230 2022-07-18
PCT/CA2022/051130 WO2023000102A1 (en) 2021-07-22 2022-07-20 System and method for temporal keying in a camera

Publications (1)

Publication Number Publication Date
DE112022003647T5 true DE112022003647T5 (de) 2024-05-23

Family

ID=84976190

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022003647.8T Pending DE112022003647T5 (de) 2021-07-22 2022-07-20 System und Verfahren für zeitliches Keying in einer Kamera

Country Status (4)

Country Link
US (1) US11849244B2 (de)
DE (1) DE112022003647T5 (de)
GB (1) GB2623026A (de)
WO (1) WO2023000102A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10200749B2 (en) 2008-04-10 2019-02-05 Gvbb Holdings S.A.R.L. Method and apparatus for content replacement in live production
US10284801B2 (en) 2016-09-08 2019-05-07 Gvbb Holdings S.A.R.L. Differential digital double sampling method and CMOS image sensor for performing same

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9020539D0 (en) 1990-09-20 1990-10-31 Avesco Plc Video signal processing
US6381362B1 (en) * 1999-04-08 2002-04-30 Tata America International Corporation Method and apparatus for including virtual ads in video presentations
SE0300286D0 (sv) * 2003-02-05 2003-02-05 Axis Ab Method and apparatus for combining video signals to one comprehensive video signal
EP1841213A1 (de) * 2006-03-29 2007-10-03 THOMSON Licensing Einrichtung und Verfahren zum Kombinieren von Videosignalen
US20080117333A1 (en) * 2006-11-17 2008-05-22 Disney Enterprises, Inc. Method, System And Computer Program Product For Video Insertion
JP4777274B2 (ja) * 2007-02-19 2011-09-21 キヤノン株式会社 映像再生装置及びその制御方法
EP2145468B1 (de) * 2007-04-11 2012-09-12 GVBB Holdings S.A.R.L Verfahren und vorrichtung zur erweiterung von digitalen videoeffekten (dve)
CN101681662B (zh) * 2007-04-13 2013-01-02 Gvbb控股股份有限公司 编辑装置和编辑方法
US8488901B2 (en) 2007-09-28 2013-07-16 Sony Corporation Content based adjustment of an image
US20110043689A1 (en) * 2009-08-18 2011-02-24 Wesley Kenneth Cobb Field-of-view change detection
US8599316B2 (en) * 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
GB2529182B (en) * 2014-08-12 2019-03-27 Supponor Oy Method and apparatus for dynamic image content manipulation
US10440403B2 (en) * 2017-01-27 2019-10-08 Gvbb Holdings S.A.R.L. System and method for controlling media content capture for live video broadcast production
US10499001B2 (en) * 2017-03-16 2019-12-03 Gvbb Holdings S.A.R.L. System and method for augmented video production workflow
CN112514369B (zh) 2018-07-27 2023-03-10 阿帕里奥全球咨询股份有限公司 视频流中动态图像内容替换的方法和系统
US11316912B2 (en) * 2020-05-26 2022-04-26 Grass Valley Canada System and method for synchronizing transmission of media content using timestamps
US12003885B2 (en) * 2021-06-14 2024-06-04 Microsoft Technology Licensing, Llc Video frame interpolation via feature pyramid flows
US11722635B2 (en) * 2021-06-22 2023-08-08 Samsung Electronics Co., Ltd. Processing device, electronic device, and method of outputting video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10200749B2 (en) 2008-04-10 2019-02-05 Gvbb Holdings S.A.R.L. Method and apparatus for content replacement in live production
US10284801B2 (en) 2016-09-08 2019-05-07 Gvbb Holdings S.A.R.L. Differential digital double sampling method and CMOS image sensor for performing same

Also Published As

Publication number Publication date
GB202400476D0 (en) 2024-02-28
US11849244B2 (en) 2023-12-19
WO2023000102A1 (en) 2023-01-26
US20230028882A1 (en) 2023-01-26
GB2623026A (en) 2024-04-03

Similar Documents

Publication Publication Date Title
DE112017000986B4 (de) Digitalkamera und Anzeigeverfahren einer Digitalkamera
DE102016115292B4 (de) Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging
DE102020125612A1 (de) Kontinuierliche lokale 3d-rekonstruktionsverfeinerung in video
DE112016001646T5 (de) Verarbeiten und bereitstellen eines bildes, in dem mehrere symbole codiert sind
DE102018119625A1 (de) Reduzieren von strukturierten IR-Mustern bei der Stereoskopischen Tiefensensorbildgebung
DE102008056603A1 (de) Verfahren und Vorrichtungen zur Messung von Markenexposition in Medienstreams und zur Festlegung von Interessenbereichen in zugeordneten Videoframes
DE112018007466T5 (de) Multimediavorrichtung zur Verarbeitung von Videosignalen und Steuerverfahren dafür
DE10219132A1 (de) System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern
DE112014000261T5 (de) Verfahren und Gerät zum Senden und Empfangen eines Übertragungssignals zum Bereitstellen eines Trickmodusdienstes
DE102017116177A1 (de) Verfahren und Gerät zum Kombinieren von Videos
DE102014008405A1 (de) Optische Freiraumübertragung
DE112019000271T5 (de) Verfahren und vorrichtung zur verarbeitung und verteilung von live-virtual-reality-inhalten
DE102017009149A1 (de) Aufzeichnung und Wiedergabe von 360-Grad-Videos mit Objektverfolgung
DE102021119882A1 (de) Videohintergrundschätzung unter verwendung von räumlich-zeitlichen modellen
JP2022524651A (ja) ライブフィードにおけるコンテンツアウェアpqレンジアナライザとトーンマッピング
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
CN111405339A (zh) 一种分屏显示方法、电子设备及存储介质
DE112021006157T5 (de) Videocodieren durch nicht-salienz-komprimierung für live-streaming von hochauflösenden videos in einer übertragung niedriger bandbreite
CN105100870A (zh) 一种截屏方法及终端设备
Rizzi et al. Unsupervised digital movie restoration with spatial models of color
DE112022003647T5 (de) System und Verfahren für zeitliches Keying in einer Kamera
CN107682673A (zh) 一种基于gpu和视频io卡同时监看4khdr和hdsdr信号的方法
KR101373631B1 (ko) 실시간 크로마키 합성 시스템 및 방법
WO2018069218A1 (de) Fernsehübertragungssystem zur erzeugung angereicherter bilder
CN107534785A (zh) 用于设置多媒体节目的图像的清晰度的等级的方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed