DE69434047T2 - Medien Pipeline mit Mehrwegevideoverarbeitung und Wiedergabe - Google Patents

Medien Pipeline mit Mehrwegevideoverarbeitung und Wiedergabe Download PDF

Info

Publication number
DE69434047T2
DE69434047T2 DE69434047T DE69434047T DE69434047T2 DE 69434047 T2 DE69434047 T2 DE 69434047T2 DE 69434047 T DE69434047 T DE 69434047T DE 69434047 T DE69434047 T DE 69434047T DE 69434047 T2 DE69434047 T2 DE 69434047T2
Authority
DE
Germany
Prior art keywords
sequence
pixel
buffer
video
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69434047T
Other languages
English (en)
Other versions
DE69434047D1 (de
Inventor
Jeffrey Kurtze
Ray Cacciatore
Peter Zawojski
Eric C. Peters
John Walsh Jr.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avid Technology Inc
Original Assignee
Avid Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avid Technology Inc filed Critical Avid Technology Inc
Application granted granted Critical
Publication of DE69434047D1 publication Critical patent/DE69434047D1/de
Publication of DE69434047T2 publication Critical patent/DE69434047T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Hintergrund der Erfindung
  • Die Technologie zum Manipulieren von digitalen Videos hat bis zu dem Punkt Fortschritte gemacht, wo diese ohne weiteres auf Computern verarbeitet und behandelt werden können. Beispielsweise ist der Avid/1-Mediacomposer, der von Avid Technology, Inc. aus Tewksbury, Massachusetts, erhältlich ist, ein System, bei dem digitale Videos ohne weiteres erfasst, editiert und für diverse Zwecke dargestellt werden können, beispielsweise zur Fernsehübertragung und zur Nachbearbeitung von Film- und Videoprogrammen.
  • Der Avid/1-Mediacomposer verwendet eine Medienpipeline, um auf einer Computeranzeige ein digitales Videoausgangssignal in Echtzeit bereitzustellen. Diese Medienpipeline 30 ist in 1 gezeigt und ausführlicher im US-Patent Nr. 5,045,940, erteilt am 3. September 1991, beschrieben. In dieser Medienpipeline 30 speichert ein permanenter Speicher 40 Sequenzen von digitalen Standbildern, die digitale Videos repräsentieren und die mit einer Wiederholrate wieder abgespielt werden, die für das Aussehen eines Videos sorgt. Die Sequenzen von digitalen Standbildern umfassen keinerlei Bildsynchronisation oder eine andere Art von Synchronisationsinformation, die typischerweise in Fernsehsignalen vorgefunden werden. Die Standbilder werden auch typischerweise in komprimierter Form gespeichert. Auf die abgespeicherten Sequenzen wird Zugriff genommen und diese werden in einem Datenpuffer 42 platziert, von wo aus diese einem Komprimierungs-/Dekomprimierungssystem 44 bereitgestellt werden. Das Ausgangssignal des Komprimierungs-/Dekomprimierungssystems 44 wird an einen Bildpuffer bzw. Bildzwischenspeicher 46 angelegt, der das Standbild in ein typisches Videosignal wandelt, das dann an eine Eingabe-/Ausgabeeinheit 48 angelegt wird. Jedes der Systeme 40, 42, 44, 46 und 48 arbeitet in dieser Medienpipeline 30 bidirektional. Das heißt, der vorstehend diskutierte Ausgabeprozess kann umgekehrt werden und Videosignale können über die Eingabe-/Ausgabeeinheit 48 dem Bildpuffer 46 eingegeben werden, wo diese in eine Sequenz von digitalen Standbildern gewandelt werden. Die Bilder in der Sequenz werden mit Hilfe des Komprimierungs-/Dekomprimierungssystems 44 komprimiert, in dem Datenpufferspeicher 42 gespeichert und dann an den permanenten Speicher 40 übermittelt.
  • Obwohl die Medienpipeline für digitale Videos viele Vorteile bereitstellt, einschließlich der Möglichkeit einer Übertragung und des Editierens der gespeicherten digitalen Bilder in einem Computersystem, ist diese Medienpipeline nicht in der Lage, digitale Videoeffekte in Echtzeit bereitzustellen, einschließlich von komplexen, willkürlichen dreidimensionalen Effekten, einfachen zweidimensionalen Effekten, wie beispielsweise der erneuten Größendarstellung (resizing), der x-y-Translation, der Rotation, eines Schichtens bzw. layering (für ein Aussehen Bild-in-Bild), und schließlich von einfachen Effekten, wie beispielsweise Überblendungen, Löschungen (wipes), allmählichen Einblendungen (fades) und Luma- und/oder Chroma-Tastung (keying). Um solche Effekte auf dem Computer wahrzunehmen, wird der Effekt grundsätzlich zuerst erzeugt (nicht in Echtzeit), dann digitalisiert und gespeichert, falls dieser auf einem Band erzeugt wird, und schließlich wieder abgespielt.
  • US-A-4,698,682 beschreibt eine Vorrichtung zum Glätten einer Bewegung in einem computerisierten Grafiksystem durch Überlenden von einem Videosignal auf ein anderes, anstatt dass ein harter Übergang zwischen Videosignalen bewirkt wird.
  • EP-A-480 625 offenbart eine Vorrichtung zum Interpolieren von Videobildern, beispielsweise in einer animierten Sequenz, durch Mischen von Farbwerten von benachbarten Bildern.
  • Die Erfindung ist in den unabhängigen Patentansprüchen niedergelegt, auf die Bezug genommen werden sollte. Bevorzugte Ausführungsformen sind in den abhängigen Patentansprüchen definiert.
  • Eine Ausführungsform stellt eine Schaltung zur Verarbeitung von Folgen digitaler Standbilder bereit, um in Echtzeit digitale Videoeffekte bereitzustellen, umfassend:
    Einen ersten Kanal zur Übermittlung einer ersten Folge von digitalen Standbildern bei einer Rate zum Nachbilden eines Videos;
    einen zweiten Kanal zur Übermittlung einer zweiten Folge von digitalen Standbildern bei einer Rate zum Nachbilden eines Videos;
    eine Steuereinheit bzw. einen Regler, um die Standbilder zu dem ersten oder zweiten Kanal zu leiten; und
    einen Mischer, der einen ersten Eingang aufweist, welcher mit dem ersten Kanal verbunden ist, der einen zweiten Eingang aufweist, welcher mit dem zweiten Kanal verbunden ist und der einen Ausgang aufweist, welcher eine Kombination der ersten und zweiten Folge der digitalen Standbilder bei einer Rate zum Nachbilden eines Videos bereitstellt.
  • Kurze Beschreibung der Zeichnung
  • In der Zeichnung ist:
  • 1 ein Blockschema einer Medienpipeline, wie sie im Stand der Technik verwendet wird;
  • 2 ein Blockschema einer modifizierten Medienpipeline gemäß der vorliegenden Erfindung;
  • 3 ein ausführlicheres Blockschema eines modifizierten Komprimierungs-/Dekomprimierungs-Subsystems der Medienpipeline gemäß der vorliegenden Erfindung;
  • 4 ein Blockschema einer modifizierten Medienpipeline gemäß der vorliegenden Erfindung, um digitale Videoeffekte in Echtzeit bereitzustellen;
  • 5 ein Blockschema des α-Generators für Boxenlöschungen;
  • 6 ein Flussdiagramm, das die Betriebsweise der Zustandsmaschine für jede Abtastzeile in einem Bild für eine Boxenlöschung beschreibt;
  • 7 ein Flussdiagramm, das die Betriebsweise einer Zustandsmaschine für jedes Pixel in einer Abtastzeile für eine Boxenlöschung beschreibt; und
  • 8 ein Diagramm, das zeigt, wie α für verschiedene Bereiche eines Bildes für eine Boxenlöschung bestimmt wird.
  • Ausführliche Beschreibung
  • Die vorliegende Erfindung wird mittels der folgenden ausführlichen Beschreibung vollständiger verstanden werden, die im Zusammenhang mit den beigefügten Zeichnungen gelesen werden sollte, in denen ähnliche Bezugszeichen ähnliche Strukturen bezeichnen. Sämtliche Bezugsdokumente, die hierin genannt werden, einschließlich anhängiger Patentanmeldungen, seien hiermit ausdrücklich im Wege der Bezugnahme mit beinhaltet.
  • Eine Medienpipeline 35 mit zwei Kanälen von digitalen Videos zum Bereitstellen von Effekten wird nun anhand von 2 beschrieben werden. Die Medienpipeline 30, die in 1 gezeigt ist, wurde modifiziert, um eine Komprimierungs-/Dekomprimierungseinheit (CODEC) 58 zu beinhalten, die eine Modifikation des Komprimierungs-/Dekomprimierungssystems 44 gemäß 1 ist. Die CODEC-Einheit 58 hat zwei CODEC-Kanäle 50 und 52. Einer wird zum Komprimieren und Dekomprimieren verwendet, das heißt sowohl zur Aufzeichnung als auch zur Wiedergabe, während der andere nur zur Wiedergabe (playback) verwendet wird. Die Ausgangssignale dieser Kanäle werden einem Mischer 54 zugeführt, der diese gemäß dem gewünschten Effekt kombiniert bzw. verknüpft. Es ist jedoch nicht erforderlich, komprimierte Daten zu verwenden; eine Komprimierung ist jedoch bevorzugt, um Speicheranforderungen zu reduzieren. Diese Komprimierungs-/Dekomprimierungseinheit 58 ist ausführlicher in der britischen Provisionalanmeldung 9307894.7, eingereicht am 16. April 1993, unter der U.S. Foreign Filing License 504287, gewährt am 13. April 1993, beschrieben.
  • Diese CODEC-Einheit 58 wird nun ausführlicher im Zusammenhang mit 3 beschrieben werden. In dieser Figur steuert eine Steuereinheit 60 zwei Kanäle von Kodierern/Dekodern. Die Modifikation an der Medienpipeline 30 wird dadurch vorgenommen, dass in der Steuereinheit 60 verschiedene Abschnitte des komprimierten Datenpufferspeichers 42 jedem Kanal zugeordnet werden. Eine Sequenz von digitalen Standbildern wird ebenfalls einem Kanal zugeordnet. Somit wird, wenn die Sequenz in den Zwischen- bzw. Pufferspeicher für komprimierte Daten 42 eingelesen wird, diese dem Abschnitt eingegeben, der dem Kanal für diese Sequenz zugeordnet ist. Somit beruht das Lesen von Daten in den FIFO 62 und 64 für die CODECs 66 und 68 und das Schreiben aus diesen auf der Zuordnung eines Kanals zu einer ausgewählten Sequenz von digitalen Standbildern.
  • Jeder Kanal hat ein separates CODEC, entweder ein erstes CODEC 66 oder ein zweites CODEC 68. Die CODECs verwenden typischerweise das Joint Photographic Expert Group (JPEG), das als Norm zur Komprimierung von Standbildern vorgeschlagen wurde. Solche CODECs sind kommerziell erhältlich, beispielsweise als CL550, das von C-Cube aus Milpitas, Kalifornien, erhältlich ist. Jedes CODEC hat jeweilige Silospeicherelemente (FIFO) 62 und 64. Die FIFO-Speicherelemente 62 und 64 führen jeweils zu den CODECs 66 und 68, deren Ausgangssignale an die Halbbildzwischenspeicher bzw. Halbbildpufferspeicher 70 und 72 angelegt werden, die ebenfalls vorzugsweise FIFO-Speicherelemente sind. Diese zwei Kanäle können mit Hilfe eines Mischers 74 gemischt werden, der mittels einer Adressierungs- und Alphainformationseinheit 76 gesteuert wird, was nachfolgend ausführlicher beschrieben werden wird. Der Mischer 74 und die Alpha- und Adressierungs-Informationseinheit 76 werden vorzugsweise unter Verwendung eines frei programmierbaren Gate-Arrays realisiert, beispielsweise mit Hilfe des XC3090, der von XiLinx hergestellt wird.
  • Alternativ kann eine erste Ausgangssequenz mit Hilfe des Ausgangs A des FIFO 70 für CODEC 66 bereitgestellt werden und eine zweite Ausgangssequenz kann dann mit Hilfe des Ausgangs des Mischers bereitgestellt werden, wenn kein Mischvorgang ausgeführt wird, und zwar als der Ausgang B. Somit dienen der FIFO 70 und der Mischer 74 als erste und zweite Quellen von Sequenzen von digitalen Standbildern. Die Ausgangssignale A und B können an ein digitales Videoeffektsystem 59 angelegt werden, wie es in 4 gezeigt ist. Diese Ausführungsform ist nützlich, um beliebige dreidimensionale Videoeffekte bereitzustellen, was in der US-Patentanmeldung mit dem Titel "Media Pipeline with Mechanism for Real-Time Addition of Digital Video Effects" beschrieben wird, eingereicht am 18. März 1994 für Harry Der et al. und auf Avid Technology, Inc., Tewksbury, Massachusetts übertragen.
  • Komplexere zweidimensionale Effekte können ebenfalls unter Verwendung von aus dem Stand der Technik bekannten Techniken realisiert werden, einschließlich einer X-Y-Translation, einer Rotation und einer Skalierung. Eine zusätzliche Effektetafel, vergleichbar zu den dreidimensionalen beliebigen Effekten, kann vorgesehen sein, um einen Vorgang an einem einzigen Datenstrom vorzunehmen. Um diesen Vorgang bereitzustellen, wird das Ausgangssignal A, wie in 4 gezeigt, an einen solchen Effektegenerator angelegt, dessen Ausgangssignal an den Eingang des Mischers angelegt würde, der ursprünglich dazu vorgesehen ist, um den Kanal A zu empfangen. Wenn diese Möglichkeit vorgesehen ist, erzeugen die digitalen Effekte typischerweise ein Ausgangssignal unter Verwendung des YUV-Datenformats mit vier Bits für jeden der Y-, U- und V-Parameter (4 : 4 : 4). Im Gegensatz dazu ist das normale Datenformat für die Kanäle A und B 4 : 2 : 2. Somit sollte in diesem Fall der Mischer 76 ausgelegt sein, um wahlweise den Kanal A entweder für das 4 : 4 : 4-Datenformat oder für das 4 : 2 : 2-Format zu verarbeiten, in Abhängigkeit davon, ob solche digitalen Effekte vorgesehen sind.
  • Die Bereitstellung einfacher Videoeffekte in Echtzeit, beispielsweise von Boxenlöschungen und Chroma- und Luma-Schlüsseln, unter Verwendung eines Mischers 74 und von Alpha- und Adressierungsinformation 76, wird nun beschrieben werden. Das Mischen von zwei Datenströmen (A und B) von Videos beinhaltet typischerweise das Anlegen der Funktion αA + (1 – α)B an die Datenströme von Videoinformation, wobei α ein Wert ist, der in einem Bild von Pixel zu Pixel variieren kann, und wobei A und B zu jedem vorgegebenen Zeitpunkt Pixel bzw. Bildpunkte in entsprechenden Bildern in den zwei Datenströmen (A und B) des Videos sind. Jeder Effekt wird somit an einem Bild von jedem der zwei Datenströme vorgenommen. (Man übt für gewöhnlich nicht einen Effekt an nur einem Teil eines Bildes aus.) Für ein vorgegebenes α zu jedem beliebigen Zeitpunkt und für die Adressen für die Pixel A und B kann das Ausgangsbild erzeugt werden. Der Mischer 74, der diesen Vorgang ausführt durch Festlegung des Ergebnisses der Kombination bzw. Verknüpfung αA + (1 – α)B, kann unter Verwendung von üblichen Entwurftechniken für digitale Hardware realisiert werden. Vorzugsweise wird ein frei erneut programmierbarer Gate-Array (field reprogrammable gate array) dazu verwendet, um die Funktion (A – B)α + B zu realisieren.
  • Der Wert von α, der auf die zwei Pixel angewendet wird, hängt von der Art des bereitzustellenden Effektes ab. Beispielsweise verwenden Überblendungen dasselbe α für sämtliche Pixel in einem Bild. α wird allmählich für nachfolgende Bilder in der Überblendung herabgesetzt. Das Paar von Pixeln, die miteinander verknüpft werden sollen, hängt ebenfalls von der Art des bereitzustellenden Effektes ab. Der Hinweis darauf, welches Paar von Pixeln verwendet werden soll, wird als die Adressierungsinformation bezeichnet. Für jede Art von Effekt, der bereitzustellen ist, kann eine Zustandsmaschine (state machine) und können Zustandsvariablen zur Verarbeitung eines Bilds eines Ausgabevideos definiert werden. Die zwei grundsätzlichen Arten von Effekten sind Chroma- und/oder Luma-Schlüssel und Boxenlöschungen (box wipes), welche Überblendungen und Ausblendungen (fades) beinhalten.
  • Um beispielsweise eine Chroma- und/oder Luma-Tastung bzw. -Verschlüsselung zu realisieren, werden von dem Nutzer für jeden Parameter eines Pixels zwei Schwellenwerte D1 und D2 und ein Schlüsselpunkt (key point) Kc definiert. Diese Effekte werden typischerweise an der YUV-Darstellung eines Bildes angewendet. Somit wird ein einlaufendes Bild durch Vergleichen der Pixelwerte Y, U und V mit den Schlüsselpunkten und den für Y, U und V definierten Schwellenwerten verarbeitet. Genauer gesagt wird bei Verwendung des Parameters U als ein Beispiel ∥Kc – U∥ berechnet. Falls dieser Wert kleiner ist als D1, wird α auf den größtmöglichen Wert gesetzt. Falls dieser Wert größer ist als D2, wird α auf den kleinstmöglichen Wert gesetzt. Wenn der Wert irgendwo zwischen D1 und D2 liegt, wird ein Wert für α entsprechend diesem Wert festgelegt. In einer Ausführungsform der Erfindung ist es erforderlich, dass D1 – D2 eine gewisse feste Zahl ist, beispielsweise 16. Die Größe dieser festen Zahl repräsentiert die gewünschte Zahl von α. Bei dieser Ausführungsform wird dann, wenn der Wert von ∥Kc – U∥zwischen D1 und D2 liegt, der Wert ∥Kc – U∥ – D1 auf eine Nachschlagetabelle angewendet (die in einem vorzugsweise wieder beschreibbaren RAM gespeichert ist), welche entsprechende Werte von α speichert, die verwendet werden sollen. Die Werte von α können irgendeine Funktion der Eingangsgröße ∥Kc – U∥ – D1 sein, beispielsweise eine Stufenfunktion, eine sigmoidale Funktion, eine Rampenfunktion oder irgendeine Funktion, die von einem Nutzer gewünscht ist. Typischerweise werden nur Y oder U, V verschlüsselt bzw. getastet und verarbeitet. Man könnte eine Verschlüsselung bzw. Tastung an sämtlichen der Größen Y, U und V auf einmal anwenden und die sich ergebenden α-Werte verknüpfen, beispielsweise unter Verwendung der Funktion (1/2(αu + αv) AND αy).
  • Boxenlöschungen mit einem Rand können ebenfalls bereitgestellt werden. Eine Boxenlöschung ist ein Übergang zwischen zwei Datenströmen, der durch eine rechteckförmige Form definiert ist. Innerhalb des Rechtecks wird Information von einem Kanal bereitgestellt. Außerhalb des Rechtecks wird Information von dem anderen Kanal bereitgestellt. Der Übergangsbereich kann streng durch den Rand des Rechtecks festgelegt werden oder eine Randfarbe bzw. Umrandungsfarbe kann bereitgestellt werden. Der Übergang kann als eine lineare Rampe (definiert durch das Verhältnis der Kanäle zueinander) beschrieben werden. Der Übergang wird somit durch den unteren und den oberen Grenzwert der Rampe definiert, durch die Stufengröße und durch die Zeitdauer. Sämtliche dieser Parameter sollten von einem Nutzer vorgebbar sein. Auch die Koordinaten der Box sollten programmierbar sein, um eine horizontale Löschung, eine vertikale Löschung oder in gewisser Art eine Löschung von Ecke zu Ecke bereitzustellen. Typischerweise wird eine Mischung von dem ersten Kanal zu dem Rand, von dem Rand zu dem nächsten Kanal oder zwischen den beiden Kanälen vorgenommen. Eine Zustandsmaschine kann in einfacher Weise entsprechend den Variablen definiert werden, die die Löschung definieren, um so einen Ausgangswert α für jedes Paar miteinander zu verknüpfender Pixel bereitzustellen. Es gibt drei Werte, die dazu verwendet werden, um das endgültige α zu definieren. Die αinit-Werte definieren die ursprünglichen αX- und αY-Werte, wobei αX und αY akkumulierte Werte entsprechend der Zustandsmaschine sind. In der einfachsten Löschung, einer Überblendung, werden die ursprünglichen Werte festgehalten, das heißt nicht verändert, und zwar über das gesamte Bild. In den anderen Boxenlöschungen können αX und αY sich ändern, entsprechend der gewünschten Löschung. In diesem Prozess wird der endgültige Wert für α typischerweise als αX genommen, der einer begrenzten Funktion unterliegt, die durch αY definiert ist. Das heißt, das endgültige α beträgt typischerweise αX, wenn αX kleiner ist als αY, und beträgt typischerweise αY, wenn αX größer ist als αY.
  • Eine Löschung ist durch zwei Sätze von Parametern definiert. Der erste Satz gibt Parameter für die X-Richtung in einem Bild vor; der zweite Satz gibt Parameter für die Y-Richtung vor, um Änderungen zwischen Abtastzeilen in dem Effekt zu definieren. Sowohl der X-Parameter als auch der Y-Parameter umfasst vier Gruppen von vier Parametern, wobei jede Gruppe eine Operation repräsentiert, einschließlich einer Versatzinformation (offset), einer Steuerinformation, einer Intervall- bzw. Zeitperiodeninformation und einer Delta-Information. Die Versatzinformation definiert, wo der Mischvorgang beginnen soll. In der X-Richtung identifiziert diese diejenigen Pixel in der Abtastzeile, wo der erste Mischvorgang beginnt. In der Y-Richtung identifiziert diese diejenige Scanzeile, wo der Mischvorgang beginnen soll. Die nächste Information ist eine Steuerinformation, die festlegt, ob weitere Operationen in der Scanzeile vorgenommen werden sollen oder in dem Bild, das folgt. Für den X-Parameter wird diese Steuerinformation durch zwei Bits repräsentiert, wobei das erste Bit darstellt, ob das Videosignal zwischen dem A-Kanal und dem B-Kanal getauscht wird. Das andere Bit zeigt an, ob eine andere Operation in der X-Richtung erscheinen wird. Nach der Steuerinformation gibt es die Zeitperiode bzw. das Intervall, über die die Mischung ausgeführt werden soll. Das Intervall bezeichnet entweder die Anzahl von Abtastzeilen oder eine Anzahl von Pixeln innerhalb einer Abtastzeile. Schließlich stellt die Delta-Information ein Inkrement dar, das für jedes Pixel während des definierten Intervalls zu αX oder αY hinzuzufügen ist. Somit ist eine Löschung definiert durch vier Gruppen von vier Operationen in der X-Richtung und in der Y-Richtung. Die erste Operation bedeutet den Übergang vom Kanal A zum Rand; die zweite von dem Rand zu dem zweiten Kanal; die dritte von dem zweiten Kanal zu dem Rand; und die vierte von dem Rand zu dem ersten Kanal. Falls es keinen Rand gibt, werden nur zwei Operationen verwendet und zeigt die zweite Operation an, dass weder für die Abtastzeile noch für das Bild eine weitere Operation auszuführen ist.
  • Für die vorgegebenen Operationen, die die auszuführende Löschung definieren, einschließlich der vier Gruppen von Operationsinformation für jeden der X-Parameter und Y-Parameter, kann eine Zustandsmaschine dazu verwendet werden, um α für jedes Pixel in dem Bild zu bestimmen. Diese Zustandsmaschinen werden nun anhand der 5 bis 8 beschrieben werden.
  • 5 ist ein Blockschema, das gewisse Strukturen darstellt, die von einer Zustandsmaschine gesteuert werden. Die Operation der Zustandsmaschine wird anhand der Flussdiagramme gemäß den 6 und 7 beschrieben werden. In 5 speichert ein X-Parameterspeicher 82 und ein Y-Parameterspeicher 80 die auszuführenden Operationen. Ein Adressenzeiger wird in Registern bzw. Speichern 84 und 86 für jeden dieser Speicher als X- und Y-Adressenzeiger gespeichert. Anfängliche X- und Y-Delta-Werte werden ebenfalls in den Registern 88 und 90 gespeichert. Diese werden über Schalter 96 und 98 Akkumulatoren für die X- und Y-Werte 92 und 94 zugeführt. Die Ausgangssignale der Akkumulatoren 94 und 92 werden der Vergleichs- und Schalteinheit 100 zugeführt, deren Ausgang den α-Wert in einer Weise bereitstellt, die nachfolgend im Zusammenhang mit 8 beschrieben werden wird. Es gibt auch einen Schleifenzähler 102, der den Teil eines Bildes anzeigt, an dem der Effekt gerade ausgeführt wird. Dessen Bedeutung wird ebenfalls nachfolgend ausführlicher anhand von 8 diskutiert werden. Es gibt auch einen Y-Positionszähler 104 und einen X-Positionszähler 106, die von der Steuerung 108 verwendet werden, die entsprechend den Flussdiagrammen gemäß 6 und 7 arbeiten.
  • Nun werden die 6 und 7 beschrieben werden.
  • Auf ein horizontales Rücksetzen (HRST) oder ein vertikales Synchronisationssignal (VSYNC), wie bei Schritt 110 angedeutet, werden der Y-Akkumulator 94 und der Y-Adressenzeiger 86 gelöscht bzw. freigegeben. Ein anfänglicher Y-Delta-Wert 90 wird dann über einen Schalter 98 in den Akkumulator 94 geladen (Schritt 112). Ein Versatz (offset) wird dann aus dem Y-Parameterspeicher 80 in den Y-Positionszähler 104 gelesen (Schritt 114). Eine Steuerinformation wird dann aus dem Y-Parameterspeicher 80 in den Schleifenzähler 102 gelesen (Schritt 116).
  • Wenn gültige Daten zur Verfügung stehen, um verarbeitet zu werden, und solange der Y-Positionszähler 104 nicht gleich Null ist, werden Operationen an einer Abtastzeile im Schritt 118 vorgenommen, was nachfolgend anhand von 7 erörtert werden wird. Nachdem jede Abtastung verarbeitet ist, wird der Y-Positionszähler 104 dekrementiert. Wenn der Y-Positionszähler den Wert Null erreicht, wird das Intervall bzw. die Zeitperiode gelesen und aus dem Parameterspeicher 80 in den Y-Positionszähler 104 geladen (Schritt 120). Ein Delta-Wert wird dann aus dem Y-Parameterspeicher 80 in den Y-Akkumulator 94 gelesen und zu dem augenblicklichen Wert darin addiert (Schritt 122). Dieser Wert wird für jede Abtastzeile addiert, solange bis der Y-Positionszähler dann den Wert Null hat. Jede Abtastzeile wird entsprechend den nachfolgend im Zusammenhang mit 7 beschriebenen Schritten verarbeitet. Wenn der Y-Positionszähler 104 Null ist, wird die Steuerinformation im Schritt 124 untersucht, um festzustellen, ob weitere Y-Operationen auszuführen sind. Falls es weitere Operationen gibt, die auszuführen sind, kehrt die Verarbeitung zurück zum Schritt 114. Ansonsten wartet das System solange, bis ein weiteres horizontales Zurücksetzen oder eine weitere vertikale Synchronisierung auftritt.
  • Die Operationen an einer Abtastzeile werden nun anhand von 7 beschrieben werden. Diese Operationen beginnen im Schritt 130 auf den Empfang eines horizontalen Synchronisationssignals oder eines horizontalen Rücksetzens hin. Im Schritt 132 werden der X-Akkumulator 92 und der X-Adressenzeiger 84 gelöscht und wird dann ein anfänglicher Delta-Wert bei 88 über den Schalter 96 in den X-Akkumulator 92 geladen. Ein Versatz (offset) wird dann aus dem X-Parameterspeicher 82 im Schritt 134 in den X-Positionszähler 106 geladen. Als Nächstes wird Steuerinformation aus dem X-Parameterspeicher 82 im Schritt 136 in den Schleifenzähler 102 gelesen. Der X-Positionszähler wird dekrementiert, wenn ein gültiger Datenwert zur Verfügung steht, und zwar solange, bis der X-Positionszähler 106 Null ist (Schritt 138). Das Intervall bzw. die Zeitperiode wird dann aus dem X-Parameterspeicher 82 in den X-Positionszähler 106 im Schritt 140 gelesen. Der Delta-Wert wird dann aus dem X-Parameterspeicher 82 in den X-Akkumulator 92 gelesen und zu dem augenblicklichen Wert in dem Akkumulator 92 addiert, solange bis der X-Positionszähler Null ist (Schritt 142). Der X-Adressenzeiger und der Y-Adressenzeiger wird dann entsprechend diesem Prozess inkrementiert, um die korrekte Operation zu identifizieren. Falls die Steuerinformation anzeigt, dass mehrere X-Operationen auszuführen sind, was im Schritt 144 festgelegt wird, kehrt die Verarbeitung zurück zum Schritt 134. Ansonsten wartet das System im Schritt 146 solange, bis eine weitere horizontale Synchronisierung oder ein weiteres horizontales Zurücksetzen erfolgt.
  • Für jedes Pixel in der Abtastzeile, wie von jedem Dekrementierungsvorgang auf dem X-Positionszähler 106 angezeigt, wird ein α-Wert von der Vergleichs- und Schalteinheit 100 ausgegeben. Wie diese Operation bereitgestellt wird, wurde vorstehend erörtert. Weitere Details für kompliziertere Boxenlöschungen in dieser Auswahl werden nun anhand von 8 bereitgestellt werden.
  • Wie in 5 angedeutet, empfängt die Vergleichs- und Schalteinheit 100 einen αY-Wert von dem Y-Akkumulator 94 und einen αX-Wert von dem X-Akkumulator 92 und einem Schleifenzähler 102. Der Schleifenzähler zeigt an, welcher Quadrant in einer Boxenlöschung mit einem Rand gerade verarbeitet wird. Die Anzeige eines Quadranten kann ohne weiteres durch den Status der Zustandsmaschine und eines Zählers festgelegt werden. Weil die X-Operationen und die Y-Operationen jeweils durch vier Gruppen von vier Parametern definiert sind, wobei jede Gruppe eine Operation festlegt, die an einem Abschnitt eines Bildes ausgeführt werden soll, gibt es exakt 16 Kombinationen von X-Parametern und Y-Parametern, die jeweils einen Quadranten des resultierenden Bildes festlegen. Der α-Wert für jeden Quadranten hat eine vorgegebene Beziehung zu den αX-Werten und den αY-Werten. Somit kann gemäß der Schleifensteuerung 102 die geeignete Auswahl von αX und αY bereitgestellt werden.
  • Die Beziehungen von α zu αX und αY für jeden Quadranten werden nun anhand von 8 beschrieben werden.
  • 8 stellt 25 Bereiche einer Boxenlöschung mit einem Rand und mit Übergängen zwischen einem Bild, einer Randfarbe und einem anderen Bild dar. Es gibt 15 grundsätzliche Arten von Bereichen, die bei diesem Effekt zu berücksichtigen sind, von denen jeder entsprechend in der oberen linken Ecke der Box mit einer Zahl versehen ist. Beispielsweise wird der erste Bereich 200 mit Null bezeichnet, wie bei 202 angedeutet. Eine Box 204 ist in jedem Bereich gezeigt, die die Quelle von Bilddaten bezeichnet (wobei CH0 dem Kanal entspricht, der an den Eingang A des Mischers 76 angelegt wird, und CH1 dem Eingangssignal entspricht, das an den Eingang B des Mischers angelegt wird). Die erste Zeile in der Box 204 zeigt den α-Wert an, der dem Mischer bereitgestellt werden soll. "A" deutet an, dass αX als α zur Verfügung gestellt wird, wie dies in den Bereichen 4, 7, 8 und 11 der Fall ist, "AL" zeigt an, dass αY als der α-Wert zur Verfügung gestellt wird, was in den Bereichen 1, 2, 13 und 14 der Fall ist. "AL : A < AL" zeigt an, dass αX bereitgestellt wird, wenn sein Wert kleiner ist als αY, und ansonsten wird αY bereitgestellt, was in den Bereichen 0, 3, 10, 12 und 15 der Fall ist. "AL : > = AL" zeigt an, dass αY bereitgestellt wird, solange nicht αX größer ist als αY, wenn αX bereitgestellt wird, was in den Bereichen 5, 6 und 9 der Fall ist.
  • Nachdem nun einige Ausführungsformen der Erfindung beschrieben wurden, sollte dem Fachmann auf diesem Gebiet ersichtlich sein, dass das Vorstehende nur von erläuternder und nicht beschränkender Natur war, da dies nur in beispielhafter Weise dargelegt wurde. Zahlreiche Modifikationen und weitere Ausführungsformen liegen innerhalb der Möglichkeiten eines gewöhnlichen Fachmanns auf diesem Gebiet und es ist angedacht, dass diese unter den Schutzbereich der Erfindung fallen, wie er durch die beigefügten Patentansprüche und den Äquivalenten dazu festgelegt ist.

Claims (17)

  1. Verfahren für die Verwendung in einem Videoeditierungssystem, um einen digitalen Videoeffekt mit einer Effekte-Verarbeitungsvorrichtung unter Verwendung einer ersten und einer zweiten Sequenz (A, B) digitaler Standbilder aus einer oder aus mehreren Datendateien, die in einem Dateiensystem (40) gespeichert sind, während der Wiedergabe durch eine Ausgabevorrichtung einer dritten Sequenz digitaler Standbilder, die den durch die Effekte-Verarbeitungsvorrichtung erzeugten digitalen Videoeffekt enthält, zu erzeugen, wobei die Effekte-Verarbeitungsvorrichtung einen ersten Puffer (42), um Videodaten vor der Verarbeitung der ersten Sequenz zu speichern, einen zweiten Puffer (42), um Videodaten vor der Verarbeitung der zweiten Sequenz zu speichern, und einen dritten Puffer (46), um die erzeugte dritte Sequenz vor der Wiedergabe durch die Ausgabevorrichtung zu speichern, aufweist, wobei das Verfahren umfasst: Bestimmen einer Datenmenge in dem ersten Puffer und in dem zweiten Puffer; Auswählen entweder der ersten oder der zweiten Sequenz (A, B), wobei die ausgewählte Sequenz die kleinste Datenmenge in dem der Sequenz zugeordneten Puffer (42) besitzt, und Auswählen einer gewünschten Menge von zu lesenden Videodaten für diese Sequenz; für die ausgewählte Sequenz Lesen der gewünschten Menge von Videodaten aus der Datendatei für die ausgewählte Sequenz in dem Dateiensystem (40); Empfangen von Effektparametern, die den digitalen Videoeffekt definieren; Verarbeiten der Videodaten in dem ersten und in dem zweiten Puffer (42), die von dem Dateiensystem empfangen werden, unter Verwendung der Effekte-Verarbeitungsvorrichtung (59) gemäß den Effektparametern, um die dritte Sequenz für den dritten Puffer für die Wiedergabe durch die Ausgabevorrichtung zu erzeugen; und Wiederholen der Schritte des Bestimmens, Auswählens, Lesens und Verarbeitens während der Wiedergabe der dritten Folge durch die Ausgabevorrichtung.
  2. Verfahren nach Anspruch 1, bei dem die Effektparameter einen Übergang von der ersten Sequenz (A) zu der zweiten Sequenz (B) definieren, wobei das Verfahren ferner umfasst: Steuern des Lesens der ersten und der zweiten Sequenz (A, B) aus dem ersten bzw. dem zweiten Puffer; und Erzeugen der dritten Sequenz digitaler Standbilder aus der gelesenen ersten Sequenz und der gelesenen zweiten Sequenz gemäß dem definierten Übergang.
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Ausgabevorrichtung ein Videocodierer ist, wobei das Verfahren ferner umfasst: Übertragen der dritten Sequenz digitaler Standbilder an den Videocodierer, damit sie in ein bewegtes Videosignal codiert wird, wobei die Verarbeitung der Videodaten in Reaktion auf Anforderungen von dem Videocodierer während der Wiedergabe ausgeführt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der erste und der zweite Puffer Videodaten auf einer First-in/First-out-Basis empfangen und ausgeben.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei der die Wiedergabegeschwindigkeit der Bilder in der dritten Sequenz vom Anwender wählbar ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Verarbeitung umfasst: Bestimmen eines Mischungswertes zum Mischen eines ersten Pixels von der ersten Sequenz (A) und eines Pixels von der zweiten Sequenz (B), wobei der Mischungswert auf den Effektparametern, einer Position des ersten Pixels in dem ersten Bild und einer Position des zweiten Pixels in dem zweiten Bild basiert; und Bestimmen einer Mischungsfunktion, die die Mischung des ersten Pixels und des zweiten Pixels definiert, anhand des Mischungswertes.
  7. Verfahren nach Anspruch 6, bei dem die Mischungsfunktion definiert ist durch: σA + (1 – σ)B, wobei α der Mischungswert ist, A das erste Pixel ist und B das zweite Pixel ist.
  8. Verfahren nach Anspruch 6, das ferner umfasst: Bestimmen des ersten Pixels der ersten Sequenz und des zweiten Pixels der zweiten Sequenz für die Mischung anhand der Effektparameter.
  9. Vorrichtung, die das Verfahren nach einem der obigen Ansprüche ausführt.
  10. Videoeditierungssystem, um einen digitalen Videoeffekt mit einer Effekte-Verarbeitungsvorrichtung unter Verwendung einer ersten und einer zweiten Sequenz (A, B) digitaler Standbilder aus einer oder aus mehreren Datendateien, die in einem Dateiensystem (40) gespeichert sind, während der Wiedergabe durch eine Ausgabevorrichtung einer dritten Sequenz digitaler Standbilder, die den durch die Effekte-Verarbeitungsvorrichtung erzeugten digitalen Videoeffekt enthält, zu erzeugen, wobei die Effekte-Verarbeitungsvorrichtung einen ersten Puffer (42), um Videodaten vor der Verarbeitung der ersten Sequenz zu speichern, einen zweiten Puffer (42), um Videodaten vor der Verarbeitung der zweiten Sequenz zu speichern, und einen dritten Puffer (46), um die erzeugte dritte Sequenz vor der Wiedergabe durch die Ausgabevorrichtung zu speichern, aufweist, wobei das System so beschaffen ist, dass es: eine Datenmenge in dem ersten Puffer und in dem zweiten Puffer bestimmt; entweder die erste oder die zweite Sequenz (A, B) auswählt, wobei die ausgewählte Sequenz die kleinste Datenmenge in dem der Sequenz zugeordneten Puffer (42) besitzt, und eine gewünschte Menge von zu lesenden Videodaten für diese Sequenz auswählt; für die ausgewählte Sequenz die gewünschte Menge von Videodaten aus der Datendatei für die ausgewählte Sequenz in dem Dateiensystem (40) liest; die Effektparameter, die den digitalen Videoeffekt definieren, empfängt; die Videodaten in dem ersten und in dem zweiten Puffer (42), die von dem Dateiensystem empfangen werden, unter Verwendung der Effekte-Verarbeitungsvorrichtung (59) in Übereinstimmung mit den Effektparametern verarbeitet, um die dritte Sequenz für den dritten Puffer für die Wiedergabe durch die Ausgabevorrichtung zu erzeugen; und die Schritte des Bestimmens, Auswählens, Lesens und Verarbeitens während der Wiedergabe der dritten Sequenz durch die Ausgabevorrichtung wiederholt.
  11. System nach Anspruch 10, bei dem die Effektparameter einen Übergang von der ersten Sequenz (A) zu der zweiten Sequenz (B) definieren, wobei das System ferner so beschaffen ist, dass es: das Lesen der ersten und der zweiten Sequenz (A, B) aus dem ersten bzw. dem zweiten Puffer steuert; und die dritte Sequenz digitaler Standbilder aus der gelesenen ersten Sequenz (A) und der gelesenen zweiten Sequenz (B) gemäß dem definierten Übergang erzeugt.
  12. System nach Anspruch 10 oder 11, bei dem die Ausgabevorrichtung ein Videocodierer ist, wobei das System ferner so beschaffen ist, dass es: die dritte Sequenz digitaler Standbilder an den Videocodierer überträgt, damit sie in ein bewegtes Videosignal codiert werden, und die Videodaten in Reaktion auf Anforderungen von dem Videocodierer während der Wiedergabe verarbeitet.
  13. System nach einem der Ansprüche 10 bis 12, bei dem der erste und der zweite Puffer so beschaffen sind, dass sie Videodaten auf einer First-in-/First-out-Basis empfangen und ausgeben.
  14. System nach einem der Ansprüche 10 bis 13, das eine vom Anwender wählbare Wiedergabegeschwindigkeit der Bilder in der dritten Sequenz aufweist.
  15. System nach einem der Ansprüche 10 bis 14, bei dem die Verarbeitungskomponenten so beschaffen sind, dass sie: einen Mischungswert zum Mischen eines ersten Pixels von der ersten Sequenz (A) und eines zweiten Pixels von der zweiten Sequenz (B) bestimmen, wobei der Mischungswert auf den Effektparametern, einer Position des ersten Pixels in dem ersten Bild und einer Position des zweiten Pixels in dem zweiten Bild basieren; und eine Mischungsfunktion, die die Mischung des ersten Pixels und des zweiten Pixels definiert, anhand des Mischungswertes bestimmen.
  16. System nach Anspruch 15, bei dem die Mischungsfunktion definiert ist durch: αA + (1 – α)B, wobei α der Mischungswert ist, A das erste Pixel ist und B das zweite Pixel ist.
  17. System nach Anspruch 15, das ferner so beschaffen ist, dass es: das erste Pixel der ersten Sequenz (A) und das zweite Pixel der zweiten Sequenz (B) für die Mischung anhand der Effektparameter bestimmt.
DE69434047T 1993-04-16 1994-04-18 Medien Pipeline mit Mehrwegevideoverarbeitung und Wiedergabe Expired - Fee Related DE69434047T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9307894 1993-04-16
GB939307894A GB9307894D0 (en) 1993-04-16 1993-04-16 Multichannel digital image compression and processing

Publications (2)

Publication Number Publication Date
DE69434047D1 DE69434047D1 (de) 2004-11-04
DE69434047T2 true DE69434047T2 (de) 2005-10-06

Family

ID=10733958

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69428701T Expired - Fee Related DE69428701T2 (de) 1993-04-16 1994-04-18 Medien pipeline mit mehrwegevideoverarbeitung und wiedergabe
DE69434047T Expired - Fee Related DE69434047T2 (de) 1993-04-16 1994-04-18 Medien Pipeline mit Mehrwegevideoverarbeitung und Wiedergabe

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69428701T Expired - Fee Related DE69428701T2 (de) 1993-04-16 1994-04-18 Medien pipeline mit mehrwegevideoverarbeitung und wiedergabe

Country Status (7)

Country Link
EP (2) EP0705517B1 (de)
JP (3) JPH09501545A (de)
AU (1) AU694119B2 (de)
CA (1) CA2160477C (de)
DE (2) DE69428701T2 (de)
GB (1) GB9307894D0 (de)
WO (1) WO1994024815A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995026100A1 (en) * 1994-03-18 1995-09-28 Avid Technology, Inc. Pipeline processing of still images adapted for real time execution of digital video effects
US6100930A (en) * 1997-12-19 2000-08-08 Thomson Consumer Electronics, Inc. Process and apparatus for performing wipes on compressed MPEG video bitstreams
JP3065021B2 (ja) * 1998-03-27 2000-07-12 日本電気株式会社 画像混色処理装置
US6198477B1 (en) 1998-04-03 2001-03-06 Avid Technology, Inc. Multistream switch-based video editing architecture
AU3457099A (en) * 1998-04-03 1999-10-25 Avid Technology, Inc. A multi stream video editing system using uncompressed video data for real-time rendering performance, and for non real-time rendering acceleration
WO2001037553A1 (en) * 1999-11-15 2001-05-25 Copan, Inc. System and method for improving digital video utilizing genetic image evolution
US6993050B2 (en) 2001-03-14 2006-01-31 At&T Corp. Transmit and receive system for cable data service
US9171577B1 (en) 2003-04-25 2015-10-27 Gopro, Inc. Encoding and decoding selectively retrievable representations of video content
US8014597B1 (en) 2006-03-22 2011-09-06 Woodman Labs Method for efficient compression and decoding of single sensor color image data

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698682A (en) * 1986-03-05 1987-10-06 Rca Corporation Video apparatus and method for producing the illusion of motion from a sequence of still images
US4970663A (en) * 1989-04-28 1990-11-13 Avid Technology, Inc. Method and apparatus for manipulating digital video data
JPH03136480A (ja) * 1989-10-23 1991-06-11 Dainippon Printing Co Ltd 静止画用映像演出装置
US5045940A (en) * 1989-12-22 1991-09-03 Avid Technology, Inc. Video/audio transmission systsem and method
JP2984311B2 (ja) * 1990-04-04 1999-11-29 キヤノン株式会社 静止画像再生装置
EP0480625A3 (en) * 1990-10-08 1993-04-07 Dubner Computer Systems Inc. Method and apparatus for generating a sequence of images representing a motion picture
GB2260458B (en) * 1991-10-04 1995-03-22 Sony Broadcast & Communication Data decoder
JPH06205292A (ja) * 1992-11-27 1994-07-22 Matsushita Electric Ind Co Ltd 編集装置
WO1995026100A1 (en) * 1994-03-18 1995-09-28 Avid Technology, Inc. Pipeline processing of still images adapted for real time execution of digital video effects

Also Published As

Publication number Publication date
CA2160477C (en) 2004-02-03
CA2160477A1 (en) 1994-10-27
DE69428701D1 (de) 2001-11-22
EP1111910B1 (de) 2004-09-29
EP0705517A1 (de) 1996-04-10
JP2005110318A (ja) 2005-04-21
JP2006141042A (ja) 2006-06-01
JPH09501545A (ja) 1997-02-10
EP1111910A2 (de) 2001-06-27
EP1111910A3 (de) 2001-10-04
GB9307894D0 (en) 1993-06-02
WO1994024815A1 (en) 1994-10-27
AU6798994A (en) 1994-11-08
DE69428701T2 (de) 2002-08-01
AU694119B2 (en) 1998-07-16
DE69434047D1 (de) 2004-11-04
EP0705517B1 (de) 2001-10-17

Similar Documents

Publication Publication Date Title
DE69822615T2 (de) Verfahren und vorrichtung zur anwendung von effekten in graphischen bildern
DE69908334T2 (de) Eine mehrfachdatenstrom-schalterbasierte-videoeditierarchitektur
DE69837366T2 (de) Verfahren und Vorrichtung zur Anzeige des bewegten Objektes auf einem Hintergrund Bild
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE3401678C2 (de) Betrachtungsgerät für die Zusammenstellung von Videobildern
DE69824075T2 (de) Informationsverarbeitungssystem, rechnerlesbare Medien, und Entwurfsystem
US5644364A (en) Media pipeline with multichannel video processing and playback
DE69736451T2 (de) Vorrichtung zur Aufnahme und Wiedergabe von digitalem Bild und Ton
DE69733527T2 (de) Bildanzeigeeinheit, Bildanzeigesystem und Wiederauffindungssystem für bewegte Bilder
DE3310806C2 (de)
DE69727095T2 (de) Kamerasteuerung durch Steuerung eines Kamerasymbols auf einem Hintergrundbild
DE69819613T2 (de) Videorastererfassung und Vorschau
DE2950712A1 (de) Einrichtung zur erzeugung eines elektronischen hintergrundrasterfeldes
DE3010990A1 (de) Digitales stehbildspeichersystem
DE10197255T5 (de) VTV-System
DE19807207A1 (de) Eckenerkennungsvorrichtung und Eckenerkennungsverfahren
DE4446139A1 (de) Verfahren und Einrichtung zum Hervorheben von Objekten in einem Konferenzsystem
DE69434047T2 (de) Medien Pipeline mit Mehrwegevideoverarbeitung und Wiedergabe
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera
DE3750862T2 (de) Verarbeitung von Videobildsignalen.
DE4143074A1 (de) Verfahren und einrichtung zum umformatieren verschachtelter videodaten zur darstellung auf einem computer-ausgabedisplay
DE19518891C2 (de) Verfahren und Vorrichtung zur Durchführung einer programmierbaren Videotransformation
DE69816200T2 (de) Bildverarbeitungsgerät zur Anzeige eines Katalogs von verschiedenen Datenarten auf verschiedene Weise
DE19543377A1 (de) Verfahren und Anordnung zum Darstellen von Bildern aus einer Bildgruppe
DE69126812T2 (de) Videosystem mit einer Bildkombinationsfunktion

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee