DE69635528T2 - Bildverarbeitungsgerät - Google Patents

Bildverarbeitungsgerät Download PDF

Info

Publication number
DE69635528T2
DE69635528T2 DE69635528T DE69635528T DE69635528T2 DE 69635528 T2 DE69635528 T2 DE 69635528T2 DE 69635528 T DE69635528 T DE 69635528T DE 69635528 T DE69635528 T DE 69635528T DE 69635528 T2 DE69635528 T2 DE 69635528T2
Authority
DE
Germany
Prior art keywords
data
image
image information
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69635528T
Other languages
English (en)
Other versions
DE69635528D1 (de
Inventor
Masaaki Higashida
Masataka Higuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69635528D1 publication Critical patent/DE69635528D1/de
Publication of DE69635528T2 publication Critical patent/DE69635528T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • G11B27/028Electronic editing of analogue information signals, e.g. audio or video signals with computer assistance
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers

Description

  • GEBIET DER ERFINDUNG UND AUSFÜHRUNG ZUM STAND DER TECHNIK
  • 1. GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Bildverarbeitungsgerät zum Verarbeiten (bzw. Digitalisieren, vorliegend als Verarbeiten bezeichnet) digitalisierter Videosignale bzw. ein Bildverarbeitungsgerät zur Ermöglichung eines Verarbeitungsvorgangs, während von Videosignalen wiedergegebene Bilder betrachtet bzw. überwacht werden, und insbesondere ein Bildverarbeitungsgerät, das für ein Bearbeitungssystem ausgelegt ist, das in einer Fernsehstation oder in einer Nachproduktion zum Einsatz kommt.
  • 2. BESCHREIBUNG DES STANDES DER TECHNIK
  • Beim Verarbeiten von Videomaterial, das beispielsweise mittels einer Fernsehkamera erfasst worden ist, kommt üblicherweise eine nicht lineare Verarbeitung, die nachfolgend erläutert ist, heutzutage in Fernsehstationen und bei der Nachproduktion zum Einsatz. Die nicht lineare Verarbeitung besteht darin, dass zunächst digitalisierte Bilddaten in einem Videoserver oder auf einem lokalen Plattenlaufwerk oder einer anderen Bildspeichervorrichtung gespeichert werden, das bzw. die an dem Videoserver vorgesehen ist, woraufhin die Bilddaten verarbeitet werden durch Neuanordnen von Aufnahmesequenzen bzw. -abfolgen und/oder Einfügen und Löschen von Aufnahmesequenzen bzw. -abfolgen innerhalb des Videoservers.
  • Wenn die nicht lineare Verarbeitung durchgeführt wird, werden in dem Videoserver gespeicherte Daten beispielsweise in einem Personalcomputer (nachfolgend abgekürzt als PC bezeichnet) zur Anzeige überführt, und die verarbeitende Person wählt einen Verarbeitungspunkt, während sie das angezeigte Bild betrachtet. Unter Verwendung von mit dem Bild übertragener Information (die Indexinformation enthält Daten, wie etwa einen Zeitcode und zeigt den Ort dieser Bilddaten in den Videodaten an) wird eine Verarbeitungsentscheidungsliste (EDL bzw. Edit Decision List) wird eine On-Line-Verarbeitung derart erstellt, dass Verarbeitungsdateninformation, wie etwa eine verarbeitete Sequenz, ausgeführt wird. Die EDL enthält Information, wie etwa die verarbeitete Sequenz und Verarbeitungspunkte, die nicht zum vorläufigen Verarbeiten, sondern zum endgültigen Verarbeiten eines Rundfunkprogramms verwendet wird, durchgeführt unter Verwendung eines Videoservers, eines VTR und dergleichen.
  • 17 zeigt ein Blockdiagramm eines Bildverarbeitungsgeräts gemäß dem Stand der Technik unter Verwendung eines Videoservers.
  • In 17 handelt es sich bei einem ersten Videomaterial 301, einem zweiten Videomaterial 302 und einem dritten Videomaterial 303 um Videomaterialien, die in einem Fernsehstudio oder vor Ort produziert oder gesammelt werden. Der Videoserver 304 ist in der Lage, große Volumina von Videomaterial zu speichern (aufzuzeichnen). Bei einem PC 305 handelt es sich um einen Personalcomputer, der beispielsweise durch eine verarbeitende Person oder eine Nachrichtenmanuskript schreibende Person genutzt wird.
  • Das erste Videomaterial 301, das zweite Videomaterial 302, das dritte Videomaterial 303, der Videoserver 304 und der PC 305 sind miteinander über eine Datenübertragungsleitung 306 verbunden, über die Daten übertragen werden.
  • Die Arbeitsweise des in 17 gezeigten Bildverarbeitungsgeräts gemäß dem Stand der Technik wird nunmehr erläutert.
  • Das erste Videomaterial 301, das zweite Videomaterial 302 und das dritte Videomaterial 303 enthalten Videobilder, die durch Fernsehkameras oder dergleichen erfasst worden sind, die auf einem Aufzeichnungsmedium, wie etwa einem Videoband, aufgezeichnet sind. Unter beispielhaftem Bezug auf die Produktion eines Nachrichtenprogramms sind zur Nutzung bei der Rundfunkübertragung ausgewählte Aufnahmen und nicht ausgewählte Aufnahmen zufällig in einem (einzigen) Videomaterial oder verteilt in mehr als einem Videomaterial enthalten. Das heißt, die Abfolge, in der die Aufnahmen gespeichert sind, ist zufällig und entspricht nicht der Übertragungssequenz bzw. -abfolge (für Rundfunkübertragungen).
  • Die Videodaten von dem ersten Videomaterial 301, dem zweiten Videomaterial 302 und dem dritten Videomaterial 303 werden über die Datenübertragungsleitung 306 zu dem Videoserver 304 zur Aufzeichnung und Speicherung übertragen. Die derart gespeicherten Videodaten werden auf Anforderung von außen übertragen.
  • Für den Videoserver 304 kommt ein Plattenlaufwerk, wie etwa ein Festplattenlaufwerk (nachfolgend abgekürzt als HDD bezeichnet) zum Einsatz und erlaubt einen zufälligen Zugriff auf die Bilddaten. Wenn das erste Videomaterial 301, das zweite Videomaterial 302 und das dritte Videomaterial 303 zu dem Videoserver 304 zu Aufzeichnungszwecken (zur Speicherung) übertragen werden, werden dann, wenn das Videomaterial bereits komprimiert ist, die übertragenen Daten direkt in den Videoserver 304 aufgezeichnet. Wenn das Videomaterial aus nicht komprimierten Bilddaten besteht, wird ein hocheffizientes Codieren angewendet, um die Daten vor der Aufzeichnung zu komprimieren.
  • Die Bilddaten, die gemeinsam mit einer Videokassettennummer (nachfolgend als Kassetten-ID bezeichnet) aufgezeichnet werden, bezeichnen die Videokassette, die die Bilddaten und Information enthält, die den Ort der Bilddaten und der Videokassette anzeigt (üblicherweise wird der SMPTE-(Society of Motion Picture and Television Engineers)-Zeitcode verwendet. Das Kassetten-ID und der SMPTE-Zeitcode bilden die Indexinformation, die zum Lokalisieren des Bilds genutzt wird.
  • Bilddaten, die aus den großen Datenvolumina ausgewählt werden, die in dem Videoserver 304 gespeichert sind, werden in den PC 305 über die Datenübertragungsleitung 306 erfasst. Während das erfasste Bild auf der Anzeige des PCs 305 betrachtet wird, führt die verarbeitende Person eine vorläufige Verarbeitung durch durch Wählen von Aufnahmen für den Einsatz, durch Neuanordnen der Aufnahmen, durch Einfügen von Zeichen in das Bild oder durch Bearbeiten des Bilds (virtuelle Verarbeitung), und dadurch wird die EDL-Information erzeugt.
  • Um die komprimierten Bilddaten, die Kassetten-ID, den SMPTE-Zeitcode und dergleichen von dem Videoserver 304 in den PC 305 zu übertragen, werden Daten über die Datenübertragungsleitung 306 übertragen. Im Fall eines in einer Rundfunkstation oder dergleichen zum Einsatz kommenden umfangreichen Verarbeitungssystems sind nicht nur die in 17 gezeigte Anlage, sondern zahlreiche Elemente einer anderen Anlage, wie etwa digitale VTRs, Audiogeräte, Datenspeichergeräte (Archivierungsgeräte) zusätzlich zu dem Videoserver und Workstati ons mit der Datenübertragungsleitung 306 verbunden. Eine größere Anzahl von Videoservern und PCs als diejenigen, die in 17 gezeigt sind, sind üblicherweise angeschlossen.
  • Das umfangreiche Verarbeitungssystem gemäß dem Stand der Technik, das vorstehend erläutert ist, hat mehrere Probleme. Ein erstes Problem besteht darin, dass, wenn die Bilddaten von dem ersten Videomaterial 302, dem zweiten Videomaterial 302 und dem dritten Videomaterial 303 zu dem Videoserver 304 übertragen werden, es häufig der Fall ist, dass die Datenübertragungskapazität der Datenübertragungsleitung 306 durch derartige Datenübertragungen nahezu aufgebraucht ist, wodurch andere Daten nicht übertragen werden können. Die Datenübertragungsrate, die die Datenübertragungsleitung 306 bereit zu stellen vermag, stellt damit einen begrenzenden Faktor beim Systembetrieb dar.
  • Wenn eine Anzeige aus komprimierten Bilddaten auf dem PC 305 erzeugt wird, ist die Datenmenge weiterhin selbst dann sehr groß, wenn die Bilddaten (Videodaten) durch ein übliches Bildkomprimierungsverfahren komprimiert werden. Ein zweites Problem besteht deshalb darin, dass, damit die aus dem Videoserver 305 rückgewonnenen Bilddaten auf der Anzeige des PCs 305 angezeigt werden können, die Daten im Hauptspeicher des PCs 305 oder einem damit verbundenen HDD abgelegt sein müssen. Durch Bereitstellen der notwendigen Einrichtungen in dem PC 305 werden außerdem nicht nur die Größe der Anlage und die Kosten erhöht; vielmehr liegen auch Wartungsprobleme vor, Probleme bezüglich der Umweltbelastung sowie weitere betriebliche Aspekte.
  • Ein drittes Problem besteht darin, dass, wenn die Ergebnisse der Verarbeitung, die auf dem PC 305 erfolgt, als Bewegtbil der auf der Anzeige des PCs 305 angezeigt werden, die Bewegtbildanzeigegeschwindigkeit sehr niedrig ist, weil das Videosignal eine große Informationsmenge selbst dann enthält, wenn die Bilddaten komprimiert werden.
  • Ein viertes Problem besteht darin, dass selbst dann, wenn die Bilddaten komprimiert sind, der Stromverbrauch und die Schaltungskomplexität unvermeidlich zur Handhabung großer Information erhöht sind, weil das Videosignal eine große Informationsmenge enthält.
  • Ein möglicher Ansatz zur Beherrschung des ersten Problems besteht darin, die Übertragungskapazität der Datenübertragungsleitung zu erhöhen.
  • Unter Verwendung einer asynchronen Übertragungsbetriebsart (ATM), 100Base-T (100-Mbps Ethernet), 100VG-AnyLAN, einer faserverteilten Datenschnittstelle (FDDI), einer faserverteilten Datenschnittstelle mit verdrilltem Drahtpaar (TPFDDI) oder dergleichen kann die Datenübertragungsleitung eine hohe Übertragungsrate von 100 Megabits pro Sekunde oder mehr erzielen. Außerdem kann die Übertragungskapazität erhöht werden durch Bereitstellen von mehreren Datenübertragungsleitungen. Ein derartiger Ansatz stellt jedoch keine grundsätzliche Lösung für das Problem dar. Dasselbe Problem bezüglich der Datenübertragungskapazität wird, das beim Stand der Technik angetroffen wird, kann erneut auftreten, wenn die Anzahl von mit der Datenübertragungsleitung verbundenen Geräten in einem Studiosystem oder bei einer Fernsehstation oder dergleichen erhöht wird.
  • Ein weiteres Beispiel gemäß dem Stand der Technik ist im US-Patent Nr. 5204706 offenbart, am 20. April 1993 auf Akira Saito erteilt, mit dem Titel "MOVING PICTURE MANAGING DEVICE", auf das nachfolgend als erste Druckschrift Bezug genommen wird. Ein weiteres Beispiel gemäß dem Stand der Technik ist im US-Patent Nr. 5177513 offenbart, am 5. Januar 1993 auf Akira Saito erteilt, mit dem Titel "MOVING PICTURE MANAGING DEVICE AND METHOD OF MANAGING A MOVING PICTURE", auf das nachfolgend als zweite Druckschrift Bezug genommen wird.
  • Die erste Druckschrift und die zweite Druckschrift offenbaren beide ein Gerät zum Anzeigen eines kleinen Bilds auf einer CRT-Anzeige oder einem PC oder dergleichen, so dass der Inhalt der aufgezeichneten Bilder betrachtet werden kann. Auf dieses Bild wird nachfolgend als Browser Bezug genommen. In den ersten und zweiten Druckschriften wird dieses Bild als Icon bezeichnet.
  • Bei einem speziellen Verfahren zum Anzeigen des Browsers nutzt die erste Druckschrift ein Bewegtbild in codierter Form (ein Bild in komprimierter Form) von einem Vollbild, das die interessierende Aufnahme darstellt, und das Vollbild wird in eine repräsentative Vollbildschreibposition auf einem HDD oder dergleichen zur Browseranzeige geschrieben. Das heißt, das Vollbild wird zweimal auf das HDD geschrieben. Andererseits nutzt die zweite Druckschrift ein Vollbild, das für die interessierende Aufnahme repräsentativ ist, um das Icon zu erzeugen, und das Vollbild wird auf die Größe des Icons reduziert. Unter Verwendung des decodierten Bilds wird daraufhin das Icon in das HDD oder dergleichen zur Anzeige des Browsers geschrieben.
  • Wie vorstehend erläutert, erzeugen die ersten und zweiten Druckschriften ein Bild speziell zur Anzeige des Browsers getrennt von dem ursprünglichen komprimierten Bild und schrei ben das Browserbild in das HDD zur Nutzung bei der Verarbeitung. Ein fünftes Problem besteht deshalb darin, dass das Browserbild zusätzlichen HDD-Platz benötigt und die Nutzungsfrequenz des HDD erhöht ist.
  • Zusätzlich hierzu sind die ersten und zweiten Druckschriften mit den vorstehend angesprochenen ersten bis vierten Problemen behaftet.
  • Im Fall der ersten Druckschrift wird insbesondere deshalb, weil der Browser selbst ein komprimiertes Bild darstellt, das dritte Problem besonders ausgeprägt auf.
  • Außerdem tritt ein sechstes Problem in Bezug auf die zweite Druckschrift insofern auf, als diese die Bereitstellung eines Schaltkreises zum Erzeugen des Browsers erfordert, wodurch die Schaltungskomplexität ebenso wie der Stromverbrauch erhöht sind.
  • Die WO-A-9429868 offenbart bereits ein Bildverarbeitungsgerät, aufweisend eine Einrichtung zum Komprimieren von Bilddaten eines Vollbilds durch DCT-Transformation, eine erste Speichereinrichtung zum Speichern der komprimierten Daten des Vollbilds, eine zweite Speichereinrichtung zum Speichern von Grobbilddaten, eine Unterteilungseinrichtung zum Unterteilen der Grobbilddaten ausgehend von den komprimierten Bilddaten, eine Steuereinrichtung zum Steuern der ersten und zweiten Speichereinrichtungen zum Verarbeiten von Daten von der zweiten Speichereinrichtung zum Anzeigen der Bilddaten des Vollbilds, und eine zusätzliche Informationserzeugungseinrichtung zum Erzeugen zusätzlicher Information in Bezug auf die Bilddaten des Vollbilds und zum Wiedergeben und Anzeigen der Grobbilddaten.
  • Die WO-A-9422108 offenbart die Extrahierung eines Daumennagelbilds auf Grundlage der DC-Werte von DCT-komprimierten Bilddaten, enthaltend sowohl DC- wie AC-Komponenten bzw. Gleichstrom- und Wechselstromkomponenten in einem einzigen Speicher.
  • Die WO-A-9114334 offenbart ebenfalls ein Daumennagelbild, speichert jedoch getrennt das Daumennagelbild und das Bild in vollständiger Auflösung.
  • Keine dieser Druckschriften legt die getrennte Abspeicherung der Daumennagelbildinformation und der restlichen feinen Bildinformation jeweils als durchgehende Segmente nahe.
  • In Übereinstimmung mit der vorliegenden Erfindung können die nachfolgenden Effekte mit einem kleinen System erzielt werden, ohne dass ein Schaltkreis zur Browsererzeugung bereitgestellt werden muss.
    • (1) Die zwischen der Bildspeichereinrichtung und der Verarbeitungsinformationserzeugungseinrichtung zu übertragende Datenmenge kann drastisch reduziert werden, wodurch eine effiziente Ausnutzung der Datenübertragungsleitung erzielt wird.
    • (2) Da für die zu übertragende Datenmenge der erforderliche Verarbeitungsvorgang gering ist, kann das Verarbeitungsgerät bei verringerten Kosten implementiert werden.
    • (3) Die für die für den Verarbeitungsvorgang zu übertragenden geringe Datenmenge bedeutet außerdem eine schnellere Anzeige der Verarbeitungsergebnisse und damit eine Verringerung der Verarbeitungszeit sowie derjenigen Zeit, die erforderlich ist, zusätzliche Information zu erzeugen, so dass das Ergebnis insgesamt einen erhöhten Wirkungsgrad bei der Verarbeitung und der Erzeugung zusätzlicher Information bedeutet.
    • (4) Es gestaltet sich sehr einfach, Komponentengeräte zu steuern, einschließlich der CPU, und die Belastung der Schaltkreise kann deutlich verringert werden.
    • (5) Der Energieverbrauch der Komponentengeräte, einschließlich der CPU, kann stark verringert werden.
    • (6) Da die Grobbildinformation von einer Festplatte auf einen Videoserver oder dergleichen sehr schnell gelesen werden kann, ist der Wirkungsgrad der Verarbeitung und dergleichen stark verbessert.
    • (7) Da die Menge an Grobbildinformation, die von der Festplatte auf einen Videoserver oder dergleichen gelesen wird, sehr klein ist, ist die Anzahl von Zugriffen verringert und die Lebensdauer der Festplatte kann ausgedehnt werden.
    • (8) Da kein neues Bild für einen Browser erzeugt werden muss, ist der HDD-Verbrauch sehr gering.
  • Während die neuartigen Merkmale der Erfindung in den anliegenden Ansprüchen im Einzelnen angeführt sind, lässt sich die Erfindung hinsichtlich ihres Aufbaus wie ihres Inhalts besser verstehen und würdigen zusammen mit weiteren Aufgaben und Merkmalen aus der nachfolgenden detaillierten Beschreibung in Verbindung mit den Zeichnungen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Konzeptionsdiagramm unter Darstellung, wie das Luminanzsignal (Y-Signal) für ein Vollbild in DCT-(diskrete Kosinustransformations)-Blöcke unterteilt werden kann,
  • 2 zeigt ein Konzeptionsdiagramm unter Darstellung, wie Farbdifferenzsignale (Cb- und Cr-Signale) für ein Vollbild in die DCT-Blöcke unterteilt werden,
  • 3 zeigt ein Konzeptionsdiagramm eines Verfahrens zum Verarbeiten des Rests, der beim Unterteilen der Cb- und Cr-Signale in DCT-Blöcke verbleibt,
  • 4 zeigt ein Diagramm von Daten, nachdem ein DCT-Block DCT-transformiert worden ist in Übereinstimmung mit der Ausführungsform von 1,
  • 5 zeigt ein Diagramm der Systemkonfiguration des Bildverarbeitungsgeräts in Übereinstimmung mit einer bevorzugten Ausführungsform der vorliegenden Erfindung,
  • 6 zeigt ein Konzeptionsdiagramm unter Darstellung von Basisblöcken zur Anzeige eines Browsers unter Verwendung von Gleichstrom- bzw. DC-Komponenten,
  • 7 zeigt ein Konzeptionsdiagramm unter Darstellung, wie der Browser angezeigt wird,
  • 8 zeigt ein Diagramm eines Beispiels, wie der Browser zur Vorbereitung eines Nachrichtenmanuskripts genutzt wird,
  • 9 zeigt ein Diagramm eines Beispiels, wie der Browser bei der Verarbeitung genutzt wird,
  • 10 zeigt ein Diagramm der Konfiguration eines Videoservers,
  • 11 zeigt ein Diagramm der Konfiguration des Videoservers zusammen mit einem Signalfluss beim Schreiben von Daten in den Videoserver,
  • 12 zeigt ein Zeitlaufdiagramm für Daten, die in den Speicher innerhalb des Videoservers gelesen werden,
  • 13 zeigt ein Zeitlaufdiagramm für Daten, die in eine Festplatte geschrieben werden, die an dem Videoserver vorgesehen ist,
  • 14 zeigt ein Konzeptionsdiagramm unter Darstellung der Übertragung von Grobbildinformation und Feinbildinformation in die Festplatte,
  • 15 zeigt ein Konzeptionsdiagramm unter Darstellung des Schreibens von Bildinformation in die Festplatte,
  • 16 zeigt ein Diagramm der Konfiguration des Videoservers zusammen mit einem Signalfluss beim Lesen von Gleichstromkomponentendaten auf dem Videoserver, und
  • 17 zeigt ein Diagramm der Konfiguration des Bildverarbeitungsgeräts gemäß dem Stand der Technik unter Verwendung des Videoservers.
  • Es wird bemerkt, dass einige oder sämtliche der Figuren schematische Darstellungen zu Illustrationszwecken sind und nicht notwendigerweise die tatsächlichen relativen Größen oder Orte der gezeigten Elemente wiedergeben.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird nunmehr unter Bezug auf die anliegenden Zeichnungen erläutert.
  • In der nachfolgend Beschreibung bedeutet der Begriff "Verarbeiten" nicht nur die Neuanordnung der Abfolge von Bilddaten und das Erzeugen von EDL-Information, sondern auch einen Verarbeitungsprozess im weiten Sinn, einschließend beispielsweise das Schreiben eines Manuskripts für ein Nachrichtenprogramm oder dergleichen, während Bilder betrachtet werden, das Einfügen von Überschriften in Bilder und das Anwenden verschiedenen Verarbeitungsarten von Bildern.
  • Die Bildspeichereinrichtungen zum Speichern von Bilddaten, die durch Fernsehkameras oder dergleichen erfasst werden (wobei auf dieses Bild nachfolgend als Videomaterial Bezug genommen wird), umfassen beispielsweise einen Videoserver. Bei einem Videoserver handelt es sich um ein Gerät, das eine Plattenvorrichtung, wie etwa einen HDD (Festplattenspeicher) als Speichermedium nutzt und die Verwendung von gespeichertem Videomaterial ausgehend von zahlreichen Arbeitsstationen erlaubt. Wenn Videomaterial in ein Bildspeicher-(Aufzeichnungs)Gerät gespeichert wird, wie etwa einen Videoserver, wird eine Bildkompression auf das Videomaterial zu Speicherzwecken angewendet.
  • Die Bildkompression ist beispielsweise erläutert in "FUNDAMENTALS OF DIGITAL IMAGE PROCESSING" von Anil K. Jain, Prentice-Hall International Edition.
  • Eine Vielzahl von Bildkompressionsschemata ist bekannt. Unter anderem wird die diskrete Kosinustransformation (DCT) als orthogonale Transformation weit verbreitet zur Bildkompression eingesetzt, wenn Bilddaten in ein Bildspeicher-(Aufzeichnungs-)Gerät gespeichert werden.
  • In der nachfolgend erläuterten Ausführungsform der Erfindung erfolgt Bildkompression auf Grundlage von DCT als Beispiel des Bildkompressionsschemas.
  • Eine Kompression auf Grundlage von DCT wird in verschiedenen internationalen Standards angewendet, wie etwa MPEG (Moving Picture Experts Group), JPEG (Joint Photographic Experts Group) und H.261. Außerdem wird sie angewendet für digitale VTRs (Videorekorder), einschließlich dem DVCPRO-VTR, der erläutert ist in "DVCPRO: A Comprehensive Format Overview", Proceedings der 137-sten SMPTE Technical Conference and World Media Expo MOVING IMAGES: MEETING THE CHALLENGES, The Society of Motion Picture and Television Engineers (SMPTE), 6.–9. September 1995, Seite 196–230. Zahlreiche diesbezügliche Bücher sind außerdem veröffentlicht worden.
  • Der springende Punkt bei der Bildkompression auf Grundlage von DCT ist folgender: Pixelwerte (beispielsweise Helligkeitswerte), die vor der Transformation zufällig verteilt sind, sind nach der Transformation derart angeordnet, dass die wesentliche Information in Niederfrequenzkomponenten mit großen Werten konzentriert ist, weshalb durch Weglassen von Hochfrequenzinformation durch Quantisierung eine deutliche Informationsmengenreduktion erzielt werden kann.
  • Die vorliegende Ausführungsform wird auf Grundlage insbesondere des Bildkompressionsverfahrens erläutert, das in dem vorstehend genannten DVCPRO-VTR-Standard zum Einsatz kommt.
  • In der vorliegenden Ausführungsform handelt es sich bei den Videosignalen vor der Bildkompression um Komponentensignale, bestehend aus einem Luminanzsignal (nachfolgend als Y-Signal bezeichnet) und zwei Farbdifferenzsignalen R–Y (nachfolgend als Cr-Signal bezeichnet) und B–Y (nachfolgend als Cb-Signal bezeichnet) in dem 525-Zeilen/60-Hertz-System, das heißt, um die Komponentensignale des 4:2:2-Komponentensignalformats, das spezifiziert ist in der CCIR-(International Radio Consultative Committee, aktuell ITU-RA – International Telecommunication Union-Radiocommunication Sector)-Empfehlung 601. Die nachfolgende Beschreibung bezieht sich auf das so genannte 4:1:1-Komponentensingalformat als ein Beispiel, demnach die beiden Farbdifferenzsignale dadurch dezimiert werden, dass sie mit der Hälfte der normalen Abtastfrequenz abgetastet werden. In der vorliegenden Ausführungsform beträgt deshalb die Abtastpixelzahl für ein Vollbild 720 Pixel horizontal und 480 Pixel vertikal für das Y-Signal, und 180 Pixel horizontal und 480 Pixel vertikal für jedes der Cb- und Cr-Signale.
  • In der vorliegenden Ausführungsform besteht der DCT-Kompressionsblock (nachfolgend der Einfachheit halber als DCT-Block bezeichnet) aus 8 × 8 (8 Zeilen × 8 Pixel).
  • 1 zeigt ein Konzeptionsdiagramm unter Darstellung, wie das Y-Signal für ein Vollbild in DCT-Blöcke unterteilt wird.
  • Da das Signal in Blöcke von 8 × 8 Pixel unterteilt wird, existieren 90 Blöcke in der horizontalen Richtung und 60 Blöcke in der vertikalen Richtung, und damit insgesamt 5400 Blöcke.
  • 2 zeigt ein Konzeptionsdiagramm unter Darstellung, wie die Cb- und Cr-Signale für ein Vollbild in DCT-Blöcke unterteilt sind. Da jedes Signal in Blöcke aus 8 × 8 Pixel unterteilt ist, existieren 22,5 Blöcke in horizontaler Richtung und 60 Blöcke in vertikaler Richtung. Wenn die Pixel in der horizontalen Richtung durch 8 geteilt werden, verbleiben vier Pixel als Rest am rechten Rand.
  • 3 zeigt ein Konzeptionsdiagramm unter Darstellung eines Verfahrens zum Verarbeiten des Rests, der beim Unterteilen der Cb- und Cr-Signale in DCT-Blöcke verbleibt. Wie in 3 gezeigt, werden vertikal benachbarte Blöcke aus 4 × 8 Pixel am rechten Rand in einen Block aus 8 × 8 Pixel zusammengefasst, wobei der obere Block links und der untere Block rechts angeordnet ist.
  • Bei der in 2 und 3 gezeigten Teilung werden die Cb- und Cr-Signale jeweils in 1350 Blöcke unterteilt.
  • Daraufhin wird die DCT-Transformation auf die Y-, Cb- und Cr-Signale angewendet, die in DCT-Blöcke unterteilt sind.
  • 4 zeigt ein Konzeptionsdiagramm unter Darstellung der Daten, nachdem ein DCT-Block DCT-transformiert worden ist. In 4 bezeichnet DC die Gleichstromkomponente (nachfolgend der Einfachheit halber als DC-Komponente bezeichnet) nach der DCT-Transformation, und AC1, AC2, ..., AC63 bezeichnen die Wechselstromkomponenten (nachfolgend der Einfachheit halber als AC-Komponenten bezeichnet). Da der 8 × 8 Pixelblock DCT-transformiert wird, summieren sich die DC-Komponente und die AC-Komponenten auf 64 Komponenten auf. Wie in 4 durch Pfeile gezeigt, sind die AC-Komponenten von links nach rechts mit zunehmender horizontaler Frequenz angeordnet sowie ausgehend von oben nach unten mit zunehmender vertikaler Frequenz. Das heißt, die AC-Komponenten zeigen höher werdende Frequenz mit zunehmender Distanz von der DC-Komponente.
  • In den in Frequenzkomponenten durch DCT-Transformation unterteilten Daten stellt die DC-Komponente die grundsätzlichste und wesentlichste Komponente des Bilds dar; was die AC-Komponenten betrifft, enthalten andererseits die Niederfrequenzkomponenten grundsätzliche Bildinformation, während die Hochfrequenzkomponenten Information in Bezug auf feine Bilddetails tragen.
  • Der wesentliche Punkt der Charakteristika der vorliegenden Erfindung besteht darin, dass von den DCT-transformierten Daten die DC-Komponente die wesentlichste Bildinformation enthält, während folgend auf die DC-Komponente die niederfrequenten AC-Komponenten wesentliche Information enthalten, wobei die Wichtigkeit mit wachsender Frequenz abnimmt. Mit anderen Worten kann auf Grundlage der grundsätzlichen Information alleine der Zweck der Darstellung vom groben Inhalt des Bilds zufrieden stellend erstellt werden, beispielsweise dann, wenn lediglich der Inhalt der interessierenden Aufnahme zu Gunsten nicht linearer Verarbeitung vorab betrachtet wird, oder wenn ein kleines Bild auf einem Bildschirm betrachtet wird zur Auswahl eines Verarbeitungspunkts. Mehr im Einzelnen kann für den vorstehend genannten Zweck die DC-Komponente alleine genügend Information bereitstellen, und wenn AC-Komponenten verwendet werden, sollten Niederfrequenzkomponen ten alleine hinreichen. Die vorliegende Erfindung nutzt diese Eigenschaft aus.
  • Wenn ausschließlich die DC-Komponente verwendet wird, oder wenn die DC-Komponente und einige der AC-Komponenten verwendet werden, besteht deshalb, weil ein Teil des ursprünglichen komprimierten Bilds genutzt wird, keine Notwendigkeit, neue Daten für einen Browser zu erzeugen, wodurch sich die gesamte Datenmenge nicht erhöht. Nach der DCT-Transformation werden die AC-Komponenten für die Codierung quantisiert durch eine zickzackförmige Abtastung derselben mit zunehmender Frequenz in der Abfolge AC1, AC2, ..., AC63. Nachdem die Pixel in Koeffizienten DCT-transformatiert worden sind, enthält die DC-Komponente die größte Bildinformationsmenge, und folgend auf die DC-Komponente nimmt die Informationsmenge allmählich ab, wenn die Frequenzen der AC-Komponenten größer werden. Auf die Quantisierung folgt eine Codierung variabler Länge, beispielsweise ein zweidimensionale Huffman-Codierung.
  • Nach der Quantisierung und Codierung variabler Länge werden in zahlreichen Fällen die hochfrequenten AC-Komponenten zu null; beispielsweise kann ein bestimmter Block aus der DC-Komponente und AC-Komponenten bis hin zu AC40 bestehen. Es hängt vom Bild des betreffenden Blocks ab, wie weit hinauf hochfrequente Komponenten existieren.
  • Das vorstehend genannte Verfahren zum Komprimieren von Bilddaten zu Aufzeichnungszwecken durch Anwenden der DCT-Transformation, der zickzackförmigen Abtastung, der Quantisierung und der Codierung variabler Länge ist dem Fachmann auf diesem Gebiet der Technik bekannt und dieses Verfahren wird weitgehend eingesetzt bei Bildaufzeichnungsgeräten, wie etwa digitalen VTRs und Videoservern.
  • In Übereinstimmung mit der vorliegenden Erfindung ist Information in Bezug auf feine Bilddetails nicht notwendigerweise beispielsweise dann erforderlich, wenn ein Videomaterialbild (nachfolgend als Browser bezeichnet) auf einem Monitorbildschirm eines PCs angezeigt wird, um einen Verarbeitungspunkt in dem Videomaterial zu wählen, oder um die Abfolge von Aufnahmen neu anzuordnen und die Ergebnisse der vorläufigen Verarbeitung vorab zu betrachten, oder wenn Nachrichtenmanuskripte als den Bilddaten hinzuzufügende Information geschrieben werden, oder wenn EDL-Information für die endgültige Verarbeitung erzeugt wird. Wenn in derartigen Fällen das Bild mit einer Qualität angezeigt wird, die lediglich dazu ausreicht, einen Verarbeitungspunkt zu wählen oder die Ergebnisse einer versuchsweisen Verarbeitung zu prüfen, oder um spezielles Videomaterial aus zahlreichen Videomaterialteilen zu identifizieren sowie den Ort des Bilds im Videomaterial festzulegen, kann der beabsichtigte Zweck in ausreichender Weise selbst dann erzielt werden, wenn die Bildauflösung gering bzw. niedrig ist. Die vorliegende Erfindung nutzt diese Eigenschaft und erzielt Verringerungen bezüglich der Datenmenge, die auf der Datenübertragungsleitung übertragen wird, und bezüglich der Bilddatenmenge, die in den PC übertragen wird, durch Anzeigen des Browsers als Grobbildinformation unter Verwendung von ausschließlich der DC-Komponente nach der DCT-Transformation, oder der DC-Komponente und von einigen der AC-Komponenten.
  • In der Ausführungsform der vorliegenden Erfindung wird von den DC- und AC-Komponenten der durch DCT-Transformation komprimierten Bilddaten ausschließlich die DC-Komponente genutzt, um die Grobbildinformation zu erzeugen.
  • Ferner wird ein Videoserver als Bildspeichereinrichtung zum Speichern von Bildinformation genutzt.
  • Ein Personalcomputer wird als Gerät genutzt, das sowohl als Bildanzeigeeinrichtung wie Verarbeitungsinformationserzeugungseinrichtung dient.
  • Die EDL wird als Verarbeitungsinformation genutzt, die bei der tatsächlichen Verarbeitung zum Einsatz kommt.
  • Eine Videokassettennummer (Kassetten-ID), die die Videokassette bezeichnet, die die Bilddaten enthält, und der SMPTE-Zeitcode werden als Indexinformation genutzt.
  • 5 zeigt ein Diagramm der Systemkonfiguration des Bildverarbeitungsgeräts in Übereinstimmung mit der vorliegenden Ausführungsform.
  • In 5 sind das erste Videomaterial 101, das zweite Videomaterial 102, das dritte Videomaterial 103, ein Videoserver 104 und ein Personalcomputer (PC) 105 über eine Datenübertragungsleitung 106 miteinander verbunden, über die Daten übertragen werden. Als Datenübertragungsleitung 106 kann eine beliebige Übertragungsleitung zum Einsatz kommen, so lange sie in der Lage ist, digitale Daten zu führen, wie etwa solche, die im ATM, B-ISDN (Broadband-Integrated Services Digital Network), 100Base-T, 100VG-AnyLAN, FDDI, TPFDDI, Ethernet (IEEE802.2, IEEE802,3) und dergleichen verwendet werden. In der vorliegenden Ausführungsform wird eine Datenübertragungsleitung in Übereinstimmung mit dem Ethernet (IEEE802.2, IEEE802.3) verwendet. In 5 sind mehrere Pfeile 110, 111, 112, 113, 114, 115 und 116 zur Erläuterung des Signalflusses gezeigt.
  • Der Pfeil 110 bezeichnet einen Datenfluss vom ersten Videomaterial 101 zum Videoserver 104. Der Pfeil 111 bezeichnet einen Datenfluss vom zweiten Videomaterial 102 zum Videoserver 104. Der Pfeil 112 bezeichnet einen Datenfluss vom dritten Videomaterial 103 zum Videoserver 104. Der Pfeil 113 bezeichnet einen Datenfluss vom Videoserver 104 zum PC 105. Der Pfeil 114 bezeichnet einen Befehlsfluss vom PC 105 zum Videoserver 104. Der Pfeil 115 bezeichnet einen Datenfluss vom PC 105 zum Videoserver 104. Der Pfeil 116 bezeichnet eine Bilddatenausgabe vom Videoserver 104.
  • Der durch die Pfeile 110, 111, 112, 113, 114, 115 und 116 bezeichnete Fluss wird nachfolgend als Signalfluss bezeichnet.
  • Als nächstes wird die Arbeitsweise der vorliegenden Erfindung unter Bezug auf 5 näher erläutert.
  • Das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 sind Videomaterialien, die in einem Fernsehstudio oder im Freien aufgenommen bzw. gesammelt wurden, beispielsweise zur Produktion eines Nachrichtenprogramms. Sämtliches Videomaterial ist beispielsweise auf einer Videokassette oder dergleichen aufgezeichnet und wird auf einem VTR abgespielt. In einigen Fällen kann das Videomaterial aus Videodaten bestehen, die im vornherein auf einer Speichereinrichtung, wie etwa einem HDD, gespeichert (aufgezeichnet) sind. Der Videoserver 104 ist ein Gerät zum Speichern (aufzeichnen von) großen Videomaterialvolumina. Für den Videoserver wird eine Plattenvorrichtung, wie etwa eine HDD-Vorrichtung, genutzt. In der vorliegenden Ausführungsform handelt es sich bei dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 jeweils um Videomaterial, das durch eine Fernsehkamera erfasst wurde und das auf einem Videokassettenband in komprimierter Form aufgezeichnet wurde. Für die Bildkompression wird das DCT-Verfahren verwendet.
  • Das erste Videomaterial 101 wird auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zur Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist mit dem Pfeil 110 bezeichnet. In ähnlicher Weise wird das zweite Videomaterial 102 auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zur Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist mit dem Pfeil 111 bezeichnet. In ähnlicher Weise wird das dritte Videomaterial 103 auf einem VTR abgespielt und über die Datenübertragungsleitung 106 zur Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss ist mit dem Pfeil 112 bezeichnet.
  • In der vorliegenden Ausführungsform sind drei Videomaterialquellen gezeigt; in einer tatsächlichen Implementierung in einem Verarbeitungssystem wird jedoch Videomaterial von zahlreichen Quellen im Videoserver 104 gespeichert (aufgezeichnet).
  • In der vorliegenden Ausführungsform wird die Situation in Betracht gezogen, demnach die Verarbeitung durchgeführt wird unter Verwendung des ersten Videomaterials 101, des zweiten Videomaterials 102 und des dritten Videomaterials 103, die auf drei unterschiedlichen Videokassetten aufgezeichnet sind. Ferner wird angenommen, dass das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils 30 Minuten Videodaten enthalten, die im NTSC-(National Television System Committee)-Format aufgezeichnet sind. Der SMPTE-Zeitcode (nachfolgend der Einfachheit halber Zeitcode genannt) ist gemeinsam mit den Bilddaten in jedem Videomaterial aufgezeichnet und das ZZ-Vollbild zum Zeitpunkt WW Stunden, XX Minuten, YY Sekunden ist ausgedrückt als WW:XX:YY:ZZ. Dieser Zeitpunkt, startend von 00:00:00 und endend mit 00:29:59:29, ist in jedem Videomaterial aufgezeichnet.
  • Zunächst überträgt das erste Videomaterial 101 Daten zu dem Videoserver 104, wie durch den Signalfluss 110 gezeigt. In ähnlicher Weise überträgt das zweite Videomaterial 102 Daten zu dem Videoserver 104, wie durch den Signalfluss 111 gezeigt. In ähnlicher Weise überträgt das dritte Videomaterial 103 Daten zu dem Videoserver 104, wie durch den Signalfluss 112 gezeigt. Diese Datenübertragungsvorgänge können gleichzeitig oder zu unterschiedlichen Zeiten stattfinden. Die Bilddaten von dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 werden dadurch in den Videoserver 104 gespeichert (aufgezeichnet). Daten von jedem Videomaterial zu dem Videoserver 104 können in Echtzeit übertragen werden oder sie können ähnlich einer gewöhnlichen Datenübertragung über eine längere Zeit für Aufzeichnungszwecke nicht in Echtzeit übertragen werden.
  • Um Verarbeitungspunkte durch Anzeigen des Videomaterials auf der Anzeige des PCs 105 zu wählen, gibt die mit der Verarbeitung betraute Person (nachfolgend als Verarbeiter bezeichnet) einen Befehl von dem PC 105 zu dem Videoserver 104 aus, wie durch den Signalfluss 114 gezeigt, unter Anforderung von Bilddaten von dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 zu dem PC 105.
  • Es existieren verschiedene Fälle, bei denen der Verarbeiter (Editor) eine Datenübertragung vom Videoserver 104 zum PC 105 anfordert. In einigen Fällen kann der Verarbeiter vollständige 30 Minuten Daten von sowohl dem ersten Videomaterial 101 wie dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 anfordern, oder er kann in anderen Fällen einen Teil der Daten anfordern, beispielsweise 10 Minuten Daten oder er kann, nicht etwa sämtliche Vollbilder der Bilddaten anfordern, sondern lediglich ein Vollbild, das beispielsweise aus einer Datensekunde rückgewonnen wird (beispielsweise ein Vollbild aus jeweils 30 Vollbildern im Fall des NTSC-Systems).
  • Wie durch den Signalfluss 113 gezeigt, überträgt der Videoserver 104 als nächstes über die Datenübertragungsleitung 106 die Bilddaten, die durch den Signalfluss 114 angefordert worden sind, und Information, die zu den Bilddaten gehört, und zwar zum PC 105. Mehr im Einzelnen überträgt der Videoserver 104 die Bilddaten des ersten Videomaterials 101, des zweiten Videomaterials 102 und/oder des dritten Videomaterials 103 zusammen mit der Videomaterialnummer (nachfolgend als ID-Nummer bezeichnet) und dem Zeitcode.
  • In der vorliegenden Ausführungsform sind die ID-Nummern wie folgt zugeordnet: ID = 1 dem ersten Videomaterial 101, ID = 2 dem zweiten Videomaterial 102 und ID = 3 dem dritten Videomaterial 103.
  • Die in den PC 105 übertragenen Bilddaten werden auf der Anzeige angezeigt (das angezeigte Bild wird nachfolgend als Browser bezeichnet), und während das angezeigte Bild betrachtet wird, führt der Verarbeiter eine Verarbeitung durch, wie etwa das Neuanordnen der Abfolge von Aufnahmen (nachfolgend wird diese Art der Verarbeitung als vorläufige Verarbeitung bezeichnet). Das Ergebnis der vorläufigen Verarbeitung wird auf der Anzeige des PCs 105 zur Bestätigung angezeigt. Die Bestätigung des Verarbeitungsergebnisses erfolgt unter Verwendung des Browsers.
  • Beispielsweise wird angenommen, dass entschieden worden ist, Bilddaten einer Dauer von 1,5 Minuten zusammenzufügen, identifiziert durch den Zeitcode 00:10:00:00 bis 00:11:29:29, und zwar aus dem ersten Videomaterial 101 (ID = 1), Bilddaten einer Dauer von 30 Sekunden, identifiziert durch den Zeitcode 00:20:00:00 bis 00:20:29:29 aus dem zweiten Videomaterial 102 (ID = 2), und Bilddaten einer Dauer von 2 Minuten zusammenzufügen, identifiziert durch den Zeitcode 00:15:00:00 bis 00:16:59:29 aus dem dritten Videomaterial 101 (ID = 3).
  • Der Verarbeiter fügt die Ergebnisse der vorstehend genannten vorläufigen Verarbeitungen auf dem Bildschirm zusammen und prüft das Verarbeitungsergebnis auf der Anzeige des PCs 105. Information bezüglich Verarbeitungspunkten wird daraufhin übertragen zusammen mit der ID-Nummer und dem Zeitcode, angeordnet in der Abfolge der Verarbeitungen, von dem PC 105 zu dem Videoserver 104, wie durch den Signalfluss 115 gezeigt. Diese Verarbeitungsinformation wird als Verarbeitungsentscheidungsliste (EDL) bezeichnet.
  • Der Videoserver 104 empfängt die EDL von dem PC 105 und gibt die Bilddaten aus, wie durch den Signalfluss 116 gezeigt, in der Abfolge, die in der EDL-Information aufgelistet ist.
  • Der primäre Zweck der vorliegenden Erfindung besteht in der Reduzierung der Datenmenge, die auf den Signalfluss 113 über tragen wird, und dadurch auf der Erzielung einer effizienten Nutzung der Datenübertragungsleitung 106.
  • Der zum Betrachten von Videomaterial auf dem Monitorbildschirm des PCs 105 genutzte Browser erfordert nicht notwendigerweise Information bezüglich feiner Bilddetails, wenn die Bildverarbeitung durchgeführt wird, wie etwa das Wählen von Verarbeitungspunkten im Videomaterial oder das Schreiben eines Nachrichtenmanuskripts durch Betrachten des Bilds. Wenn das Bild mit einer Qualität angezeigt wird, die hinreicht, einen Verarbeitungspunkt zu wählen (ausreichend, um eine Videomaterialquelle aus mehreren Videomaterialquellen zu wählen sowie eine Stelle in dem Videomaterial), oder ausschließlich dazu ausreicht, das Verarbeitungsergebnis zu prüfen, kann der Zweck der Bildverarbeitung ausreichend erfüllt werden, wenn die Bildauflösung niedrig ist. Die vorliegende Erfindung nutzt diese Eigenschaft und erzielt eine drastische Verringerung der Datenmenge, die auf den Signalfluss 113 übertragen wird.
  • Das Verfahren zum Reduzieren der Datenmenge, die auf dem Signalfluss 113 übertragen wird, ist nachfolgend erläutert.
  • In dieser Ausführungsform der vorliegenden Erfindung sind die im Videoserver 104 gespeicherten (aufgezeichneten) Bilddaten bereits durch den DCT-Prozess komprimiert (worden). Üblicherweise enthält die DC-Komponente nach der DCT-Transformation die größte Signalenergie. Was die AC-Komponenten betrifft, gilt, je niedriger die Frequenz, desto höher die Energie, und je höher die Frequenz, desto niedriger die Energie.
  • Wie in 4 gezeigt, handelt es sich bei DC um die wichtigsten sämtlicher Daten, und die nächst wichtigen Daten sind die Komponenten, die nahe an DC zu liegen kommen, wie etwa AC1, AC2, AC3 und dergleichen, wobei die Wichtigkeit mit zunehmender Distanz von DC geringer wird.
  • In dieser Ausführungsform der vorliegenden Erfindung wird demnach das Bild für den Browser angezeigt unter Verwendung von ausschließlich der DC-Komponente, weil das Bild ausschließlich mit einer Qualität angezeigt werden muss, die hinreicht, einen Verarbeitungspunkt zu wählen, oder um das Verarbeitungsergebnis zu prüfen.
  • Das Verfahren zum Anzeigen des Browsers unter Verwendung der DC-Komponente wird nunmehr erläutert.
  • 6 zeigt ein Konzeptionsdiagramm der Basisblöcke zum Anzeigen des Browsers unter Verwendung von DC-Komponenten.
  • Die zum Anzeigen des Browsers verwendeten Basisblöcke bestehen insgesamt aus sechs DCT-Blöcken aus den Y-, Cb- und Cr-Signalen, das heißt, von horizontal benachbarten vier DCT-Blöcken Y1, Y2, Y3 und Y4 des Y-Signals und DCT-Blöcken Cb7 und Cr7 der Cb- und Cr-Signale.
  • Bei Y1, Y2, Y3 und Y4 handelt es sich um die DC-Komponenten von horizontal benachbarten vier DCT-Blöcken des Y-Signals. Bei Cb7 und Cr7 handelt es sich um die DC-Komponenten der Cb- und Cr-Signale vom selben Abtastpunkt. Da das Y-Signal vier Mal so viele Abtastungen wie das Cb- oder Cr-Signal in der horizontalen Richtung aufweist, entsprechen in 6 die DC-Komponenten der vier Blöcke Y1 bis Y4 und der jeweiligen Blöcke der Cb- und Cr-Signale demselben Punkt auf dem Bild (Browser). Nachfolgend werden die in 6 gezeigten DCT-Blöcke gemeinsam als DC-Block bezeichnet.
  • Der Browser wird angezeigt durch Anordnen der DC-Blöcke in aneinander stoßender Weise auf dem Bildschirm.
  • 7 zeigt ein Konzeptionsdiagramm unter Darstellung, wie der Browser angezeigt wird. In 7 bildet das Teil (a) den Browser. Der Browser besteht aus mehreren DC-Blöcken DC1, DC2, ..., wie im Teil (a) von 7 gezeigt. DC1, DC2, ... ist jeweils derjenige DC-Block, der unter Bezug auf 6 erläutert ist. DC1 besteht aus vier DC-Komponenten des Y-Signals, DCY1, DCY2, DCY3 und DCY4 und aus den DC-Komponenten der beiden Farbdifferenzsignale DCCb1 (DC-Komponente des Cb-Signals) und DCCr1 (DC-Komponente des Cr-Signals), wie im Teil (b) von 7 gezeigt. In ähnlicher Weise besteht DC2 aus vier DC-Komponenten des Y-Signals, DCY5, DCY6, DCY7 und DCY8 und aus den DC-Komponenten der beiden Farbdifferenzsignale DCCb2 (DC-Komponente des Cb-Signals) und DCCr2 (DC-Komponente des Cr-Signals), wie im Teil (c) von 7 gezeigt. Wie vorstehend angesprochen, wird der Browser erstellt durch Anordnen dieser DC-Blöcke auf dem Bildschirm in aneinander stoßender Weise.
  • Betrachtet man die 8 × 4 Pixelblöcke der Cb- und Cr-Signale am rechten Rand des Bildschirms, wie in 2 gezeigt, sind zwei DCT-Blöcke aus dem Y-Signal und DCT-Blöcke, jeweils aus jedem der Cb- und Cr-Signale miteinander kombiniert, um einen DC-Block zu erstellen.
  • Als nächstes wird ein Beispiel der Verwendung des in 7 gezeigten Browsers erläutert.
  • 8 zeigt ein Diagramm unter Darstellung eines Beispiels, wie der Browser für die Vorbereitung eines Nachrichtenmanu skripts genutzt wird. 8 zeigt einen Anzeigebildschirm des PCs. Ein Vollbild einer Aufnahme, rückgewonnen aus dem Videomaterial, das in dem Videoserver gespeichert (aufgezeichnet) ist, wird beispielsweise als Browser 0 auf dem Bildschirm angezeigt. Ein für die Aufnahme repräsentatives Vollbild wird aus dem Vollbild ausgewählt, das als Browser dargestellt ist. Bei der Betrachtung des Browsers erfasst ein Nachrichtenautor den Inhalt des Videomaterials, um dieses zu senden und bereitet ein Nachrichtenmanuskript vor unter Verwendung der Wordprozessorsoftware auf dem PC. In dieser Weise kann ein Nachrichtenmanuskript, das für das Videomaterial geeignet ist, vorbereitet werden.
  • 9 zeigt ein Diagramm unter Darstellung eines Beispiels, wie der Browser bei der Verarbeitung eingesetzt wird. Bei der Verarbeitung unter Verwendung einer nicht linearen Verarbeitungsmaschine werden Browser von Aufnahmen, die verarbeitet werden sollen, zunächst in dem Videomaterialanzeigefenster angezeigt. In 9 werden ein Browser 1, ein Browser 2, ein Browser 3, ein Browser 4, ein Browser 5 und ein Browser 6, darstellend sechs Aufnahmen, angezeigt. In 9 entscheidet der Verarbeiter über die Anwendung der Aufnahmen, die in dem Browser 6, dem Browser 2, dem Browser 5 und dem Browser 3 angezeigt werden, in dieser Abfolge, und ordnet diese Browser in einem Verarbeitungsfenster von links nach rechts in der entschiedenen Abfolge an. Eine nicht lineare Software erzeugt EDL-Information auf Grundlage des Zeitcodes, und, falls erforderlich, auf Grundlage der ID-Nummern der in den Browsern gezeigten Aufnahmen, die derart im Verarbeitungsfenster angeordnet sind.
  • In der vorstehend angesprochenen Erläuterung wird der Personalcomputer (PC) als Gerät verwendet, das sowohl als Bildan zeigeeinrichtung wie als Zusatzinformationserzeugungseinrichtung dient. Dieser PC entspricht dem PC 105 in 5.
  • Der Datenfluss beim Vorbereiten eines Nachrichtenmanuskripts wird nunmehr unter Bezug auf 5 erläutert. In 5 ist der Arbeitsablauf bzw. Betriebsablauf bis hin zur Übertragung von Bilddaten (von Grobbildinformation) zu dem PC 105 derselbe wie die vorstehend erläuterte vorläufige Verarbeitung.
  • Nachdem die Bilddaten in den Browser übertragen und angezeigt worden sind, plant der Verarbeiter ein Nachrichtenmanuskript unter Betrachtung des Browsers und er bereitet ein Nachrichtenmanuskript auf dem PC 105 vor, beispielsweise unter Verwendung einer Wordprozessorfunktion. Das fertig gestellte Nachrichtenmanuskript wird beispielsweise an einen Drucker oder an ein ähnliches Gerät ausgegeben oder es wird zu einem anderen Gerät über die Datenübertragungsleitung 106 übertragen oder es wird zum Videoserver 104 übertragen, wie durch den Signalfluss 115 gezeigt. Das Nachrichtenmanuskript wird daraufhin gemeinsam mit den Bilddaten ausgegeben, wie durch den Signalfluss 116 gezeigt.
  • Die vorliegende Erfindung ist auf eine beliebige Art von Arbeitsablauf anwendbar, die ein Verarbeiter ausführt, während er den Browser betrachtet, der auf der Bildanzeigevorrichtung (dem PC) angezeigt wird, und zwar in der vorstehend erläuterten Weise. In diesem Fall wird die Datenmenge, die durch die Datenübertragungsleitung 106 übertragen wird, stark reduziert im Vergleich zu herkömmlichen Systemen. Da die in den PC 105 zugeführte Datenmenge reduziert ist, kann das Bildverarbeitungsgerät bei geringeren Kosten implementiert werden. Die reduzierte Datenmenge in dem Gerät (PC), das verwendet wird, ein Nachrichtenmanuskript vorzubereiten, bedeutet, dass eine verringerte Zeit erforderlich ist, den Browser anzuzeigen und eine effektive Vorbereitung von Nachrichtenmanuskripten.
  • Da der Browser, wie vorstehend erläutert, unter Verwendung ausschließlich von DC-Komponenten angezeigt wird, kann die Manuskriptvorbereitung und die Bildverarbeitung für ein neues Programm ausgeführt werden, indem lediglich die DC-Komponenten, die Videomaterial-ID-Nummer und der Zeitcode übertragen werden.
  • Das Verhältnis der Datenmenge zwischen den DC- und AC-Komponenten variiert stark abhängig vom Bild. Wenn das Verhältnis der DC-Komponenten zu den AC-Komponenten beispielsweise 1:9 beträgt, kann deshalb, weil die Videomaterial-ID-Nummer und die Zeitcodedaten im Vergleich zu den Bilddaten vernachlässigbar sind, die Datenmenge, die auf dem Signalfluss 113 übertragen wird, um einen Faktor von nahezu 10 reduziert werden.
  • Beispielsweise wird der Fall in Betracht gezogen, dass die Datenmenge von sowohl dem ersten Videomaterial 101 wie dem zweiten Videomaterial 102 und dem dritten Videomaterial 103 30 Megabit pro Sekunde beträgt und die Datenübertragungskapazität der Datenübertragungsleitung 106 100 Megabit pro Sekunde überträgt.
  • Hierbei wird angenommen, dass das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils Daten übertragen, wie durch die Signalflüsse 110, 111 und 112 angezeigt. In diesem Fall werden 90 Megabit pro Sekunde von der 100 Megabit pro Sekunde Datenübertragungskapazität der Datenübertragungsleitung 106 genutzt, so dass lediglich 10 Megabit pro Sekunde als freie Kapazität verblei ben. Um die Verarbeitung auf dem PC 105 durchzuführen, ist die durch den Signalfluss 113 gezeigte Datenübertragung erforderlich.
  • Wenn in dieser Situation die vorliegende Erfindung nicht angewendet werden würde, würde die verbleibende Übertragungskapazität von 10 Megabit pro Sekunde nicht ausreichen für die Bilddatenübertragung, weil der Signalfluss 113 eine Übertragungsrate von 30 Megabit pro Sekunde benötigt. Der Verarbeitungsvorgang müsste deshalb warten bis zur Beendigung der Videomaterialübertragungen.
  • Wenn hingegen die vorliegende Erfindung zur Anwendung kommt, benötigt der Signalfluss 113 eine Übertragungsrate von lediglich 3 Megabit pro Sekunde, wobei es sich hier um eine zehnfache Verringerung im Vergleich zu den 30 Megabit pro Sekunde handelt. Der Verarbeitungsvorgang kann deshalb gleichzeitig mit der Übertragung des Videomaterials durchgeführt werden.
  • In dieser in 5 gezeigten Ausführungsform sind drei Videomaterialquellen, ein PC und ein Videoserver gezeigt; in einem Verarbeitungssystem in einer Fernsehsendestation oder dergleichen besteht das System jedoch aus der Verwendung von zahlreichen Videomaterialquellen, zahlreichen PCs und zahlreichen Videoservern und hierauf aufgesetzt aus zahlreichen Workstations, VTRs, Plattengeräten, Fernsehmonitoren, Verarbeitungsmaschinen und dergleichen, die sämtliche angeschlossen sind.
  • Da die Möglichkeit besteht, dass sämtliche dieser Geräte Daten übertragen können unter Verwendung der Datenübertragungsleitung, werden sehr große Datenvolumina über das System insgesamt übertragen. Das Datenübertragungsmengenverringerungs verfahren gemäß der vorliegenden Erfindung ist in diesen Situationen besonders effektiv.
  • Da die Datenmenge, die in das Verarbeitungsgerät übertragen wird, wie etwa in einen PC, deutlich verringert ist, kann das Verarbeitungsgerät implementiert werden unter Verwendung eines PCs mit viel kleinerem Hauptspeicher oder Festplattenlaufwerkkapazität zur Speicherung von Bilddaten.
  • Wenn die Anzeige der Ergebnisse der auf dem Verarbeitungsgerät, wie etwa einem PC, vorgenommenen Verarbeitung angezeigt werden, und zwar als Bewegtbilder auf der Anzeige des PCs, das heißt, wenn die Verarbeitungsergebnisse als Bewegtbilder vorab betrachtet werden, ist deshalb, weil die erfasste Datenmenge klein ist, die Anzeigegeschwindigkeit der Verarbeitungsergebnisse schnell und der Verarbeitungswirkungsgrad ist deutlich verbessert. Die Belastung der CPU, des Hauptspeichers und des Festplattenlaufwerks des PCs ist ebenfalls verringert.
  • Als nächstes werden die Konfiguration und die Arbeitsweise des Videoservers 104 unter Bezug auf die Zeichnungen erläutert.
  • 10 zeigt ein Diagramm unter Darstellung der Konfiguration des Videoservers 104. In 10 führt die I/O-Datensteuerschaltung 1501 die Verarbeitung zum Anordnen komprimierter Bilddaten, die Eingabe von der Außenseite auf einer Datenübertragungsleitung 1507 zum Übertragen von Daten innerhalb des Videoservers 104 und außerdem die Verarbeitung zum Ausgeben von Daten durch, die auf der Datenübertragungsleitung 1507 zur Außenseite überführt werden.
  • Ein Feinbildinformationsspeicher 1502 speichert komprimierte Bilddaten (Hochfrequenzdaten) mit Ausnahme der Grobbildinformation. Ein Grobbildinformationsspeicher 1503 speichert Grobbildinformation, die den groben Inhalt der komprimierten Bilddaten darstellt.
  • Der Feinbildinformationsspeicher 1502 und der Grobbildinformationsspeicher 1503 besitzen jeweils ein Schreibfreigabeterminal bzw. einen -anschluss, der gesperrt ist (das Schreiben ist gesperrt), wenn ein hoher Pegel gewählt ist (nachfolgend abgekürzt als H bezeichnet), und der freigegeben wird (das Schreiben wird freigegeben), wenn ein niedriger Pegel gewählt ist (nachfolgend ist dies als L bezeichnet). Der Feinbildinformationsspeicher 1502 und der Grobbildinformationsspeicher 1503 besitzen jeweils ein Lesefreigabeterminal bzw. einen -anschluss, der gesperrt ist (das Lesen ist gesperrt), wenn H gewählt ist, und der freigegeben wird (das Lesen wird freigegeben), wenn L gewählt ist.
  • Eine CPU 1504 steuert den gesamten Schaltkreis innerhalb des Videoservers 104. Ein Festplattencontroller 1505 steuert Datenschreib- und -lesevorgänge auf der Festplatte 1506. Die Festplatte 1506 speichert Daten (zeichnet diese auf). Die Datenübertragungsleitung 1507 wird zur Übertragung komprimierter Bilddaten und von verschiedenen Arten von Steuerinformation genutzt. In der vorliegenden Ausführungsform kann die Datenübertragungsleitung 1507 implementiert sein durch eine beliebige Art von Datenübertragungsleitung, so lange diese digitale Daten zu übertragen vermag. In dieser Ausführungsform wird ein PCI-(Peripheral Component Interconnect)-Bus verwendet.
  • Ein Pfeil 1508 bezeichnet eine Kommunikationsleitung zum Übertragen verschiedener Arten von Steuerinformation zwischen der I/O-Datensteuerschaltung 1501 und der CPU 1504. Ein Pfeil 1509 zeigt ein Schreibfreigabesignal, das die CPU 1504 zu dem Feinbildinformationsspeicher 1502 ausgibt, um einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 freizugeben bzw. zu ermöglichen.
  • Ein Pfeil 1510 bezeichnet ein Schreibfreigabesignal, das die CPU 1504 an den Feinbildinformationsspeicher 1502 ausgibt, um einen Datenlesevorgang aus dem Feinbildinformationsspeicher 1502 freizugeben. Ein Pfeil 1511 zeigt ein Schreibfreigabesignal, das die CPU 1504 an den Grobbildinformationsspeicher 1503 ausgibt, um einen Datenschreibvorgang in den Grobbildinformationsspeicher 1503 freizugeben. Ein Pfeil 1512 zeigt ein Lesefreigabesignal, das die CPU 1504 an den Grobbildinformationsspeicher 1503 ausgibt, um einen Datenlesevorgang aus dem Grobbildinformationsspeicher 1503 freizugeben.
  • Die Konfiguration des Videoservers 104 gemäß der vorliegenden Ausführungsform ist vorstehend erläutert worden.
  • Als nächstes wird die Arbeitsweise des Videoservers 104 unter Bezug auf die übrigen Zeichnungen erläutert.
  • 11 zeigt ein Diagramm unter Darstellung der Konfiguration des Videoservers 104 zusammen mit einem Signalfluss, wenn Daten in den Videoserver 104 geschrieben werden. 11 zeigt den in 10 gezeigten Videoserver 104. Zur Erleichterung der Erläuterung bezeichnen Pfeile 1650, 1651, 1652, 1653, 1654 und 1655 jeweils den Signalfluss.
  • Der Pfeil 1650 zeigt den Signalfluss ausgehend von einem in Bezug auf den Videoserver 104 externen Gerät zu der I/O-Datensteuerschaltung 1501. Der Pfeil 1651 bezeichnet den Signalfluss von der I/O-Datensteuerschaltung 1501 zu dem Feinbildinformationsspeicher 1502. Der Pfeil 1652 zeigt den Signalfluss von der I/O-Datensteuerschaltung 1501 zu dem Grobbildinformationsspeicher 1503. Der Pfeil 1653 zeigt den Signalfluss von dem Feinbildinformationsspeicher 1502 zu dem Festplattencontroller 1505. Der Pfeil 1654 zeigt den Signalfluss von dem Grobbildinformationsspeicher 1503 zu dem Festplattencontroller 1505.
  • Der Pfeil 1655 zeigt den Signalfluss von der Grobbildinformationsausgabe von dem Grobbildinformationsspeicher 1503 sowie die Übertragung über die Datenübertragungsleitung 1507 zu der I/O-Datensteuerschaltung 1501 zur Ausgabe zur Außenseite des Videoservers 104 bzw. aus diesem heraus. Der Dateninhalt ist derselbe wie das durch den Pfeil 1654 bezeichnete Signal.
  • 12 zeigt ein Zeitlaufdiagramm für einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 und den Grobbildinformationsspeicher 1503. 13 zeigt ein Zeitlaufdiagramm für einen Datenschreibvorgang von dem Feinbildinformationsspeicher 1502 und dem Grobbildinformationsspeicher 1503 zu der Festplatte 1506. In 12 und 13 bezeichnet eine Schraffierung ungültige Daten.
  • Datenschreibvorgänge in den Videoserver 104 werden nunmehr unter Bezug auf 11, 12 und 13 näher erläutert.
  • In 12 bildet ein Signal 1301 einen Systemtakt für den Videoserver 104. Das Signal 1302 bildet ein angegebenes komprimiertes Bildsignal, bei dem es sich um das mit dem Pfeil 1650 bezeichnete Signal handelt (11). Die DC- und AC-Komponenten dieses Signals werden in die I/O-Datensteuerschaltung 1501 eingegeben. Die I/O-Datensteuerschaltung 1501 sendet ein Datenankunftssignal 1508 zu der CPU 1504. Nach einer Verzögerung von zwei Taktimpulsen, die für die Signalverarbeitung innerhalb der I/O-Datensteuerschaltung 1501 zugelassen ist, wird das komprimierte Bildsignal aus der I/O-Datensteuerschaltung 1501 auf der Datenübertragungsleitung 1507 ausgegeben. Der zeitliche Ablauf dieses Vorgangs ist durch das Signal 1303 gezeigt. Synchron zur Ausgabe der DC-Komponente wird das Schreibfreigabesignal 1511 in den Grobbildinformationsspeicher 1503 durch die CPU 1504 mit L gewählt. Der Betriebszeitablauf des Schreibfreigabesignals 1511 ist durch das Signal 1304 gezeigt.
  • Das Schreibfreigabesignal 1509 zu dem Feinbildinformationsspeicher 1502 wird durch die CPU 1504 synchron zu einer Ausgabe der AC-Komponente mit L gewählt. Der Betriebszeitablauf des Schreibfreigabesignals 1509 ist durch das Signal 1305 gezeigt.
  • Wenn Grobbilddaten wie vorstehend angesprochen auf die Datenübertragungsleitung 1507 gegeben werden, befindet sich die Schreibfreigabe des Grobbildinformationsspeicher 1503 auf L, und wenn Feinbilddaten auf die Datenübertragungsleitung 1507 gegeben werden, befindet sich die Schreibfreigabe in dem Feinbildinformationsspeicher 1502 auf L. Bei diesen Vorgängen wird lediglich die Grobbildinformation (DC-Komponenten) in den Grobbildinformationsspeicher 1503 geschrieben, und ausschließlich die Feinbildinformation (die AC-Komponenten) werden in den Feinbildinformationsspeicher 1502 geschrieben.
  • Lesevorgänge aus den jeweiligen Speichern und Schreibvorgänge in die Festplatte 1506 werden nunmehr erläutert.
  • Zunächst treibt die CPU 1504 das Lesefreigabesignal 1512 auf L in den Grobbildinformationsspeicher 1503. Der Betriebstakt bzw. -zeitablauf des Lesefreigabesignals 1512 zu diesem Zeitpunkt ist durch das Signal 1402 in 13 gezeigt, und der Betriebsablauf des Datenausgangssignals auf der Datenübertragungsleitung 1507 ist durch das Signal 1403 gezeigt. Das Signal 1401 ist der Systemtakt des Videoservers 104, der demjenigen entspricht, der durch das Signal 1301 gezeigt ist. Die DC-Komponenten werden sequenziell ausgelesen, bis sämtliche Daten, die in dem Grobbildinformationsspeicher 1503 gespeichert sind, ausgegeben sind. Die Auslese-DC-Komponenten werden auf der Datenübertragungsleitung 1507 ausgegeben und zu dem Festplattencontroller 1505 übertragen. Der Datenfluss zu diesem Zeitpunkt ist durch einen Pfeil 1654 gezeigt (11). Während dieser Periode wird das Lesefreigabesignal 1512 auf L gehalten, wie durch das Signal 1402 in 13 gezeigt.
  • Wenn sämtliche DC-Komponenten aus dem Grobbildinformationsspeicher 1503 ausgegeben worden sind, wird das Lesefreigabesignal 1512 auf H gesetzt, wie durch das Signal 1402 gezeigt, und gleichzeitig wird das Lesefreigabesignal 1510 für den Feinbildinformationsspeicher 1502 auf L gesetzt, wie durch das Signal 1404 gezeigt. Beim nächsten Taktimpuls, nachdem das Lesefreigabesignal 1510 auf L gesetzt worden ist, beginnen die AC-Komponenten, die im Feinbildinformationsspeicher 1502 gespeichert sind, damit, ausgegeben zu werden. Sämtliche der AC-Komponenten, die im Feinbildinformationsspeicher 1502 gespeichert sind, werden zu dem Festplattencontroller 1505 über die Datenübertragungsleitung 1507 übertragen. Der Datenfluss zu diesem Zeitpunkt ist durch einen Pfeil 1653 gezeigt.
  • 14 zeigt ein Konzeptionsdiagramm unter Darstellung der Übertragung der Grobbildinformation und der Feinbildinformation zur Festplatte 1506. Das heißt, das Diagramm zeigt die Signalflüsse 1654 und 1653 (in 11 gezeigt) über die Datenübertragungsleitung 1507.
  • Anhand von 14 wird nunmehr erläutert, wie die Grobbildinformation und die Feinbildinformation zur Festplatte 1506 übertragen werden. 14 zeigt die Übertragung der Bilddaten für ein Vollbild.
  • Zunächst werden die DC-Komponenten des Y-Signals, in dem Luminanzsignalgrobbildinformationsteil 1201 gezeigt, übertragen. Als nächstes werden die DC-Komponenten des Cb-Signals, in dem Farbdifferenzsignalgrobbildinformationsteil 1202 gezeigt, übertragen. Als nächstes werden die DC-Komponenten des Cr-Signals, in dem Farbdifferenzsignalgrobbildinformationsteil 1203 gezeigt, übertragen. Als nächstes werden die AC-Komponenten des Y-Signals, in dem Luminanzsignalfeinbildinformationsteil 1204 gezeigt, übertragen. Als nächstes werden die AC-Komponenten des Cb-Signals, in dem Farbdifferenzsignalfeinbildinformationsteil 1205 gezeigt, übertragen. Als nächstes werden die AC-Komponenten des Cr-Signals, in dem Farbdifferenzsignalfeinbildinformationsteil 1206 gezeigt, übertragen.
  • In dieser Ausführungsform der vorliegenden Erfindung liegen so viele DC-Komponenten des Y-Signals vor, wie DC-Blöcke des Y-Signals vorliegen, das heißt, insgesamt 5400 DC-Komponenten pro Vollbild. Die Anzahl von DC-Komponenten des Cb-Signals und die Anzahl von DC-Komponenten des Cr-Signals entsprechen der Anzahl von DCT-Blöcken des Cb-Signals und der Anzahl von DCT-Blöcken des Cr-Signals. Das heißt, es existieren 1350 DC-Blöcke pro Vollbild für jedes Farbdifferenzsignal.
  • Die Anzahl von AC-Komponenten der Y-, Cb- und Cr-Signale variiert zwischen den Vollbildern, weil die Anzahl von AC-Komponenten, die auf null quantisiert sind, in jedem Block abhängig vom Bild variiert. In dem Beispiel von 14, das die vorliegende Ausführungsform zeigt, besitzt das Y-Signal 200.000 RC-Komponenten, das Cb-Signal besitzt 40.000 AC-Komponenten und das Cr-Signal besitzt 50.000 AC-Komponenten.
  • Wenn ein Arbeitsvorgang anliegt, wie etwa ein Verarbeitungsvorgang, der rasch ausgeführt werden muss, werden die DC-Komponenten nach außen aus dem Videoserver 104 aus der I/O-Datensteuerschaltung 1501 ausgegeben, und gleichzeitig werden sie in die Bildinformation zur Festplatte 1506 übertragen.
  • Zu diesem Zeitpunkt muss die I/O-Datensteuerschaltung 1501 die Bildinformation zur Außenseite nur dann ausgeben, wenn die DC-Komponenten über die Datenübertragungsleitung 1507 übertragen werden. Das heißt, die I/O-Datensteuerschaltung 1501 ist dazu freigeschaltet, nur dann auszugeben, wenn das Luminanzsignalgrobbildinformationsteils 1201, das Farbdifferenzsignalgrobbildinformationsteil 1202 und das Farbdifferenzsignalgrobbildinformationsteil 1203 über die Datenübertragungsleitung 1507 übertragen werden, wie durch den Pfeil 1654 gezeigt. Die I/O-Datensteuerschaltung 1501 sollte bezüglich ihrer Ausgabe gesperrt sein, wenn das Luminanzsignalfeinbildinformationsteils 1204, das Farbdifferenzsignalfeinbildinformationsteil 1205 und das Farbdifferenzsignalfeinbildinformationsteil 1206 über die Datenübertragungsleitung 1507 übertragen werden, wie durch den Pfeil 1653 gezeigt.
  • Der Zeitpunkt bzw. die zeitliche Steuerung zum Freigeben und Sperren der I/O-Datensteuerschaltung 1501 in Bezug auf die Ausgabe wird durch das Signal 1508 von der CPU 1504 gesteuert. Da in der vorliegenden Erfindung die Grobbildinformation und die Feinbildinformation jeweils in mehreren aneinander hängenden Segmenten übertragen werden, tritt ein Umschalten der Steuerung von der CPU 1504 selten auf. Dies erleichtert deutlich die Steuerung und reduziert drastisch die Belastung der CPU 1504.
  • Dies ermöglicht ferner eine starke Verringerung des Stromverbrauchs der I/O-Datensteuerschaltung 1501 sowie der CPU 1504.
  • Die DC-Komponenten, die aus dem Grobbildinformationsspeicher 1503 ausgelesen werden, und die AC-Komponenten, die aus dem Feinbildinformationsspeicher 1502 auslesen werden, werden auf den Festplattencontroller 1505 übertragen und auf die Festplatte 1506 in der Abfolge geschrieben, in der sie übertragen worden sind.
  • 15 zeigt ein Konzeptionsdiagramm unter Darstellung des Schreibvorgangs der Bildinformation auf die Festplatte 1506. Wie in 15 gezeigt, wird die Bildinformation in folgender Abfolge geschrieben: Grobbildinformation des Luminanzsignals (DC-Komponenten des Y-Signals), als Luminanzsignalgrobinformationsteil 1101 gezeigt, Grobinformation des Farbdifferenzsignals Cb (die DC-Komponenten des Cb-Signals), als Farbdifferenzsignalgrobinformationsteil 1102 gezeigt, Grobinformation des Farbdifferenzsignals Cr (die DC-Komponenten des Cr-Signals), als Farbdifferenzsignalgrobinformationsteil 1103 gezeigt, Feininformation des Luminanzsignals (die AC-Komponenten des Y-Signals), als Luminanzsignalfeininformati onsteil 1104 gezeigt, Feininformation des Farbdifferenzsignals Cb (die AC-Komponenten des Cb-Signals), als Farbdifferenzsignalfeininformationsteil 1105 gezeigt, Feininformation des Farbdifferenzsignals Cr (die AC-Komponenten des Cr-Signals), als Farbdifferenzsignalfeininformationsteil 1106 gezeigt.
  • Üblicherweise werden die Daten in mehrere Blöcke unterteilt, wenn sie auf eine Platte geschrieben werden. In 15 ist das Konzept zum Aufzeichnen von Daten in Blöcken dargestellt unter Verwendung von Doppelpfeilen, die jeweils eine Blockeinheit festlegen.
  • 16 zeigt ein Diagramm unter Darstellung der Konfiguration des Videoservers zusammen mit dem Signalfluss, wenn DC-Komponentendaten aus dem Videoserver gelesen werden.
  • Nunmehr wird unter Bezug auf 16 erläutert, wie die DC-Komponentendaten, die auf der Festplatte 1506 aufgezeichnet sind, von dem Videoserver ausgegeben werden.
  • 16 zeigt den in 10 gezeigten Videoserver. Zur Vereinfachung der Erläuterung sind Pfeile 1750, 1751 und 1752 gezeigt, die jeweils einen Signalfluss bezeichnen.
  • Der Pfeil 1750 bezeichnet den Signalfluss von dem Festplattencontroller 1505 zu dem Grobbildinformationsspeicher 1503. Der Pfeil 1751 bezeichnet den Signalfluss von dem Grobbildinformationsspeicher 1503 zu der I/O-Datensteuerschaltung 1501. Der Pfeil 1752 bezeichnet den Signalfluss von der I/O-Datensteuerschaltung 1501 zur Außenseite des Videoservers 104.
  • Zunächst sendet die CPU 1504 eine Datenausleseinstruktion von dem Festplattencontroller 1505 über die Datenübertragungsleitung 1507. Diese Instruktion dient zum Rückgewinnen von ausschließlich Grobbildinformation von der Festplatte 1506 anstelle von sämtlichen Daten.
  • Der Festplattencontroller 1505 steuert die Festplatte 1506 und gewinnt ausschließlich Grobbildinformation (DC-Komponenten) rück. Das heißt, das Luminanzsignalgrobbildinformationsteil 1101, das Farbdifferenzgrobbildinformationsteil 1102, das Farbdifferenzgrobbildinformationsteil 1103, gezeigt in 15, werden rückgewonnen. Der Signalfluss zu diesem Zeitpunkt ist durch den Pfeil 1750 gezeigt.
  • Die Grobbildinformation, die aus der Festplatte 1506 ausgelesen wird, wird über die Datenübertragungsleitung 1507 übertragen und in dem Grobbildinformationsspeicher 1503 gespeichert. Zu diesem Zeitpunkt wählt die CPU 1504 das Schreibfreigabesignal 1511 mit L, wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 platziert wird, wodurch die Grobbildinformation in den Grobbildinformationsspeicher 1503 geschrieben werden kann.
  • Als nächstes wird die Grobbildinformation, die in den Grobbildinformationsspeicher 1503 gespeichert ist, zu der I/O-Datensteuerschaltung 1501 über die Datenübertragungsleitung 1507 übertragen. Zu diesem Zeitpunkt wählt die CPU 1504 das Lesefreigabesignal 1512 mit L, wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 ausgegeben wird, wodurch die Grobbildinformation aus dem Grobbildinformationsspeicher 1503 ausgegeben werden kann.
  • Die I/O-Datensteuerschaltung 1501 wandelt die Grobbildinformation in eine Form, die nach außen ausgegeben werden kann. Zu diesem Zeitpunkt steuert die CPU 1504 die I/O-Datensteuerschaltung 1501 über das Signal 1508 zur Steuerung des zeitlichen Ablaufs bzw. des Zeitpunkts zum Ausgeben der Daten, die aus dem Grobbildinformationsspeicher 1503 übertragen werden.
  • Beim vorstehend genannten Betriebsablauf zum Auslesen von DC-Komponentendaten aus dem Videoserver können die Festplatte 1506 und der Festplattencontroller 1505 für die Steuerung die jeweiligen Aufgaben lösen durch Auslesen von ausschließlich Abschnitten, in denen die DC-Komponenten aneinander grenzend aufgezeichnet sind.
  • Das heißt, der Auslesevorgang kann ausgeführt werden durch Auslesen von (Zugreifen auf) ausschließlich Blöcken, in denen das Luminanzsignalgrobbildinformationsteil 1101, das Farbdifferenzsignalgrobbildinformationsteil 1102 und das Farbdifferenzsignalgrobbildinformationsteil 1103, wie in 15 gezeigt, geschrieben sind.
  • Da das Verhältnis des Luminanzsignalgrobbildinformationsteils 1101, des Farbdifferenzsignalgrobbildinformationsteils 1102, des Farbdifferenzsignalgrobbildinformationsteils 1103 zu der gesamten Bildinformation, die in 15 gezeigt ist, sehr klein ist, kann die Grobbildinformation aus der Festplatte 1506 sehr schnell ausgelesen werden und die Lebensdauer der Festplatte 1506 kann entsprechend verlängert sein.
  • Da die Betriebszeiten der Festplatte 1506 und des Festplattencontrollers 1505 kurz werden, kann der Stromverbrauch drastisch reduziert werden.
  • Möglich werden diese Effekte durch Aufzeichnen der mehreren Segmente der Grobbildinformation in aneinander grenzender Weise auf der Festplatte, das heißt, mit den Schreibblöcken der Grobbildinformation, die auf der Festplatte aneinander grenzend angeordnet sind.
  • Darüber hinaus muss der Bildinformationsspeicher 1502 überhaupt nicht betrieben bzw. betätigt werden, und es besteht ferner kein Bedarf an einer Steuerung der Signale 1509 und 1510. Dies hat den Effekt, dass der Stromverbrauch des Feinbildinformationsspeichers 1502 und der CPU 1504 drastisch reduziert ist, während die Belastung der CPU 1504 spürbar verringert ist.
  • In 10 sind der Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 jeweils aus zwei Speicherabschnitten erstellt, aus einem, in den geschrieben wird, während aus dem anderen gelesen wird, so dass Daten ohne Unterbrechung durch Umschalten der beiden Speicherabschnitte zwischen Lese- und Schreibbetriebsarten geschrieben und ausgelesen werden können.
  • Der Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 müssen nicht notwendigerweise getrennt vorgesehen sein. Durch Speichern von Grobbildinformation in niedrigen Speicheradressen und Feinbildinformation in hohen Speicheradressen kann die vorliegende Erfindung beispielsweise implementiert werden unter Verwendung eines einzigen Informationsspeichers.
  • Die vorstehend genannte Ausführungsform ist erläutert worden, indem der Videoserver als Beispiel für das Speichergerät (das Aufzeichnungsgerät) zum Speichern von Videomaterial herangezogen wurde; andere Geräte bzw. Vorrichtungen, wie etwa ein digitaler VTR, ein Halbleiterspeicher, eine Festplatte, eine Videoplatte und dergleichen, können verwendet werden, so lange die Vorrichtung bzw. das Gerät in der Lage ist, Bilddaten zu speichern. Auch in diesem Fall kann die vorliegende Erfindung in derselben Weise ausgeführt werden.
  • In der vorstehend angesprochenen Ausführungsform ist das Nachrichtenmanuskript als Beispiel für zusätzlich Information in Bezug auf Bildinformation herangezogen worden. Diese zusätzliche Information ist jedoch nicht auf das Nachrichtenmanuskript beschränkt. Eine beliebige andere Informationsart, wie etwa EDL-Information, die für die Verarbeitung herangezogen wird, oder in den Bildschirm (das Bild) einzufügende Unterschriften können verwendet werden, so lange die Information das betreffende Bild betrifft. Auch in diesem Fall ist die vorliegende Erfindung effektiv.
  • In der vorstehend angesprochenen Ausführungsform ist die DCT-Transformation zur Bilddatenkompression herangezogen worden. In diesem Hinblick wird bemerkt, dass der Kern der vorliegenden Erfindung darin besteht, dass, wenn die Komponenten der komprimierten Bilddaten unterschiedliche Wichtigkeitsgrade aufweisen, die Bilddaten extrahiert werden können ausschließlich aus wesentlichen Komponenten, die erforderlich sind, den Bildinhalt zu identifizieren, und die extrahierten Bilddaten können zu Anzeigezwecken (zum Browsen) übertragen werden. Das Kompressionsverfahren ist deshalb nicht auf die DCT-Transformation beschränkt; vielmehr können Bildkompressionsschemata unter Verwendung anderer orthogonaler Transformationen, wie etwa die K-L-Transformation, die DST-Transformation, die Hadamard-Transformation, die Haar-Transformation, die Fourier-Transformation und die Schrägentransformation verwendet werden, so lange die Transformationsergebnisse von Bilddatenkomponenten unterschiedliche Wichtigkeitsgrade darstellen, so dass die Bilddaten unter Verwendung des Wichtigkeitsunterschieds komprimiert werden können. Unter Verwendung eines beliebigen dieser Kompressionsschemata kann die vorliegende Erfindung implementiert sein.
  • In der vorstehend angesprochenen Ausführungsform ist ein Beispiel beschrieben worden, demnach ausschließlich DC-Komponenten, resultierend aus der DCT-Transformation, zu dem Bildanzeigegerät (dem PC) zu Anzeigezwecken übertragen werden; nicht nur die DC-Komponenten, sondern auch einige der AC-Komponenten können ebenfalls zu dem Bildanzeigegerät (dem PC) übertragen werden, um die Qualität des angezeigten Bilds mit einem bestimmten Grad zu verbessern. Auch in diesem Fall kann die vorliegende Erfindung implementiert werden, ohne ihren Zweck außer Kraft zu setzen, weil die Datenmenge, die gespeichert und zu dem Bildanzeigegerät (dem PC) übertragen wird, reduziert ist im Vergleich zum Verfahren gemäß dem Stand der Technik, bei dem sämtliche komprimierten Bilddaten gespeichert und zu dem Bildanzeigegerät (dem PC) übertragen werden.
  • In der vorstehend angesprochenen Ausführungsform wurde EDL-Information oder ein Nachrichtenmanuskript von dem PC zu dem Videoserver übertragen und der Videoserver, der die EDL-Information oder das Nachrichtenmanuskript empfängt, hat die Bilddaten auf Grundlage der EDL-Information neu angeordnet und das verarbeitete Bild bzw. das empfangene Nachrichtenmanuskript ausgesendet. Alternativ kann die Verarbeitung durchgeführt werden durch Übertragen der EDL-Information von dem PC zu einem weiteren Verarbeitungsgerät, wie etwa einem VTR unter Verwendung der Datenübertragungsleitung oder einer Floppydisk.
  • In der vorstehend angesprochenen Ausführungsform ist lediglich eine einzige Datenübertragungsleitung gezeigt; wenn zwei oder mehr Datenübertragungsleitungen vorgesehen werden, oder wenn ein Teil der Datenübertragungsleitungen als betreffende Leitung für die Datenübertragung genutzt wird, kann die vorliegende Erfindung jedoch auch implementiert werden, ohne ihren Zweck einer Reduzierung der Datenübertragungsmenge auszuhebeln.
  • In der vorstehend angesprochenen Ausführungsform wurde Zeitcodeinformation zu dem PC übertragen; anstatt Zeitcodeinformation zu dem PC zu übertragen, kann jedoch auch lediglich eine Anzeige auf dem PC erzeugt werden und ausschließlich Verarbeitungspunktinformation kann von dem PC zu dem Videoserver übertragen werden, so dass die Verarbeitungsinformation im Videoserver erzeugt werden kann. Dies lässt sich problemlos erreichen durch Übertragen von ausschließlich Grobbildinformation, die zumindest DC-Komponenten enthält, entlang dem Signalfluss 113 und durch Ausgeben eines PC-Befehls, der einen Verarbeitungspunkt bezeichnet, entlang dem Signalfluss 115.
  • In der vorstehend angesprochenen Ausführungsform sind das erste Videomaterial 101, das zweite Videomaterial 102 und das dritte Videomaterial 103 als komprimierte Bilddaten erläutert worden; bei dem Videomaterial muss es sich jedoch nicht notwendigerweise um komprimierte Daten handeln; es ist lediglich erforderlich, dass die Daten in komprimierter Form vorliegen, bevor sie in den PC übertragen werden.
  • In der vorstehend angesprochenen Ausführungsform ist keine Erläuterung bezüglich der Bildkompression entlang der Zeitachse enthalten; wenn eine Bildkompression entlang der Zeitachse erfolgt, erfolgt dies jedoch in Übereinstimmung mit dem Ziel der vorliegenden Erfindung und liegt ebenfalls im Umfang der vorliegenden Erfindung.
  • Wenn in der vorstehend angesprochenen Ausführungsform eine Bilddatenübertragung von dem Videoserver 104 zum PC angefordert wird, wurde ein Bilddatenanforderungsbefehl durch den Signalfluss 114 ausgegeben; wenn jedoch die Bildinformation im vornherein im HDD bzw. dem Hauptspeicher des PCs gespeichert ist, muss der Anforderungsbefehl für diese Bilddaten nicht unter Verwendung des Signalflusses 114 ausgegeben werden.
  • In der vorstehend angesprochenen Ausführungsform wurden von den DC- und AC-Komponenten, die einer Bildkompression durch die DCT-Transformation unterlagen, ausschließlich die DC-Komponenten genutzt, um die Grobbildinformation zu erzeugen; der Videoserver wurde als Bildspeichereinrichtung zum Speichern von Bildinformation genutzt; der Personalcomputer wurde als Verarbeitungsinformationserzeugungseinrichtung genutzt; die EDL wurde zum Bereitstellen von Verarbeitungsinformation genutzt, um Echtzeitverarbeitung durchzuführen; und der Zeitcode und die Kassettennummer zum Identifizieren der Videokassette, die die Bilddaten enthält, wurden als Indexinformation genutzt. Es wird jedoch bemerkt, dass die vorliegende Erfindung nicht auf die vorstehend genannte Ausführungsform beschränkt ist, sondern dass sie zahlreichen Modifikationen im Umfang des Ziels der vorliegenden Erfindung zugänglich ist, wobei diese Informationen ebenfalls vom Umfang der vorliegenden Erfindung umfasst sind.
  • In der vorstehend genannten Ausführungsform wurde eine Übertragungsleitung in Übereinstimmung mit Ethernet (IEEE 802.2, IEEE 802.3) als Datenübertragungsleitung 106 genutzt; eine beliebige andere Art von Übertragungsleitung, die in der Lage ist, digitale Daten zu übertragen, kann jedoch verwendet werden, wie etwa solche, die verwendet werden in ATM, 100Base-T, 100VG-AnyLAN, FDDI, TPFDDI, IEEE 1394 und dergleichen. Anstelle der Verwendung einer Netzwerkübertragungsleitung kann auch ein PCI-(Peripheral Component Interconnect)-Bus oder eine andere Art von Bus genutzt werden, der in einem internen Bus eines Personalcomputers zur Anwendung kommt.
  • In der vorstehend genannten Ausführungsform wurde außerdem ein PCI-Bus als Datenübertragungsleitung 1507 genutzt; eine beliebige andere Art von Bus, der geeignet ist, digitale Daten zu übertragen, kann jedoch verwendet werden, beispielsweise ein SCSI-(Small Computer System Interface)-Bus. Anstelle eines Busses kann eine Netzwerkübertragungsleitung genutzt werden, wie etwa eine solche, die verwendet wird in ATM, 100Base-T, 100VG-AnyLAN, FDDI, TPFDDI, IEEE 1394 und dergleichen. Ferner kann eine Übertragungsleitung genutzt werden, wie etwa eine solche, die in einem Großbereich-B-ISDN verwendet wird.
  • In der vorstehend angesprochenen Ausführungsform wurden Bilddaten durch den DCT-Prozess komprimiert und eine Quantisierung sowie eine Codierung variabler Länge wurden als Beispiel für die Bilddaten herangezogen, die übertragen und gespeichert wurden (aufgezeichnet wurden); wenn die Bilddaten einer anderen Art von Verarbeitung unterworfen werden, wie etwa einer Verarbeitung zum Zusammensetzen der Bilddaten in Pakete für Telekommunikationszwecke oder zum "Shuffling" zum Auf zeichnen auf einen VTR oder zu einer Verarbeitung zum Zusammensetzen der Bilddaten in VTR-Synchronisationsblöcke, liegt eine derartige Bildverarbeitung ebenfalls im Umfang der vorliegenden Erfindung, so lange sie in Übereinstimmung mit der Zielsetzung der vorliegenden Erfindung erfolgt.
  • In der vorstehend genannten Ausführungsform wurden die mehreren Segmente der Grobbildinformation angeordnet, bevor die mehreren Segmente der Feinbildinformation für die Übertragung und Aufzeichnung angeordnet wurden. Da der Kern der vorliegenden Erfindung darin besteht, die Grobbildinformation und die Feinbildinformation durch Gruppieren der jeweiligen Segmente in Bezug aufeinander zu verarbeiten, können die mehreren Segmente der Grobbildinformation auch angeordnet werden nach den mehreren Segmenten der Feinbildinformation für die Übertragung und Aufzeichnung.
  • In der vorstehend angesprochenen Ausführungsform wurden die Grobbildinformationssegmente und die Feinbildinformationssegmente jeweils gemeinsam auf Vollbild-Vollbild-Basis gruppiert. Da der Kern der vorliegenden Erfindung darin besteht, die Grobbildinformation und die Feinbildinformation durch Gruppieren der jeweiligen Segmente in Bezug aufeinander zu verarbeiten, können sie auch miteinander auf einer längeren als einer Vollbildbasis oder einer kürzeren als einer Vollbildbasis gruppiert werden anstatt auf einer Vollbild-Vollbild-Basis.
  • In der vorstehend genannten Ausführungsform waren der Videoserver als Gerät zum Speichern (Aufzeichnen) von Videomaterial und der PC als Gerät zum Durchführen der Verarbeitung getrennt vorgesehen und sie waren miteinander durch eine Datenübertragungsleitung verbunden; die vorliegende Erfindung ist jedoch nicht auf diese Konfiguration beschränkt. Beispielsweise ist auch eine Konfiguration möglich, bei der der PC mit einer Festplatte zum Speichern (Aufzeichnen) von Videomaterial versehen ist. Dies bedeutet im Wesentlichen, dass die Datenübertragungsleitung, die in der vorliegenden Erfindung zum Einsatz kommt, nicht auf einen internen Computerbus beschränkt ist, wie etwa einen PCI-Bus, oder auf eine Netzwerkübertragungsleitung, wie etwa Ethernet oder eine andere Netzwerkarchitektur, und dass eine beliebige Art von Schnittstelle verwendet werden kann, um die verschiedenen Gerät miteinander zu verbinden, ohne vom Umfang der vorliegenden Erfindung abzuweichen.
  • Obwohl die vorliegende Erfindung im Hinblick auf die aktuell bevorzugten Ausführungsformen beschreiben wurde, wird bemerkt, dass diese Offenbarung nicht als beschränkend anzusehen ist. Verschiedene Abwandlungen und Modifikationen erschließen sich dem Fachmann auf dem Gebiet der Technik, an den sich die Erfindung wendet, nach einem Studium der vorstehend angeführten Offenbarung.

Claims (1)

  1. Bildbearbeitungsgerät, aufweisend: Eine Komprimierungseinrichtung zum Komprimieren von Bilddaten; eine erste Speichereinrichtung (1506) zum Speichern von Bilddaten; eine Bearbeitungsinformationserzeugungseinrichtung (105) zum Verarbeiten und Bearbeiten der komprimierten Bilddaten; eine Steuereinrichtung (1504) zum Steuern der ersten Speichereinrichtung und Ausgeben der verarbeiteten und bearbeiteten Bilddaten; eine Einrichtung (1505) zum Extrahierung von Grobbildinformation aus den komprimierten Bilddaten, die in der ersten Speichereinrichtung gespeichert sind, zum Anordnen der Grobbilddaten in mehrere aneinander grenzende Segmente und zum Übertragen; eine zweite Speichereinrichtung (1503) zum Speichern der Grobbildinformation; und eine Zusatzinformationserzeugungseinrichtung zum Anzeigen der Grobbildinformation und Erzeugen von Zusatzinformation auf den Bilddaten, dadurch gekennzeichnet, dass die Komprimierungseinrichtung zum Komprimieren von Bilddaten komprimierte Bilddaten durch DCT-Transformation derart erzeugt, dass die komprimierten Bilddaten eine Gleichstromkomponente und Wechselstromkomponenten aufweisen, wobei die erste Speichereinrichtung (1506) die Bilddaten als komprimierte Bilddaten speichert, die Einrichtung (1505) zum Extrahieren von Grobbildinformation als Grobbildinformation eine Gleichstromkomponente oder eine Gleichstromkomponente und Niederfrequenzwechselstromkomponenten aus den komprimierten Bilddaten extrahiert, die in der ersten Speichereinrichtung gespeichert sind, und das Bildbearbeitungsgerät eine Feinbildinformationsspeichereinrichtung (1502) zum Speichern von Feinbildinformation umfasst, die aus den komprimierten Bilddaten extrahiert werden, wobei die Feinbildinformation durch die restlichen Wechselstromkomponenten der komprimierten Bilddaten gegeben sind, wobei mehrere aneinander grenzende Segmente der Grobbildinformation sequenziell auf einer Datenübertragungsleitung mit mehreren kontinuierlichen Segmenten von Feinbildinformation übertragen werden, die von der Feinbildinformationsspeichereinrichtung ausgegeben wird, wobei ausschließlich die Grobbildinformation extrahiert und nach außen ausgegeben wird, während die Grobbildinformation und die Feinbildinformation übertragen werden.
DE69635528T 1995-07-14 1996-07-11 Bildverarbeitungsgerät Expired - Fee Related DE69635528T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP17851595 1995-07-14
JP17851595 1995-07-14
JP4256196 1996-02-29
JP8042561A JPH0991463A (ja) 1995-07-14 1996-02-29 画像編集装置

Publications (2)

Publication Number Publication Date
DE69635528D1 DE69635528D1 (de) 2006-01-05
DE69635528T2 true DE69635528T2 (de) 2006-08-17

Family

ID=26382272

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69635528T Expired - Fee Related DE69635528T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät
DE69615947T Expired - Fee Related DE69615947T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69615947T Expired - Fee Related DE69615947T2 (de) 1995-07-14 1996-07-11 Bildverarbeitungsgerät

Country Status (4)

Country Link
US (1) US6005678A (de)
EP (2) EP1087397B1 (de)
JP (1) JPH0991463A (de)
DE (2) DE69635528T2 (de)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3377677B2 (ja) * 1996-05-30 2003-02-17 日本電信電話株式会社 映像編集装置
KR20000064963A (ko) 1997-02-21 2000-11-06 엠. 제이. 엠. 반 캄 비디오 이미지를 기록 및 재생하는 방법 및 장치
JP3919033B2 (ja) * 1997-04-06 2007-05-23 ソニー株式会社 映像音声処理装置
JP3741299B2 (ja) * 1997-04-06 2006-02-01 ソニー株式会社 映像信号処理装置及び映像信号処理方法
JP3634556B2 (ja) * 1997-05-12 2005-03-30 キヤノン株式会社 画像処理方法及びそのシステム
CN1167265C (zh) 1997-06-30 2004-09-15 富士写真胶片株式会社 图像通信系统及其方法
US6166731A (en) * 1997-09-24 2000-12-26 Sony Corporation Editing digitized audio/video data across a network
JP3882182B2 (ja) * 1997-11-27 2007-02-14 富士フイルムホールディングス株式会社 画像表示装置及びカメラ並びに画像通信システム
US6763523B1 (en) 1998-04-03 2004-07-13 Avid Technology, Inc. Intelligent transfer of multimedia data files from an editing system to a playback device
KR100331322B1 (ko) 1998-06-22 2002-08-27 삼성전자 주식회사 제조업체간의 특수기능을 지원하기 위한 부가정보를 저장하는 기록매체 및 기록 및/또는 편집장치와 그방법
US6766357B1 (en) 1999-04-15 2004-07-20 Avid Technology, Inc. Apparatus and method for efficient transfer of multimedia data for playback
US7012600B2 (en) * 1999-04-30 2006-03-14 E Ink Corporation Methods for driving bistable electro-optic displays, and apparatus for use therein
WO2000069168A1 (en) * 1999-05-07 2000-11-16 Koninklijke Philips Electronics N.V. Gathering and editing information with a camera
JP2001238193A (ja) * 2000-02-18 2001-08-31 Sony Corp 映像供給装置及び映像供給方法
JP4660879B2 (ja) * 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
KR100386036B1 (ko) * 2000-06-27 2003-06-02 (주)버추얼미디어 티씨피/아이피 네트워크 상에서의 디지털 비디오편집시스템 및 그 제어방법
US6944226B1 (en) 2000-10-03 2005-09-13 Matsushita Electric Corporation Of America System and associated method for transcoding discrete cosine transform coded signals
JP2002351878A (ja) * 2001-05-18 2002-12-06 Internatl Business Mach Corp <Ibm> デジタルコンテンツ再生装置、データ取得システム、デジタルコンテンツ再生方法、メタデータ管理方法、電子透かし埋め込み方法、プログラム及び記録媒体
US7424509B2 (en) * 2001-06-04 2008-09-09 Hewlett-Packard Development Company, L.P. System and method for printing from a web application
US6934742B2 (en) * 2002-03-07 2005-08-23 International Business Machines Corporation Efficiently handling client requests in a server farm
JP2003319184A (ja) * 2002-04-18 2003-11-07 Toshiba Tec Corp 画像処理装置および画像処理方法および画像表示方法および画像記憶方法
KR100948863B1 (ko) * 2002-04-25 2010-03-22 톰슨 라이센싱 디스플레이 디바이스 및 텔레비전 스크린 상에서 사용하기 위한 웹 브라우저 시작 방법
US7239754B2 (en) * 2002-07-16 2007-07-03 Hiroshi Akimoto Method, apparatus and system for compressing still images in multipurpose compression systems
JP4173709B2 (ja) * 2002-09-26 2008-10-29 富士フイルム株式会社 データ管理方法およびデータ管理装置並びにプログラム
AU2003302348A1 (en) * 2002-11-22 2004-06-18 Sony Corporation System and method for referencing av data accumulated in av server
JP4218590B2 (ja) * 2004-05-26 2009-02-04 ソニー株式会社 画像処理システム、情報処理装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
JP2006033507A (ja) 2004-07-16 2006-02-02 Sony Corp 遠隔編集システム、主編集装置、遠隔編集装置、編集方法、編集プログラム、及び記憶媒体
JP4545550B2 (ja) * 2004-10-29 2010-09-15 株式会社リコー 印刷制御装置,プログラム,および記録媒体
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
EP2309737A1 (de) * 2005-05-23 2011-04-13 Thomas S. Gilley Verteilte skalierbare Media-Umgebung
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
JP2007060240A (ja) * 2005-08-24 2007-03-08 Hitachi Kokusai Electric Inc 放送番組送出装置の事前プレビュー方法
JP4718944B2 (ja) * 2005-09-16 2011-07-06 株式会社東芝 ビデオサーバ装置およびその再生方法
JP2007150786A (ja) * 2005-11-29 2007-06-14 Sony Corp 送受信システム、情報処理装置および情報処理方法、並びにプログラム
JP4311404B2 (ja) * 2006-01-23 2009-08-12 ソニー株式会社 光ディスク装置及びカメラシステム
JP5237174B2 (ja) * 2009-04-09 2013-07-17 Kddi株式会社 携帯端末によって原コンテンツを編集するコンテンツ編集方法、コンテンツサーバ、システム及びプログラム
US8786666B2 (en) * 2010-04-27 2014-07-22 Lifesize Communications, Inc. Providing separate video and presentation streams to a recording server
US11495102B2 (en) * 2014-08-04 2022-11-08 LiveView Technologies, LLC Devices, systems, and methods for remote video retrieval
JP2019105933A (ja) * 2017-12-11 2019-06-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513317A (en) * 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
US4750211A (en) * 1983-07-29 1988-06-07 Polaroid Corporation Method and apparatus for image processing with field portions
JPH0652472B2 (ja) * 1984-07-23 1994-07-06 インターナショナル・ビジネス・マシーンズ・コーポレーション イメージ処理方法
JP2588704B2 (ja) * 1986-12-23 1997-03-12 日本ビクター株式会社 磁気記録再生装置
JPH02195482A (ja) * 1989-01-24 1990-08-02 Toshiba Corp イメージ編集方式
US5164831A (en) * 1990-03-15 1992-11-17 Eastman Kodak Company Electronic still camera providing multi-format storage of full and reduced resolution images
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
JPH0468772A (ja) * 1990-07-04 1992-03-04 Matsushita Electric Ind Co Ltd 画像データ復号装置
GB9022761D0 (en) * 1990-10-19 1990-12-05 Eidos Plc Improvements in or relating to video editing systems
JPH04196987A (ja) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd 動画アクセス装置及び動画リンク編集装置
JPH04207878A (ja) * 1990-11-30 1992-07-29 Toshiba Corp 動画像管理装置
JPH04301986A (ja) * 1991-03-28 1992-10-26 Olympus Optical Co Ltd 画像記録/再生装置およびその方法
JPH0583696A (ja) * 1991-06-07 1993-04-02 Sony Corp 画像符号化装置
JPH0530463A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
JPH0530464A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
EP0526064B1 (de) * 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
WO1994022108A1 (en) * 1993-03-23 1994-09-29 Zoran Corporation Rapid thumbnail image reconstruction of dct compressed image data
WO1994029868A2 (en) * 1993-06-10 1994-12-22 Lightworks Editing Systems Ltd Video editing systems
JPH07154740A (ja) * 1993-11-30 1995-06-16 Sony Corp 記録媒体、記録方法、記録装置、及び編集方法
US5675752A (en) * 1994-09-15 1997-10-07 Sony Corporation Interactive applications generator for an interactive presentation environment

Also Published As

Publication number Publication date
EP1087397A3 (de) 2001-04-18
JPH0991463A (ja) 1997-04-04
EP1087397A2 (de) 2001-03-28
EP1087397B1 (de) 2005-11-30
DE69615947T2 (de) 2002-04-04
EP0753852B1 (de) 2001-10-17
DE69635528D1 (de) 2006-01-05
EP0753852A1 (de) 1997-01-15
DE69615947D1 (de) 2001-11-22
US6005678A (en) 1999-12-21

Similar Documents

Publication Publication Date Title
DE69635528T2 (de) Bildverarbeitungsgerät
DE69912857T2 (de) Aufzeichnungsgerät, Aufzeichnungsverfahren und komputerlesbares Speichermedium
DE60211978T2 (de) Laufbildsystem mit bildinterpolation und variabler bildfrequenz
DE60016032T2 (de) Videoschnittarbeitsflussverfahren und -system
DE69733527T2 (de) Bildanzeigeeinheit, Bildanzeigesystem und Wiederauffindungssystem für bewegte Bilder
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE69825957T2 (de) Daueraufnahmesystem und -verfahren sowie computerlesbares Aufnahmemedium zur Aufnahme eines Daueraufnahmeprogramms
DE602004009591T2 (de) Differenz-codierung durch verwendung eines 3d-graphikprozessors
DE69836893T2 (de) Bewegtbildkompositionssystem
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69908334T2 (de) Eine mehrfachdatenstrom-schalterbasierte-videoeditierarchitektur
DE69723502T2 (de) Abbildung von digital kodierten Bildern aus einem Videoauszug
DE3010990A1 (de) Digitales stehbildspeichersystem
DE69836432T2 (de) Bildcoder und -decoder
DE69535164T2 (de) Signalverarbeiter
DE69836890T2 (de) System zur Kodierung und Aufzeichnung einer Vielzahl von Bildern
DE19531004C2 (de) Verfahren und Vorrichtung zur wahrnehmungsoptimierten Übertragung von Video- und Audio-Daten
DD260378A5 (de) Bildwiedergabeanordnung
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE3840405A1 (de) Datenverarbeitungsvorrichtung mit funktion zum abrufen von abstrakten und originalbilddaten
DE19826596B4 (de) Digitaler Fotoapparat und Steuerverfahren dafür
DE3826158C2 (de) Dateidaten-Wiedergewinnungsvorrichtung
DE69433537T2 (de) Vorrichtung zur Dekodierung von Bewegtbilddaten
DE69930705T2 (de) Netzwerkgerät und Netzwerkkommunikationsverfahren zur Bilderübertragung in einem mobilen Netzwerk
DE2935328C2 (de)

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: JUNG, SCHIRDEWAHN, GRUENBERG, SCHNEIDER PATENTANWAELTE

8328 Change in the person/name/address of the agent

Representative=s name: ADVOTEC. PATENT- UND RECHTSANWAELTE, 80538 MUENCHE

8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8339 Ceased/non-payment of the annual fee