-
GEBIET DER ERFINDUNG UND
AUSFÜHRUNG ZUM
STAND DER TECHNIK
-
1. GEBIET DER ERFINDUNG
-
Die
vorliegende Erfindung betrifft ein Bildverarbeitungsgerät zum Verarbeiten
(bzw. Digitalisieren, vorliegend als Verarbeiten bezeichnet) digitalisierter Videosignale
bzw. ein Bildverarbeitungsgerät
zur Ermöglichung
eines Verarbeitungsvorgangs, während von
Videosignalen wiedergegebene Bilder betrachtet bzw. überwacht
werden, und insbesondere ein Bildverarbeitungsgerät, das für ein Bearbeitungssystem ausgelegt
ist, das in einer Fernsehstation oder in einer Nachproduktion zum
Einsatz kommt.
-
2. BESCHREIBUNG DES STANDES
DER TECHNIK
-
Beim
Verarbeiten von Videomaterial, das beispielsweise mittels einer
Fernsehkamera erfasst worden ist, kommt üblicherweise eine nicht lineare Verarbeitung,
die nachfolgend erläutert
ist, heutzutage in Fernsehstationen und bei der Nachproduktion zum
Einsatz. Die nicht lineare Verarbeitung besteht darin, dass zunächst digitalisierte
Bilddaten in einem Videoserver oder auf einem lokalen Plattenlaufwerk oder
einer anderen Bildspeichervorrichtung gespeichert werden, das bzw.
die an dem Videoserver vorgesehen ist, woraufhin die Bilddaten verarbeitet
werden durch Neuanordnen von Aufnahmesequenzen bzw. -abfolgen und/oder
Einfügen
und Löschen
von Aufnahmesequenzen bzw. -abfolgen innerhalb des Videoservers.
-
Wenn
die nicht lineare Verarbeitung durchgeführt wird, werden in dem Videoserver
gespeicherte Daten beispielsweise in einem Personalcomputer (nachfolgend
abgekürzt
als PC bezeichnet) zur Anzeige überführt, und
die verarbeitende Person wählt einen
Verarbeitungspunkt, während
sie das angezeigte Bild betrachtet. Unter Verwendung von mit dem
Bild übertragener
Information (die Indexinformation enthält Daten, wie etwa einen Zeitcode
und zeigt den Ort dieser Bilddaten in den Videodaten an) wird eine
Verarbeitungsentscheidungsliste (EDL bzw. Edit Decision List) wird
eine On-Line-Verarbeitung derart erstellt, dass Verarbeitungsdateninformation,
wie etwa eine verarbeitete Sequenz, ausgeführt wird. Die EDL enthält Information,
wie etwa die verarbeitete Sequenz und Verarbeitungspunkte, die nicht
zum vorläufigen
Verarbeiten, sondern zum endgültigen Verarbeiten
eines Rundfunkprogramms verwendet wird, durchgeführt unter Verwendung eines
Videoservers, eines VTR und dergleichen.
-
17 zeigt
ein Blockdiagramm eines Bildverarbeitungsgeräts gemäß dem Stand der Technik unter
Verwendung eines Videoservers.
-
In 17 handelt
es sich bei einem ersten Videomaterial 301, einem zweiten
Videomaterial 302 und einem dritten Videomaterial 303 um
Videomaterialien, die in einem Fernsehstudio oder vor Ort produziert
oder gesammelt werden. Der Videoserver 304 ist in der Lage,
große
Volumina von Videomaterial zu speichern (aufzuzeichnen). Bei einem
PC 305 handelt es sich um einen Personalcomputer, der beispielsweise
durch eine verarbeitende Person oder eine Nachrichtenmanuskript
schreibende Person genutzt wird.
-
Das
erste Videomaterial 301, das zweite Videomaterial 302,
das dritte Videomaterial 303, der Videoserver 304 und
der PC 305 sind miteinander über eine Datenübertragungsleitung 306 verbunden, über die
Daten übertragen
werden.
-
Die
Arbeitsweise des in 17 gezeigten Bildverarbeitungsgeräts gemäß dem Stand
der Technik wird nunmehr erläutert.
-
Das
erste Videomaterial 301, das zweite Videomaterial 302 und
das dritte Videomaterial 303 enthalten Videobilder, die
durch Fernsehkameras oder dergleichen erfasst worden sind, die auf
einem Aufzeichnungsmedium, wie etwa einem Videoband, aufgezeichnet
sind. Unter beispielhaftem Bezug auf die Produktion eines Nachrichtenprogramms
sind zur Nutzung bei der Rundfunkübertragung ausgewählte Aufnahmen
und nicht ausgewählte
Aufnahmen zufällig
in einem (einzigen) Videomaterial oder verteilt in mehr als einem
Videomaterial enthalten. Das heißt, die Abfolge, in der die
Aufnahmen gespeichert sind, ist zufällig und entspricht nicht der Übertragungssequenz
bzw. -abfolge (für
Rundfunkübertragungen).
-
Die
Videodaten von dem ersten Videomaterial 301, dem zweiten
Videomaterial 302 und dem dritten Videomaterial 303 werden über die
Datenübertragungsleitung 306 zu
dem Videoserver 304 zur Aufzeichnung und Speicherung übertragen.
Die derart gespeicherten Videodaten werden auf Anforderung von außen übertragen.
-
Für den Videoserver 304 kommt
ein Plattenlaufwerk, wie etwa ein Festplattenlaufwerk (nachfolgend
abgekürzt
als HDD bezeichnet) zum Einsatz und erlaubt einen zufälligen Zugriff
auf die Bilddaten. Wenn das erste Videomaterial 301, das
zweite Videomaterial 302 und das dritte Videomaterial 303 zu dem
Videoserver 304 zu Aufzeichnungszwecken (zur Speicherung) übertragen
werden, werden dann, wenn das Videomaterial bereits komprimiert
ist, die übertragenen
Daten direkt in den Videoserver 304 aufgezeichnet. Wenn
das Videomaterial aus nicht komprimierten Bilddaten besteht, wird
ein hocheffizientes Codieren angewendet, um die Daten vor der Aufzeichnung
zu komprimieren.
-
Die
Bilddaten, die gemeinsam mit einer Videokassettennummer (nachfolgend
als Kassetten-ID bezeichnet) aufgezeichnet werden, bezeichnen die Videokassette,
die die Bilddaten und Information enthält, die den Ort der Bilddaten
und der Videokassette anzeigt (üblicherweise
wird der SMPTE-(Society of Motion Picture and Television Engineers)-Zeitcode verwendet.
Das Kassetten-ID und der SMPTE-Zeitcode bilden die Indexinformation,
die zum Lokalisieren des Bilds genutzt wird.
-
Bilddaten,
die aus den großen
Datenvolumina ausgewählt
werden, die in dem Videoserver 304 gespeichert sind, werden
in den PC 305 über
die Datenübertragungsleitung 306 erfasst.
Während
das erfasste Bild auf der Anzeige des PCs 305 betrachtet wird,
führt die
verarbeitende Person eine vorläufige Verarbeitung
durch durch Wählen
von Aufnahmen für den
Einsatz, durch Neuanordnen der Aufnahmen, durch Einfügen von
Zeichen in das Bild oder durch Bearbeiten des Bilds (virtuelle Verarbeitung),
und dadurch wird die EDL-Information erzeugt.
-
Um
die komprimierten Bilddaten, die Kassetten-ID, den SMPTE-Zeitcode und dergleichen
von dem Videoserver 304 in den PC 305 zu übertragen, werden
Daten über
die Datenübertragungsleitung 306 übertragen.
Im Fall eines in einer Rundfunkstation oder dergleichen zum Einsatz
kommenden umfangreichen Verarbeitungssystems sind nicht nur die in 17 gezeigte
Anlage, sondern zahlreiche Elemente einer anderen Anlage, wie etwa
digitale VTRs, Audiogeräte,
Datenspeichergeräte
(Archivierungsgeräte)
zusätzlich
zu dem Videoserver und Workstati ons mit der Datenübertragungsleitung 306 verbunden.
Eine größere Anzahl
von Videoservern und PCs als diejenigen, die in 17 gezeigt
sind, sind üblicherweise
angeschlossen.
-
Das
umfangreiche Verarbeitungssystem gemäß dem Stand der Technik, das
vorstehend erläutert
ist, hat mehrere Probleme. Ein erstes Problem besteht darin, dass,
wenn die Bilddaten von dem ersten Videomaterial 302, dem
zweiten Videomaterial 302 und dem dritten Videomaterial 303 zu
dem Videoserver 304 übertragen
werden, es häufig
der Fall ist, dass die Datenübertragungskapazität der Datenübertragungsleitung 306 durch
derartige Datenübertragungen
nahezu aufgebraucht ist, wodurch andere Daten nicht übertragen
werden können.
Die Datenübertragungsrate,
die die Datenübertragungsleitung 306 bereit
zu stellen vermag, stellt damit einen begrenzenden Faktor beim Systembetrieb
dar.
-
Wenn
eine Anzeige aus komprimierten Bilddaten auf dem PC 305 erzeugt
wird, ist die Datenmenge weiterhin selbst dann sehr groß, wenn
die Bilddaten (Videodaten) durch ein übliches Bildkomprimierungsverfahren
komprimiert werden. Ein zweites Problem besteht deshalb darin, dass,
damit die aus dem Videoserver 305 rückgewonnenen Bilddaten auf
der Anzeige des PCs 305 angezeigt werden können, die
Daten im Hauptspeicher des PCs 305 oder einem damit verbundenen
HDD abgelegt sein müssen.
Durch Bereitstellen der notwendigen Einrichtungen in dem PC 305 werden
außerdem
nicht nur die Größe der Anlage
und die Kosten erhöht;
vielmehr liegen auch Wartungsprobleme vor, Probleme bezüglich der
Umweltbelastung sowie weitere betriebliche Aspekte.
-
Ein
drittes Problem besteht darin, dass, wenn die Ergebnisse der Verarbeitung,
die auf dem PC 305 erfolgt, als Bewegtbil der auf der Anzeige
des PCs 305 angezeigt werden, die Bewegtbildanzeigegeschwindigkeit
sehr niedrig ist, weil das Videosignal eine große Informationsmenge selbst
dann enthält, wenn
die Bilddaten komprimiert werden.
-
Ein
viertes Problem besteht darin, dass selbst dann, wenn die Bilddaten
komprimiert sind, der Stromverbrauch und die Schaltungskomplexität unvermeidlich
zur Handhabung großer
Information erhöht
sind, weil das Videosignal eine große Informationsmenge enthält.
-
Ein
möglicher
Ansatz zur Beherrschung des ersten Problems besteht darin, die Übertragungskapazität der Datenübertragungsleitung
zu erhöhen.
-
Unter
Verwendung einer asynchronen Übertragungsbetriebsart
(ATM), 100Base-T (100-Mbps Ethernet), 100VG-AnyLAN, einer faserverteilten
Datenschnittstelle (FDDI), einer faserverteilten Datenschnittstelle
mit verdrilltem Drahtpaar (TPFDDI) oder dergleichen kann die Datenübertragungsleitung
eine hohe Übertragungsrate
von 100 Megabits pro Sekunde oder mehr erzielen. Außerdem kann
die Übertragungskapazität erhöht werden
durch Bereitstellen von mehreren Datenübertragungsleitungen. Ein derartiger
Ansatz stellt jedoch keine grundsätzliche Lösung für das Problem dar. Dasselbe
Problem bezüglich
der Datenübertragungskapazität wird,
das beim Stand der Technik angetroffen wird, kann erneut auftreten,
wenn die Anzahl von mit der Datenübertragungsleitung verbundenen
Geräten
in einem Studiosystem oder bei einer Fernsehstation oder dergleichen
erhöht
wird.
-
Ein
weiteres Beispiel gemäß dem Stand
der Technik ist im US-Patent
Nr. 5204706 offenbart, am 20. April 1993 auf Akira Saito erteilt,
mit dem Titel "MOVING
PICTURE MANAGING DEVICE",
auf das nachfolgend als erste Druckschrift Bezug genommen wird.
Ein weiteres Beispiel gemäß dem Stand
der Technik ist im US-Patent Nr. 5177513 offenbart, am 5. Januar
1993 auf Akira Saito erteilt, mit dem Titel "MOVING PICTURE MANAGING DEVICE AND METHOD
OF MANAGING A MOVING PICTURE",
auf das nachfolgend als zweite Druckschrift Bezug genommen wird.
-
Die
erste Druckschrift und die zweite Druckschrift offenbaren beide
ein Gerät
zum Anzeigen eines kleinen Bilds auf einer CRT-Anzeige oder einem PC
oder dergleichen, so dass der Inhalt der aufgezeichneten Bilder
betrachtet werden kann. Auf dieses Bild wird nachfolgend als Browser
Bezug genommen. In den ersten und zweiten Druckschriften wird dieses
Bild als Icon bezeichnet.
-
Bei
einem speziellen Verfahren zum Anzeigen des Browsers nutzt die erste
Druckschrift ein Bewegtbild in codierter Form (ein Bild in komprimierter Form)
von einem Vollbild, das die interessierende Aufnahme darstellt,
und das Vollbild wird in eine repräsentative Vollbildschreibposition
auf einem HDD oder dergleichen zur Browseranzeige geschrieben. Das
heißt,
das Vollbild wird zweimal auf das HDD geschrieben. Andererseits
nutzt die zweite Druckschrift ein Vollbild, das für die interessierende
Aufnahme repräsentativ
ist, um das Icon zu erzeugen, und das Vollbild wird auf die Größe des Icons
reduziert. Unter Verwendung des decodierten Bilds wird daraufhin das
Icon in das HDD oder dergleichen zur Anzeige des Browsers geschrieben.
-
Wie
vorstehend erläutert,
erzeugen die ersten und zweiten Druckschriften ein Bild speziell
zur Anzeige des Browsers getrennt von dem ursprünglichen komprimierten Bild
und schrei ben das Browserbild in das HDD zur Nutzung bei der Verarbeitung. Ein
fünftes
Problem besteht deshalb darin, dass das Browserbild zusätzlichen
HDD-Platz benötigt
und die Nutzungsfrequenz des HDD erhöht ist.
-
Zusätzlich hierzu
sind die ersten und zweiten Druckschriften mit den vorstehend angesprochenen ersten
bis vierten Problemen behaftet.
-
Im
Fall der ersten Druckschrift wird insbesondere deshalb, weil der
Browser selbst ein komprimiertes Bild darstellt, das dritte Problem
besonders ausgeprägt
auf.
-
Außerdem tritt
ein sechstes Problem in Bezug auf die zweite Druckschrift insofern
auf, als diese die Bereitstellung eines Schaltkreises zum Erzeugen des
Browsers erfordert, wodurch die Schaltungskomplexität ebenso
wie der Stromverbrauch erhöht
sind.
-
Die
WO-A-9429868 offenbart bereits ein Bildverarbeitungsgerät, aufweisend
eine Einrichtung zum Komprimieren von Bilddaten eines Vollbilds durch
DCT-Transformation, eine erste Speichereinrichtung zum Speichern
der komprimierten Daten des Vollbilds, eine zweite Speichereinrichtung
zum Speichern von Grobbilddaten, eine Unterteilungseinrichtung zum
Unterteilen der Grobbilddaten ausgehend von den komprimierten Bilddaten,
eine Steuereinrichtung zum Steuern der ersten und zweiten Speichereinrichtungen
zum Verarbeiten von Daten von der zweiten Speichereinrichtung zum
Anzeigen der Bilddaten des Vollbilds, und eine zusätzliche
Informationserzeugungseinrichtung zum Erzeugen zusätzlicher
Information in Bezug auf die Bilddaten des Vollbilds und zum Wiedergeben
und Anzeigen der Grobbilddaten.
-
Die
WO-A-9422108 offenbart die Extrahierung eines Daumennagelbilds auf
Grundlage der DC-Werte von DCT-komprimierten Bilddaten, enthaltend
sowohl DC- wie AC-Komponenten bzw. Gleichstrom- und Wechselstromkomponenten
in einem einzigen Speicher.
-
Die
WO-A-9114334 offenbart ebenfalls ein Daumennagelbild, speichert
jedoch getrennt das Daumennagelbild und das Bild in vollständiger Auflösung.
-
Keine
dieser Druckschriften legt die getrennte Abspeicherung der Daumennagelbildinformation und
der restlichen feinen Bildinformation jeweils als durchgehende Segmente
nahe.
-
In Übereinstimmung
mit der vorliegenden Erfindung können
die nachfolgenden Effekte mit einem kleinen System erzielt werden,
ohne dass ein Schaltkreis zur Browsererzeugung bereitgestellt werden muss.
- (1) Die zwischen der Bildspeichereinrichtung
und der Verarbeitungsinformationserzeugungseinrichtung zu übertragende
Datenmenge kann drastisch reduziert werden, wodurch eine effiziente Ausnutzung
der Datenübertragungsleitung
erzielt wird.
- (2) Da für
die zu übertragende
Datenmenge der erforderliche Verarbeitungsvorgang gering ist, kann
das Verarbeitungsgerät
bei verringerten Kosten implementiert werden.
- (3) Die für
die für
den Verarbeitungsvorgang zu übertragenden
geringe Datenmenge bedeutet außerdem
eine schnellere Anzeige der Verarbeitungsergebnisse und damit eine
Verringerung der Verarbeitungszeit sowie derjenigen Zeit, die erforderlich ist,
zusätzliche
Information zu erzeugen, so dass das Ergebnis insgesamt einen erhöhten Wirkungsgrad
bei der Verarbeitung und der Erzeugung zusätzlicher Information bedeutet.
- (4) Es gestaltet sich sehr einfach, Komponentengeräte zu steuern,
einschließlich
der CPU, und die Belastung der Schaltkreise kann deutlich verringert
werden.
- (5) Der Energieverbrauch der Komponentengeräte, einschließlich der
CPU, kann stark verringert werden.
- (6) Da die Grobbildinformation von einer Festplatte auf einen
Videoserver oder dergleichen sehr schnell gelesen werden kann, ist
der Wirkungsgrad der Verarbeitung und dergleichen stark verbessert.
- (7) Da die Menge an Grobbildinformation, die von der Festplatte
auf einen Videoserver oder dergleichen gelesen wird, sehr klein
ist, ist die Anzahl von Zugriffen verringert und die Lebensdauer
der Festplatte kann ausgedehnt werden.
- (8) Da kein neues Bild für
einen Browser erzeugt werden muss, ist der HDD-Verbrauch sehr gering.
-
Während die
neuartigen Merkmale der Erfindung in den anliegenden Ansprüchen im
Einzelnen angeführt
sind, lässt
sich die Erfindung hinsichtlich ihres Aufbaus wie ihres Inhalts
besser verstehen und würdigen
zusammen mit weiteren Aufgaben und Merkmalen aus der nachfolgenden
detaillierten Beschreibung in Verbindung mit den Zeichnungen.
-
KURZE BESCHREIBUNG DER
ZEICHNUNGEN
-
1 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie das Luminanzsignal
(Y-Signal) für ein
Vollbild in DCT-(diskrete
Kosinustransformations)-Blöcke
unterteilt werden kann,
-
2 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie Farbdifferenzsignale
(Cb- und Cr-Signale) für
ein Vollbild in die DCT-Blöcke
unterteilt werden,
-
3 zeigt
ein Konzeptionsdiagramm eines Verfahrens zum Verarbeiten des Rests,
der beim Unterteilen der Cb- und Cr-Signale in DCT-Blöcke verbleibt,
-
4 zeigt
ein Diagramm von Daten, nachdem ein DCT-Block DCT-transformiert
worden ist in Übereinstimmung
mit der Ausführungsform
von 1,
-
5 zeigt
ein Diagramm der Systemkonfiguration des Bildverarbeitungsgeräts in Übereinstimmung
mit einer bevorzugten Ausführungsform
der vorliegenden Erfindung,
-
6 zeigt
ein Konzeptionsdiagramm unter Darstellung von Basisblöcken zur
Anzeige eines Browsers unter Verwendung von Gleichstrom- bzw. DC-Komponenten,
-
7 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie der Browser angezeigt
wird,
-
8 zeigt
ein Diagramm eines Beispiels, wie der Browser zur Vorbereitung eines
Nachrichtenmanuskripts genutzt wird,
-
9 zeigt
ein Diagramm eines Beispiels, wie der Browser bei der Verarbeitung
genutzt wird,
-
10 zeigt
ein Diagramm der Konfiguration eines Videoservers,
-
11 zeigt
ein Diagramm der Konfiguration des Videoservers zusammen mit einem
Signalfluss beim Schreiben von Daten in den Videoserver,
-
12 zeigt
ein Zeitlaufdiagramm für
Daten, die in den Speicher innerhalb des Videoservers gelesen werden,
-
13 zeigt
ein Zeitlaufdiagramm für
Daten, die in eine Festplatte geschrieben werden, die an dem Videoserver
vorgesehen ist,
-
14 zeigt
ein Konzeptionsdiagramm unter Darstellung der Übertragung von Grobbildinformation
und Feinbildinformation in die Festplatte,
-
15 zeigt
ein Konzeptionsdiagramm unter Darstellung des Schreibens von Bildinformation
in die Festplatte,
-
16 zeigt
ein Diagramm der Konfiguration des Videoservers zusammen mit einem
Signalfluss beim Lesen von Gleichstromkomponentendaten auf dem Videoserver,
und
-
17 zeigt
ein Diagramm der Konfiguration des Bildverarbeitungsgeräts gemäß dem Stand
der Technik unter Verwendung des Videoservers.
-
Es
wird bemerkt, dass einige oder sämtliche der
Figuren schematische Darstellungen zu Illustrationszwecken sind
und nicht notwendigerweise die tatsächlichen relativen Größen oder
Orte der gezeigten Elemente wiedergeben.
-
BESCHREIBUNG
DER BEVORZUGTEN AUSFÜHRUNGSFORM
-
Eine
bevorzugte Ausführungsform
der vorliegenden Erfindung wird nunmehr unter Bezug auf die anliegenden
Zeichnungen erläutert.
-
In
der nachfolgend Beschreibung bedeutet der Begriff "Verarbeiten" nicht nur die Neuanordnung der
Abfolge von Bilddaten und das Erzeugen von EDL-Information, sondern
auch einen Verarbeitungsprozess im weiten Sinn, einschließend beispielsweise
das Schreiben eines Manuskripts für ein Nachrichtenprogramm oder
dergleichen, während
Bilder betrachtet werden, das Einfügen von Überschriften in Bilder und
das Anwenden verschiedenen Verarbeitungsarten von Bildern.
-
Die
Bildspeichereinrichtungen zum Speichern von Bilddaten, die durch
Fernsehkameras oder dergleichen erfasst werden (wobei auf dieses
Bild nachfolgend als Videomaterial Bezug genommen wird), umfassen
beispielsweise einen Videoserver. Bei einem Videoserver handelt
es sich um ein Gerät, das
eine Plattenvorrichtung, wie etwa einen HDD (Festplattenspeicher)
als Speichermedium nutzt und die Verwendung von gespeichertem Videomaterial ausgehend
von zahlreichen Arbeitsstationen erlaubt. Wenn Videomaterial in
ein Bildspeicher-(Aufzeichnungs)Gerät gespeichert wird, wie etwa
einen Videoserver, wird eine Bildkompression auf das Videomaterial
zu Speicherzwecken angewendet.
-
Die
Bildkompression ist beispielsweise erläutert in "FUNDAMENTALS OF DIGITAL IMAGE PROCESSING" von Anil K. Jain,
Prentice-Hall International Edition.
-
Eine
Vielzahl von Bildkompressionsschemata ist bekannt. Unter anderem
wird die diskrete Kosinustransformation (DCT) als orthogonale Transformation
weit verbreitet zur Bildkompression eingesetzt, wenn Bilddaten in
ein Bildspeicher-(Aufzeichnungs-)Gerät gespeichert
werden.
-
In
der nachfolgend erläuterten
Ausführungsform
der Erfindung erfolgt Bildkompression auf Grundlage von DCT als
Beispiel des Bildkompressionsschemas.
-
Eine
Kompression auf Grundlage von DCT wird in verschiedenen internationalen
Standards angewendet, wie etwa MPEG (Moving Picture Experts Group),
JPEG (Joint Photographic Experts Group) und H.261. Außerdem wird
sie angewendet für
digitale VTRs (Videorekorder), einschließlich dem DVCPRO-VTR, der erläutert ist
in "DVCPRO: A Comprehensive
Format Overview",
Proceedings der 137-sten SMPTE Technical Conference and World Media
Expo MOVING IMAGES: MEETING THE CHALLENGES, The Society of Motion
Picture and Television Engineers (SMPTE), 6.–9. September 1995, Seite 196–230. Zahlreiche
diesbezügliche
Bücher
sind außerdem
veröffentlicht
worden.
-
Der
springende Punkt bei der Bildkompression auf Grundlage von DCT ist
folgender: Pixelwerte (beispielsweise Helligkeitswerte), die vor
der Transformation zufällig
verteilt sind, sind nach der Transformation derart angeordnet, dass
die wesentliche Information in Niederfrequenzkomponenten mit großen Werten
konzentriert ist, weshalb durch Weglassen von Hochfrequenzinformation
durch Quantisierung eine deutliche Informationsmengenreduktion erzielt werden
kann.
-
Die
vorliegende Ausführungsform
wird auf Grundlage insbesondere des Bildkompressionsverfahrens erläutert, das
in dem vorstehend genannten DVCPRO-VTR-Standard zum Einsatz kommt.
-
In
der vorliegenden Ausführungsform
handelt es sich bei den Videosignalen vor der Bildkompression um
Komponentensignale, bestehend aus einem Luminanzsignal (nachfolgend
als Y-Signal bezeichnet) und zwei Farbdifferenzsignalen R–Y (nachfolgend
als Cr-Signal bezeichnet) und B–Y
(nachfolgend als Cb-Signal
bezeichnet) in dem 525-Zeilen/60-Hertz-System, das heißt, um die
Komponentensignale des 4:2:2-Komponentensignalformats, das
spezifiziert ist in der CCIR-(International
Radio Consultative Committee, aktuell ITU-RA – International Telecommunication
Union-Radiocommunication Sector)-Empfehlung 601. Die nachfolgende
Beschreibung bezieht sich auf das so genannte 4:1:1-Komponentensingalformat
als ein Beispiel, demnach die beiden Farbdifferenzsignale dadurch dezimiert
werden, dass sie mit der Hälfte
der normalen Abtastfrequenz abgetastet werden. In der vorliegenden
Ausführungsform
beträgt
deshalb die Abtastpixelzahl für
ein Vollbild 720 Pixel horizontal und 480 Pixel vertikal für das Y-Signal, und 180 Pixel
horizontal und 480 Pixel vertikal für jedes der Cb- und Cr-Signale.
-
In
der vorliegenden Ausführungsform
besteht der DCT-Kompressionsblock
(nachfolgend der Einfachheit halber als DCT-Block bezeichnet) aus
8 × 8
(8 Zeilen × 8
Pixel).
-
1 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie das Y-Signal für ein Vollbild
in DCT-Blöcke
unterteilt wird.
-
Da
das Signal in Blöcke
von 8 × 8
Pixel unterteilt wird, existieren 90 Blöcke in der horizontalen Richtung
und 60 Blöcke
in der vertikalen Richtung, und damit insgesamt 5400 Blöcke.
-
2 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie die Cb- und Cr-Signale
für ein
Vollbild in DCT-Blöcke
unterteilt sind. Da jedes Signal in Blöcke aus 8 × 8 Pixel unterteilt ist, existieren
22,5 Blöcke
in horizontaler Richtung und 60 Blöcke in vertikaler Richtung.
Wenn die Pixel in der horizontalen Richtung durch 8 geteilt werden,
verbleiben vier Pixel als Rest am rechten Rand.
-
3 zeigt
ein Konzeptionsdiagramm unter Darstellung eines Verfahrens zum Verarbeiten
des Rests, der beim Unterteilen der Cb- und Cr-Signale in DCT-Blöcke verbleibt.
Wie in 3 gezeigt, werden vertikal benachbarte Blöcke aus
4 × 8
Pixel am rechten Rand in einen Block aus 8 × 8 Pixel zusammengefasst,
wobei der obere Block links und der untere Block rechts angeordnet
ist.
-
Bei
der in 2 und 3 gezeigten Teilung werden die
Cb- und Cr-Signale jeweils in 1350 Blöcke unterteilt.
-
Daraufhin
wird die DCT-Transformation auf die Y-, Cb- und Cr-Signale angewendet,
die in DCT-Blöcke
unterteilt sind.
-
4 zeigt
ein Konzeptionsdiagramm unter Darstellung der Daten, nachdem ein
DCT-Block DCT-transformiert worden ist. In 4 bezeichnet DC
die Gleichstromkomponente (nachfolgend der Einfachheit halber als
DC-Komponente bezeichnet) nach der DCT-Transformation, und AC1,
AC2, ..., AC63 bezeichnen die Wechselstromkomponenten (nachfolgend
der Einfachheit halber als AC-Komponenten bezeichnet). Da der 8 × 8 Pixelblock DCT-transformiert wird,
summieren sich die DC-Komponente und die AC-Komponenten auf 64 Komponenten
auf. Wie in 4 durch Pfeile gezeigt, sind
die AC-Komponenten von links nach rechts mit zunehmender horizontaler
Frequenz angeordnet sowie ausgehend von oben nach unten mit zunehmender
vertikaler Frequenz. Das heißt,
die AC-Komponenten zeigen höher
werdende Frequenz mit zunehmender Distanz von der DC-Komponente.
-
In
den in Frequenzkomponenten durch DCT-Transformation unterteilten
Daten stellt die DC-Komponente die grundsätzlichste und wesentlichste
Komponente des Bilds dar; was die AC-Komponenten betrifft, enthalten andererseits
die Niederfrequenzkomponenten grundsätzliche Bildinformation, während die
Hochfrequenzkomponenten Information in Bezug auf feine Bilddetails
tragen.
-
Der
wesentliche Punkt der Charakteristika der vorliegenden Erfindung
besteht darin, dass von den DCT-transformierten Daten die DC-Komponente die
wesentlichste Bildinformation enthält, während folgend auf die DC-Komponente
die niederfrequenten AC-Komponenten wesentliche Information enthalten,
wobei die Wichtigkeit mit wachsender Frequenz abnimmt. Mit anderen
Worten kann auf Grundlage der grundsätzlichen Information alleine
der Zweck der Darstellung vom groben Inhalt des Bilds zufrieden
stellend erstellt werden, beispielsweise dann, wenn lediglich der
Inhalt der interessierenden Aufnahme zu Gunsten nicht linearer Verarbeitung vorab
betrachtet wird, oder wenn ein kleines Bild auf einem Bildschirm
betrachtet wird zur Auswahl eines Verarbeitungspunkts. Mehr im Einzelnen
kann für den
vorstehend genannten Zweck die DC-Komponente alleine genügend Information
bereitstellen, und wenn AC-Komponenten
verwendet werden, sollten Niederfrequenzkomponen ten alleine hinreichen.
Die vorliegende Erfindung nutzt diese Eigenschaft aus.
-
Wenn
ausschließlich
die DC-Komponente verwendet wird, oder wenn die DC-Komponente und einige
der AC-Komponenten verwendet werden, besteht deshalb, weil ein Teil
des ursprünglichen
komprimierten Bilds genutzt wird, keine Notwendigkeit, neue Daten
für einen
Browser zu erzeugen, wodurch sich die gesamte Datenmenge nicht erhöht. Nach
der DCT-Transformation werden die AC-Komponenten für die Codierung
quantisiert durch eine zickzackförmige
Abtastung derselben mit zunehmender Frequenz in der Abfolge AC1,
AC2, ..., AC63. Nachdem die Pixel in Koeffizienten DCT-transformatiert
worden sind, enthält
die DC-Komponente
die größte Bildinformationsmenge,
und folgend auf die DC-Komponente nimmt die Informationsmenge allmählich ab, wenn
die Frequenzen der AC-Komponenten größer werden. Auf die Quantisierung
folgt eine Codierung variabler Länge,
beispielsweise ein zweidimensionale Huffman-Codierung.
-
Nach
der Quantisierung und Codierung variabler Länge werden in zahlreichen Fällen die
hochfrequenten AC-Komponenten zu null; beispielsweise kann ein bestimmter
Block aus der DC-Komponente und
AC-Komponenten bis hin zu AC40 bestehen. Es hängt vom Bild des betreffenden
Blocks ab, wie weit hinauf hochfrequente Komponenten existieren.
-
Das
vorstehend genannte Verfahren zum Komprimieren von Bilddaten zu
Aufzeichnungszwecken durch Anwenden der DCT-Transformation, der zickzackförmigen Abtastung,
der Quantisierung und der Codierung variabler Länge ist dem Fachmann auf diesem
Gebiet der Technik bekannt und dieses Verfahren wird weitgehend
eingesetzt bei Bildaufzeichnungsgeräten, wie etwa digitalen VTRs
und Videoservern.
-
In Übereinstimmung
mit der vorliegenden Erfindung ist Information in Bezug auf feine
Bilddetails nicht notwendigerweise beispielsweise dann erforderlich,
wenn ein Videomaterialbild (nachfolgend als Browser bezeichnet)
auf einem Monitorbildschirm eines PCs angezeigt wird, um einen Verarbeitungspunkt
in dem Videomaterial zu wählen,
oder um die Abfolge von Aufnahmen neu anzuordnen und die Ergebnisse
der vorläufigen
Verarbeitung vorab zu betrachten, oder wenn Nachrichtenmanuskripte
als den Bilddaten hinzuzufügende
Information geschrieben werden, oder wenn EDL-Information für die endgültige Verarbeitung
erzeugt wird. Wenn in derartigen Fällen das Bild mit einer Qualität angezeigt
wird, die lediglich dazu ausreicht, einen Verarbeitungspunkt zu
wählen
oder die Ergebnisse einer versuchsweisen Verarbeitung zu prüfen, oder
um spezielles Videomaterial aus zahlreichen Videomaterialteilen
zu identifizieren sowie den Ort des Bilds im Videomaterial festzulegen,
kann der beabsichtigte Zweck in ausreichender Weise selbst dann
erzielt werden, wenn die Bildauflösung gering bzw. niedrig ist.
Die vorliegende Erfindung nutzt diese Eigenschaft und erzielt Verringerungen
bezüglich
der Datenmenge, die auf der Datenübertragungsleitung übertragen
wird, und bezüglich
der Bilddatenmenge, die in den PC übertragen wird, durch Anzeigen
des Browsers als Grobbildinformation unter Verwendung von ausschließlich der DC-Komponente
nach der DCT-Transformation, oder der DC-Komponente und von einigen
der AC-Komponenten.
-
In
der Ausführungsform
der vorliegenden Erfindung wird von den DC- und AC-Komponenten der durch
DCT-Transformation komprimierten Bilddaten ausschließlich die
DC-Komponente genutzt, um die Grobbildinformation zu erzeugen.
-
Ferner
wird ein Videoserver als Bildspeichereinrichtung zum Speichern von
Bildinformation genutzt.
-
Ein
Personalcomputer wird als Gerät
genutzt, das sowohl als Bildanzeigeeinrichtung wie Verarbeitungsinformationserzeugungseinrichtung dient.
-
Die
EDL wird als Verarbeitungsinformation genutzt, die bei der tatsächlichen
Verarbeitung zum Einsatz kommt.
-
Eine
Videokassettennummer (Kassetten-ID), die die Videokassette bezeichnet,
die die Bilddaten enthält,
und der SMPTE-Zeitcode
werden als Indexinformation genutzt.
-
5 zeigt
ein Diagramm der Systemkonfiguration des Bildverarbeitungsgeräts in Übereinstimmung
mit der vorliegenden Ausführungsform.
-
In 5 sind
das erste Videomaterial 101, das zweite Videomaterial 102,
das dritte Videomaterial 103, ein Videoserver 104 und
ein Personalcomputer (PC) 105 über eine Datenübertragungsleitung 106 miteinander
verbunden, über
die Daten übertragen
werden. Als Datenübertragungsleitung 106 kann eine
beliebige Übertragungsleitung
zum Einsatz kommen, so lange sie in der Lage ist, digitale Daten zu
führen,
wie etwa solche, die im ATM, B-ISDN (Broadband-Integrated Services
Digital Network), 100Base-T, 100VG-AnyLAN, FDDI, TPFDDI, Ethernet
(IEEE802.2, IEEE802,3) und dergleichen verwendet werden. In der
vorliegenden Ausführungsform
wird eine Datenübertragungsleitung
in Übereinstimmung
mit dem Ethernet (IEEE802.2, IEEE802.3) verwendet. In 5 sind
mehrere Pfeile 110, 111, 112, 113, 114, 115 und 116 zur
Erläuterung
des Signalflusses gezeigt.
-
Der
Pfeil 110 bezeichnet einen Datenfluss vom ersten Videomaterial 101 zum
Videoserver 104. Der Pfeil 111 bezeichnet einen
Datenfluss vom zweiten Videomaterial 102 zum Videoserver 104.
Der Pfeil 112 bezeichnet einen Datenfluss vom dritten Videomaterial 103 zum
Videoserver 104. Der Pfeil 113 bezeichnet einen
Datenfluss vom Videoserver 104 zum PC 105. Der
Pfeil 114 bezeichnet einen Befehlsfluss vom PC 105 zum
Videoserver 104. Der Pfeil 115 bezeichnet einen
Datenfluss vom PC 105 zum Videoserver 104. Der
Pfeil 116 bezeichnet eine Bilddatenausgabe vom Videoserver 104.
-
Der
durch die Pfeile 110, 111, 112, 113, 114, 115 und 116 bezeichnete
Fluss wird nachfolgend als Signalfluss bezeichnet.
-
Als
nächstes
wird die Arbeitsweise der vorliegenden Erfindung unter Bezug auf 5 näher erläutert.
-
Das
erste Videomaterial 101, das zweite Videomaterial 102 und
das dritte Videomaterial 103 sind Videomaterialien, die
in einem Fernsehstudio oder im Freien aufgenommen bzw. gesammelt
wurden, beispielsweise zur Produktion eines Nachrichtenprogramms.
Sämtliches
Videomaterial ist beispielsweise auf einer Videokassette oder dergleichen aufgezeichnet
und wird auf einem VTR abgespielt. In einigen Fällen kann das Videomaterial
aus Videodaten bestehen, die im vornherein auf einer Speichereinrichtung,
wie etwa einem HDD, gespeichert (aufgezeichnet) sind. Der Videoserver 104 ist
ein Gerät zum
Speichern (aufzeichnen von) großen
Videomaterialvolumina. Für
den Videoserver wird eine Plattenvorrichtung, wie etwa eine HDD-Vorrichtung, genutzt.
In der vorliegenden Ausführungsform
handelt es sich bei dem ersten Videomaterial 101, dem zweiten
Videomaterial 102 und dem dritten Videomaterial 103 jeweils um
Videomaterial, das durch eine Fernsehkamera erfasst wurde und das
auf einem Videokassettenband in komprimierter Form aufgezeichnet wurde.
Für die
Bildkompression wird das DCT-Verfahren
verwendet.
-
Das
erste Videomaterial 101 wird auf einem VTR abgespielt und über die
Datenübertragungsleitung 106 zur
Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen.
Dieser Signalfluss ist mit dem Pfeil 110 bezeichnet. In ähnlicher
Weise wird das zweite Videomaterial 102 auf einem VTR abgespielt
und über
die Datenübertragungsleitung 106 zur Speicherung
(Aufzeichnung) auf den Videoserver 104 übertragen. Dieser Signalfluss
ist mit dem Pfeil 111 bezeichnet. In ähnlicher Weise wird das dritte
Videomaterial 103 auf einem VTR abgespielt und über die
Datenübertragungsleitung 106 zur
Speicherung (Aufzeichnung) auf den Videoserver 104 übertragen. Dieser
Signalfluss ist mit dem Pfeil 112 bezeichnet.
-
In
der vorliegenden Ausführungsform
sind drei Videomaterialquellen gezeigt; in einer tatsächlichen
Implementierung in einem Verarbeitungssystem wird jedoch Videomaterial
von zahlreichen Quellen im Videoserver 104 gespeichert
(aufgezeichnet).
-
In
der vorliegenden Ausführungsform
wird die Situation in Betracht gezogen, demnach die Verarbeitung
durchgeführt
wird unter Verwendung des ersten Videomaterials 101, des
zweiten Videomaterials 102 und des dritten Videomaterials 103,
die auf drei unterschiedlichen Videokassetten aufgezeichnet sind.
Ferner wird angenommen, dass das erste Videomaterial 101,
das zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils
30 Minuten Videodaten enthalten, die im NTSC-(National Television
System Committee)-Format aufgezeichnet sind. Der SMPTE-Zeitcode
(nachfolgend der Einfachheit halber Zeitcode genannt) ist gemeinsam
mit den Bilddaten in jedem Videomaterial aufgezeichnet und das ZZ-Vollbild
zum Zeitpunkt WW Stunden, XX Minuten, YY Sekunden ist ausgedrückt als
WW:XX:YY:ZZ. Dieser Zeitpunkt, startend von 00:00:00 und endend mit
00:29:59:29, ist in jedem Videomaterial aufgezeichnet.
-
Zunächst überträgt das erste
Videomaterial 101 Daten zu dem Videoserver 104,
wie durch den Signalfluss 110 gezeigt. In ähnlicher
Weise überträgt das zweite
Videomaterial 102 Daten zu dem Videoserver 104,
wie durch den Signalfluss 111 gezeigt. In ähnlicher
Weise überträgt das dritte
Videomaterial 103 Daten zu dem Videoserver 104,
wie durch den Signalfluss 112 gezeigt. Diese Datenübertragungsvorgänge können gleichzeitig
oder zu unterschiedlichen Zeiten stattfinden. Die Bilddaten von
dem ersten Videomaterial 101, dem zweiten Videomaterial 102 und
dem dritten Videomaterial 103 werden dadurch in den Videoserver 104 gespeichert
(aufgezeichnet). Daten von jedem Videomaterial zu dem Videoserver 104 können in
Echtzeit übertragen
werden oder sie können ähnlich einer
gewöhnlichen
Datenübertragung über eine
längere
Zeit für
Aufzeichnungszwecke nicht in Echtzeit übertragen werden.
-
Um
Verarbeitungspunkte durch Anzeigen des Videomaterials auf der Anzeige
des PCs 105 zu wählen,
gibt die mit der Verarbeitung betraute Person (nachfolgend als Verarbeiter
bezeichnet) einen Befehl von dem PC 105 zu dem Videoserver 104 aus, wie
durch den Signalfluss 114 gezeigt, unter Anforderung von
Bilddaten von dem ersten Videomaterial 101, dem zweiten
Videomaterial 102 und dem dritten Videomaterial 103 zu
dem PC 105.
-
Es
existieren verschiedene Fälle,
bei denen der Verarbeiter (Editor) eine Datenübertragung vom Videoserver 104 zum
PC 105 anfordert. In einigen Fällen kann der Verarbeiter vollständige 30
Minuten Daten von sowohl dem ersten Videomaterial 101 wie dem
zweiten Videomaterial 102 und dem dritten Videomaterial 103 anfordern,
oder er kann in anderen Fällen
einen Teil der Daten anfordern, beispielsweise 10 Minuten Daten
oder er kann, nicht etwa sämtliche Vollbilder
der Bilddaten anfordern, sondern lediglich ein Vollbild, das beispielsweise
aus einer Datensekunde rückgewonnen
wird (beispielsweise ein Vollbild aus jeweils 30 Vollbildern im
Fall des NTSC-Systems).
-
Wie
durch den Signalfluss 113 gezeigt, überträgt der Videoserver 104 als
nächstes über die
Datenübertragungsleitung 106 die
Bilddaten, die durch den Signalfluss 114 angefordert worden
sind, und Information, die zu den Bilddaten gehört, und zwar zum PC 105.
Mehr im Einzelnen überträgt der Videoserver 104 die
Bilddaten des ersten Videomaterials 101, des zweiten Videomaterials 102 und/oder
des dritten Videomaterials 103 zusammen mit der Videomaterialnummer
(nachfolgend als ID-Nummer
bezeichnet) und dem Zeitcode.
-
In
der vorliegenden Ausführungsform
sind die ID-Nummern wie folgt zugeordnet: ID = 1 dem ersten Videomaterial 101,
ID = 2 dem zweiten Videomaterial 102 und ID = 3 dem dritten
Videomaterial 103.
-
Die
in den PC 105 übertragenen
Bilddaten werden auf der Anzeige angezeigt (das angezeigte Bild
wird nachfolgend als Browser bezeichnet), und während das angezeigte Bild betrachtet
wird, führt der
Verarbeiter eine Verarbeitung durch, wie etwa das Neuanordnen der
Abfolge von Aufnahmen (nachfolgend wird diese Art der Verarbeitung
als vorläufige
Verarbeitung bezeichnet). Das Ergebnis der vorläufigen Verarbeitung wird auf
der Anzeige des PCs 105 zur Bestätigung angezeigt. Die Bestätigung des
Verarbeitungsergebnisses erfolgt unter Verwendung des Browsers.
-
Beispielsweise
wird angenommen, dass entschieden worden ist, Bilddaten einer Dauer
von 1,5 Minuten zusammenzufügen,
identifiziert durch den Zeitcode 00:10:00:00 bis 00:11:29:29, und
zwar aus dem ersten Videomaterial 101 (ID = 1), Bilddaten
einer Dauer von 30 Sekunden, identifiziert durch den Zeitcode 00:20:00:00
bis 00:20:29:29 aus dem zweiten Videomaterial 102 (ID =
2), und Bilddaten einer Dauer von 2 Minuten zusammenzufügen, identifiziert durch
den Zeitcode 00:15:00:00 bis 00:16:59:29 aus dem dritten Videomaterial 101 (ID
= 3).
-
Der
Verarbeiter fügt
die Ergebnisse der vorstehend genannten vorläufigen Verarbeitungen auf dem
Bildschirm zusammen und prüft
das Verarbeitungsergebnis auf der Anzeige des PCs 105.
Information bezüglich
Verarbeitungspunkten wird daraufhin übertragen zusammen mit der
ID-Nummer und dem Zeitcode, angeordnet in der Abfolge der Verarbeitungen,
von dem PC 105 zu dem Videoserver 104, wie durch
den Signalfluss 115 gezeigt. Diese Verarbeitungsinformation
wird als Verarbeitungsentscheidungsliste (EDL) bezeichnet.
-
Der
Videoserver 104 empfängt
die EDL von dem PC 105 und gibt die Bilddaten aus, wie
durch den Signalfluss 116 gezeigt, in der Abfolge, die
in der EDL-Information aufgelistet ist.
-
Der
primäre
Zweck der vorliegenden Erfindung besteht in der Reduzierung der
Datenmenge, die auf den Signalfluss 113 über tragen
wird, und dadurch auf der Erzielung einer effizienten Nutzung der Datenübertragungsleitung 106.
-
Der
zum Betrachten von Videomaterial auf dem Monitorbildschirm des PCs 105 genutzte
Browser erfordert nicht notwendigerweise Information bezüglich feiner
Bilddetails, wenn die Bildverarbeitung durchgeführt wird, wie etwa das Wählen von
Verarbeitungspunkten im Videomaterial oder das Schreiben eines Nachrichtenmanuskripts
durch Betrachten des Bilds. Wenn das Bild mit einer Qualität angezeigt wird,
die hinreicht, einen Verarbeitungspunkt zu wählen (ausreichend, um eine
Videomaterialquelle aus mehreren Videomaterialquellen zu wählen sowie eine
Stelle in dem Videomaterial), oder ausschließlich dazu ausreicht, das Verarbeitungsergebnis
zu prüfen,
kann der Zweck der Bildverarbeitung ausreichend erfüllt werden,
wenn die Bildauflösung
niedrig ist. Die vorliegende Erfindung nutzt diese Eigenschaft und
erzielt eine drastische Verringerung der Datenmenge, die auf den
Signalfluss 113 übertragen wird.
-
Das
Verfahren zum Reduzieren der Datenmenge, die auf dem Signalfluss 113 übertragen
wird, ist nachfolgend erläutert.
-
In
dieser Ausführungsform
der vorliegenden Erfindung sind die im Videoserver 104 gespeicherten (aufgezeichneten)
Bilddaten bereits durch den DCT-Prozess komprimiert (worden). Üblicherweise enthält die DC-Komponente
nach der DCT-Transformation die größte Signalenergie. Was die
AC-Komponenten betrifft, gilt, je niedriger die Frequenz, desto höher die
Energie, und je höher
die Frequenz, desto niedriger die Energie.
-
Wie
in 4 gezeigt, handelt es sich bei DC um die wichtigsten
sämtlicher
Daten, und die nächst wichtigen
Daten sind die Komponenten, die nahe an DC zu liegen kommen, wie
etwa AC1, AC2, AC3 und dergleichen, wobei die Wichtigkeit mit zunehmender Distanz
von DC geringer wird.
-
In
dieser Ausführungsform
der vorliegenden Erfindung wird demnach das Bild für den Browser
angezeigt unter Verwendung von ausschließlich der DC-Komponente, weil
das Bild ausschließlich
mit einer Qualität
angezeigt werden muss, die hinreicht, einen Verarbeitungspunkt zu
wählen,
oder um das Verarbeitungsergebnis zu prüfen.
-
Das
Verfahren zum Anzeigen des Browsers unter Verwendung der DC-Komponente
wird nunmehr erläutert.
-
6 zeigt
ein Konzeptionsdiagramm der Basisblöcke zum Anzeigen des Browsers
unter Verwendung von DC-Komponenten.
-
Die
zum Anzeigen des Browsers verwendeten Basisblöcke bestehen insgesamt aus
sechs DCT-Blöcken
aus den Y-, Cb- und Cr-Signalen,
das heißt,
von horizontal benachbarten vier DCT-Blöcken Y1,
Y2, Y3 und Y4 des Y-Signals und DCT-Blöcken Cb7 und Cr7 der Cb- und
Cr-Signale.
-
Bei
Y1, Y2, Y3 und Y4 handelt es sich um die DC-Komponenten von horizontal
benachbarten vier DCT-Blöcken
des Y-Signals. Bei Cb7 und Cr7 handelt es sich um die DC-Komponenten
der Cb- und Cr-Signale
vom selben Abtastpunkt. Da das Y-Signal vier Mal so viele Abtastungen
wie das Cb- oder Cr-Signal in der horizontalen Richtung aufweist,
entsprechen in 6 die DC-Komponenten der vier Blöcke Y1 bis
Y4 und der jeweiligen Blöcke
der Cb- und Cr-Signale demselben Punkt auf dem Bild (Browser). Nachfolgend
werden die in 6 gezeigten DCT-Blöcke gemeinsam
als DC-Block bezeichnet.
-
Der
Browser wird angezeigt durch Anordnen der DC-Blöcke in aneinander stoßender Weise
auf dem Bildschirm.
-
7 zeigt
ein Konzeptionsdiagramm unter Darstellung, wie der Browser angezeigt
wird. In 7 bildet das Teil (a) den Browser.
Der Browser besteht aus mehreren DC-Blöcken DC1, DC2, ..., wie im
Teil (a) von 7 gezeigt. DC1, DC2, ... ist
jeweils derjenige DC-Block, der unter Bezug auf 6 erläutert ist.
DC1 besteht aus vier DC-Komponenten des Y-Signals, DCY1, DCY2, DCY3 und DCY4 und
aus den DC-Komponenten der beiden Farbdifferenzsignale DCCb1 (DC-Komponente
des Cb-Signals)
und DCCr1 (DC-Komponente des Cr-Signals), wie im Teil (b) von 7 gezeigt.
In ähnlicher
Weise besteht DC2 aus vier DC-Komponenten des Y-Signals, DCY5, DCY6,
DCY7 und DCY8 und aus den DC-Komponenten der beiden Farbdifferenzsignale DCCb2
(DC-Komponente des Cb-Signals) und DCCr2 (DC-Komponente des Cr-Signals), wie im Teil (c)
von 7 gezeigt. Wie vorstehend angesprochen, wird der
Browser erstellt durch Anordnen dieser DC-Blöcke auf dem Bildschirm in aneinander
stoßender
Weise.
-
Betrachtet
man die 8 × 4
Pixelblöcke
der Cb- und Cr-Signale am rechten Rand des Bildschirms, wie in 2 gezeigt,
sind zwei DCT-Blöcke
aus dem Y-Signal und DCT-Blöcke,
jeweils aus jedem der Cb- und Cr-Signale miteinander kombiniert,
um einen DC-Block zu erstellen.
-
Als
nächstes
wird ein Beispiel der Verwendung des in 7 gezeigten
Browsers erläutert.
-
8 zeigt
ein Diagramm unter Darstellung eines Beispiels, wie der Browser
für die
Vorbereitung eines Nachrichtenmanu skripts genutzt wird. 8 zeigt
einen Anzeigebildschirm des PCs. Ein Vollbild einer Aufnahme, rückgewonnen
aus dem Videomaterial, das in dem Videoserver gespeichert (aufgezeichnet)
ist, wird beispielsweise als Browser 0 auf dem Bildschirm angezeigt.
Ein für
die Aufnahme repräsentatives
Vollbild wird aus dem Vollbild ausgewählt, das als Browser dargestellt
ist. Bei der Betrachtung des Browsers erfasst ein Nachrichtenautor
den Inhalt des Videomaterials, um dieses zu senden und bereitet
ein Nachrichtenmanuskript vor unter Verwendung der Wordprozessorsoftware
auf dem PC. In dieser Weise kann ein Nachrichtenmanuskript, das
für das Videomaterial
geeignet ist, vorbereitet werden.
-
9 zeigt
ein Diagramm unter Darstellung eines Beispiels, wie der Browser
bei der Verarbeitung eingesetzt wird. Bei der Verarbeitung unter
Verwendung einer nicht linearen Verarbeitungsmaschine werden Browser
von Aufnahmen, die verarbeitet werden sollen, zunächst in
dem Videomaterialanzeigefenster angezeigt. In 9 werden
ein Browser 1, ein Browser 2, ein Browser 3, ein Browser 4, ein
Browser 5 und ein Browser 6, darstellend sechs Aufnahmen, angezeigt.
In 9 entscheidet der Verarbeiter über die Anwendung der Aufnahmen,
die in dem Browser 6, dem Browser 2, dem Browser 5 und dem Browser 3
angezeigt werden, in dieser Abfolge, und ordnet diese Browser in
einem Verarbeitungsfenster von links nach rechts in der entschiedenen
Abfolge an. Eine nicht lineare Software erzeugt EDL-Information auf
Grundlage des Zeitcodes, und, falls erforderlich, auf Grundlage
der ID-Nummern der in den Browsern gezeigten Aufnahmen, die derart
im Verarbeitungsfenster angeordnet sind.
-
In
der vorstehend angesprochenen Erläuterung wird der Personalcomputer
(PC) als Gerät
verwendet, das sowohl als Bildan zeigeeinrichtung wie als Zusatzinformationserzeugungseinrichtung
dient. Dieser PC entspricht dem PC 105 in 5.
-
Der
Datenfluss beim Vorbereiten eines Nachrichtenmanuskripts wird nunmehr
unter Bezug auf 5 erläutert. In 5 ist
der Arbeitsablauf bzw. Betriebsablauf bis hin zur Übertragung
von Bilddaten (von Grobbildinformation) zu dem PC 105 derselbe
wie die vorstehend erläuterte
vorläufige
Verarbeitung.
-
Nachdem
die Bilddaten in den Browser übertragen
und angezeigt worden sind, plant der Verarbeiter ein Nachrichtenmanuskript
unter Betrachtung des Browsers und er bereitet ein Nachrichtenmanuskript
auf dem PC 105 vor, beispielsweise unter Verwendung einer
Wordprozessorfunktion. Das fertig gestellte Nachrichtenmanuskript
wird beispielsweise an einen Drucker oder an ein ähnliches
Gerät ausgegeben
oder es wird zu einem anderen Gerät über die Datenübertragungsleitung 106 übertragen
oder es wird zum Videoserver 104 übertragen, wie durch den Signalfluss 115 gezeigt.
Das Nachrichtenmanuskript wird daraufhin gemeinsam mit den Bilddaten
ausgegeben, wie durch den Signalfluss 116 gezeigt.
-
Die
vorliegende Erfindung ist auf eine beliebige Art von Arbeitsablauf
anwendbar, die ein Verarbeiter ausführt, während er den Browser betrachtet, der
auf der Bildanzeigevorrichtung (dem PC) angezeigt wird, und zwar
in der vorstehend erläuterten Weise.
In diesem Fall wird die Datenmenge, die durch die Datenübertragungsleitung 106 übertragen wird,
stark reduziert im Vergleich zu herkömmlichen Systemen. Da die in
den PC 105 zugeführte
Datenmenge reduziert ist, kann das Bildverarbeitungsgerät bei geringeren
Kosten implementiert werden. Die reduzierte Datenmenge in dem Gerät (PC),
das verwendet wird, ein Nachrichtenmanuskript vorzubereiten, bedeutet,
dass eine verringerte Zeit erforderlich ist, den Browser anzuzeigen
und eine effektive Vorbereitung von Nachrichtenmanuskripten.
-
Da
der Browser, wie vorstehend erläutert, unter
Verwendung ausschließlich
von DC-Komponenten angezeigt wird, kann die Manuskriptvorbereitung
und die Bildverarbeitung für
ein neues Programm ausgeführt
werden, indem lediglich die DC-Komponenten,
die Videomaterial-ID-Nummer und der Zeitcode übertragen werden.
-
Das
Verhältnis
der Datenmenge zwischen den DC- und AC-Komponenten variiert stark abhängig vom
Bild. Wenn das Verhältnis
der DC-Komponenten zu den AC-Komponenten beispielsweise 1:9 beträgt, kann
deshalb, weil die Videomaterial-ID-Nummer und die Zeitcodedaten im Vergleich
zu den Bilddaten vernachlässigbar
sind, die Datenmenge, die auf dem Signalfluss 113 übertragen
wird, um einen Faktor von nahezu 10 reduziert werden.
-
Beispielsweise
wird der Fall in Betracht gezogen, dass die Datenmenge von sowohl
dem ersten Videomaterial 101 wie dem zweiten Videomaterial 102 und
dem dritten Videomaterial 103 30 Megabit pro Sekunde beträgt und die
Datenübertragungskapazität der Datenübertragungsleitung 106 100
Megabit pro Sekunde überträgt.
-
Hierbei
wird angenommen, dass das erste Videomaterial 101, das
zweite Videomaterial 102 und das dritte Videomaterial 103 jeweils
Daten übertragen,
wie durch die Signalflüsse 110, 111 und 112 angezeigt.
In diesem Fall werden 90 Megabit pro Sekunde von der 100 Megabit
pro Sekunde Datenübertragungskapazität der Datenübertragungsleitung 106 genutzt,
so dass lediglich 10 Megabit pro Sekunde als freie Kapazität verblei ben.
Um die Verarbeitung auf dem PC 105 durchzuführen, ist
die durch den Signalfluss 113 gezeigte Datenübertragung
erforderlich.
-
Wenn
in dieser Situation die vorliegende Erfindung nicht angewendet werden
würde,
würde die verbleibende Übertragungskapazität von 10
Megabit pro Sekunde nicht ausreichen für die Bilddatenübertragung,
weil der Signalfluss 113 eine Übertragungsrate von 30 Megabit
pro Sekunde benötigt.
Der Verarbeitungsvorgang müsste
deshalb warten bis zur Beendigung der Videomaterialübertragungen.
-
Wenn
hingegen die vorliegende Erfindung zur Anwendung kommt, benötigt der
Signalfluss 113 eine Übertragungsrate
von lediglich 3 Megabit pro Sekunde, wobei es sich hier um eine
zehnfache Verringerung im Vergleich zu den 30 Megabit pro Sekunde
handelt. Der Verarbeitungsvorgang kann deshalb gleichzeitig mit
der Übertragung
des Videomaterials durchgeführt
werden.
-
In
dieser in 5 gezeigten Ausführungsform
sind drei Videomaterialquellen, ein PC und ein Videoserver gezeigt;
in einem Verarbeitungssystem in einer Fernsehsendestation oder dergleichen
besteht das System jedoch aus der Verwendung von zahlreichen Videomaterialquellen,
zahlreichen PCs und zahlreichen Videoservern und hierauf aufgesetzt aus
zahlreichen Workstations, VTRs, Plattengeräten, Fernsehmonitoren, Verarbeitungsmaschinen
und dergleichen, die sämtliche
angeschlossen sind.
-
Da
die Möglichkeit
besteht, dass sämtliche dieser
Geräte
Daten übertragen
können
unter Verwendung der Datenübertragungsleitung,
werden sehr große
Datenvolumina über
das System insgesamt übertragen.
Das Datenübertragungsmengenverringerungs verfahren
gemäß der vorliegenden
Erfindung ist in diesen Situationen besonders effektiv.
-
Da
die Datenmenge, die in das Verarbeitungsgerät übertragen wird, wie etwa in
einen PC, deutlich verringert ist, kann das Verarbeitungsgerät implementiert
werden unter Verwendung eines PCs mit viel kleinerem Hauptspeicher
oder Festplattenlaufwerkkapazität
zur Speicherung von Bilddaten.
-
Wenn
die Anzeige der Ergebnisse der auf dem Verarbeitungsgerät, wie etwa
einem PC, vorgenommenen Verarbeitung angezeigt werden, und zwar
als Bewegtbilder auf der Anzeige des PCs, das heißt, wenn
die Verarbeitungsergebnisse als Bewegtbilder vorab betrachtet werden,
ist deshalb, weil die erfasste Datenmenge klein ist, die Anzeigegeschwindigkeit
der Verarbeitungsergebnisse schnell und der Verarbeitungswirkungsgrad
ist deutlich verbessert. Die Belastung der CPU, des Hauptspeichers und
des Festplattenlaufwerks des PCs ist ebenfalls verringert.
-
Als
nächstes
werden die Konfiguration und die Arbeitsweise des Videoservers 104 unter
Bezug auf die Zeichnungen erläutert.
-
10 zeigt
ein Diagramm unter Darstellung der Konfiguration des Videoservers 104.
In 10 führt
die I/O-Datensteuerschaltung 1501 die
Verarbeitung zum Anordnen komprimierter Bilddaten, die Eingabe von
der Außenseite
auf einer Datenübertragungsleitung 1507 zum Übertragen
von Daten innerhalb des Videoservers 104 und außerdem die
Verarbeitung zum Ausgeben von Daten durch, die auf der Datenübertragungsleitung 1507 zur
Außenseite überführt werden.
-
Ein
Feinbildinformationsspeicher 1502 speichert komprimierte
Bilddaten (Hochfrequenzdaten) mit Ausnahme der Grobbildinformation.
Ein Grobbildinformationsspeicher 1503 speichert Grobbildinformation,
die den groben Inhalt der komprimierten Bilddaten darstellt.
-
Der
Feinbildinformationsspeicher 1502 und der Grobbildinformationsspeicher 1503 besitzen
jeweils ein Schreibfreigabeterminal bzw. einen -anschluss, der gesperrt
ist (das Schreiben ist gesperrt), wenn ein hoher Pegel gewählt ist
(nachfolgend abgekürzt
als H bezeichnet), und der freigegeben wird (das Schreiben wird
freigegeben), wenn ein niedriger Pegel gewählt ist (nachfolgend ist dies
als L bezeichnet). Der Feinbildinformationsspeicher 1502 und
der Grobbildinformationsspeicher 1503 besitzen jeweils ein
Lesefreigabeterminal bzw. einen -anschluss, der gesperrt ist (das
Lesen ist gesperrt), wenn H gewählt ist,
und der freigegeben wird (das Lesen wird freigegeben), wenn L gewählt ist.
-
Eine
CPU 1504 steuert den gesamten Schaltkreis innerhalb des
Videoservers 104. Ein Festplattencontroller 1505 steuert
Datenschreib- und -lesevorgänge
auf der Festplatte 1506. Die Festplatte 1506 speichert
Daten (zeichnet diese auf). Die Datenübertragungsleitung 1507 wird
zur Übertragung komprimierter
Bilddaten und von verschiedenen Arten von Steuerinformation genutzt.
In der vorliegenden Ausführungsform
kann die Datenübertragungsleitung 1507 implementiert
sein durch eine beliebige Art von Datenübertragungsleitung, so lange
diese digitale Daten zu übertragen
vermag. In dieser Ausführungsform
wird ein PCI-(Peripheral Component Interconnect)-Bus verwendet.
-
Ein
Pfeil 1508 bezeichnet eine Kommunikationsleitung zum Übertragen
verschiedener Arten von Steuerinformation zwischen der I/O-Datensteuerschaltung 1501 und
der CPU 1504. Ein Pfeil 1509 zeigt ein Schreibfreigabesignal,
das die CPU 1504 zu dem Feinbildinformationsspeicher 1502 ausgibt,
um einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 freizugeben
bzw. zu ermöglichen.
-
Ein
Pfeil 1510 bezeichnet ein Schreibfreigabesignal, das die
CPU 1504 an den Feinbildinformationsspeicher 1502 ausgibt,
um einen Datenlesevorgang aus dem Feinbildinformationsspeicher 1502 freizugeben.
Ein Pfeil 1511 zeigt ein Schreibfreigabesignal, das die
CPU 1504 an den Grobbildinformationsspeicher 1503 ausgibt,
um einen Datenschreibvorgang in den Grobbildinformationsspeicher 1503 freizugeben.
Ein Pfeil 1512 zeigt ein Lesefreigabesignal, das die CPU 1504 an
den Grobbildinformationsspeicher 1503 ausgibt, um einen
Datenlesevorgang aus dem Grobbildinformationsspeicher 1503 freizugeben.
-
Die
Konfiguration des Videoservers 104 gemäß der vorliegenden Ausführungsform
ist vorstehend erläutert
worden.
-
Als
nächstes
wird die Arbeitsweise des Videoservers 104 unter Bezug
auf die übrigen
Zeichnungen erläutert.
-
11 zeigt
ein Diagramm unter Darstellung der Konfiguration des Videoservers 104 zusammen mit
einem Signalfluss, wenn Daten in den Videoserver 104 geschrieben
werden. 11 zeigt den in 10 gezeigten
Videoserver 104. Zur Erleichterung der Erläuterung
bezeichnen Pfeile 1650, 1651, 1652, 1653, 1654 und 1655 jeweils
den Signalfluss.
-
Der
Pfeil 1650 zeigt den Signalfluss ausgehend von einem in
Bezug auf den Videoserver 104 externen Gerät zu der
I/O-Datensteuerschaltung 1501.
Der Pfeil 1651 bezeichnet den Signalfluss von der I/O-Datensteuerschaltung 1501 zu
dem Feinbildinformationsspeicher 1502. Der Pfeil 1652 zeigt
den Signalfluss von der I/O-Datensteuerschaltung 1501 zu
dem Grobbildinformationsspeicher 1503. Der Pfeil 1653 zeigt
den Signalfluss von dem Feinbildinformationsspeicher 1502 zu
dem Festplattencontroller 1505. Der Pfeil 1654 zeigt
den Signalfluss von dem Grobbildinformationsspeicher 1503 zu
dem Festplattencontroller 1505.
-
Der
Pfeil 1655 zeigt den Signalfluss von der Grobbildinformationsausgabe
von dem Grobbildinformationsspeicher 1503 sowie die Übertragung über die
Datenübertragungsleitung 1507 zu
der I/O-Datensteuerschaltung 1501 zur Ausgabe zur Außenseite
des Videoservers 104 bzw. aus diesem heraus. Der Dateninhalt
ist derselbe wie das durch den Pfeil 1654 bezeichnete Signal.
-
12 zeigt
ein Zeitlaufdiagramm für
einen Datenschreibvorgang in den Feinbildinformationsspeicher 1502 und
den Grobbildinformationsspeicher 1503. 13 zeigt
ein Zeitlaufdiagramm für
einen Datenschreibvorgang von dem Feinbildinformationsspeicher 1502 und
dem Grobbildinformationsspeicher 1503 zu der Festplatte 1506.
In 12 und 13 bezeichnet
eine Schraffierung ungültige
Daten.
-
Datenschreibvorgänge in den
Videoserver 104 werden nunmehr unter Bezug auf 11, 12 und 13 näher erläutert.
-
In 12 bildet
ein Signal 1301 einen Systemtakt für den Videoserver 104.
Das Signal 1302 bildet ein angegebenes komprimiertes Bildsignal,
bei dem es sich um das mit dem Pfeil 1650 bezeichnete Signal
handelt (11). Die DC- und AC-Komponenten dieses
Signals werden in die I/O-Datensteuerschaltung 1501 eingegeben.
Die I/O-Datensteuerschaltung 1501 sendet
ein Datenankunftssignal 1508 zu der CPU 1504.
Nach einer Verzögerung
von zwei Taktimpulsen, die für
die Signalverarbeitung innerhalb der I/O-Datensteuerschaltung 1501 zugelassen ist,
wird das komprimierte Bildsignal aus der I/O-Datensteuerschaltung 1501 auf
der Datenübertragungsleitung 1507 ausgegeben.
Der zeitliche Ablauf dieses Vorgangs ist durch das Signal 1303 gezeigt.
Synchron zur Ausgabe der DC-Komponente wird das Schreibfreigabesignal 1511 in
den Grobbildinformationsspeicher 1503 durch die CPU 1504 mit
L gewählt. Der
Betriebszeitablauf des Schreibfreigabesignals 1511 ist
durch das Signal 1304 gezeigt.
-
Das
Schreibfreigabesignal 1509 zu dem Feinbildinformationsspeicher 1502 wird
durch die CPU 1504 synchron zu einer Ausgabe der AC-Komponente
mit L gewählt.
Der Betriebszeitablauf des Schreibfreigabesignals 1509 ist
durch das Signal 1305 gezeigt.
-
Wenn
Grobbilddaten wie vorstehend angesprochen auf die Datenübertragungsleitung 1507 gegeben
werden, befindet sich die Schreibfreigabe des Grobbildinformationsspeicher 1503 auf
L, und wenn Feinbilddaten auf die Datenübertragungsleitung 1507 gegeben
werden, befindet sich die Schreibfreigabe in dem Feinbildinformationsspeicher 1502 auf L.
Bei diesen Vorgängen
wird lediglich die Grobbildinformation (DC-Komponenten) in den Grobbildinformationsspeicher 1503 geschrieben,
und ausschließlich
die Feinbildinformation (die AC-Komponenten) werden in den Feinbildinformationsspeicher 1502 geschrieben.
-
Lesevorgänge aus
den jeweiligen Speichern und Schreibvorgänge in die Festplatte 1506 werden nunmehr
erläutert.
-
Zunächst treibt
die CPU 1504 das Lesefreigabesignal 1512 auf L
in den Grobbildinformationsspeicher 1503. Der Betriebstakt
bzw. -zeitablauf des Lesefreigabesignals 1512 zu diesem
Zeitpunkt ist durch das Signal 1402 in 13 gezeigt,
und der Betriebsablauf des Datenausgangssignals auf der Datenübertragungsleitung 1507 ist
durch das Signal 1403 gezeigt. Das Signal 1401 ist
der Systemtakt des Videoservers 104, der demjenigen entspricht,
der durch das Signal 1301 gezeigt ist. Die DC-Komponenten
werden sequenziell ausgelesen, bis sämtliche Daten, die in dem Grobbildinformationsspeicher 1503 gespeichert
sind, ausgegeben sind. Die Auslese-DC-Komponenten werden auf der
Datenübertragungsleitung 1507 ausgegeben
und zu dem Festplattencontroller 1505 übertragen. Der Datenfluss zu
diesem Zeitpunkt ist durch einen Pfeil 1654 gezeigt (11).
Während
dieser Periode wird das Lesefreigabesignal 1512 auf L gehalten,
wie durch das Signal 1402 in 13 gezeigt.
-
Wenn
sämtliche
DC-Komponenten aus dem Grobbildinformationsspeicher 1503 ausgegeben worden
sind, wird das Lesefreigabesignal 1512 auf H gesetzt, wie
durch das Signal 1402 gezeigt, und gleichzeitig wird das
Lesefreigabesignal 1510 für den Feinbildinformationsspeicher 1502 auf
L gesetzt, wie durch das Signal 1404 gezeigt. Beim nächsten Taktimpuls,
nachdem das Lesefreigabesignal 1510 auf L gesetzt worden
ist, beginnen die AC-Komponenten, die im Feinbildinformationsspeicher 1502 gespeichert
sind, damit, ausgegeben zu werden. Sämtliche der AC-Komponenten,
die im Feinbildinformationsspeicher 1502 gespeichert sind,
werden zu dem Festplattencontroller 1505 über die
Datenübertragungsleitung 1507 übertragen.
Der Datenfluss zu diesem Zeitpunkt ist durch einen Pfeil 1653 gezeigt.
-
14 zeigt
ein Konzeptionsdiagramm unter Darstellung der Übertragung der Grobbildinformation
und der Feinbildinformation zur Festplatte 1506. Das heißt, das
Diagramm zeigt die Signalflüsse 1654 und 1653 (in 11 gezeigt) über die
Datenübertragungsleitung 1507.
-
Anhand
von 14 wird nunmehr erläutert, wie die Grobbildinformation
und die Feinbildinformation zur Festplatte 1506 übertragen
werden. 14 zeigt die Übertragung
der Bilddaten für
ein Vollbild.
-
Zunächst werden
die DC-Komponenten des Y-Signals, in dem Luminanzsignalgrobbildinformationsteil 1201 gezeigt, übertragen.
Als nächstes
werden die DC-Komponenten des Cb-Signals, in dem Farbdifferenzsignalgrobbildinformationsteil 1202 gezeigt, übertragen.
Als nächstes
werden die DC-Komponenten des Cr-Signals, in dem Farbdifferenzsignalgrobbildinformationsteil 1203 gezeigt, übertragen. Als
nächstes
werden die AC-Komponenten
des Y-Signals, in dem Luminanzsignalfeinbildinformationsteil 1204 gezeigt, übertragen.
Als nächstes
werden die AC-Komponenten des Cb-Signals, in dem Farbdifferenzsignalfeinbildinformationsteil 1205 gezeigt, übertragen.
Als nächstes
werden die AC-Komponenten des Cr-Signals, in dem Farbdifferenzsignalfeinbildinformationsteil 1206 gezeigt, übertragen.
-
In
dieser Ausführungsform
der vorliegenden Erfindung liegen so viele DC-Komponenten des Y-Signals
vor, wie DC-Blöcke
des Y-Signals vorliegen, das heißt, insgesamt 5400 DC-Komponenten
pro Vollbild. Die Anzahl von DC-Komponenten des Cb-Signals und die
Anzahl von DC-Komponenten des Cr-Signals entsprechen der Anzahl
von DCT-Blöcken
des Cb-Signals und der Anzahl von DCT-Blöcken des Cr-Signals. Das heißt, es existieren
1350 DC-Blöcke pro
Vollbild für
jedes Farbdifferenzsignal.
-
Die
Anzahl von AC-Komponenten der Y-, Cb- und Cr-Signale variiert zwischen
den Vollbildern, weil die Anzahl von AC-Komponenten, die auf null quantisiert
sind, in jedem Block abhängig
vom Bild variiert. In dem Beispiel von 14, das
die vorliegende Ausführungsform
zeigt, besitzt das Y-Signal 200.000 RC-Komponenten, das Cb-Signal
besitzt 40.000 AC-Komponenten
und das Cr-Signal besitzt 50.000 AC-Komponenten.
-
Wenn
ein Arbeitsvorgang anliegt, wie etwa ein Verarbeitungsvorgang, der
rasch ausgeführt
werden muss, werden die DC-Komponenten
nach außen aus
dem Videoserver 104 aus der I/O-Datensteuerschaltung 1501 ausgegeben,
und gleichzeitig werden sie in die Bildinformation zur Festplatte 1506 übertragen.
-
Zu
diesem Zeitpunkt muss die I/O-Datensteuerschaltung 1501 die
Bildinformation zur Außenseite
nur dann ausgeben, wenn die DC-Komponenten über die Datenübertragungsleitung 1507 übertragen
werden. Das heißt,
die I/O-Datensteuerschaltung 1501 ist dazu freigeschaltet,
nur dann auszugeben, wenn das Luminanzsignalgrobbildinformationsteils 1201,
das Farbdifferenzsignalgrobbildinformationsteil 1202 und
das Farbdifferenzsignalgrobbildinformationsteil 1203 über die
Datenübertragungsleitung 1507 übertragen
werden, wie durch den Pfeil 1654 gezeigt. Die I/O-Datensteuerschaltung 1501 sollte
bezüglich
ihrer Ausgabe gesperrt sein, wenn das Luminanzsignalfeinbildinformationsteils 1204, das
Farbdifferenzsignalfeinbildinformationsteil 1205 und das
Farbdifferenzsignalfeinbildinformationsteil 1206 über die
Datenübertragungsleitung 1507 übertragen
werden, wie durch den Pfeil 1653 gezeigt.
-
Der
Zeitpunkt bzw. die zeitliche Steuerung zum Freigeben und Sperren
der I/O-Datensteuerschaltung 1501 in Bezug auf die Ausgabe
wird durch das Signal 1508 von der CPU 1504 gesteuert.
Da in der vorliegenden Erfindung die Grobbildinformation und die
Feinbildinformation jeweils in mehreren aneinander hängenden
Segmenten übertragen
werden, tritt ein Umschalten der Steuerung von der CPU 1504 selten
auf. Dies erleichtert deutlich die Steuerung und reduziert drastisch
die Belastung der CPU 1504.
-
Dies
ermöglicht
ferner eine starke Verringerung des Stromverbrauchs der I/O-Datensteuerschaltung 1501 sowie
der CPU 1504.
-
Die
DC-Komponenten, die aus dem Grobbildinformationsspeicher 1503 ausgelesen
werden, und die AC-Komponenten, die aus dem Feinbildinformationsspeicher 1502 auslesen
werden, werden auf den Festplattencontroller 1505 übertragen
und auf die Festplatte 1506 in der Abfolge geschrieben,
in der sie übertragen
worden sind.
-
15 zeigt
ein Konzeptionsdiagramm unter Darstellung des Schreibvorgangs der
Bildinformation auf die Festplatte 1506. Wie in 15 gezeigt, wird
die Bildinformation in folgender Abfolge geschrieben: Grobbildinformation
des Luminanzsignals (DC-Komponenten des Y-Signals), als Luminanzsignalgrobinformationsteil 1101 gezeigt,
Grobinformation des Farbdifferenzsignals Cb (die DC-Komponenten
des Cb-Signals), als Farbdifferenzsignalgrobinformationsteil 1102 gezeigt,
Grobinformation des Farbdifferenzsignals Cr (die DC-Komponenten
des Cr-Signals),
als Farbdifferenzsignalgrobinformationsteil 1103 gezeigt,
Feininformation des Luminanzsignals (die AC-Komponenten des Y-Signals), als Luminanzsignalfeininformati onsteil 1104 gezeigt,
Feininformation des Farbdifferenzsignals Cb (die AC-Komponenten
des Cb-Signals), als Farbdifferenzsignalfeininformationsteil 1105 gezeigt,
Feininformation des Farbdifferenzsignals Cr (die AC-Komponenten des
Cr-Signals), als
Farbdifferenzsignalfeininformationsteil 1106 gezeigt.
-
Üblicherweise
werden die Daten in mehrere Blöcke
unterteilt, wenn sie auf eine Platte geschrieben werden. In 15 ist
das Konzept zum Aufzeichnen von Daten in Blöcken dargestellt unter Verwendung
von Doppelpfeilen, die jeweils eine Blockeinheit festlegen.
-
16 zeigt
ein Diagramm unter Darstellung der Konfiguration des Videoservers
zusammen mit dem Signalfluss, wenn DC-Komponentendaten aus dem Videoserver
gelesen werden.
-
Nunmehr
wird unter Bezug auf 16 erläutert, wie die DC-Komponentendaten,
die auf der Festplatte 1506 aufgezeichnet sind, von dem
Videoserver ausgegeben werden.
-
16 zeigt
den in 10 gezeigten Videoserver. Zur
Vereinfachung der Erläuterung
sind Pfeile 1750, 1751 und 1752 gezeigt,
die jeweils einen Signalfluss bezeichnen.
-
Der
Pfeil 1750 bezeichnet den Signalfluss von dem Festplattencontroller 1505 zu
dem Grobbildinformationsspeicher 1503. Der Pfeil 1751 bezeichnet
den Signalfluss von dem Grobbildinformationsspeicher 1503 zu
der I/O-Datensteuerschaltung 1501. Der Pfeil 1752 bezeichnet
den Signalfluss von der I/O-Datensteuerschaltung 1501 zur
Außenseite des
Videoservers 104.
-
Zunächst sendet
die CPU 1504 eine Datenausleseinstruktion von dem Festplattencontroller 1505 über die
Datenübertragungsleitung 1507.
Diese Instruktion dient zum Rückgewinnen
von ausschließlich
Grobbildinformation von der Festplatte 1506 anstelle von
sämtlichen
Daten.
-
Der
Festplattencontroller 1505 steuert die Festplatte 1506 und
gewinnt ausschließlich
Grobbildinformation (DC-Komponenten)
rück. Das
heißt,
das Luminanzsignalgrobbildinformationsteil 1101, das Farbdifferenzgrobbildinformationsteil 1102,
das Farbdifferenzgrobbildinformationsteil 1103, gezeigt
in 15, werden rückgewonnen.
Der Signalfluss zu diesem Zeitpunkt ist durch den Pfeil 1750 gezeigt.
-
Die
Grobbildinformation, die aus der Festplatte 1506 ausgelesen
wird, wird über
die Datenübertragungsleitung 1507 übertragen
und in dem Grobbildinformationsspeicher 1503 gespeichert.
Zu diesem Zeitpunkt wählt
die CPU 1504 das Schreibfreigabesignal 1511 mit
L, wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 platziert wird,
wodurch die Grobbildinformation in den Grobbildinformationsspeicher 1503 geschrieben
werden kann.
-
Als
nächstes
wird die Grobbildinformation, die in den Grobbildinformationsspeicher 1503 gespeichert
ist, zu der I/O-Datensteuerschaltung 1501 über die
Datenübertragungsleitung 1507 übertragen. Zu
diesem Zeitpunkt wählt
die CPU 1504 das Lesefreigabesignal 1512 mit L,
wenn die Grobbildinformation auf der Datenübertragungsleitung 1507 ausgegeben
wird, wodurch die Grobbildinformation aus dem Grobbildinformationsspeicher 1503 ausgegeben
werden kann.
-
Die
I/O-Datensteuerschaltung 1501 wandelt die Grobbildinformation
in eine Form, die nach außen ausgegeben
werden kann. Zu diesem Zeitpunkt steuert die CPU 1504 die
I/O-Datensteuerschaltung 1501 über das
Signal 1508 zur Steuerung des zeitlichen Ablaufs bzw. des
Zeitpunkts zum Ausgeben der Daten, die aus dem Grobbildinformationsspeicher 1503 übertragen
werden.
-
Beim
vorstehend genannten Betriebsablauf zum Auslesen von DC-Komponentendaten
aus dem Videoserver können
die Festplatte 1506 und der Festplattencontroller 1505 für die Steuerung
die jeweiligen Aufgaben lösen
durch Auslesen von ausschließlich
Abschnitten, in denen die DC-Komponenten aneinander grenzend aufgezeichnet
sind.
-
Das
heißt,
der Auslesevorgang kann ausgeführt
werden durch Auslesen von (Zugreifen auf) ausschließlich Blöcken, in
denen das Luminanzsignalgrobbildinformationsteil 1101,
das Farbdifferenzsignalgrobbildinformationsteil 1102 und
das Farbdifferenzsignalgrobbildinformationsteil 1103, wie
in 15 gezeigt, geschrieben sind.
-
Da
das Verhältnis
des Luminanzsignalgrobbildinformationsteils 1101, des Farbdifferenzsignalgrobbildinformationsteils 1102,
des Farbdifferenzsignalgrobbildinformationsteils 1103 zu
der gesamten Bildinformation, die in 15 gezeigt
ist, sehr klein ist, kann die Grobbildinformation aus der Festplatte 1506 sehr
schnell ausgelesen werden und die Lebensdauer der Festplatte 1506 kann
entsprechend verlängert
sein.
-
Da
die Betriebszeiten der Festplatte 1506 und des Festplattencontrollers 1505 kurz
werden, kann der Stromverbrauch drastisch reduziert werden.
-
Möglich werden
diese Effekte durch Aufzeichnen der mehreren Segmente der Grobbildinformation
in aneinander grenzender Weise auf der Festplatte, das heißt, mit
den Schreibblöcken
der Grobbildinformation, die auf der Festplatte aneinander grenzend
angeordnet sind.
-
Darüber hinaus
muss der Bildinformationsspeicher 1502 überhaupt nicht betrieben bzw.
betätigt
werden, und es besteht ferner kein Bedarf an einer Steuerung der
Signale 1509 und 1510. Dies hat den Effekt, dass
der Stromverbrauch des Feinbildinformationsspeichers 1502 und
der CPU 1504 drastisch reduziert ist, während die Belastung der CPU 1504 spürbar verringert
ist.
-
In 10 sind
der Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 jeweils
aus zwei Speicherabschnitten erstellt, aus einem, in den geschrieben
wird, während
aus dem anderen gelesen wird, so dass Daten ohne Unterbrechung durch
Umschalten der beiden Speicherabschnitte zwischen Lese- und Schreibbetriebsarten geschrieben
und ausgelesen werden können.
-
Der
Grobbildinformationsspeicher 1503 und der Feinbildinformationsspeicher 1502 müssen nicht notwendigerweise
getrennt vorgesehen sein. Durch Speichern von Grobbildinformation
in niedrigen Speicheradressen und Feinbildinformation in hohen Speicheradressen
kann die vorliegende Erfindung beispielsweise implementiert werden
unter Verwendung eines einzigen Informationsspeichers.
-
Die
vorstehend genannte Ausführungsform ist
erläutert
worden, indem der Videoserver als Beispiel für das Speichergerät (das Aufzeichnungsgerät) zum Speichern
von Videomaterial herangezogen wurde; andere Geräte bzw. Vorrichtungen, wie
etwa ein digitaler VTR, ein Halbleiterspeicher, eine Festplatte,
eine Videoplatte und dergleichen, können verwendet werden, so lange
die Vorrichtung bzw. das Gerät
in der Lage ist, Bilddaten zu speichern. Auch in diesem Fall kann
die vorliegende Erfindung in derselben Weise ausgeführt werden.
-
In
der vorstehend angesprochenen Ausführungsform ist das Nachrichtenmanuskript
als Beispiel für
zusätzlich
Information in Bezug auf Bildinformation herangezogen worden. Diese
zusätzliche
Information ist jedoch nicht auf das Nachrichtenmanuskript beschränkt. Eine
beliebige andere Informationsart, wie etwa EDL-Information, die
für die
Verarbeitung herangezogen wird, oder in den Bildschirm (das Bild)
einzufügende
Unterschriften können
verwendet werden, so lange die Information das betreffende Bild betrifft.
Auch in diesem Fall ist die vorliegende Erfindung effektiv.
-
In
der vorstehend angesprochenen Ausführungsform ist die DCT-Transformation zur
Bilddatenkompression herangezogen worden. In diesem Hinblick wird
bemerkt, dass der Kern der vorliegenden Erfindung darin besteht,
dass, wenn die Komponenten der komprimierten Bilddaten unterschiedliche Wichtigkeitsgrade
aufweisen, die Bilddaten extrahiert werden können ausschließlich aus
wesentlichen Komponenten, die erforderlich sind, den Bildinhalt
zu identifizieren, und die extrahierten Bilddaten können zu
Anzeigezwecken (zum Browsen) übertragen
werden. Das Kompressionsverfahren ist deshalb nicht auf die DCT-Transformation beschränkt; vielmehr können Bildkompressionsschemata
unter Verwendung anderer orthogonaler Transformationen, wie etwa
die K-L-Transformation, die DST-Transformation, die Hadamard-Transformation,
die Haar-Transformation, die Fourier-Transformation und die Schrägentransformation
verwendet werden, so lange die Transformationsergebnisse von Bilddatenkomponenten
unterschiedliche Wichtigkeitsgrade darstellen, so dass die Bilddaten
unter Verwendung des Wichtigkeitsunterschieds komprimiert werden
können.
Unter Verwendung eines beliebigen dieser Kompressionsschemata kann
die vorliegende Erfindung implementiert sein.
-
In
der vorstehend angesprochenen Ausführungsform ist ein Beispiel
beschrieben worden, demnach ausschließlich DC-Komponenten, resultierend aus der DCT-Transformation,
zu dem Bildanzeigegerät
(dem PC) zu Anzeigezwecken übertragen
werden; nicht nur die DC-Komponenten, sondern auch einige der AC-Komponenten
können
ebenfalls zu dem Bildanzeigegerät
(dem PC) übertragen
werden, um die Qualität
des angezeigten Bilds mit einem bestimmten Grad zu verbessern. Auch
in diesem Fall kann die vorliegende Erfindung implementiert werden,
ohne ihren Zweck außer
Kraft zu setzen, weil die Datenmenge, die gespeichert und zu dem
Bildanzeigegerät
(dem PC) übertragen
wird, reduziert ist im Vergleich zum Verfahren gemäß dem Stand
der Technik, bei dem sämtliche
komprimierten Bilddaten gespeichert und zu dem Bildanzeigegerät (dem PC) übertragen
werden.
-
In
der vorstehend angesprochenen Ausführungsform wurde EDL-Information oder
ein Nachrichtenmanuskript von dem PC zu dem Videoserver übertragen
und der Videoserver, der die EDL-Information
oder das Nachrichtenmanuskript empfängt, hat die Bilddaten auf
Grundlage der EDL-Information neu angeordnet und das verarbeitete
Bild bzw. das empfangene Nachrichtenmanuskript ausgesendet. Alternativ
kann die Verarbeitung durchgeführt
werden durch Übertragen
der EDL-Information von dem PC zu einem weiteren Verarbeitungsgerät, wie etwa einem
VTR unter Verwendung der Datenübertragungsleitung
oder einer Floppydisk.
-
In
der vorstehend angesprochenen Ausführungsform ist lediglich eine
einzige Datenübertragungsleitung
gezeigt; wenn zwei oder mehr Datenübertragungsleitungen vorgesehen
werden, oder wenn ein Teil der Datenübertragungsleitungen als betreffende
Leitung für
die Datenübertragung
genutzt wird, kann die vorliegende Erfindung jedoch auch implementiert
werden, ohne ihren Zweck einer Reduzierung der Datenübertragungsmenge
auszuhebeln.
-
In
der vorstehend angesprochenen Ausführungsform wurde Zeitcodeinformation
zu dem PC übertragen;
anstatt Zeitcodeinformation zu dem PC zu übertragen, kann jedoch auch
lediglich eine Anzeige auf dem PC erzeugt werden und ausschließlich Verarbeitungspunktinformation
kann von dem PC zu dem Videoserver übertragen werden, so dass die Verarbeitungsinformation
im Videoserver erzeugt werden kann. Dies lässt sich problemlos erreichen durch Übertragen
von ausschließlich
Grobbildinformation, die zumindest DC-Komponenten enthält, entlang
dem Signalfluss 113 und durch Ausgeben eines PC-Befehls,
der einen Verarbeitungspunkt bezeichnet, entlang dem Signalfluss 115.
-
In
der vorstehend angesprochenen Ausführungsform sind das erste Videomaterial 101,
das zweite Videomaterial 102 und das dritte Videomaterial 103 als
komprimierte Bilddaten erläutert
worden; bei dem Videomaterial muss es sich jedoch nicht notwendigerweise
um komprimierte Daten handeln; es ist lediglich erforderlich, dass
die Daten in komprimierter Form vorliegen, bevor sie in den PC übertragen
werden.
-
In
der vorstehend angesprochenen Ausführungsform ist keine Erläuterung
bezüglich
der Bildkompression entlang der Zeitachse enthalten; wenn eine Bildkompression
entlang der Zeitachse erfolgt, erfolgt dies jedoch in Übereinstimmung
mit dem Ziel der vorliegenden Erfindung und liegt ebenfalls im Umfang
der vorliegenden Erfindung.
-
Wenn
in der vorstehend angesprochenen Ausführungsform eine Bilddatenübertragung
von dem Videoserver 104 zum PC angefordert wird, wurde
ein Bilddatenanforderungsbefehl durch den Signalfluss 114 ausgegeben;
wenn jedoch die Bildinformation im vornherein im HDD bzw. dem Hauptspeicher
des PCs gespeichert ist, muss der Anforderungsbefehl für diese
Bilddaten nicht unter Verwendung des Signalflusses 114 ausgegeben
werden.
-
In
der vorstehend angesprochenen Ausführungsform wurden von den DC-
und AC-Komponenten, die einer Bildkompression durch die DCT-Transformation
unterlagen, ausschließlich
die DC-Komponenten
genutzt, um die Grobbildinformation zu erzeugen; der Videoserver
wurde als Bildspeichereinrichtung zum Speichern von Bildinformation
genutzt; der Personalcomputer wurde als Verarbeitungsinformationserzeugungseinrichtung
genutzt; die EDL wurde zum Bereitstellen von Verarbeitungsinformation
genutzt, um Echtzeitverarbeitung durchzuführen; und der Zeitcode und
die Kassettennummer zum Identifizieren der Videokassette, die die
Bilddaten enthält, wurden
als Indexinformation genutzt. Es wird jedoch bemerkt, dass die vorliegende
Erfindung nicht auf die vorstehend genannte Ausführungsform beschränkt ist,
sondern dass sie zahlreichen Modifikationen im Umfang des Ziels
der vorliegenden Erfindung zugänglich
ist, wobei diese Informationen ebenfalls vom Umfang der vorliegenden
Erfindung umfasst sind.
-
In
der vorstehend genannten Ausführungsform
wurde eine Übertragungsleitung
in Übereinstimmung
mit Ethernet (IEEE 802.2, IEEE 802.3) als Datenübertragungsleitung 106 genutzt;
eine beliebige andere Art von Übertragungsleitung,
die in der Lage ist, digitale Daten zu übertragen, kann jedoch verwendet
werden, wie etwa solche, die verwendet werden in ATM, 100Base-T,
100VG-AnyLAN, FDDI, TPFDDI, IEEE 1394 und dergleichen. Anstelle
der Verwendung einer Netzwerkübertragungsleitung kann
auch ein PCI-(Peripheral Component Interconnect)-Bus oder eine andere
Art von Bus genutzt werden, der in einem internen Bus eines Personalcomputers
zur Anwendung kommt.
-
In
der vorstehend genannten Ausführungsform
wurde außerdem
ein PCI-Bus als Datenübertragungsleitung 1507 genutzt;
eine beliebige andere Art von Bus, der geeignet ist, digitale Daten
zu übertragen,
kann jedoch verwendet werden, beispielsweise ein SCSI-(Small Computer
System Interface)-Bus. Anstelle eines Busses kann eine Netzwerkübertragungsleitung
genutzt werden, wie etwa eine solche, die verwendet wird in ATM,
100Base-T, 100VG-AnyLAN, FDDI, TPFDDI, IEEE 1394 und dergleichen. Ferner
kann eine Übertragungsleitung
genutzt werden, wie etwa eine solche, die in einem Großbereich-B-ISDN
verwendet wird.
-
In
der vorstehend angesprochenen Ausführungsform wurden Bilddaten
durch den DCT-Prozess komprimiert und eine Quantisierung sowie eine
Codierung variabler Länge
wurden als Beispiel für
die Bilddaten herangezogen, die übertragen
und gespeichert wurden (aufgezeichnet wurden); wenn die Bilddaten
einer anderen Art von Verarbeitung unterworfen werden, wie etwa
einer Verarbeitung zum Zusammensetzen der Bilddaten in Pakete für Telekommunikationszwecke
oder zum "Shuffling" zum Auf zeichnen
auf einen VTR oder zu einer Verarbeitung zum Zusammensetzen der
Bilddaten in VTR-Synchronisationsblöcke, liegt eine derartige Bildverarbeitung ebenfalls
im Umfang der vorliegenden Erfindung, so lange sie in Übereinstimmung
mit der Zielsetzung der vorliegenden Erfindung erfolgt.
-
In
der vorstehend genannten Ausführungsform
wurden die mehreren Segmente der Grobbildinformation angeordnet,
bevor die mehreren Segmente der Feinbildinformation für die Übertragung
und Aufzeichnung angeordnet wurden. Da der Kern der vorliegenden
Erfindung darin besteht, die Grobbildinformation und die Feinbildinformation
durch Gruppieren der jeweiligen Segmente in Bezug aufeinander zu verarbeiten,
können
die mehreren Segmente der Grobbildinformation auch angeordnet werden
nach den mehreren Segmenten der Feinbildinformation für die Übertragung
und Aufzeichnung.
-
In
der vorstehend angesprochenen Ausführungsform wurden die Grobbildinformationssegmente
und die Feinbildinformationssegmente jeweils gemeinsam auf Vollbild-Vollbild-Basis
gruppiert. Da der Kern der vorliegenden Erfindung darin besteht,
die Grobbildinformation und die Feinbildinformation durch Gruppieren
der jeweiligen Segmente in Bezug aufeinander zu verarbeiten, können sie
auch miteinander auf einer längeren
als einer Vollbildbasis oder einer kürzeren als einer Vollbildbasis
gruppiert werden anstatt auf einer Vollbild-Vollbild-Basis.
-
In
der vorstehend genannten Ausführungsform
waren der Videoserver als Gerät
zum Speichern (Aufzeichnen) von Videomaterial und der PC als Gerät zum Durchführen der
Verarbeitung getrennt vorgesehen und sie waren miteinander durch
eine Datenübertragungsleitung
verbunden; die vorliegende Erfindung ist jedoch nicht auf diese
Konfiguration beschränkt.
Beispielsweise ist auch eine Konfiguration möglich, bei der der PC mit einer
Festplatte zum Speichern (Aufzeichnen) von Videomaterial versehen
ist. Dies bedeutet im Wesentlichen, dass die Datenübertragungsleitung,
die in der vorliegenden Erfindung zum Einsatz kommt, nicht auf einen
internen Computerbus beschränkt
ist, wie etwa einen PCI-Bus, oder auf eine Netzwerkübertragungsleitung,
wie etwa Ethernet oder eine andere Netzwerkarchitektur, und dass
eine beliebige Art von Schnittstelle verwendet werden kann, um die
verschiedenen Gerät
miteinander zu verbinden, ohne vom Umfang der vorliegenden Erfindung
abzuweichen.
-
Obwohl
die vorliegende Erfindung im Hinblick auf die aktuell bevorzugten
Ausführungsformen beschreiben
wurde, wird bemerkt, dass diese Offenbarung nicht als beschränkend anzusehen
ist. Verschiedene Abwandlungen und Modifikationen erschließen sich
dem Fachmann auf dem Gebiet der Technik, an den sich die Erfindung
wendet, nach einem Studium der vorstehend angeführten Offenbarung.