-
Die vorliegende Erfindung betrifft
eine Videoeinrichtung und ein Verfahren zum Synchronisieren von
Zeitbasen einer ersten Videoeinrichtung, die ein Videosignal sendet,
und einer zweiten Videoeinrichtung, die das Videosignal empfängt.
-
Das Videosignal kann ein natives
Videosignal sein, das durch die erste Videoeinrichtung erzeugt wird
und Bildinformationen und Synchronisationsinformationen umfaßt, die
aus der Zeitbasis der ersten Videoeinrichtung abgeleitet werden
(zusammengesetztes Videosignal). Alternativ dazu kann das Videosignal
ein komprimierter digitaler Strom sein, der aus dem nativen Videosignal
durch eine Kompressions-Engine mit einer Taktrate, die im allgemeinen
voll asynchron zu dem Bilderzeugungstakt ist, erhalten wird. In
diesem Fall gehen aus der nativen Zeitbasis abgeleitete Bildsynchronisationsinformationen
verloren, und es wird Paketsynchronisation hinzugefügt, wodurch
die Synchronisationsinformationen des Videosignals bereitgestellt
werden.
-
Ein Videosignal besteht aus einer
periodischen Sequenz von Bildern. Jedes Bild besteht aus einer ganzzahligen
Anzahl von Zeilen. Jede Zeile umfaßt eine Anzahl von Punkten
oder Pixeln, die zeitlich mit einer vordefinierten Frequenz beabstandet sind.
Diese Frequenz wird durch einen Oszillator, gewöhnlich einen Quarzoszillator,
bereitgestellt. Bei herkömmlichen
professionellen Videogeräten
kann die Pixelfrequenz des Oszillators 27 MHz betragen, jede Zeile
kann Np=1728 Punkte oder Pixel enthalten und ein Bild N1=625 Zeilen
(geteilt in zwei Einzelbilder).
-
Die Produktion eines Live-Programms
erfordert im allgemeinen die Verwendung mehrerer Kameras, die mit
einem sogenannten Mischer verbunden sind. Ein solcher Mischer kann
verschiedene Grade der Kompliziertheit aufweisen. Der einfachste Typ
eines Mischers ist ein Schalter, der eine der verschiedenen Kameras
auswählt
und ihr Videosignal an einem Ausgang des Mischers bereitstellt.
Kompliziertere Mischer können
in der Lage sein, Bilder aus zwei Kameras zu überlagern, um so einen allmählichen Übergang
zu erzeugen, oder ein kombiniertes Ausgangssignal bereitzustellen,
in dem eine Region des Bildes von einer Kamera und eine andere Region durch
eine zweite Kamera geliefert wird. Damit ein solcher Mischer funktioniert,
müssen
die an den Eingängen
des Mischers anliegenden Videosignale aus den verschiedenen Kameras
perfekt synchronisiert sein. Eine solche Synchronisation impliziert,
daß die Pixelfrequenzen
der verschiedenen Kameras identisch sein sollten und daß am Eingang
des Mischers keine Phasendifferenz zwischen den Bildern aus den verschiedenen
Kameras vorliegen sollte.
-
Gewöhnlich weisen jede Kamera und
der Mischer eine eigene Zeitbasis auf. Wenn diese Zeitbasen unabhängig voneinander
wirken, sind die durch diese Zeitbasen erzeugten Pixelfrequenzen niemals
perfekt identisch, gleichgültig,
wie präzise die
Zeitbasen sind. Phasendifferenzen zwischen Signalen aus verschiedenen
Kameras können
durch unterschiedliche Übertragungsleitungslängen zwischen der
Kamera und dem Mischer verursacht werden.
-
Um trotz dieser Probleme eine Synchronisation
zu erzielen, wurden zwei Ansätze
entwickelt. Ein erster Ansatz ist der sogenannte Bildsynchronisierer. Im
wesentlichen kann ein Bildsynchronisierer als eine Art anpaßbarer Puffer
zwischen jeder Kamera und dem Mischer betrachtet werden. Bilddaten
werden in den Puffer mit der Rate geschrieben, mit der sie durch
die Kamera erzeugt werden, was auf der Pixelfrequenz der Kamera
basiert. Sie werden mit der Pixelfrequenz des Mischers aus dem Puffer
gelesen. Wenn die Pixelfrequenz des Mischers genau mit der der Kamera übereinstimmt,
kann der Synchronisierer als ein einfaches Verzögerungselement angesehen werden.
Wenn die Pixelfrequenz des Mischers höher als die der Kamera ist,
kann ein in dem Puffer gespeichertes Einzelbild zweimal durch den
Mischer gelesen werden, bevor es durch die Kamera überschrieben
wird, und wenn die Pixelfrequenz der Kamera höher als die des Mischers ist,
kann ein Einzelbild in dem Puffer übersprungen werden (überschrieben, ohne
daß der
Mischer es überhaupt
gelesen hat). Die Rate, mit der Einzelbilder zweimal gelesen oder übersprungen
werden, hängt
von der Frequenzdifferenz zwischen Kamera- und Mischerfrequenzen
ab. Der Bildsynchronisierer ist vielseitig und leicht zu steuern, hat
aber insofern einen Nachteil, als er eine unvorhersehbare Verzögerung verursacht,
die einen beliebigen Wert zwischen 0 und 1 Bild annehmen kann. Eine
solche Verzögerung
kann beim Mischen von Video- und Audiosignalen, um den Programminhalt
zu produzieren, äußerst peinlich
sein. Sogenannte "Lip sync"-Effekte (das Audiosignal
ist dem Videosignal voraus oder hinterher) sind bemerkbare und unerwünschte Effekte.
-
Diese Art von Problem kann durch
Verwendung des Genlock-Ansatzes vermieden werden. Gemäß diesem
Ansatz wird die Pixelfrequenz jeder Kamera so gesteuert, daß sie strikt
mit einer Pixelfrequenz des Mischers identisch ist, und die Bildphase jeder
Kamera wird so gesteuert, daß sie
der Bildphase des Mischers geringfügig vorauseilt, wobei auf der Basis
der Verzögerung
der Übertragungsleistung zwischen
der Kamera und dem Mischer bestimmt wird, um wieviel, so daß, wenn
das Videosignal aus der Kamera am Eingang des Mischers ankommt,
seine Bildphase strikt mit der des Mischers übereinstimmt.
-
Ein üblicher Ansatz zur Videoeinrichtungssynchronisation
kann folgendermaßen
beschrieben werden. In einem Videosystem, das eine erste Videoeinrichtung
umfaßt,
die ein zusammengesetztes Videosignal sendet, das Bildinformationen
und Synchronisationsinformationen, die aus einer Zeitbasis der ersten
Videoeinrichtung abgeleitet werden, und eine zweite Videoeinrichtung,
die das zusammengesetzte Videosignal empfängt, umfaßt,
- a)
werden Synchronisationsinformationen aus dem durch die zweite Videoeinrichtung
empfangenen zusammengesetzten Videosignal und aus der Zeitbasis
der zweiten Videoeinrichtung extrahiert;
- b) Horizontal- und Einzelbildphasendifferenzen zwischen dem
durch die zweite Videoeinrichtung empfangenen zusammengesetzten
Videosignal und der Zeitbasis der zweiten Videoeinrichtung werden
auf der Basis der extrahierten H- und F-Synchronisationsinformationen
bestimmt.
- c) Die Horizontal-Phasendifferenz wird im analogen Bereich berechnet,
dann an einen Integrierer angelegt, was zu einer Steuerspannung
führt,
die zeilenweise zu der Takterzeugung der ersten Einrichtung gesendet
wird, um ihre Frequenz nach oben (oder nach unten) zu schieben,
wobei ihre Zeilen- und Einzelbilddauer reduziert (oder vergrößert) wird,
bis die Horizontal-Phasendifferenz aufgehoben ist. Diese Technik
ist als Phasenregelkreis wohlbekannt.
- d) Die Einzelbild-Phasendifferenz wird auf die folgende Weise
verarbeitet: Gemäß ihrem
Wert wird ein Rücksetzimpuls
erzeugt und einzelbild- oder teileinzelbildweise zu der ersten Einrichtung
gesendet, um nur ein einziges Mal ihre reguläre (selbstlaufende) Periode
zu einem präzisen
Zeitpunkt zu verändern.
-
Im allgemeinen werden diese beiden
Arten von Informationen (analog-proportional für Frequenz- und Horizontal-Phasensteuerung;
Vertikal-Rücksetzen
für Einzelbild-Steuerung)
kombiniert, um zu der ersten Einrichtung gesendet zu werden.
-
Es muß hervorgehoben werden, daß die Übertragungsmedien
der Steuerinformationen zu der ersten Videoeinrichtung eine vorhersehbare
und reproduzierbare Verzögerung
aufweisen müssen.
Andernfalls kann der Rücksetzimpuls
zu früh
oder zu spät
kommen, was zu einer unregelmäßigen, permanent
falschen Zeitbasissequenz führt.
-
Ein weiteres spezifisches Beispiel
für eine Vertikal-Rücksetzverarbeitung eines Videokamerasystems
wird in dem Patent
DE
40 30 148 C2 beschrieben. In dieser Schrift wird eine Einzelbild-Phasendifferenz
zwischen den aus der Kamera empfangenen Synchronimpulsen und durch
eine lokale Zeitbasis der Kamerasteuereinheit erzeugten Synchronimpulsen
berechnet. Wenn eine solche Einzelbild-Phasendifferenz existiert,
wird ein Rücksetzimpuls
zu der Kamera gesendet, der eine Phasenverschiebung des von ihr
erzeugten Bildsignals (und daher des V-Synchronsignals) bewirkt,
die einer Bildzeile äquivalent
ist. Dieser Prozeß wird
einmal pro Bild (d.h. Einzelbild) wiederholt, bis die Steuereinheiten finden,
daß die
V-Synchronimpulse aus der Kamera und aus der lokalen Zeitbasis phasengleich
sind. Da die Zeilenanzahl in herkömmlichen Videobildern z.B. gemäß den Normen
PAL und SECAM 625 beträgt, kann
dieses vorbekannte System einige Sekunden brauchen, um die V-Synchronimpulse
der Kamera und der Steuereinheit auszurichten. Ferner setzt es auch
eine perfekt vorhersehbare Übertragungsverzögerung des
Rücksetzimpulses
voraus.
-
Es wird somit ein schnelles Verfahren
zum Synchronisieren von Zeitbasen von Videoeinrichtungen und eine
Videoeinrichtung mit schneller Synchronisation benötigt, insbesondere
wenn die Einrichtungen durch zwei Übertragungsmedien verbunden sind,
deren Übertragungsverzögerung mit
der Zeit veränderlich
sein kann.
-
Die Erfindung schlägt ein Verfahren
zur Verwendung in einem Videosystem vor, das eine erste Videoeinrichtung,
die ein Videosignal sendet, das Bildinformationen und Synchronisationsinformationen
umfaßt,
und eine zweite Videoeinrichtung, die das Videosignal empfängt, umfaßt, mit
den folgenden Schritten:
- a) Synchronisationsinformationen
werden aus dem durch die zweite Videoeinrichtung empfangenen Videosignal
und aus der Zeitbasis der zweiten Videoeinrichtung extrahiert;
- b) eine Phasendifferenz zwischen dem durch die zweite Videoeinrichtung
empfangenen Videosignal und der Zeitbasis der zweiten Videoeinrichtung
wird auf der Basis der extrahierten Synchronisationsinformationen
bestimmt;
- c) Steuerinformationen eines ersten Typs, die den Betrag der
Phasendifferenz darstellen, werden zu der ersten Einrichtung gesendet;
und
- d) in der ersten Einrichtung wird die Phase des Videosignals
um einen Phasenwinkel umgeschaltet, der durch die Steuerinformationen
eines ersten Typs dargestellt wird.
-
Es wird nicht nur bestimmt, daß eine Phasendifferenz
besteht und ob die Phasendifferenz ein Vorauseilen oder eine Verzögerung ist,
sondern es wird auch ein quantitatives Maß der Phasendifferenz bestimmt
und zu der ersten Einrichtung gesendet, wodurch die erste Einrichtung
ihre Phase in einem einzigen Schritt anpassen kann. Folglich kann
eine Bildperiode ausreichen, um die Phasendifferenz zu bestimmen
und zu korrigieren.
-
Es reicht im allgemeinen aus, das
Verfahren einmal auszuführen,
wenn die erste und/oder die zweite Videoeinrichtung eingeschaltet
wird; vorzugsweise werden mindestens die Schritte a) bis b) jedoch
zyklisch wiederholt. Die Schritte c) und d) können auch wiederholt werden,
werden aber vorzugsweise nur dann ausgeführt, wenn die durch die erste Art
von Steuerinformationen dargestellte Phasendifferenz von 0 verschieden
ist, d.h. wenn tatsächlich eine
zu korrigierende Phasendifferenz besteht. Auf diese Weise wird die Übertragungsbandbreite
von der zweiten zu der ersten Einrichtung, die zur Ausführung des
Verfahrens erforderlich ist, äußerst klein.
-
Gemäß einer bevorzugten Ausführungsform sind
die Steuerinformationen ein binäres
Datenwort mit einer vordefinierten Anzahl von Bit, wobei die Anzahl
mindestens zwei beträgt.
-
Weiterhin weist das Verfahren vorzugsweise die
folgenden zusätzlichen
Schritte auf:
- e) Bestimmen des ersten Typs
von Steuerinformationen und von Steuerinformationen eines zweiten
Typs dergestalt, daß die
Summe von Phasendifferenzen, die durch den ersten und den zweiten
Typ von Steuerinformationen dargestellt werden, die im Schritt b)
bestimmte Phasendifferenz ist,
- f) Senden auch des zweiten Typs von Steuerinformationen zu der
ersten Einrichtung und
- g) Anwenden einer Phasenverschiebung, die durch den zweiten
Typ von Steuerinformationen dargestellt wird, auf das zusammengesetzte
Videosignal in der ersten Einrichtung.
-
Durch Beschränken der Anzahl von Bit, die der
erste Typ von Steuerinformationen aufweisen kann, wird die erforderliche
Zeit zum Senden dieser Informationen zu der ersten Einrichtung gering
gehalten. Der Umstand, daß dieser
erste Typ von Steuerinformationen nur eine begrenzte Auflösung aufweist,
wird kompensiert, indem weiterhin der zweite Typ von Steuerinformationen
gesendet wird, der eine Feineinstellung der Bildphase in der ersten
Videoeinrichtung ermöglicht.
Der Mechanismus zum Anwenden der durch den zweiten Typ von Steuerinformationen
dargestellten Phasenverschiebung auf das zusammengesetzte Videosignal
kann von dem abrupten Umschalten, das auf der Basis des ersten Typs von
Steuerinformationen ausgeführt
wird, verschieden sein. Vorzugsweise wird diese Feineinstellung der
Phasenverschiebung ausgeführt,
indem die Pixelfrequenz der Zeitbasis der ersten Einrichtung gemäß dem Vorzeichen
der durch den zweiten Typ von Steuerinformationen dargestellten
Phasenverschiebung vergrößert oder
verkleinert wird. Das heißt, wenn
sich die Phase des Videosignals aus der ersten Einrichtung als der
der zweiten Einrichtung vorauseilend erweist, wird die Pixelfrequenz
der ersten Einrichtung auf der Basis des zweiten Typs von Steuerinformationen
reduziert, bis sich zeigt, daß die
Phasen zusammenfallen, und wenn die Phase des Videosignals aus der
ersten Einrichtung in Bezug auf die der zweiten Einrichtung verzögert ist,
wird die Pixelfrequenz der ersten Einrichtung erhöht, bis
die Phasen zusammenfallen.
-
Vorzugsweise wird eine Zeit zum Ausführen von
Schritt d) gemäß der im
Schritt b) bestimmten Phasendifferenz dergestalt gewählt, daß nach der Ausführung von
Schritt d) das Videosignal in der ersten Einrichtung eine vordefinierte
Phase annimmt, vorzugsweise den Anfang eines Bildes in dem Videosignal.
Auf diese Weise kann eine Diskontinuität der durch die zweite Videoeinrichtung
empfangenen Bildinformationen vermieden werden.
-
Die Erfindung schlägt die folgenden
bevorzugten Merkmale vor:
- – Die H-Phasendifferenz wird
im digitalen Bereich berechnet, dann wahlweise durch eine nichtlineare
Stufe verarbeitet, deren Zweck die Reduktion der Anzahl zu übertragender
Bit ist. Ein solches Transfergesetz erhält die gesamte Auflösung der H-Phasendifferenz,
wenn kleine Werte übertragen
werden sollen. Je höher
der zu übertragende Wert
ist, desto mehr Rundung wird zugelassen, da sich diese Rundung nicht
auf den stationären Zustand
(kleine Werte um Null) auswirkt. Also bestehen die übertragenen
Daten aus einem "Range"-Feld und einem "Daten"-Feld. Das Range-Feld
(z.B. 3 Bit) übermittelt
einen Zweierpotenz-Multiplikationsfaktor, der auf das Datenfeld anzuwenden
ist, wobei es sich um einen vorzeichenbehafteten Wert handelt.
- – In
der Kamera wird die umgekehrte Operation durchgeführt, und
die ungefähre
H-Phasendifferenz wird auf ein digitales Filter (PI) angewandt, wodurch
ein Steuersignal resultiert, das entweder in den analogen Bereich
umgesetzt wird oder einen Direkt-Digitalsynthesizer steuert. In
beiden Fällen verschiebt
die Takterzeugung der ersten Einrichtung ihre Frequenz nach oben
(oder nach unten), wobei ihre Zeilen- und Einzelbilddauer reduziert
(oder erhöht)
wird, bis die H-Phasendifferenz aufgehoben ist. Es erscheinen drei
Vorteile dieser Technik: Erstens kann die Übertragungsrate der H-Phasendifferenz wesentlich
kleiner als ihr analoges Gegenstück
sein; zweitens ist sie total vor Übertragungsrauschen geschützt; als
letztes können
die Übertragungsmedien
sogar Dropouts aufweisen, da immer das neueste digitale Steuersignal
verfügbar
ist.
- – Die
F-(Einzelbild-)Phasendifferenz wird ebenfalls auf nichtklassische
Weise verarbeitet: Statt einen Rücksetzimpuls
in der empfangenden Einrichtung zu erzeugen, wird die im digitalen
Bereich berechnete und auf die nächste
ganzzahlige Anzahl von Zeilen gerundete F-Phasendifferenz direkt
einzelbild- oder teileinzelbildweise zu der ersten Einrichtung gesendet.
- – In
der ersten Einrichtung wird die F-Phasendifferenz in Verbindung
mit der Zeitbasis zur lokalen Erzeugung des Rücksetzimpulses verwendet, der nur
einmal seine reguläre
(selbstlaufende) Periode zu einem präzisen Zeitpunkt verändern wird. Der
Vorteil dieser Innovation ist erstaunlich: Es hat keinen Einfluß mehr,
welche Verzögerung
benötigt
worden ist, um die F-Phasendifferenz zu übertragen, der Rücksetzimpuls
wird immer zum richtigen Zeitpunkt auftreten.
-
Wie bereits erwähnt, ist es in der Technik üblich, daß die in
dem zusammengesetzten Videosignal enthaltenen Bildinformationen
durch eine Sequenz von Bildern gebildet werden, wobei jedes Bild
mehrere Zeilen umfaßt.
In diesem Fall stellt der erste Typ (V-Phase) von Steuerinformationen
vorzugsweise eine Anzahl von Zeilen dar, um die das aus der ersten Videoeinrichtung empfangene
zusammengesetzte Videosignal in bezug auf die Zeitbasis der zweiten Einrichtung
phasenverschoben wird. Wenn die Anzahl von Zeilen pro Bild 625 beträgt, wird
der erste Typ von Steuerinformationen genauer gesagt ein binäres Wort
von mindestens 10 Bit sein müssen,
um in der Lage zu sein, alle möglichen
Phasenverschiebungen zwischen den beiden Videosignalen mit einer Auflösung von
einer Zeile darzustellen.
-
Wenn ein herkömmliches analoges Videosignal
direkt von der ersten zu der zweiten Videoeinrichtung übertragen
wird, ist die Übertragungsverzögerung zwischen
den beiden Einrichtungen gewöhnlich
konstant, solange die Einrichtungen in Betrieb sind und die Übertragungsleitung
zwischen beiden nicht modifiziert wird.
-
Wenn vor der Übertragung eine digitale Komprimierung
notwendig ist (zum Beispiel im Fall einer digitalen drahtlosen Übertragung),
wird zwischen den beiden Einrichtungen eine paketorientierte Übertragung
verwendet und die Verzögerung
zwischen der Erzeugung etwa des ersten Pixels eines Bilddaten elements
und dem Kopf des Pakets, die den Anfang des entsprechenden komprimierten Halbbilds
in der ersten Einrichtung identifizieren, kann unterschiedlich sein.
Synchronisationsimpulse der "nativen" Videosignale sind
dann in dem Datenstrom entweder nicht verfügbar oder keine zuverlässige Grundlage
für die
Steuerung der Pixelfrequenz der ersten Einrichtung mehr. Es gibt
dafür vielfache Gründe: Der Übertragungstakt
ist im allgemeinen asynchron zu dem Videoerzeugungstakt, und die Kompressionszeit
kann mit dem Bildinhalt variieren, und der Stopfmechanismus, der
notwendig ist, um genau die Datenrate des komprimierten Videosignals an
die der Übertragungsmedien
anzupassen, führt eine
unvorhersehbare Verzögerung
ein.
-
Ein anderes wichtiges Merkmal für ein solches Übertragungssystem
mit komprimierten Videosignalen besteht darin, daß die Kompressions-
und Dekompressions-Engines dieselbe Pixeltaktfrequenz aufweisen.
Dies ist eine Anforderung, um FIFO-Überlaufzustände zu vermeiden.
Im Prinzip wird in einer klassischen MPEG-Rundsendekette die Pixeltaktwiederherstellung
für die
Dekompressions-Engine auf der Empfängerseite unter Verwendung
eines (ersten) PLL-Prinzips
durchgeführt.
Dies würde
jedoch nicht für
die Synchronisation der ersten Einrichtung auf dem Mischerpixeltakt
ausreichen. Es sollte notwendig sein, einen zweiten PLL zu vernesten,
um sicherzustellen, daß der
Pixeltakt der Kompressions-Engine und des Mischers AUCH auf derselben Frequenz
sind. Das Vernesten von 2 PLL ist aus Stabilitäts- und Jitter-Gründen, die
Technikern wohlbekannt sind, relativ schwierig. Die Erfindung bringt eine
Lösung,
die das Vernesten von 2 PLLs vermeidet.
-
Außerdem beseitigt sie die grundlegende Annahme,
Pixelfrequenzsteuerung und H-Phase zu verknüpfen. Bei allen Synchronisationssystemen,
die Video-Synchronimpulse behandeln, modifiziert der H-Phasen-PLL
die Pixelfrequenz, bis die H-Phase korrekt ist. Dies ist auf den
Umstand zurückzuführen, daß H-Phase
das Integral der Pixelfrequenz ist. Es kann zu einem sehr langsamen
Verhalten führen.
Die Erfindung trennt die Pixelfrequenzsteuerung und die (H&V-)Phasensteuerung
in zwei separate Prozesse auf, wodurch eine viel schnellere Verriegelungszeit ermöglicht wird.
-
Wenn also das "native" Videosignal vor der Übertragung
in digitaler Form als eine Sequenz von Datenpaketen komprimiert
wird, wird bevorzugt, daß die
von der zweiten Einrichtung benötigten
Synchronisationsinformationen ein Sendezeitdatenelement umfassen,
das in mindestens einigen der Datenpakete enthalten ist, aus der
Zeitbasis der ersten Einrichtung abgeleitet wird und den Zeitbasisstatus
zum Sendezeitpunkt des Pakets, in dem dieses Datenelement enthalten
ist, darstellt, und daß jedes
dieser Sendezeitdatenelemente nach Empfang durch die zweite Einrichtung
mit auf ähnliche
Weise aus der Zeitbasis der zweiten Einrichtung abgeleiteten Empfangszeitdaten
verglichen wird und daß die
Frequenzfehlerinformationen zur Steuerung der Pixelfrequenz der
zweiten Einrichtung aus einer Differenz zwischen den Sende- und
den Empfangszeitdaten berechnet werden.
-
Insbesondere kann die erste Einrichtung
einen ersten Zähler
umfassen, der auf der Basis einer aus der Zeitbasis der ersten Einrichtung
abgeleiteten Pixelfrequenz betrieben wird, und die zweite Einrichtung
kann einen zweiten Zähler
umfassen, der auf der Basis einer aus der Zeitbasis der zweiten
Einrichtung abgeleiteten Pixelfrequenz betrieben wird, und ein Zählwert des
ersten Zählers
zum Sendezeitpunkt wird in ein Datenpaket als das Sendezeitdatenelement
aufgenommen und nach dem Empfang durch die zweite Einrichtung mit
einem Zählwert
des zweiten Zählers
als Empfangszeitdatenelement verglichen.
-
Wenn die erste oder die zweite Einrichtung eingeschaltet
wird, kann die Differenz zwischen Zählwerten dieser beiden Zähler einen
beliebigen Wert aufweisen. Wenn diese Differenz eine gegebene Schwelle übersteigt,
wird der zweite Zähler
nur einmal auf den aus dem ersten Zähler empfangenen Wert gesetzt.
Wenn ein nachfolgender Zählwert
aus der ersten Videoeinrichtung empfangen wird, sollte er mit dem
Zählwert
des zweiten Zählers
identisch sein, solange die Pixelfrequenzen der beiden Einrichtungen
identisch sind. Jede nicht verschwindende Differenz zwischen den
beiden Zählwerten
zeigt eine Differenz der beiden Pixelfrequenzen an und sollte durch
Steuern der Pixelfrequenz der ersten Einrichtung zu 0 gemacht werden.
-
Eine erste Videoeinrichtung der vorliegenden
Erfindung besitzt einen Ausgangsport zum Ausgeben eines Videosignals,
einen Eingangsport zum Eingeben von Steuerinformationen und eine
Zeitbasis, die so ausgelegt ist, daß sie die Phase eines Videosignalausgangssignals
an dem Ausgangsport um einen Phasenwinkel umschaltet, der durch
einen ersten Typ der Steuerinformationen spezifiziert wird. Vorzugsweise
ist die Zeitbasis der ersten Einrichtung weiterhin so ausgelegt,
daß sie
eine Pixelfrequenz des Videosignals gemäß einem zweiten Typ der Steuerinformationen
einstellt.
-
Eine zweite Videoeinrichtung gemäß der Erfindung
besitzt einen Eingangsport zum Eingeben eines Videosignals, Mittel
zum Bestimmen eines Phasenwinkels zwischen dem Eingangsvideosignal
und einer Zeitbasis der zweiten Videoeinrichtung und einen Ausgangsport
zum Ausgeben von Steuerinformationen, die den Phasenwinkel quantitativ
spezifizieren.
-
Vorzugsweise besitzt die erste Videoeinrichtung
einen Ausgangsport zum Ausgeben eines komprimierten Datenstroms
aus einer das Videosignal verarbeitenden Kompressions-Engine, einen
Eingangsport zum Eingeben von V-Steuerinformationen und eine Zeitbasis,
die so ausgelegt ist, daß sie
die Phase des Videosignals und somit des an dem Ausgangsport ausgegebenen
komprimierten Datenstromausgangssignals um einen Phasenwinkel umschaltet,
der durch einen ersten Typ der Steuerinformationen spezifiziert
wird. Außerdem
ist die Zeitbasis der ersten Einrichtung weiterhin so ausgelegt,
daß sie
eine Pixelfrequenz des Videosignals gemäß einem zweiten Typ der Frequenzsteuerinformationen einstellt.
-
Vorzugsweise besitzt die zweite Videoeinrichtung
einen Eingangsport zum Eingeben des durch die erste Einrichtung
ausgegebenen komprimierten Datenstroms, ein Referenzeingangssignal, das
durch den Mischer angeforderte Videozeitsteuerung (Pixelfrequenz,
H- und V-Phase) darstellt, eine Dekompressions-Engine, deren Pixeltakt
aus dem Referenzeingangssignal erhalten wird und die in der Lage
ist, das Videosignal aus dem komprimierten Datenstrom heraus wieder
aufzubauen, und Mittel zum Bestimmen eines Frequenzfehlers zwischen
der Referenzpixelfrequenz und der Kompressions-Engine-Pixelfrequenz, sowie
eines Phasenwinkels zwischen dem Ausgangsvideosignal und Referenz-H- und
-V-Signalen der zweiten Videoeinrichtung und einen Ausgangsport
zum Ausgeben von Steuerinformationen, die den Frequenzfehler und
den V-Phasenwinkel quantitativ spezifizieren.
-
Weitere Merkmale und Vorteile der
vorliegenden Erfindung werden aus der nachfolgenden Beschreibung
einer Ausführungsform
mit Bezug auf die beigefügte
Zeichnung hervorgehen. Es zeigt:
-
1 ein
Blockschaltbild eines Videosystems mit einer ersten und einer zweiten
Videoeinrichtung gemäß der Erfindung,
wobei ein analoges Videosignal von der ersten Einrichtung zu der
zweiten übertragen
wird, und
-
2 ein
Blockschaltbild eines Videosystems mit einer ersten und einer zweiten
Videoeinrichtung, wobei ein digitaler komprimierter Datenstrom von
der ersten zu der zweiten Einrichtung übertragen wird.
-
In l ist
die erste Videoeinrichtung eine Kamera 1 und die zweite
Videoeinrichtung ein Empfangsteil (im allgemeinen eine sogenannte
Basisstation oder Kamerasteuereinheit CCU) 2, der ein analoges
zusammengesetztes Videosignal aus der Kamera 1 durch eine
Abwärtsübertragungsleitung 3, z.B.
ein Koaxialkabel, einen Lichtwellenleiter oder ein drahtloses analoges Übertragungssystem,
empfängt und
ein Videosignal zu dem Mischer (nicht gezeigt) und Steuerinformationen
zu der Kamera 1 durch eine Aufwärtsübertragungsleitung 4,
die ein zweites Koaxialkabel, ein zweiter Lichtwellenleiter oder
ein zweites drahtloses analoges Übertragungssystem
sein kann, sendet. Obwohl es nicht gezeigt ist, besitzt der Mischer
im allgemeinen mehr als einen Eingangsport zum Anschließen mehrerer
Kameras oder anderer Quellen von Videosignalen mittels Übertragungsleitungen,
die eine variierende Länge
aufweisen können
und somit variierende Übertragungsverzögerungen
zwischen der Bildsignalquelle und der CCU 2 verursachen
können.
-
Die Kamera 1 umfaßt einen
Imager-Chip 11, z.B. ein CCD-Element (Charge Coupled Device), auf das
Licht aus einer Szene einfällt
und aus dem Bilder mit einer vordefinierten Bildfrequenz ausgelesen werden.
Der Imager-Chip 11 besitzt eine große Anzahl von Pixeln, die in
einer Matrix von Zeilen und Spalten angeordnet sind. Der Einfachheit
halber wird angenommen, daß die
Anzahl von Zeilen und Spalten dieselbe wie die Anzahl von Zeilen
und Pixeln pro Zeile in dem durch die Kamera erzeugten Videosignal
ist, obwohl dies keine Anforderung ist. Das Auslesen aus dem Imager-Chip 11 wird
unter der Steuerung eines Pixeltaktsignals aus dem spannungsgesteuerten
Oszillator 12a der Zeitbasis 12 ausgeführt und
Daten, die Farbe und Helligkeit einzelner Pixel definieren, werden
pixelweise und zeilenweise an eine Erzeugungsschaltung für zusammengesetzte Videosignale 13 ausgegeben.
Die Zeitbasis 12 umfaßt
weiterhin Zähler 12b, 12c,
die als Frequenzteiler an dem Pixeltaktsignal PCc wirken und der
Erzeugungsschaltung für
zusammengesetzte Videosignale 13 Synchronisationsimpulse ΦLC, ΦIC mit einer Rate von einmal pro Bildzeile
aus dem Zähler 12b und
einmal pro Bild aus dem Zähler 12c zuführen.
-
Auf der Basis der aus dem Imager-Chip 11 und
der Zeitbasis 12 empfangenen Signale erzeugt die Schaltung 13 ein
herkömmliches
zusammengesetztes Videosignal CVSC, in dem
aktive Signale entsprechend jeder Bildzeile durch Leerräume getrennt werden
und zwischen der letzten aktiven Zeile eines Halbbildes und der
ersten aktiven Zeile des nachfolgenden Halbbildes ein Bildsynchronisationsimpuls eingefügt wird
und in die Leerräume
zwischen aktiven Zeilen eines Bildes Zeilensynchronisationsimpulse
eingefügt
werden. Gewöhnlich
wird in dem zusammengesetzten Videosignal jedes Bild als zwei aufeinanderfolgende
verschachtelte Halbbilder übertragen, wobei
eines ungradzahlige Zeilen des Bildes und das andere gradzahlige
Zeilen umfaßt
und ein dritter Typ von Synchronisationsimpuls in einen Leerraum
zwischen den beiden Halbbildern eines Bildes eingefügt wird.
Dieser dritte Typ ist jedoch für
die vorliegende Erfindung von keiner weiteren Relevanz und wird
hier nicht besprochen, denn die Erfindung ist gleichermaßen auf
verschachtelte und auf nicht verschachtelte Videosignale anwendbar.
-
Die CCU 2 besitzt eine eigene
Zeitbasis 21, die in etwa der gleichen Weise wie die Zeitbasis 12 der
Kamera 1 ein Pixeltaktsignal PCM und
Zeilensynchronisationsimpulssignale ΦLM, ΦIM und Bildsynchronisationsimpulssignale bereitstellt.
Diese Zeitbasis kann freilaufend sein, wahrscheinlicher wird die Zeitbasis
der CCU jedoch selbst auf das Referenzsignal (das sogenannte Black-and-Burst-Signal)
aus dem Mischer verriegelt. Die Zeitbasis des Mischers liefert somit
einen Zeitstandard, auf den der Betrieb aller Zeitbasen von CCUs
und Kameras oder anderen mit dem Mischer verbundenen Bildquellen
synchronisiert werden muß,
so daß an
jedem Eingangsport des Mischers die Anfänge einzelner Bilder in den zusammengesetzten
Videosignalen genau ausgerichtet sind und ein Überwechseln zwischen verschiedenen
Eingangsports möglich
ist.
-
Um eine solche Synchronisation zu
erzielen, ist mit dem Eingangsport des Mischers 2 eine
Synchronisationsextraktionsschaltung 22 verbunden. Zeilensynchronisationssignale ΦLC aus der Extraktionsschaltung 22 und ΦLM aus der Zeitbasis 21 werden einem
Phasenkomparator 23 zugeführt. Ein Ausgangssignal ΔΦL des Phasenkomparators 23,
das die Phasendifferenz zwischen den beiden Zeilensynchronisationssignalen
darstellt, wird einer Abtast- und Umsetzungsschaltung 24 zugeführt. Die
Umsetzungsschaltung 24 tastet das Phasenfehlersignal aus
dem Phasenkomparator 23 in regelmäßigen Zeitintervallen ab, z.B.
mit der Zeilenfrequenz oder einem Subvielfachen dieser, und liefert
digitale Daten, die die H-Phasenverzögerung darstellen, an eine Modulationsschaltung 25.
-
Bildsynchronisationsimpulse ΦIM aus der Zeitbasis 21 und ΦIC aus der Extraktionsschaltung 22 werden
einer V-Verzögerungsmeßschaltung 26 zugeführt. Diese
Verzögerungsmeßschaltung 26 kann ein
Phasenkomparator mit einer ähnlichen
Struktur wie der Phasenkomparator 23 sein, der aber nicht
die Phasendifferenz zwischen Zeilensynchronisationsimpulsen, sondern
zwischen Bildsynchronisationsimpulsen mißt. Die Verzögerungsmeßschaltung 26 kann
auch ein Zähler
sein, der folgendes aufweist: einen Trigger-Eingang, mit dem eines
der Bildsynchronisationssignale, z.B. das Signal aus der Extraktionsschaltung 22,
verbunden ist, einen Stop-Eingang,
mit dem das andere Bildsynchronisationssignal aus der Zeitbasis 21 verbunden
ist, und einen Zählimpulseingang,
mit dem das Zeilensynchronisationssignal entweder aus der Extraktionsschaltung 22 oder
aus der Zeitbasis 21 verbunden ist. Ein solcher Zähler beginnt
mit dem Zählen
von Bildzeilen, die durch Impulse des Zeilensynchronisationssignals
identifiziert werden, wenn er an seinem Trigger-Eingang einen Impuls
empfängt,
der den Anfang eines Bildes anzeigt, und beendet das Zählen, wenn
er an dem Stop-Eingang einen Impuls empfängt, so daß der so erhaltene Zählwert ΔΦI die Anzahl
von Zeilen angibt, um die das Videosignal aus der Kamera 1 dem lokalen
Videosignal des Mischers vorauseilt. Dieser Zählwert wird außerdem der
Modulationsschaltung 25 zugeführt. Die Modulationsschaltung 25 sendet
die durch die Umsetzungsschaltung 24 und die Meßschaltung 26 gelieferten
Informationen in ein Format, das für die Übertragung auf der Aufwärtsübertragungsleitung 4 geeignet
ist, und sendet sie zu einem beliebigen geeigneten Zeitpunkt.
-
In der Kamera 1 empfängt eine
digitale Demodulationsschaltung 14 die durch die Modulationsschaltung 25 gesendeten
Steuerinformationen und führt
einem digitalen Schleifenfilter 15 den durch die Umsetzungsschaltung 24 erhaltenen
Phasendifferenzwert ΔΦL zu. Auf
der Basis dieser Eingabe berechnet das Schleifenfilter 15 eine
Steuerspannung, die über
einen DAC 17 einem spannungsgesteuerten Oszillator 12a zugeführt wird.
Eine andere Art der Implementierung könnte einen Direkt-Digitalsynthesizer und
einen freilaufenden Taktgenerator verwenden, wobei die digitale
Ausgabe des Schleifenfilters ohne D/A-Umsetzung an die DDS-Steuerung angelegt wird.
Die Steuerspannung definiert die Frequenz des Pixeltakts PCC, der durch den Oszillator 12a an
die Zähler 12b, 12c der
Zeitbasis 12 abgeliefert wird. Der Phasenkomparator 23,
das Schleifenfilter 15 und der Oszillator 12a bilden
somit einen Phasenregelkreis zur Steuerung der Pixeltaktfrequenz
PCC der Kamera 1. Da Phasenregelkreise
an sich und ihre Funktionsweise im allgemeinen in der Technik bekannt
sind, wird die Funktionsweise dieses Phasenregelkreises nicht weiter
im einzelnen beschrieben. Für
die Zwecke der vorliegenden Erfindung reicht es aus zu erkennen,
daß gemäß dem Vorzeichen
der durch den Phasenkomperator 23 detektierten Phasendifferenz ΔΦL die Pixelfrequenz
des Oszillators 12a erhöht oder
erniedrigt wird, bis die Zeilensynchronisationsimpulse des Videosignals
aus der Kamera 1 und das lokale Videosignal des Mischers
sich als perfekt ausgerichtet erweisen.
-
Die Demodulationsschaltung 14 führt ferner einer
Rücksetzschaltung 18 der
Kamera 1 den durch die Verzögerungsmeßschaltung 26 erhaltenen
Zählwert
zu. Die Rücksetzschaltung 18 empfängt ein
Signal, das den aktuellen Status der Zähler 12b und 12c anzeigt.
Wenn dieser Status gleich einem durch die Meßschaltung 26 erhaltenen
Zählwert
nd wird, setzt die Rücksetzschaltung 18 die
Zähler 12b, 12c der Zeitbasis 12 und
der Videosignalerzeugungsschaltung 13 am Ende der Zeilenzahl
nd zurück
und bewirkt somit, daß die
Videosignalerzeugungsschaltung 13 die aktuelle Bilderzeugung
abbricht und mit dem Ausgeben eines neuen Bildes beginnt. Auf diese Weise
wird die Bildphase des Videosignals unmittelbar um einen Phasenwinkel
von 2πnd/N1
vorgerückt (wobei
N1 die Anzahl von Zeilen in einem Bild ist), wodurch die Phasendifferenz
zwischen den Bildsignalen am Mischer auf das Äquivalent von weniger als einer
Zeile reduziert wird.
-
Da die Einstellung der Bildphase
durch Vielfache einer Zeile stattfindet, hat sie keinen Einfluß auf die
durch den Phasenkomparator 23 bestimmte Zeilenphasendifferenz.
Die "Grobeinstellung" der Bildphase durch
Phasenumschaltung unter Verwendung der Rücksetzschaltung 18 und
die Feineinstellung unter Verwendung des Phasenregelkreises sind
deshalb völlig
unabhängig
voneinander. Zur Ausführung der
Grobeinstellung ist nicht mehr als eine Bildperiode zur Messung
der Bildphasendifferenz zwischen den beiden Videosignalen erforderlich,
und abhängig von
dem Betrag der Phasendifferenz kann ihre Korrektur in demselben
oder einem nachfolgenden Bild ausgeführt werden. Insgesamt ist die
erforderliche Zeit für
die Grobeinstellung nicht größer als
zwei Bildperioden. Wenn die Kamera 1 oder die CCU 2 eingeschaltet
wird, wird folglich eine vollständige
Vertikal-Synchronisation
der zusammengesetzten Videosignale innerhalb von nicht mehr als
40 ms erzielt. Die Horizontal-Synchronisation kann abhängig von dem
Schleifenfilter und VCXO-Einschränkungen mehr
Zeit in Anspruch nehmen.
-
Im Prinzip könnte die Verzögerungsmeßschaltung 26 die
relative Verzögerung
der beiden zusammengesetzten Videosignale einmal pro Bild messen.
Wenn die Grobeinstellung der Bildphase einmal ausgeführt wurde,
ist der Zählwert
der Meßschaltung 26
im allgemeinen jedoch Null und es besteht keine weitere Notwendigkeit,
die Bildphase unter Verwendung der Rücksetzschaltung 18 umzuschalten.
Wenn der Zählwert
der Meßschaltung 26 Null
ist, ist es folglich auch nicht notwendig, diesen Zählwert zu
der Kamera 1 zu senden, so daß Bandbreite der Aufwärtsübertragungsleitung 1 für andere
Zwecke eingespart werden kann.
-
2 ist
ein Blockschaltbild eines Videosystems, das eine Kamera und eine
CCU 2 umfaßt
und in dem ein Videosignal, das Bildinformationen und Bildsynchronisationsinformationen
umfaßt,
komprimiert und in digitaler Form auf der Abwärtsübertragungsleitung 3 übertragen
wird. Da digitale Übertragung
des Videosignals eine beträchtliche
Bandbreite erfordert, kann die Übertragungsleitung
ein Lichtwellenleiter sein, oder bei Verwendung von digitalen Modulationstechniken
wie zum Beispiel Einzelträgern oder
Mehrfachträgern
kann das resultierende Spektrum auch für eine Funkübertragung (drahtlos) geeignet
sein.
-
In der Kamera 1 sind der
Imager-Chip 11, die Zeitbasis 12, die Demodulationsschaltung 14,
das Schleifenfilter 15, (der spannungsgesteuerte Oszillator 12a und
der DAC 17) oder (DDS) und die Rücksetzschaltung 18 dieselben
wie in 1 und müssen nicht
nochmal beschrieben werden. Die Videosignalerzeugungsschaltung 13 kann
insofern etwas von der in 1 verschieden
sein, als sie die aus dem Imager-Chip 11 empfangenen Pixeldaten
nicht in ein analoges Videosignal umsetzt, sondern eine Folge digitaler
Daten liefert, die Bildinformationen und Bildsynchronisationsinformationen
umfassen, und diese einer Datenkompressionsschaltung 51 einer
Sendeschnittstelle 5, die zwischen der Kamera 1 und
der Abwärtsübertragungsleitung 3 eingefügt ist,
zuführt. Der
Ausgang der Datenkompressionsschaltung 51 ist mit einem
FIFO-Puffer 512 verbunden, in dem der komprimierte Videodatenstrom
vorübergehend
gespeichert wird, bevor er an eine Paketbildungsschaltung 53 weitergeleitet
wird, die die Daten zu Paketen mit einem für die Übertragung auf der Abwärtsübertragungsleitung 3 geeigneten
Format gruppiert.
-
Außerdem ist der Einfachheit
halber in diesem Blockschaltbild eine digitale Modulationsschaltung
nicht gezeigt, und ein HF-Aufwärtsumsetzer kann
zwischen dem Ausgang der Schaltung 53 und den Übertragungsmedien
eingefügt
werden. Diese gilt insbesondere für den Fall einer Funkübertragung.
-
Die Komprimierbarkeit der aus der
Videosignalerzeugungsschaltung 13 empfangenen Bildinformationen
kann abhängig
von der Komplexität
des durch diese Daten dargestellten Bildes variieren. Deshalb kann
die Datenrate am Ausgang der Kompressionsschaltung 51 variieren.
Um der Modulationsschaltung eine konstante Datenrate zuzuführen, werden
drei bekannte Mechanismen verwendet: Eine beliebige Kompressions-Engine
besitzt Eingänge zum
Reduzieren/Vergrößern der
Ausgangsbitrate. Es ist die Rolle einer der Einfachheit halber hier
nicht dargestellten Servoschleife, die Ausgangsbitrate zu messen,
sie mit der angeforderten zu vergleichen und das Videosignal mehr
oder weniger zu komprimieren, um zu der erwünschten Bitrate zu tendieren. Diese
Servoschleife ist im allgemeinen jedoch zu langsam, um einen Kurzzeitüberlauf
oder -unterlauf zu verhindern. Der FIFO-Puffer 52 absorbiert
solche fluktuierenden Datenraten. Außerdem erlaubt ein Stopfmechanismus
das Erzeugen von Dummy-Paketen, die automatisch erzeugt werden,
wenn ein Unterlaufzustand auftritt, so daß die Paketbildungsschaltung 53 die
Daten der Modulationsschaltung mit einer konstanten Rate zuführt. Auf
diese Weise kann immer eine konstante Datenrate auf der Abwärtsübertragungsleitung 3 aufrechterhalten
werden, und ihre Übertragungskapazität wird effizient
ausgenutzt. Dadurch entsteht jedoch insofern ein Problem, als die Sendeschnittstelle 5 eine
Verzögerung
der Übertragung
des Videosignals verursacht, die während des Betriebs der Kamera 1 und
des Mischers 2 variieren kann. Die videobezogenen Synchronisationsinformationen,
die möglicherweise
in die komprimierten Bilddaten aus der Signalerzeugungsschaltung 13 aufgenommen
werden, sind deshalb keine zuverlässige Basis zur Schätzung von
Bild- und Zeilenphasendifferenzen zwischen den beiden Videosignalen
in der CCU 2 mehr.
-
Dieses Problem wird gelöst, indem
in der Paketbildungsschaltung 53 zusätzliche Zeitinformationen (sogenannter
Zeitstempel) als ergänzende
Synchronisationsinfomationen in die auf der Abwärtsübertragungsleitung 3 zu übertragenden
Datenpakete eingefügt
werden, unmittelbar bevor diese Pakete gesendet werden. Diese zusätzlichen
Zeitstempelinformationen sind ein Zählwert, der als PCR bezeichnet
wird, in Analogie mit einer ähnlichen
Größe mit dem
Namen PCR in dem MPEG- Standard.
PCR wird durch einen PCR-Zähler 54 geliefert,
der Impulse des Pixeltaktsignals aus dem Oszillator 12a zählt. PCR muß nicht
in allen zu dem Mischer gesendeten Paketen enthalten sein; es reicht
aus, daß es
PCRs in einem Subvielfachen der Pakete gibt. Im Prinzip könnten die
Pakete, in denen PCRs enthalten sind, beliebig in variablen Intervallen
gewählt
werden.
-
Am Empfangsende der Abwärtsübertragungsleitung 3,
das ebenfalls der Einfachheit halber in diesem Blockschaltbild nicht
gezeigt ist, können vor
der Empfangsschnittstelle 6 ein HF-Abwärtsumsetzer und eine digitale
Demodulationsschaltung eingefügt
werden. Dies gilt besonders für
den Fall einer Funkübertragung.
Wobei die Empfangsschnittstelle 6 eine Entpackungs- und
PCR-Extraktionsschaltung 61 umfaßt, deren Funktion die Umkehrung
der Funktion der Paketbildungsschaltung 53 ist, so wie
einen FIFO-Puffer 62 und eine Datendekompressionsschaltung 63,
deren Funktion die Umkehrung der Funktion der Kompressionsschaltung 51 ist.
Der Pixeltakt der Dekompressions-Engine wird direkt aus dem Mischerreferenzsignal
abgeleitet. Somit wird am Ausgang der Dekompressionsschaltung 63 die
in eine Kompressionsschaltung 51 eingegebene Datensequenz
rekonstruiert.
-
Die Entpackungs- und PCR-Extraktionsschaltung 61 trennt
ein in einem Datenpaket enthaltenes PCR von dem darin enthaltenen
digitalen Videosignal und gibt es an einen PCR-Generator 64 und an
einen ersten Eingang eines Komparators 65 aus. Der PCR-Generator
umfaßt
einen PCR-Zähler, ähnlich wie
der PCR-Zähler 54 auf
der Sendeseite, der Impulse des durch die Zeitbasis 21 gelieferten
Pixeltaktsignals PCM zählt, und eine Schnittstellenschaltung,
die das aktuelle PCR dieses Zählers
an einen zweiten Eingang des Komparators 65 ausgibt, wenn sie
durch ein PCR, das sie aus der Extraktionsschaltung 61 empfängt, getriggert
wird.
-
Unmittelbar nach dem Einschalten
der Kamera 1 und/oder der CCU 2 ist die Differenz
zwischen den PCRs an den beiden Eingängen des Komparators 65 völlig beliebig.
Wenn die Differenz eine Schwelle entsprechend einem vordefinierten
Teil einer Bildperiode übersteigt,
setzt eine mit dem Ausgang des Komparators 65 verbundene
Initialisierungsschaltung 66 das PCR des PCR-Generators 64 gleich
dem aus der Kamera 1 empfangenen PCR. Wenn die Pixelfrequenzen
der Kamera 1 und der CCU 2 identisch sind, laufen
die PCRs gleich, und immer wenn die Kamera 1 ein weiteres
PCR sendet, wird erwartet, daß es
mit dem PCR des PCR-Generators 64 übereinstimmt. Wenn eine Differenz
zwischen den beiden PCRs besteht, stellt sie eine Differenz der
Pixelfrequenzen der Kamera 1 und der CCU 2 dar.
Die Schwelle der Initialisierungsschaltung 66 und die Zeit
zwischen zwei Paketen mit PCR aus der Kamera 1 werden auf
der Basis der erwarteten Exaktheit der beiden Pixeltaktsignale so
gewählt,
daß, nachdem
der PCR-Generator 64 initialisiert wurde, die durch den
Komparator 65 detektierte PCR-Differenz gewöhnlich die
Schwelle der Initialisierungsschaltung 66 nicht übersteigt.
Diese PCR-Differenz wird einer Datenkompressionsschaltung 27 zugeführt. Diese
optionale Schaltung ermöglicht
eine weitere Bitratenreduktion ohne Kompromiß bezüglich Beruhigungszeit. Die
Idee ist hier, daß im
stationären Zustand
die PCR-Differenz nahe bei Null liegt und mit voller Präzision übertragen
werden muß,
während
in der Beruhigungszeit die PCR-Differenz relativ wichtig sein kann,
aber keine hohe Präzision
benötigt.
Für den
Bereich 0 (kleine Werte, entweder positiv oder negativ
um Null) ist also die Anzahl von Bit zum exakten Codieren des Werts
klein. Für
den Bereich 1 (Absolutwerte, die zweimal größer als
die des Bereichs 0 sind) wird die PCR-Differenz auf das
nächste Vielfache
von 2 gerundet und heruntergeschoben, wobei Auflösung verlorengeht, aber bei
der Anzahl zu übertragender
Bit gespart wird. Für
Bereich 2 (Absolutwerte zweimal größer als die von Bereich 1)
wird die PCR-Differenz auf das nächste
Vielfache von 4 gerundet und heruntergeschoben, wobei wieder
Auflösung
verlorengeht, aber noch mehr bei der Anzahl zu übertragender Bit gespart wird.
Das Prinzip kann je nach Wunsch wiederholt werden. Da der PLL prinzipiell
ein System mit geschlossener Schleife ist, verändert der Auflösungskompromiß den Verriegelungsprozeß nicht.
Das resultierende Datenpaar (Bereich, Daten) wird zu einer Modulationsschaltung 25 und von
dort aus durch Aufwärtsübertragungsmedien 4 zu
der Kamera 1 gesendet, in der Demodulationsschaltung 14 demoduliert,
in der Dekompressionsschaltung 19 dekomprimiert, wobei
Daten aus dem Paar (Bereich, Daten) regeneriert werden, und als Steuersignal
dem Schleifenfilter 15 zugeführt. Auf diese Weise wird die
Pixelfrequenz PCC der Kamera 1 gleich
der Pixelfrequenz PCM des Mischers 2 gehalten.
-
Aus der Dekompressionsschaltung 63 ausgegebene
dekomprimierte Bilddaten durchlaufen einen Puffer mit variabler
Verzögerung 28,
der auf eine beliebige Verzögerung
zwischen Null und ZM eingestellt werden kann, wobei ZM die Variation
der Übertragungszeiten
der Datenpakete zwischen der Kamera 1 und der CCU 2 ist,
die zum Beispiel durch die variable Verzögerung der komprimierten Daten
in dem FIFO-Puffer 52 sowie durch reine Ausbreitungsverzögerungen
in digitalen Modulatoren und Demodulatoren verursacht wird. Die
Funktion des variablen Puffers 28 ist etwas der eines Bildsynchronisierers ähnlich,
unterscheidet sich jedoch insofern von einem Bildsynchronisierer,
als zeitlich Bemittelte Datenraten der Eingabe und Ausgabe von Daten
in dem Puffer 28 strikt gleich sind und keine Daten in
dem Puffer 28 verworfen oder zweimal aus diesem gelesen
werden. Er kann als ein FIFO beschrieben werden, dessen Tiefe groß genug
ist, um einige wenige Zeilen zu speichern, und dessen Schreib- und
Lesemechanismen die folgenden sind. Das Schreiben erster Daten eines
Bildes erfolgt an der ersten Speicherstelle des FIFO, und folgende
Daten werden an inkrementierten Adressen geschrieben. Das Lesen erster
Daten aus dem FIFO erfolgt am Anfang eines aktiven Bildes auf Anforderung
durch das Referenzsignal. Das Schreiben erster Daten muß 0 bis
ZM Taktimpulse vor ihrem Lesen erfolgen, andernfalls tritt ein FIFO-Überlauf
auf. Die Verzögerung
des FIFO benötigt
also keine Berechnung, da sie automatisch von der Vorauseilungszeit
(0 bis ZM) des durch die Dekompressions-Engine gelieferten
Videosignals und des Referenzsignals abhängt.
-
Eine der von 1 ähnliche
Verzögerungsmeßschaltung 26 ist
mit der Zeitbasis 21 und dem Ausgang der Dekompressions-Engine 63 verbunden, um
die Phasendifferenz zwischen dem Ausgangsvideosignal der Dekompressions-Engine 63 und
dem lokalen Referenzsignal des Mischers (und der lokalen Zeitbasis 21)
zu bestimmen. Die gemessene V-Phasendifferenz wird dann korrigiert,
um so die zusätzliche
Verzögerung
von 0 bis ZM zu berücksichtigen.
Anders ausgedrückt,
wird durch die V-Phasenmeßschaltung
ein Wert berechnet und zu der Rücksetzschaltung 18 gesendet,
wie zum Beispiel nachdem ein Rücksetzen
aufgetreten ist, das Ausgangssignal der Dekompressions-Engine sollte
in Bezug auf das durch den Mischer gelieferte Referenzsignal etwas
vorauseilen (ZM/2). Da ZM die Spitze-Spitze-Variation der Ausbreitungsverzögerung des
gesamten Übertragungsweges
von dem CCD-Ausgang der Kamera bis zu der Dekompressions-Engine
ist, befindet sich das Verzögerungselement
in seinen besten Betriebsbedingungen, um eine Verzögerung von
0 bis ZM ohne Überlaufzustände hinzuzufügen. Wenn
die so gemessene V-Phasendifferenz die Verzögerungsfluktuation ZM übersteigt,
wird sie über eine
Kompressionsschaltung 29, eine Modulationsschaltung 25,
die Aufwärtsübertragungsleitung 4 und eine
Demodulationsschaltung 14 zu der Rücksetzschaltung 18 der
Kamera 1 gesendet. In der Rücksetzschaltung 18 wird
sie zum Umschalten der Phasen der Zeitbasis 12 und der
Videosignalerzeugungsschaltung 13, wie mit Bezug auf 1 beschrieben, verwendet.
Wenn die durch die Verzögerungsmeßschaltung 26 gemessene
Phasendifferenz kleiner als ±ZM/2
ist, muß sie
nicht mehr gesendet werden.
-
Außerdem sind bei der Ausführungsform maximal
zwei Bildperioden für
eine vollständige V-Synchronisation
zwischen Kamera 1 und CCU 2 erforderlich.