DE102004007098A1 - Videoeinrichtung und Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen - Google Patents

Videoeinrichtung und Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen Download PDF

Info

Publication number
DE102004007098A1
DE102004007098A1 DE102004007098A DE102004007098A DE102004007098A1 DE 102004007098 A1 DE102004007098 A1 DE 102004007098A1 DE 102004007098 A DE102004007098 A DE 102004007098A DE 102004007098 A DE102004007098 A DE 102004007098A DE 102004007098 A1 DE102004007098 A1 DE 102004007098A1
Authority
DE
Germany
Prior art keywords
video
video signal
phase
control information
pcr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004007098A
Other languages
English (en)
Inventor
Philippe Morel
Pascal Malnoe
Didier Bellanger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of DE102004007098A1 publication Critical patent/DE102004007098A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

Ein Videosystem umfaßt eine erste Videoeinrichtung (1), die ein Videosignal (CVSC) sendet, das Videoinformationen und Synchronisationsinformationen umfaßt, und eine zweite Videoeinrichtung, die das zusammengesetzte Videosignal (CVSC) empfängt. Die zweite Einrichtung besitzt eine Zeitbasis (21). Zum Synchronisieren der beiden Einrichtungen
a) werden Synchronisationsinformationen (ΦIC, ΦLC, ΦIM, ΦLM) aus dem durch die zweite Videoeinrichtung (2) empfangenen Videosignal (CVSC) und aus der Zeitbasis (21) der zweiten Videoeinrichtung (2) extrahiert;
b) wird eine Phasendifferenz (ΔΦI, ΔΦL) zwischen dem durch die zweite Videoeinrichtung (2) empfangenen Videosignal (CVSC) und der Zeitbasis (21) der zweiten Videoeinrichtung (2) auf der Basis der extrahierten Synchronisationsinformationen (ΦIC, ΦLC, ΦIM, ΦLM) bestimmt;
c) werden Steuerinformationen (ΔΦI) eines ersten Typs, die den Betrag der Phasendifferenz repräsentieren, zu der ersten Einrichtung (1) gesendet und
d) wird in der ersten Einrichtung (1) die Phase des Videosignals (CVSC) um einen durch den ersten Typ von Steuerinformationen (ΔΦI) repräsentierten Phasenwinkel umgeschaltet.

Description

  • Die vorliegende Erfindung betrifft eine Videoeinrichtung und ein Verfahren zum Synchronisieren von Zeitbasen einer ersten Videoeinrichtung, die ein Videosignal sendet, und einer zweiten Videoeinrichtung, die das Videosignal empfängt.
  • Das Videosignal kann ein natives Videosignal sein, das durch die erste Videoeinrichtung erzeugt wird und Bildinformationen und Synchronisationsinformationen umfaßt, die aus der Zeitbasis der ersten Videoeinrichtung abgeleitet werden (zusammengesetztes Videosignal). Alternativ dazu kann das Videosignal ein komprimierter digitaler Strom sein, der aus dem nativen Videosignal durch eine Kompressions-Engine mit einer Taktrate, die im allgemeinen voll asynchron zu dem Bilderzeugungstakt ist, erhalten wird. In diesem Fall gehen aus der nativen Zeitbasis abgeleitete Bildsynchronisationsinformationen verloren, und es wird Paketsynchronisation hinzugefügt, wodurch die Synchronisationsinformationen des Videosignals bereitgestellt werden.
  • Ein Videosignal besteht aus einer periodischen Sequenz von Bildern. Jedes Bild besteht aus einer ganzzahligen Anzahl von Zeilen. Jede Zeile umfaßt eine Anzahl von Punkten oder Pixeln, die zeitlich mit einer vordefinierten Frequenz beabstandet sind. Diese Frequenz wird durch einen Oszillator, gewöhnlich einen Quarzoszillator, bereitgestellt. Bei herkömmlichen professionellen Videogeräten kann die Pixelfrequenz des Oszillators 27 MHz betragen, jede Zeile kann Np=1728 Punkte oder Pixel enthalten und ein Bild N1=625 Zeilen (geteilt in zwei Einzelbilder).
  • Die Produktion eines Live-Programms erfordert im allgemeinen die Verwendung mehrerer Kameras, die mit einem sogenannten Mischer verbunden sind. Ein solcher Mischer kann verschiedene Grade der Kompliziertheit aufweisen. Der einfachste Typ eines Mischers ist ein Schalter, der eine der verschiedenen Kameras auswählt und ihr Videosignal an einem Ausgang des Mischers bereitstellt. Kompliziertere Mischer können in der Lage sein, Bilder aus zwei Kameras zu überlagern, um so einen allmählichen Übergang zu erzeugen, oder ein kombiniertes Ausgangssignal bereitzustellen, in dem eine Region des Bildes von einer Kamera und eine andere Region durch eine zweite Kamera geliefert wird. Damit ein solcher Mischer funktioniert, müssen die an den Eingängen des Mischers anliegenden Videosignale aus den verschiedenen Kameras perfekt synchronisiert sein. Eine solche Synchronisation impliziert, daß die Pixelfrequenzen der verschiedenen Kameras identisch sein sollten und daß am Eingang des Mischers keine Phasendifferenz zwischen den Bildern aus den verschiedenen Kameras vorliegen sollte.
  • Gewöhnlich weisen jede Kamera und der Mischer eine eigene Zeitbasis auf. Wenn diese Zeitbasen unabhängig voneinander wirken, sind die durch diese Zeitbasen erzeugten Pixelfrequenzen niemals perfekt identisch, gleichgültig, wie präzise die Zeitbasen sind. Phasendifferenzen zwischen Signalen aus verschiedenen Kameras können durch unterschiedliche Übertragungsleitungslängen zwischen der Kamera und dem Mischer verursacht werden.
  • Um trotz dieser Probleme eine Synchronisation zu erzielen, wurden zwei Ansätze entwickelt. Ein erster Ansatz ist der sogenannte Bildsynchronisierer. Im wesentlichen kann ein Bildsynchronisierer als eine Art anpaßbarer Puffer zwischen jeder Kamera und dem Mischer betrachtet werden. Bilddaten werden in den Puffer mit der Rate geschrieben, mit der sie durch die Kamera erzeugt werden, was auf der Pixelfrequenz der Kamera basiert. Sie werden mit der Pixelfrequenz des Mischers aus dem Puffer gelesen. Wenn die Pixelfrequenz des Mischers genau mit der der Kamera übereinstimmt, kann der Synchronisierer als ein einfaches Verzögerungselement angesehen werden. Wenn die Pixelfrequenz des Mischers höher als die der Kamera ist, kann ein in dem Puffer gespeichertes Einzelbild zweimal durch den Mischer gelesen werden, bevor es durch die Kamera überschrieben wird, und wenn die Pixelfrequenz der Kamera höher als die des Mischers ist, kann ein Einzelbild in dem Puffer übersprungen werden (überschrieben, ohne daß der Mischer es überhaupt gelesen hat). Die Rate, mit der Einzelbilder zweimal gelesen oder übersprungen werden, hängt von der Frequenzdifferenz zwischen Kamera- und Mischerfrequenzen ab. Der Bildsynchronisierer ist vielseitig und leicht zu steuern, hat aber insofern einen Nachteil, als er eine unvorhersehbare Verzögerung verursacht, die einen beliebigen Wert zwischen 0 und 1 Bild annehmen kann. Eine solche Verzögerung kann beim Mischen von Video- und Audiosignalen, um den Programminhalt zu produzieren, äußerst peinlich sein. Sogenannte "Lip sync"-Effekte (das Audiosignal ist dem Videosignal voraus oder hinterher) sind bemerkbare und unerwünschte Effekte.
  • Diese Art von Problem kann durch Verwendung des Genlock-Ansatzes vermieden werden. Gemäß diesem Ansatz wird die Pixelfrequenz jeder Kamera so gesteuert, daß sie strikt mit einer Pixelfrequenz des Mischers identisch ist, und die Bildphase jeder Kamera wird so gesteuert, daß sie der Bildphase des Mischers geringfügig vorauseilt, wobei auf der Basis der Verzögerung der Übertragungsleistung zwischen der Kamera und dem Mischer bestimmt wird, um wieviel, so daß, wenn das Videosignal aus der Kamera am Eingang des Mischers ankommt, seine Bildphase strikt mit der des Mischers übereinstimmt.
  • Ein üblicher Ansatz zur Videoeinrichtungssynchronisation kann folgendermaßen beschrieben werden. In einem Videosystem, das eine erste Videoeinrichtung umfaßt, die ein zusammengesetztes Videosignal sendet, das Bildinformationen und Synchronisationsinformationen, die aus einer Zeitbasis der ersten Videoeinrichtung abgeleitet werden, und eine zweite Videoeinrichtung, die das zusammengesetzte Videosignal empfängt, umfaßt,
    • a) werden Synchronisationsinformationen aus dem durch die zweite Videoeinrichtung empfangenen zusammengesetzten Videosignal und aus der Zeitbasis der zweiten Videoeinrichtung extrahiert;
    • b) Horizontal- und Einzelbildphasendifferenzen zwischen dem durch die zweite Videoeinrichtung empfangenen zusammengesetzten Videosignal und der Zeitbasis der zweiten Videoeinrichtung werden auf der Basis der extrahierten H- und F-Synchronisationsinformationen bestimmt.
    • c) Die Horizontal-Phasendifferenz wird im analogen Bereich berechnet, dann an einen Integrierer angelegt, was zu einer Steuerspannung führt, die zeilenweise zu der Takterzeugung der ersten Einrichtung gesendet wird, um ihre Frequenz nach oben (oder nach unten) zu schieben, wobei ihre Zeilen- und Einzelbilddauer reduziert (oder vergrößert) wird, bis die Horizontal-Phasendifferenz aufgehoben ist. Diese Technik ist als Phasenregelkreis wohlbekannt.
    • d) Die Einzelbild-Phasendifferenz wird auf die folgende Weise verarbeitet: Gemäß ihrem Wert wird ein Rücksetzimpuls erzeugt und einzelbild- oder teileinzelbildweise zu der ersten Einrichtung gesendet, um nur ein einziges Mal ihre reguläre (selbstlaufende) Periode zu einem präzisen Zeitpunkt zu verändern.
  • Im allgemeinen werden diese beiden Arten von Informationen (analog-proportional für Frequenz- und Horizontal-Phasensteuerung; Vertikal-Rücksetzen für Einzelbild-Steuerung) kombiniert, um zu der ersten Einrichtung gesendet zu werden.
  • Es muß hervorgehoben werden, daß die Übertragungsmedien der Steuerinformationen zu der ersten Videoeinrichtung eine vorhersehbare und reproduzierbare Verzögerung aufweisen müssen. Andernfalls kann der Rücksetzimpuls zu früh oder zu spät kommen, was zu einer unregelmäßigen, permanent falschen Zeitbasissequenz führt.
  • Ein weiteres spezifisches Beispiel für eine Vertikal-Rücksetzverarbeitung eines Videokamerasystems wird in dem Patent DE 40 30 148 C2 beschrieben. In dieser Schrift wird eine Einzelbild-Phasendifferenz zwischen den aus der Kamera empfangenen Synchronimpulsen und durch eine lokale Zeitbasis der Kamerasteuereinheit erzeugten Synchronimpulsen berechnet. Wenn eine solche Einzelbild-Phasendifferenz existiert, wird ein Rücksetzimpuls zu der Kamera gesendet, der eine Phasenverschiebung des von ihr erzeugten Bildsignals (und daher des V-Synchronsignals) bewirkt, die einer Bildzeile äquivalent ist. Dieser Prozeß wird einmal pro Bild (d.h. Einzelbild) wiederholt, bis die Steuereinheiten finden, daß die V-Synchronimpulse aus der Kamera und aus der lokalen Zeitbasis phasengleich sind. Da die Zeilenanzahl in herkömmlichen Videobildern z.B. gemäß den Normen PAL und SECAM 625 beträgt, kann dieses vorbekannte System einige Sekunden brauchen, um die V-Synchronimpulse der Kamera und der Steuereinheit auszurichten. Ferner setzt es auch eine perfekt vorhersehbare Übertragungsverzögerung des Rücksetzimpulses voraus.
  • Es wird somit ein schnelles Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen und eine Videoeinrichtung mit schneller Synchronisation benötigt, insbesondere wenn die Einrichtungen durch zwei Übertragungsmedien verbunden sind, deren Übertragungsverzögerung mit der Zeit veränderlich sein kann.
  • Die Erfindung schlägt ein Verfahren zur Verwendung in einem Videosystem vor, das eine erste Videoeinrichtung, die ein Videosignal sendet, das Bildinformationen und Synchronisationsinformationen umfaßt, und eine zweite Videoeinrichtung, die das Videosignal empfängt, umfaßt, mit den folgenden Schritten:
    • a) Synchronisationsinformationen werden aus dem durch die zweite Videoeinrichtung empfangenen Videosignal und aus der Zeitbasis der zweiten Videoeinrichtung extrahiert;
    • b) eine Phasendifferenz zwischen dem durch die zweite Videoeinrichtung empfangenen Videosignal und der Zeitbasis der zweiten Videoeinrichtung wird auf der Basis der extrahierten Synchronisationsinformationen bestimmt;
    • c) Steuerinformationen eines ersten Typs, die den Betrag der Phasendifferenz darstellen, werden zu der ersten Einrichtung gesendet; und
    • d) in der ersten Einrichtung wird die Phase des Videosignals um einen Phasenwinkel umgeschaltet, der durch die Steuerinformationen eines ersten Typs dargestellt wird.
  • Es wird nicht nur bestimmt, daß eine Phasendifferenz besteht und ob die Phasendifferenz ein Vorauseilen oder eine Verzögerung ist, sondern es wird auch ein quantitatives Maß der Phasendifferenz bestimmt und zu der ersten Einrichtung gesendet, wodurch die erste Einrichtung ihre Phase in einem einzigen Schritt anpassen kann. Folglich kann eine Bildperiode ausreichen, um die Phasendifferenz zu bestimmen und zu korrigieren.
  • Es reicht im allgemeinen aus, das Verfahren einmal auszuführen, wenn die erste und/oder die zweite Videoeinrichtung eingeschaltet wird; vorzugsweise werden mindestens die Schritte a) bis b) jedoch zyklisch wiederholt. Die Schritte c) und d) können auch wiederholt werden, werden aber vorzugsweise nur dann ausgeführt, wenn die durch die erste Art von Steuerinformationen dargestellte Phasendifferenz von 0 verschieden ist, d.h. wenn tatsächlich eine zu korrigierende Phasendifferenz besteht. Auf diese Weise wird die Übertragungsbandbreite von der zweiten zu der ersten Einrichtung, die zur Ausführung des Verfahrens erforderlich ist, äußerst klein.
  • Gemäß einer bevorzugten Ausführungsform sind die Steuerinformationen ein binäres Datenwort mit einer vordefinierten Anzahl von Bit, wobei die Anzahl mindestens zwei beträgt.
  • Weiterhin weist das Verfahren vorzugsweise die folgenden zusätzlichen Schritte auf:
    • e) Bestimmen des ersten Typs von Steuerinformationen und von Steuerinformationen eines zweiten Typs dergestalt, daß die Summe von Phasendifferenzen, die durch den ersten und den zweiten Typ von Steuerinformationen dargestellt werden, die im Schritt b) bestimmte Phasendifferenz ist,
    • f) Senden auch des zweiten Typs von Steuerinformationen zu der ersten Einrichtung und
    • g) Anwenden einer Phasenverschiebung, die durch den zweiten Typ von Steuerinformationen dargestellt wird, auf das zusammengesetzte Videosignal in der ersten Einrichtung.
  • Durch Beschränken der Anzahl von Bit, die der erste Typ von Steuerinformationen aufweisen kann, wird die erforderliche Zeit zum Senden dieser Informationen zu der ersten Einrichtung gering gehalten. Der Umstand, daß dieser erste Typ von Steuerinformationen nur eine begrenzte Auflösung aufweist, wird kompensiert, indem weiterhin der zweite Typ von Steuerinformationen gesendet wird, der eine Feineinstellung der Bildphase in der ersten Videoeinrichtung ermöglicht. Der Mechanismus zum Anwenden der durch den zweiten Typ von Steuerinformationen dargestellten Phasenverschiebung auf das zusammengesetzte Videosignal kann von dem abrupten Umschalten, das auf der Basis des ersten Typs von Steuerinformationen ausgeführt wird, verschieden sein. Vorzugsweise wird diese Feineinstellung der Phasenverschiebung ausgeführt, indem die Pixelfrequenz der Zeitbasis der ersten Einrichtung gemäß dem Vorzeichen der durch den zweiten Typ von Steuerinformationen dargestellten Phasenverschiebung vergrößert oder verkleinert wird. Das heißt, wenn sich die Phase des Videosignals aus der ersten Einrichtung als der der zweiten Einrichtung vorauseilend erweist, wird die Pixelfrequenz der ersten Einrichtung auf der Basis des zweiten Typs von Steuerinformationen reduziert, bis sich zeigt, daß die Phasen zusammenfallen, und wenn die Phase des Videosignals aus der ersten Einrichtung in Bezug auf die der zweiten Einrichtung verzögert ist, wird die Pixelfrequenz der ersten Einrichtung erhöht, bis die Phasen zusammenfallen.
  • Vorzugsweise wird eine Zeit zum Ausführen von Schritt d) gemäß der im Schritt b) bestimmten Phasendifferenz dergestalt gewählt, daß nach der Ausführung von Schritt d) das Videosignal in der ersten Einrichtung eine vordefinierte Phase annimmt, vorzugsweise den Anfang eines Bildes in dem Videosignal. Auf diese Weise kann eine Diskontinuität der durch die zweite Videoeinrichtung empfangenen Bildinformationen vermieden werden.
  • Die Erfindung schlägt die folgenden bevorzugten Merkmale vor:
    • – Die H-Phasendifferenz wird im digitalen Bereich berechnet, dann wahlweise durch eine nichtlineare Stufe verarbeitet, deren Zweck die Reduktion der Anzahl zu übertragender Bit ist. Ein solches Transfergesetz erhält die gesamte Auflösung der H-Phasendifferenz, wenn kleine Werte übertragen werden sollen. Je höher der zu übertragende Wert ist, desto mehr Rundung wird zugelassen, da sich diese Rundung nicht auf den stationären Zustand (kleine Werte um Null) auswirkt. Also bestehen die übertragenen Daten aus einem "Range"-Feld und einem "Daten"-Feld. Das Range-Feld (z.B. 3 Bit) übermittelt einen Zweierpotenz-Multiplikationsfaktor, der auf das Datenfeld anzuwenden ist, wobei es sich um einen vorzeichenbehafteten Wert handelt.
    • – In der Kamera wird die umgekehrte Operation durchgeführt, und die ungefähre H-Phasendifferenz wird auf ein digitales Filter (PI) angewandt, wodurch ein Steuersignal resultiert, das entweder in den analogen Bereich umgesetzt wird oder einen Direkt-Digitalsynthesizer steuert. In beiden Fällen verschiebt die Takterzeugung der ersten Einrichtung ihre Frequenz nach oben (oder nach unten), wobei ihre Zeilen- und Einzelbilddauer reduziert (oder erhöht) wird, bis die H-Phasendifferenz aufgehoben ist. Es erscheinen drei Vorteile dieser Technik: Erstens kann die Übertragungsrate der H-Phasendifferenz wesentlich kleiner als ihr analoges Gegenstück sein; zweitens ist sie total vor Übertragungsrauschen geschützt; als letztes können die Übertragungsmedien sogar Dropouts aufweisen, da immer das neueste digitale Steuersignal verfügbar ist.
    • – Die F-(Einzelbild-)Phasendifferenz wird ebenfalls auf nichtklassische Weise verarbeitet: Statt einen Rücksetzimpuls in der empfangenden Einrichtung zu erzeugen, wird die im digitalen Bereich berechnete und auf die nächste ganzzahlige Anzahl von Zeilen gerundete F-Phasendifferenz direkt einzelbild- oder teileinzelbildweise zu der ersten Einrichtung gesendet.
    • – In der ersten Einrichtung wird die F-Phasendifferenz in Verbindung mit der Zeitbasis zur lokalen Erzeugung des Rücksetzimpulses verwendet, der nur einmal seine reguläre (selbstlaufende) Periode zu einem präzisen Zeitpunkt verändern wird. Der Vorteil dieser Innovation ist erstaunlich: Es hat keinen Einfluß mehr, welche Verzögerung benötigt worden ist, um die F-Phasendifferenz zu übertragen, der Rücksetzimpuls wird immer zum richtigen Zeitpunkt auftreten.
  • Wie bereits erwähnt, ist es in der Technik üblich, daß die in dem zusammengesetzten Videosignal enthaltenen Bildinformationen durch eine Sequenz von Bildern gebildet werden, wobei jedes Bild mehrere Zeilen umfaßt. In diesem Fall stellt der erste Typ (V-Phase) von Steuerinformationen vorzugsweise eine Anzahl von Zeilen dar, um die das aus der ersten Videoeinrichtung empfangene zusammengesetzte Videosignal in bezug auf die Zeitbasis der zweiten Einrichtung phasenverschoben wird. Wenn die Anzahl von Zeilen pro Bild 625 beträgt, wird der erste Typ von Steuerinformationen genauer gesagt ein binäres Wort von mindestens 10 Bit sein müssen, um in der Lage zu sein, alle möglichen Phasenverschiebungen zwischen den beiden Videosignalen mit einer Auflösung von einer Zeile darzustellen.
  • Wenn ein herkömmliches analoges Videosignal direkt von der ersten zu der zweiten Videoeinrichtung übertragen wird, ist die Übertragungsverzögerung zwischen den beiden Einrichtungen gewöhnlich konstant, solange die Einrichtungen in Betrieb sind und die Übertragungsleitung zwischen beiden nicht modifiziert wird.
  • Wenn vor der Übertragung eine digitale Komprimierung notwendig ist (zum Beispiel im Fall einer digitalen drahtlosen Übertragung), wird zwischen den beiden Einrichtungen eine paketorientierte Übertragung verwendet und die Verzögerung zwischen der Erzeugung etwa des ersten Pixels eines Bilddaten elements und dem Kopf des Pakets, die den Anfang des entsprechenden komprimierten Halbbilds in der ersten Einrichtung identifizieren, kann unterschiedlich sein. Synchronisationsimpulse der "nativen" Videosignale sind dann in dem Datenstrom entweder nicht verfügbar oder keine zuverlässige Grundlage für die Steuerung der Pixelfrequenz der ersten Einrichtung mehr. Es gibt dafür vielfache Gründe: Der Übertragungstakt ist im allgemeinen asynchron zu dem Videoerzeugungstakt, und die Kompressionszeit kann mit dem Bildinhalt variieren, und der Stopfmechanismus, der notwendig ist, um genau die Datenrate des komprimierten Videosignals an die der Übertragungsmedien anzupassen, führt eine unvorhersehbare Verzögerung ein.
  • Ein anderes wichtiges Merkmal für ein solches Übertragungssystem mit komprimierten Videosignalen besteht darin, daß die Kompressions- und Dekompressions-Engines dieselbe Pixeltaktfrequenz aufweisen. Dies ist eine Anforderung, um FIFO-Überlaufzustände zu vermeiden. Im Prinzip wird in einer klassischen MPEG-Rundsendekette die Pixeltaktwiederherstellung für die Dekompressions-Engine auf der Empfängerseite unter Verwendung eines (ersten) PLL-Prinzips durchgeführt. Dies würde jedoch nicht für die Synchronisation der ersten Einrichtung auf dem Mischerpixeltakt ausreichen. Es sollte notwendig sein, einen zweiten PLL zu vernesten, um sicherzustellen, daß der Pixeltakt der Kompressions-Engine und des Mischers AUCH auf derselben Frequenz sind. Das Vernesten von 2 PLL ist aus Stabilitäts- und Jitter-Gründen, die Technikern wohlbekannt sind, relativ schwierig. Die Erfindung bringt eine Lösung, die das Vernesten von 2 PLLs vermeidet.
  • Außerdem beseitigt sie die grundlegende Annahme, Pixelfrequenzsteuerung und H-Phase zu verknüpfen. Bei allen Synchronisationssystemen, die Video-Synchronimpulse behandeln, modifiziert der H-Phasen-PLL die Pixelfrequenz, bis die H-Phase korrekt ist. Dies ist auf den Umstand zurückzuführen, daß H-Phase das Integral der Pixelfrequenz ist. Es kann zu einem sehr langsamen Verhalten führen. Die Erfindung trennt die Pixelfrequenzsteuerung und die (H&V-)Phasensteuerung in zwei separate Prozesse auf, wodurch eine viel schnellere Verriegelungszeit ermöglicht wird.
  • Wenn also das "native" Videosignal vor der Übertragung in digitaler Form als eine Sequenz von Datenpaketen komprimiert wird, wird bevorzugt, daß die von der zweiten Einrichtung benötigten Synchronisationsinformationen ein Sendezeitdatenelement umfassen, das in mindestens einigen der Datenpakete enthalten ist, aus der Zeitbasis der ersten Einrichtung abgeleitet wird und den Zeitbasisstatus zum Sendezeitpunkt des Pakets, in dem dieses Datenelement enthalten ist, darstellt, und daß jedes dieser Sendezeitdatenelemente nach Empfang durch die zweite Einrichtung mit auf ähnliche Weise aus der Zeitbasis der zweiten Einrichtung abgeleiteten Empfangszeitdaten verglichen wird und daß die Frequenzfehlerinformationen zur Steuerung der Pixelfrequenz der zweiten Einrichtung aus einer Differenz zwischen den Sende- und den Empfangszeitdaten berechnet werden.
  • Insbesondere kann die erste Einrichtung einen ersten Zähler umfassen, der auf der Basis einer aus der Zeitbasis der ersten Einrichtung abgeleiteten Pixelfrequenz betrieben wird, und die zweite Einrichtung kann einen zweiten Zähler umfassen, der auf der Basis einer aus der Zeitbasis der zweiten Einrichtung abgeleiteten Pixelfrequenz betrieben wird, und ein Zählwert des ersten Zählers zum Sendezeitpunkt wird in ein Datenpaket als das Sendezeitdatenelement aufgenommen und nach dem Empfang durch die zweite Einrichtung mit einem Zählwert des zweiten Zählers als Empfangszeitdatenelement verglichen.
  • Wenn die erste oder die zweite Einrichtung eingeschaltet wird, kann die Differenz zwischen Zählwerten dieser beiden Zähler einen beliebigen Wert aufweisen. Wenn diese Differenz eine gegebene Schwelle übersteigt, wird der zweite Zähler nur einmal auf den aus dem ersten Zähler empfangenen Wert gesetzt. Wenn ein nachfolgender Zählwert aus der ersten Videoeinrichtung empfangen wird, sollte er mit dem Zählwert des zweiten Zählers identisch sein, solange die Pixelfrequenzen der beiden Einrichtungen identisch sind. Jede nicht verschwindende Differenz zwischen den beiden Zählwerten zeigt eine Differenz der beiden Pixelfrequenzen an und sollte durch Steuern der Pixelfrequenz der ersten Einrichtung zu 0 gemacht werden.
  • Eine erste Videoeinrichtung der vorliegenden Erfindung besitzt einen Ausgangsport zum Ausgeben eines Videosignals, einen Eingangsport zum Eingeben von Steuerinformationen und eine Zeitbasis, die so ausgelegt ist, daß sie die Phase eines Videosignalausgangssignals an dem Ausgangsport um einen Phasenwinkel umschaltet, der durch einen ersten Typ der Steuerinformationen spezifiziert wird. Vorzugsweise ist die Zeitbasis der ersten Einrichtung weiterhin so ausgelegt, daß sie eine Pixelfrequenz des Videosignals gemäß einem zweiten Typ der Steuerinformationen einstellt.
  • Eine zweite Videoeinrichtung gemäß der Erfindung besitzt einen Eingangsport zum Eingeben eines Videosignals, Mittel zum Bestimmen eines Phasenwinkels zwischen dem Eingangsvideosignal und einer Zeitbasis der zweiten Videoeinrichtung und einen Ausgangsport zum Ausgeben von Steuerinformationen, die den Phasenwinkel quantitativ spezifizieren.
  • Vorzugsweise besitzt die erste Videoeinrichtung einen Ausgangsport zum Ausgeben eines komprimierten Datenstroms aus einer das Videosignal verarbeitenden Kompressions-Engine, einen Eingangsport zum Eingeben von V-Steuerinformationen und eine Zeitbasis, die so ausgelegt ist, daß sie die Phase des Videosignals und somit des an dem Ausgangsport ausgegebenen komprimierten Datenstromausgangssignals um einen Phasenwinkel umschaltet, der durch einen ersten Typ der Steuerinformationen spezifiziert wird. Außerdem ist die Zeitbasis der ersten Einrichtung weiterhin so ausgelegt, daß sie eine Pixelfrequenz des Videosignals gemäß einem zweiten Typ der Frequenzsteuerinformationen einstellt.
  • Vorzugsweise besitzt die zweite Videoeinrichtung einen Eingangsport zum Eingeben des durch die erste Einrichtung ausgegebenen komprimierten Datenstroms, ein Referenzeingangssignal, das durch den Mischer angeforderte Videozeitsteuerung (Pixelfrequenz, H- und V-Phase) darstellt, eine Dekompressions-Engine, deren Pixeltakt aus dem Referenzeingangssignal erhalten wird und die in der Lage ist, das Videosignal aus dem komprimierten Datenstrom heraus wieder aufzubauen, und Mittel zum Bestimmen eines Frequenzfehlers zwischen der Referenzpixelfrequenz und der Kompressions-Engine-Pixelfrequenz, sowie eines Phasenwinkels zwischen dem Ausgangsvideosignal und Referenz-H- und -V-Signalen der zweiten Videoeinrichtung und einen Ausgangsport zum Ausgeben von Steuerinformationen, die den Frequenzfehler und den V-Phasenwinkel quantitativ spezifizieren.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung einer Ausführungsform mit Bezug auf die beigefügte Zeichnung hervorgehen. Es zeigt:
  • 1 ein Blockschaltbild eines Videosystems mit einer ersten und einer zweiten Videoeinrichtung gemäß der Erfindung, wobei ein analoges Videosignal von der ersten Einrichtung zu der zweiten übertragen wird, und
  • 2 ein Blockschaltbild eines Videosystems mit einer ersten und einer zweiten Videoeinrichtung, wobei ein digitaler komprimierter Datenstrom von der ersten zu der zweiten Einrichtung übertragen wird.
  • In l ist die erste Videoeinrichtung eine Kamera 1 und die zweite Videoeinrichtung ein Empfangsteil (im allgemeinen eine sogenannte Basisstation oder Kamerasteuereinheit CCU) 2, der ein analoges zusammengesetztes Videosignal aus der Kamera 1 durch eine Abwärtsübertragungsleitung 3, z.B. ein Koaxialkabel, einen Lichtwellenleiter oder ein drahtloses analoges Übertragungssystem, empfängt und ein Videosignal zu dem Mischer (nicht gezeigt) und Steuerinformationen zu der Kamera 1 durch eine Aufwärtsübertragungsleitung 4, die ein zweites Koaxialkabel, ein zweiter Lichtwellenleiter oder ein zweites drahtloses analoges Übertragungssystem sein kann, sendet. Obwohl es nicht gezeigt ist, besitzt der Mischer im allgemeinen mehr als einen Eingangsport zum Anschließen mehrerer Kameras oder anderer Quellen von Videosignalen mittels Übertragungsleitungen, die eine variierende Länge aufweisen können und somit variierende Übertragungsverzögerungen zwischen der Bildsignalquelle und der CCU 2 verursachen können.
  • Die Kamera 1 umfaßt einen Imager-Chip 11, z.B. ein CCD-Element (Charge Coupled Device), auf das Licht aus einer Szene einfällt und aus dem Bilder mit einer vordefinierten Bildfrequenz ausgelesen werden. Der Imager-Chip 11 besitzt eine große Anzahl von Pixeln, die in einer Matrix von Zeilen und Spalten angeordnet sind. Der Einfachheit halber wird angenommen, daß die Anzahl von Zeilen und Spalten dieselbe wie die Anzahl von Zeilen und Pixeln pro Zeile in dem durch die Kamera erzeugten Videosignal ist, obwohl dies keine Anforderung ist. Das Auslesen aus dem Imager-Chip 11 wird unter der Steuerung eines Pixeltaktsignals aus dem spannungsgesteuerten Oszillator 12a der Zeitbasis 12 ausgeführt und Daten, die Farbe und Helligkeit einzelner Pixel definieren, werden pixelweise und zeilenweise an eine Erzeugungsschaltung für zusammengesetzte Videosignale 13 ausgegeben. Die Zeitbasis 12 umfaßt weiterhin Zähler 12b, 12c, die als Frequenzteiler an dem Pixeltaktsignal PCc wirken und der Erzeugungsschaltung für zusammengesetzte Videosignale 13 Synchronisationsimpulse ΦLC, ΦIC mit einer Rate von einmal pro Bildzeile aus dem Zähler 12b und einmal pro Bild aus dem Zähler 12c zuführen.
  • Auf der Basis der aus dem Imager-Chip 11 und der Zeitbasis 12 empfangenen Signale erzeugt die Schaltung 13 ein herkömmliches zusammengesetztes Videosignal CVSC, in dem aktive Signale entsprechend jeder Bildzeile durch Leerräume getrennt werden und zwischen der letzten aktiven Zeile eines Halbbildes und der ersten aktiven Zeile des nachfolgenden Halbbildes ein Bildsynchronisationsimpuls eingefügt wird und in die Leerräume zwischen aktiven Zeilen eines Bildes Zeilensynchronisationsimpulse eingefügt werden. Gewöhnlich wird in dem zusammengesetzten Videosignal jedes Bild als zwei aufeinanderfolgende verschachtelte Halbbilder übertragen, wobei eines ungradzahlige Zeilen des Bildes und das andere gradzahlige Zeilen umfaßt und ein dritter Typ von Synchronisationsimpuls in einen Leerraum zwischen den beiden Halbbildern eines Bildes eingefügt wird. Dieser dritte Typ ist jedoch für die vorliegende Erfindung von keiner weiteren Relevanz und wird hier nicht besprochen, denn die Erfindung ist gleichermaßen auf verschachtelte und auf nicht verschachtelte Videosignale anwendbar.
  • Die CCU 2 besitzt eine eigene Zeitbasis 21, die in etwa der gleichen Weise wie die Zeitbasis 12 der Kamera 1 ein Pixeltaktsignal PCM und Zeilensynchronisationsimpulssignale ΦLM, ΦIM und Bildsynchronisationsimpulssignale bereitstellt. Diese Zeitbasis kann freilaufend sein, wahrscheinlicher wird die Zeitbasis der CCU jedoch selbst auf das Referenzsignal (das sogenannte Black-and-Burst-Signal) aus dem Mischer verriegelt. Die Zeitbasis des Mischers liefert somit einen Zeitstandard, auf den der Betrieb aller Zeitbasen von CCUs und Kameras oder anderen mit dem Mischer verbundenen Bildquellen synchronisiert werden muß, so daß an jedem Eingangsport des Mischers die Anfänge einzelner Bilder in den zusammengesetzten Videosignalen genau ausgerichtet sind und ein Überwechseln zwischen verschiedenen Eingangsports möglich ist.
  • Um eine solche Synchronisation zu erzielen, ist mit dem Eingangsport des Mischers 2 eine Synchronisationsextraktionsschaltung 22 verbunden. Zeilensynchronisationssignale ΦLC aus der Extraktionsschaltung 22 und ΦLM aus der Zeitbasis 21 werden einem Phasenkomparator 23 zugeführt. Ein Ausgangssignal ΔΦL des Phasenkomparators 23, das die Phasendifferenz zwischen den beiden Zeilensynchronisationssignalen darstellt, wird einer Abtast- und Umsetzungsschaltung 24 zugeführt. Die Umsetzungsschaltung 24 tastet das Phasenfehlersignal aus dem Phasenkomparator 23 in regelmäßigen Zeitintervallen ab, z.B. mit der Zeilenfrequenz oder einem Subvielfachen dieser, und liefert digitale Daten, die die H-Phasenverzögerung darstellen, an eine Modulationsschaltung 25.
  • Bildsynchronisationsimpulse ΦIM aus der Zeitbasis 21 und ΦIC aus der Extraktionsschaltung 22 werden einer V-Verzögerungsmeßschaltung 26 zugeführt. Diese Verzögerungsmeßschaltung 26 kann ein Phasenkomparator mit einer ähnlichen Struktur wie der Phasenkomparator 23 sein, der aber nicht die Phasendifferenz zwischen Zeilensynchronisationsimpulsen, sondern zwischen Bildsynchronisationsimpulsen mißt. Die Verzögerungsmeßschaltung 26 kann auch ein Zähler sein, der folgendes aufweist: einen Trigger-Eingang, mit dem eines der Bildsynchronisationssignale, z.B. das Signal aus der Extraktionsschaltung 22, verbunden ist, einen Stop-Eingang, mit dem das andere Bildsynchronisationssignal aus der Zeitbasis 21 verbunden ist, und einen Zählimpulseingang, mit dem das Zeilensynchronisationssignal entweder aus der Extraktionsschaltung 22 oder aus der Zeitbasis 21 verbunden ist. Ein solcher Zähler beginnt mit dem Zählen von Bildzeilen, die durch Impulse des Zeilensynchronisationssignals identifiziert werden, wenn er an seinem Trigger-Eingang einen Impuls empfängt, der den Anfang eines Bildes anzeigt, und beendet das Zählen, wenn er an dem Stop-Eingang einen Impuls empfängt, so daß der so erhaltene Zählwert ΔΦI die Anzahl von Zeilen angibt, um die das Videosignal aus der Kamera 1 dem lokalen Videosignal des Mischers vorauseilt. Dieser Zählwert wird außerdem der Modulationsschaltung 25 zugeführt. Die Modulationsschaltung 25 sendet die durch die Umsetzungsschaltung 24 und die Meßschaltung 26 gelieferten Informationen in ein Format, das für die Übertragung auf der Aufwärtsübertragungsleitung 4 geeignet ist, und sendet sie zu einem beliebigen geeigneten Zeitpunkt.
  • In der Kamera 1 empfängt eine digitale Demodulationsschaltung 14 die durch die Modulationsschaltung 25 gesendeten Steuerinformationen und führt einem digitalen Schleifenfilter 15 den durch die Umsetzungsschaltung 24 erhaltenen Phasendifferenzwert ΔΦL zu. Auf der Basis dieser Eingabe berechnet das Schleifenfilter 15 eine Steuerspannung, die über einen DAC 17 einem spannungsgesteuerten Oszillator 12a zugeführt wird. Eine andere Art der Implementierung könnte einen Direkt-Digitalsynthesizer und einen freilaufenden Taktgenerator verwenden, wobei die digitale Ausgabe des Schleifenfilters ohne D/A-Umsetzung an die DDS-Steuerung angelegt wird. Die Steuerspannung definiert die Frequenz des Pixeltakts PCC, der durch den Oszillator 12a an die Zähler 12b, 12c der Zeitbasis 12 abgeliefert wird. Der Phasenkomparator 23, das Schleifenfilter 15 und der Oszillator 12a bilden somit einen Phasenregelkreis zur Steuerung der Pixeltaktfrequenz PCC der Kamera 1. Da Phasenregelkreise an sich und ihre Funktionsweise im allgemeinen in der Technik bekannt sind, wird die Funktionsweise dieses Phasenregelkreises nicht weiter im einzelnen beschrieben. Für die Zwecke der vorliegenden Erfindung reicht es aus zu erkennen, daß gemäß dem Vorzeichen der durch den Phasenkomperator 23 detektierten Phasendifferenz ΔΦL die Pixelfrequenz des Oszillators 12a erhöht oder erniedrigt wird, bis die Zeilensynchronisationsimpulse des Videosignals aus der Kamera 1 und das lokale Videosignal des Mischers sich als perfekt ausgerichtet erweisen.
  • Die Demodulationsschaltung 14 führt ferner einer Rücksetzschaltung 18 der Kamera 1 den durch die Verzögerungsmeßschaltung 26 erhaltenen Zählwert zu. Die Rücksetzschaltung 18 empfängt ein Signal, das den aktuellen Status der Zähler 12b und 12c anzeigt. Wenn dieser Status gleich einem durch die Meßschaltung 26 erhaltenen Zählwert nd wird, setzt die Rücksetzschaltung 18 die Zähler 12b, 12c der Zeitbasis 12 und der Videosignalerzeugungsschaltung 13 am Ende der Zeilenzahl nd zurück und bewirkt somit, daß die Videosignalerzeugungsschaltung 13 die aktuelle Bilderzeugung abbricht und mit dem Ausgeben eines neuen Bildes beginnt. Auf diese Weise wird die Bildphase des Videosignals unmittelbar um einen Phasenwinkel von 2πnd/N1 vorgerückt (wobei N1 die Anzahl von Zeilen in einem Bild ist), wodurch die Phasendifferenz zwischen den Bildsignalen am Mischer auf das Äquivalent von weniger als einer Zeile reduziert wird.
  • Da die Einstellung der Bildphase durch Vielfache einer Zeile stattfindet, hat sie keinen Einfluß auf die durch den Phasenkomparator 23 bestimmte Zeilenphasendifferenz. Die "Grobeinstellung" der Bildphase durch Phasenumschaltung unter Verwendung der Rücksetzschaltung 18 und die Feineinstellung unter Verwendung des Phasenregelkreises sind deshalb völlig unabhängig voneinander. Zur Ausführung der Grobeinstellung ist nicht mehr als eine Bildperiode zur Messung der Bildphasendifferenz zwischen den beiden Videosignalen erforderlich, und abhängig von dem Betrag der Phasendifferenz kann ihre Korrektur in demselben oder einem nachfolgenden Bild ausgeführt werden. Insgesamt ist die erforderliche Zeit für die Grobeinstellung nicht größer als zwei Bildperioden. Wenn die Kamera 1 oder die CCU 2 eingeschaltet wird, wird folglich eine vollständige Vertikal-Synchronisation der zusammengesetzten Videosignale innerhalb von nicht mehr als 40 ms erzielt. Die Horizontal-Synchronisation kann abhängig von dem Schleifenfilter und VCXO-Einschränkungen mehr Zeit in Anspruch nehmen.
  • Im Prinzip könnte die Verzögerungsmeßschaltung 26 die relative Verzögerung der beiden zusammengesetzten Videosignale einmal pro Bild messen. Wenn die Grobeinstellung der Bildphase einmal ausgeführt wurde, ist der Zählwert der Meßschaltung 26 im allgemeinen jedoch Null und es besteht keine weitere Notwendigkeit, die Bildphase unter Verwendung der Rücksetzschaltung 18 umzuschalten. Wenn der Zählwert der Meßschaltung 26 Null ist, ist es folglich auch nicht notwendig, diesen Zählwert zu der Kamera 1 zu senden, so daß Bandbreite der Aufwärtsübertragungsleitung 1 für andere Zwecke eingespart werden kann.
  • 2 ist ein Blockschaltbild eines Videosystems, das eine Kamera und eine CCU 2 umfaßt und in dem ein Videosignal, das Bildinformationen und Bildsynchronisationsinformationen umfaßt, komprimiert und in digitaler Form auf der Abwärtsübertragungsleitung 3 übertragen wird. Da digitale Übertragung des Videosignals eine beträchtliche Bandbreite erfordert, kann die Übertragungsleitung ein Lichtwellenleiter sein, oder bei Verwendung von digitalen Modulationstechniken wie zum Beispiel Einzelträgern oder Mehrfachträgern kann das resultierende Spektrum auch für eine Funkübertragung (drahtlos) geeignet sein.
  • In der Kamera 1 sind der Imager-Chip 11, die Zeitbasis 12, die Demodulationsschaltung 14, das Schleifenfilter 15, (der spannungsgesteuerte Oszillator 12a und der DAC 17) oder (DDS) und die Rücksetzschaltung 18 dieselben wie in 1 und müssen nicht nochmal beschrieben werden. Die Videosignalerzeugungsschaltung 13 kann insofern etwas von der in 1 verschieden sein, als sie die aus dem Imager-Chip 11 empfangenen Pixeldaten nicht in ein analoges Videosignal umsetzt, sondern eine Folge digitaler Daten liefert, die Bildinformationen und Bildsynchronisationsinformationen umfassen, und diese einer Datenkompressionsschaltung 51 einer Sendeschnittstelle 5, die zwischen der Kamera 1 und der Abwärtsübertragungsleitung 3 eingefügt ist, zuführt. Der Ausgang der Datenkompressionsschaltung 51 ist mit einem FIFO-Puffer 512 verbunden, in dem der komprimierte Videodatenstrom vorübergehend gespeichert wird, bevor er an eine Paketbildungsschaltung 53 weitergeleitet wird, die die Daten zu Paketen mit einem für die Übertragung auf der Abwärtsübertragungsleitung 3 geeigneten Format gruppiert.
  • Außerdem ist der Einfachheit halber in diesem Blockschaltbild eine digitale Modulationsschaltung nicht gezeigt, und ein HF-Aufwärtsumsetzer kann zwischen dem Ausgang der Schaltung 53 und den Übertragungsmedien eingefügt werden. Diese gilt insbesondere für den Fall einer Funkübertragung.
  • Die Komprimierbarkeit der aus der Videosignalerzeugungsschaltung 13 empfangenen Bildinformationen kann abhängig von der Komplexität des durch diese Daten dargestellten Bildes variieren. Deshalb kann die Datenrate am Ausgang der Kompressionsschaltung 51 variieren. Um der Modulationsschaltung eine konstante Datenrate zuzuführen, werden drei bekannte Mechanismen verwendet: Eine beliebige Kompressions-Engine besitzt Eingänge zum Reduzieren/Vergrößern der Ausgangsbitrate. Es ist die Rolle einer der Einfachheit halber hier nicht dargestellten Servoschleife, die Ausgangsbitrate zu messen, sie mit der angeforderten zu vergleichen und das Videosignal mehr oder weniger zu komprimieren, um zu der erwünschten Bitrate zu tendieren. Diese Servoschleife ist im allgemeinen jedoch zu langsam, um einen Kurzzeitüberlauf oder -unterlauf zu verhindern. Der FIFO-Puffer 52 absorbiert solche fluktuierenden Datenraten. Außerdem erlaubt ein Stopfmechanismus das Erzeugen von Dummy-Paketen, die automatisch erzeugt werden, wenn ein Unterlaufzustand auftritt, so daß die Paketbildungsschaltung 53 die Daten der Modulationsschaltung mit einer konstanten Rate zuführt. Auf diese Weise kann immer eine konstante Datenrate auf der Abwärtsübertragungsleitung 3 aufrechterhalten werden, und ihre Übertragungskapazität wird effizient ausgenutzt. Dadurch entsteht jedoch insofern ein Problem, als die Sendeschnittstelle 5 eine Verzögerung der Übertragung des Videosignals verursacht, die während des Betriebs der Kamera 1 und des Mischers 2 variieren kann. Die videobezogenen Synchronisationsinformationen, die möglicherweise in die komprimierten Bilddaten aus der Signalerzeugungsschaltung 13 aufgenommen werden, sind deshalb keine zuverlässige Basis zur Schätzung von Bild- und Zeilenphasendifferenzen zwischen den beiden Videosignalen in der CCU 2 mehr.
  • Dieses Problem wird gelöst, indem in der Paketbildungsschaltung 53 zusätzliche Zeitinformationen (sogenannter Zeitstempel) als ergänzende Synchronisationsinfomationen in die auf der Abwärtsübertragungsleitung 3 zu übertragenden Datenpakete eingefügt werden, unmittelbar bevor diese Pakete gesendet werden. Diese zusätzlichen Zeitstempelinformationen sind ein Zählwert, der als PCR bezeichnet wird, in Analogie mit einer ähnlichen Größe mit dem Namen PCR in dem MPEG- Standard. PCR wird durch einen PCR-Zähler 54 geliefert, der Impulse des Pixeltaktsignals aus dem Oszillator 12a zählt. PCR muß nicht in allen zu dem Mischer gesendeten Paketen enthalten sein; es reicht aus, daß es PCRs in einem Subvielfachen der Pakete gibt. Im Prinzip könnten die Pakete, in denen PCRs enthalten sind, beliebig in variablen Intervallen gewählt werden.
  • Am Empfangsende der Abwärtsübertragungsleitung 3, das ebenfalls der Einfachheit halber in diesem Blockschaltbild nicht gezeigt ist, können vor der Empfangsschnittstelle 6 ein HF-Abwärtsumsetzer und eine digitale Demodulationsschaltung eingefügt werden. Dies gilt besonders für den Fall einer Funkübertragung. Wobei die Empfangsschnittstelle 6 eine Entpackungs- und PCR-Extraktionsschaltung 61 umfaßt, deren Funktion die Umkehrung der Funktion der Paketbildungsschaltung 53 ist, so wie einen FIFO-Puffer 62 und eine Datendekompressionsschaltung 63, deren Funktion die Umkehrung der Funktion der Kompressionsschaltung 51 ist. Der Pixeltakt der Dekompressions-Engine wird direkt aus dem Mischerreferenzsignal abgeleitet. Somit wird am Ausgang der Dekompressionsschaltung 63 die in eine Kompressionsschaltung 51 eingegebene Datensequenz rekonstruiert.
  • Die Entpackungs- und PCR-Extraktionsschaltung 61 trennt ein in einem Datenpaket enthaltenes PCR von dem darin enthaltenen digitalen Videosignal und gibt es an einen PCR-Generator 64 und an einen ersten Eingang eines Komparators 65 aus. Der PCR-Generator umfaßt einen PCR-Zähler, ähnlich wie der PCR-Zähler 54 auf der Sendeseite, der Impulse des durch die Zeitbasis 21 gelieferten Pixeltaktsignals PCM zählt, und eine Schnittstellenschaltung, die das aktuelle PCR dieses Zählers an einen zweiten Eingang des Komparators 65 ausgibt, wenn sie durch ein PCR, das sie aus der Extraktionsschaltung 61 empfängt, getriggert wird.
  • Unmittelbar nach dem Einschalten der Kamera 1 und/oder der CCU 2 ist die Differenz zwischen den PCRs an den beiden Eingängen des Komparators 65 völlig beliebig. Wenn die Differenz eine Schwelle entsprechend einem vordefinierten Teil einer Bildperiode übersteigt, setzt eine mit dem Ausgang des Komparators 65 verbundene Initialisierungsschaltung 66 das PCR des PCR-Generators 64 gleich dem aus der Kamera 1 empfangenen PCR. Wenn die Pixelfrequenzen der Kamera 1 und der CCU 2 identisch sind, laufen die PCRs gleich, und immer wenn die Kamera 1 ein weiteres PCR sendet, wird erwartet, daß es mit dem PCR des PCR-Generators 64 übereinstimmt. Wenn eine Differenz zwischen den beiden PCRs besteht, stellt sie eine Differenz der Pixelfrequenzen der Kamera 1 und der CCU 2 dar. Die Schwelle der Initialisierungsschaltung 66 und die Zeit zwischen zwei Paketen mit PCR aus der Kamera 1 werden auf der Basis der erwarteten Exaktheit der beiden Pixeltaktsignale so gewählt, daß, nachdem der PCR-Generator 64 initialisiert wurde, die durch den Komparator 65 detektierte PCR-Differenz gewöhnlich die Schwelle der Initialisierungsschaltung 66 nicht übersteigt. Diese PCR-Differenz wird einer Datenkompressionsschaltung 27 zugeführt. Diese optionale Schaltung ermöglicht eine weitere Bitratenreduktion ohne Kompromiß bezüglich Beruhigungszeit. Die Idee ist hier, daß im stationären Zustand die PCR-Differenz nahe bei Null liegt und mit voller Präzision übertragen werden muß, während in der Beruhigungszeit die PCR-Differenz relativ wichtig sein kann, aber keine hohe Präzision benötigt. Für den Bereich 0 (kleine Werte, entweder positiv oder negativ um Null) ist also die Anzahl von Bit zum exakten Codieren des Werts klein. Für den Bereich 1 (Absolutwerte, die zweimal größer als die des Bereichs 0 sind) wird die PCR-Differenz auf das nächste Vielfache von 2 gerundet und heruntergeschoben, wobei Auflösung verlorengeht, aber bei der Anzahl zu übertragender Bit gespart wird. Für Bereich 2 (Absolutwerte zweimal größer als die von Bereich 1) wird die PCR-Differenz auf das nächste Vielfache von 4 gerundet und heruntergeschoben, wobei wieder Auflösung verlorengeht, aber noch mehr bei der Anzahl zu übertragender Bit gespart wird. Das Prinzip kann je nach Wunsch wiederholt werden. Da der PLL prinzipiell ein System mit geschlossener Schleife ist, verändert der Auflösungskompromiß den Verriegelungsprozeß nicht. Das resultierende Datenpaar (Bereich, Daten) wird zu einer Modulationsschaltung 25 und von dort aus durch Aufwärtsübertragungsmedien 4 zu der Kamera 1 gesendet, in der Demodulationsschaltung 14 demoduliert, in der Dekompressionsschaltung 19 dekomprimiert, wobei Daten aus dem Paar (Bereich, Daten) regeneriert werden, und als Steuersignal dem Schleifenfilter 15 zugeführt. Auf diese Weise wird die Pixelfrequenz PCC der Kamera 1 gleich der Pixelfrequenz PCM des Mischers 2 gehalten.
  • Aus der Dekompressionsschaltung 63 ausgegebene dekomprimierte Bilddaten durchlaufen einen Puffer mit variabler Verzögerung 28, der auf eine beliebige Verzögerung zwischen Null und ZM eingestellt werden kann, wobei ZM die Variation der Übertragungszeiten der Datenpakete zwischen der Kamera 1 und der CCU 2 ist, die zum Beispiel durch die variable Verzögerung der komprimierten Daten in dem FIFO-Puffer 52 sowie durch reine Ausbreitungsverzögerungen in digitalen Modulatoren und Demodulatoren verursacht wird. Die Funktion des variablen Puffers 28 ist etwas der eines Bildsynchronisierers ähnlich, unterscheidet sich jedoch insofern von einem Bildsynchronisierer, als zeitlich Bemittelte Datenraten der Eingabe und Ausgabe von Daten in dem Puffer 28 strikt gleich sind und keine Daten in dem Puffer 28 verworfen oder zweimal aus diesem gelesen werden. Er kann als ein FIFO beschrieben werden, dessen Tiefe groß genug ist, um einige wenige Zeilen zu speichern, und dessen Schreib- und Lesemechanismen die folgenden sind. Das Schreiben erster Daten eines Bildes erfolgt an der ersten Speicherstelle des FIFO, und folgende Daten werden an inkrementierten Adressen geschrieben. Das Lesen erster Daten aus dem FIFO erfolgt am Anfang eines aktiven Bildes auf Anforderung durch das Referenzsignal. Das Schreiben erster Daten muß 0 bis ZM Taktimpulse vor ihrem Lesen erfolgen, andernfalls tritt ein FIFO-Überlauf auf. Die Verzögerung des FIFO benötigt also keine Berechnung, da sie automatisch von der Vorauseilungszeit (0 bis ZM) des durch die Dekompressions-Engine gelieferten Videosignals und des Referenzsignals abhängt.
  • Eine der von 1 ähnliche Verzögerungsmeßschaltung 26 ist mit der Zeitbasis 21 und dem Ausgang der Dekompressions-Engine 63 verbunden, um die Phasendifferenz zwischen dem Ausgangsvideosignal der Dekompressions-Engine 63 und dem lokalen Referenzsignal des Mischers (und der lokalen Zeitbasis 21) zu bestimmen. Die gemessene V-Phasendifferenz wird dann korrigiert, um so die zusätzliche Verzögerung von 0 bis ZM zu berücksichtigen. Anders ausgedrückt, wird durch die V-Phasenmeßschaltung ein Wert berechnet und zu der Rücksetzschaltung 18 gesendet, wie zum Beispiel nachdem ein Rücksetzen aufgetreten ist, das Ausgangssignal der Dekompressions-Engine sollte in Bezug auf das durch den Mischer gelieferte Referenzsignal etwas vorauseilen (ZM/2). Da ZM die Spitze-Spitze-Variation der Ausbreitungsverzögerung des gesamten Übertragungsweges von dem CCD-Ausgang der Kamera bis zu der Dekompressions-Engine ist, befindet sich das Verzögerungselement in seinen besten Betriebsbedingungen, um eine Verzögerung von 0 bis ZM ohne Überlaufzustände hinzuzufügen. Wenn die so gemessene V-Phasendifferenz die Verzögerungsfluktuation ZM übersteigt, wird sie über eine Kompressionsschaltung 29, eine Modulationsschaltung 25, die Aufwärtsübertragungsleitung 4 und eine Demodulationsschaltung 14 zu der Rücksetzschaltung 18 der Kamera 1 gesendet. In der Rücksetzschaltung 18 wird sie zum Umschalten der Phasen der Zeitbasis 12 und der Videosignalerzeugungsschaltung 13, wie mit Bezug auf 1 beschrieben, verwendet. Wenn die durch die Verzögerungsmeßschaltung 26 gemessene Phasendifferenz kleiner als ±ZM/2 ist, muß sie nicht mehr gesendet werden.
  • Außerdem sind bei der Ausführungsform maximal zwei Bildperioden für eine vollständige V-Synchronisation zwischen Kamera 1 und CCU 2 erforderlich.

Claims (16)

  1. Verfahren zum Synchronisieren von Zeitbasen (12, 21) einer ersten Videoeinrichtung (1), die ein Videosignal (CVSC) sendet, das Bildinformationen und Synchronisationsinformationen umfaßt, und einer zweiten Videoeinrichtung, die das zusammengesetzte Videosignal (CVSC) empfängt, wobei a) Synchronisationsinformationen (ΦIC, ΦLC, ΦIM, ΦLM, PCRC, PCRM) aus dem durch die zweite Videoeinrichtung (2) empfangenen Videosignal (CVSC) und aus der Zeitbasis (21) der zweiten Videoeinrichtung (2) extrahiert werden; b) eine Phasendifferenz (ΔΦI, ΔΦL) zwischen dem durch die zweite Videoeinrichtung (2) empfangenen Videosignal (CVSC) und der Zeitbasis (21) der zweiten Videoeinrichtung (2) auf der Basis der extrahierten Synchronisationsinformationen (ΦIC, ΦLC, ΦIM, ΦLM, PCRC, PCRM) bestimmt wird; dadurch gekennzeichnet, daß c) Steuerinformationen (ΔΦI) eines ersten Typs, die den Betrag der Phasendifferenz repräsentieren, zu der ersten Einrichtung (1) gesendet werden; und d) in der ersten Einrichtung (1) die Phase des Videosignals (CVSC) um einen durch den ersten Typ von Steuerinformationen (ΔΦI) repräsentierten Phasenwinkel umgeschaltet wird.
  2. Verfahren nach Anspruch 1, wobei die Schritte a) bis b) zyklisch wiederholt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei der erste Typ von Steuerinformationen (ΔΦI) ein binäres Datenwort mit einer vorbestimmten Anzahl n≥2 Bit ist, e) wobei der erste Typ von Steuerinformationen (ΔΦI) und der zweite Typ von Steuerinformationen (ΔΦL, ΔPCR) so bestimmt werden, daß die Summe von durch den ersten und den zweiten Typ von Steuerinformationen repräsentierten Phasendifferenzen die im Schritt b) bestimmte Phasendifferenz ist, f) außerdem der zweite Typ von Steuerinformationen (ΔΦL, ΔPCR) zu der ersten Einrichtung (1) gesendet wird und g) eine durch den zweiten Typ von Steuerinformationen (ΔΦL, ΔPCR) repräsentierte Phasenverschiebung auf das Videosignal (CVSC) in der ersten Einrichtung (1) angewandt wird.
  4. Verfahren nach Anspruch 3, wobei Schritt g) durch Vergrößern oder Verkleinern der Frequenz des Pixeltaktsignals (PCC) der Zeitbasis (12) der ersten Einrichtung (1) gemäß dem Vorzeichen und/oder der Amplitude der durch den zweiten Typ von Steuerinformationen (ΔΦL, ΔPCR) repräsentierten Phasenverschiebung ausgeführt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Schritte c) und d) nur dann ausgeführt werden, wenn die durch den ersten Typ von Steuerinformationen (ΔΦI) repräsentierte Phasendifferenz von Null verschieden ist.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei eine Zeit zum Ausführen von Schritt d) gemäß der im Schritt b) bestimmten Phasendifferenz dergestalt ausgewählt wird, daß nach dem Ausführen von Schritt d) das Videosignal in der ersten Einrichtung eine vordefinierte Phase annimmt.
  7. Verfahren nach Anspruch 6, wobei die vordefinierte Phase der Anfang eines Bildes in dem Videosignal (CVSC) ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die in dem Videosignal enthaltenen Bildinformationen aus einer Sequenz von Bildern zusammengesetzt sind, wobei jedes Bild mehrere Zeilen umfaßt, und der erste Typ von Steuerinformationen (ΦIC) eine Anzahl von Zeilen repräsentiert, um die das aus der ersten Videoeinrichtung (1) empfangene zusammengesetzte Videosignal (1) in bezug auf die Zeitbasis (21) der zweiten Einrichtung (2) phasenverschoben wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei das Videosignal (CVSC) in digitaler Form als eine Sequenz von Datenpaketen übertragen wird, wobei jedes Datenpaket Bilddaten umfaßt und mindestens ein Teil der Datenpakete ein Sendezeitdatenelement (PCRC) umfaßt, das aus der Zeitbasis der ersten Einrichtung (1) abgeleitet wird und eine Sendezeit des Pakets, in dem es enthalten ist, repräsentiert, wobei jedes Sendezeitdatenelement (PCRC) nach dem Empfang durch die zweite Einrichtung mit aus der Zeitbasis (21) der zweiten Einrichtung (2) abgeleiteten Empfangszeitdaten (PCRM) verglichen wird und der zweite Typ von Steuerinformationen (ΔPCR) aus einer Differenz zwischen den Sende- und Empfangszeitdaten (PCRC, PCRM) abgeleitet wird.
  10. Verfahren nach Anspruch 9, wobei die erste Einrichtung einen ersten Zähler (54) umfaßt, der auf der Basis einer aus der Zeitbasis (12) der ersten Einrichtung (1) abgeleiteten Pixelfrequenz (PCC) betrieben wird, und die zweite Einrichtung (2) einen zweiten Zähler (64) umfaßt, der auf der Basis einer aus der Zeitbasis (21) der zweiten Einrichtung (2) abgeleiteten Pixelfrequenz (PCM) betrieben wird, und wobei ein Zählwert (PCRC) des ersten Zählers (54) in ein Datenpaket als Sendezeitdatenelement aufgenommen und mit einem Zählwert (PCRM) des zweiten Zählers (64) als Empfangszeitdatenelement verglichen wird.
  11. Verfahren nach Anspruch 10, wobei, wenn die Differenz (ΔPCR) zwischen Zählwerten (PCRM, PCRM) der beiden Zähler (54, 64) eine gegebene Schwelle übersteigt, der zweite Zähler (64) auf den aus dem ersten Zähler (54) empfangenen Wert (PCRM) gesetzt wird.
  12. Videoeinrichtung (1) mit einem Ausgangsport zum Ausgeben eines Videosignals (CVSC) und einem Eingangsport zum Eingeben von Steuerinformationen, wobei die Zeitbasis (12) der Einrichtung (1) so ausgelegt ist, daß sie die Phase eines an dem Ausgangsport ausgegebenen Videosignals (CVSC) um einen Phasenwinkel umschaltet, der durch einen ersten Typ der Steuerinformationen (ΔΦI) spezifiziert wird.
  13. Videoeinrichtung nach Anspruch 12, wobei die Zeitbasis (12) weiterhin so ausgelegt ist, daß sie eine Pixelfrequenz (PCC) des Videosignals (CVSC) gemäß einem zweiten Typ der Steuerinformationen (ΔΦL) einstellt.
  14. Videoeinrichtung (2) mit einem Eingangsport zum Eingeben eines zusammengesetzten Videosignals (CVSC), einem Mittel (26) zum Bestimmen einer Phasendifferenz zwischen dem zusammengesetzten Videoeingangssignal (CVSC) und einer Zeitbasis (21) der Videoeinrichtung (2) und einem Ausgangsport zum Ausgeben von Steuerinformationen (ΔΦI), die die Phasendifferenz quantitativ spezifizieren.
  15. Videoeinrichtung mit einem Ausgangsport zum Ausgeben eines komprimierten Datenstroms aus einer das Videosignal verarbeitenden Kompressions-Engine, einem Eingangsport zum Eingeben von Steuerinformationen und einer Zeitbasis, die so ausgelegt ist, daß sie die Phase des Videosignals und somit des an dem Ausgangsport ausgegebenen komprimierten Datenstroms um einen durch die Steuerinformationen spezifizierten Phasenwinkel umschaltet.
  16. Videoeinrichtung mit einem Eingangsport zum Eingeben eines komprimierten Datenstroms mit einer Kompressions-Engine-Pixelfrequenz, einem Referenzeingangssignal, das Videozeitsteuerung repräsentiert, die durch einen Mischer zum Empfangen einer Referenzpixelfrequenz und von Referenz-Horizontal- und/oder -Vertikalsignalen angefordert wird, einer Dekompressions-Engine, deren Pixeltakt aus dem Referenzeingangssignal erhalten wird und die aus dem komprimierten Datenstrom ein Videosignal wiederaufbauen kann, und einem Mittel zur Bestimmung eines Frequenzfehlers zwischen der Referenzpixelfrequenz und der Kompressions-Engine-Pixelfrequenz und einem Phasenwinkel zwischen dem Ausgangsvideosignal und den Referenz-Horizontal- und/oder -Vertikalsignalen sowie Ausgangsport zum Ausgeben von Steuerinformationen, die den Frequenzfehler und den Phasenwinkel quantitativ spezifizieren.
DE102004007098A 2003-02-18 2004-02-13 Videoeinrichtung und Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen Withdrawn DE102004007098A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03290401A EP1450555A1 (de) 2003-02-18 2003-02-18 Videovorrichtung und -verfahren zur Synchronisierung der Zeitbasen von Videovorrichtungen
EP03290401.3 2003-02-18

Publications (1)

Publication Number Publication Date
DE102004007098A1 true DE102004007098A1 (de) 2004-09-16

Family

ID=32011085

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004007098A Withdrawn DE102004007098A1 (de) 2003-02-18 2004-02-13 Videoeinrichtung und Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen

Country Status (5)

Country Link
US (1) US7436456B2 (de)
EP (1) EP1450555A1 (de)
JP (1) JP4630557B2 (de)
DE (1) DE102004007098A1 (de)
GB (1) GB2398956B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982219B2 (en) 2010-04-09 2015-03-17 Sony Corporation Receiving device and camera system

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8190680B2 (en) * 2004-07-01 2012-05-29 Netgear, Inc. Method and system for synchronization of digital media playback
EP1667429A1 (de) * 2004-12-06 2006-06-07 Thomson Licensing Synchronisation einer Kamera und einer Basiseinheit die miteinander über eine entgegengesetzte digitale Videoverbindung verbunden sind.
EP1667430A1 (de) * 2004-12-06 2006-06-07 Thomson Licensing Synchronisation einer Kamera und einer Basiseinheit die miteinander über eine entgegengesetzte digitale Videoverbindung verbunden sind
WO2006100727A1 (ja) * 2005-03-18 2006-09-28 Fujitsu Limited 映像装置における映像信号と音声信号との同期制御方法および装置
JP4832828B2 (ja) * 2005-07-29 2011-12-07 株式会社オートネットワーク技術研究所 通信システム
US7995143B2 (en) * 2006-02-10 2011-08-09 Qualcomm Incorporated Wireless video link synchronization
US20070291856A1 (en) * 2006-06-20 2007-12-20 Radiospire Networks, Inc. Clock regeneration system and method for wireless media content delivery systems
WO2008151996A1 (en) * 2007-06-12 2008-12-18 Thomson Licensing Automatic compensation of a delay of a synchronization signal in a packet switching network
US8102470B2 (en) 2008-02-22 2012-01-24 Cisco Technology, Inc. Video synchronization system
JP5526638B2 (ja) * 2008-10-30 2014-06-18 株式会社Jvcケンウッド ワイヤレス画像伝送装置およびワイヤレス画像伝送方法
JP2011217062A (ja) 2010-03-31 2011-10-27 Sony Corp カメラシステム、信号遅延量調整方法及びプログラム
JP5923847B2 (ja) 2010-03-31 2016-05-25 ソニー株式会社 カメラシステム、信号遅延量調整方法及びプログラム
JP2011223341A (ja) * 2010-04-09 2011-11-04 Sony Corp 伝送装置、カメラ装置、カメラ制御装置、およびカメラシステム
KR101721261B1 (ko) * 2010-08-20 2017-03-30 엘지디스플레이 주식회사 액정표시장치와 그의 데이터전송방법
FR2967324B1 (fr) * 2010-11-05 2016-11-04 Transvideo Procede et dispositif de controle du dephasage entre cameras stereoscopiques
US9565426B2 (en) 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
JP5572541B2 (ja) * 2010-12-27 2014-08-13 株式会社日立超エル・エス・アイ・システムズ ビデオエンコーダシステム
WO2012120763A1 (ja) * 2011-03-09 2012-09-13 日立コンシューマエレクトロニクス株式会社 映像送信装置、映像送信方法、映像受信装置、および映像受信方法
US10778905B2 (en) * 2011-06-01 2020-09-15 ORB Reality LLC Surround video recording
US10764473B2 (en) * 2016-01-14 2020-09-01 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
CN106507202B (zh) * 2016-11-11 2019-12-17 传线网络科技(上海)有限公司 播放控制方法及装置
US20180208885A1 (en) 2017-01-24 2018-07-26 Mary Ann Pfannenstiel Antibiotic-free compositions for the prevention or control of coccidiosis
WO2019173875A1 (en) * 2018-03-14 2019-09-19 Locata Corporation Pty Ltd Method and apparatus for synchronising a location network
CN116112721A (zh) * 2018-04-24 2023-05-12 谷歌有限责任公司 多个设备上的同步媒体内容回放的方法、系统和介质
US10791301B1 (en) * 2019-06-13 2020-09-29 Verb Surgical Inc. Method and system for synchronizing procedure videos for comparative learning
CN110933253B (zh) * 2019-11-25 2022-04-19 广州市奥威亚电子科技有限公司 一种数据帧同步的信源端、主机端、同步装置及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3435141A (en) * 1965-04-26 1969-03-25 Sylvania Electric Prod Television camera synchronization control system
DE4030148C2 (de) * 1990-09-24 1999-04-15 Philips Broadcast Television S Fernsehkamerasystem
JP3230221B2 (ja) * 1991-05-27 2001-11-19 ソニー株式会社 カメラコントロール装置、カメラコントロールユニットおよびビデオカメラ
KR920022834A (ko) * 1991-05-23 1992-12-19 오오가 노리오 카메라 콘트롤 장치
GB2269956B (en) * 1992-08-21 1996-05-15 Sony Broadcast & Communication Multiple reference video processing
JP3149328B2 (ja) * 1995-01-09 2001-03-26 松下電器産業株式会社 送信装置と受信装置
JPH08275022A (ja) * 1995-03-31 1996-10-18 Sony Corp ビデオカメラ装置
JPH0937141A (ja) * 1995-07-19 1997-02-07 Hitachi Ltd 映像処理システム
JP2000312147A (ja) * 1999-04-27 2000-11-07 Fujitsu Ltd Pll回路
JP2001119607A (ja) * 1999-10-20 2001-04-27 Nec Corp 自動位相調整装置
GB2371161B (en) * 2001-01-12 2003-01-29 Primary Image Synchronising a plurality of independent video signal generators

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982219B2 (en) 2010-04-09 2015-03-17 Sony Corporation Receiving device and camera system

Also Published As

Publication number Publication date
EP1450555A1 (de) 2004-08-25
JP2004343697A (ja) 2004-12-02
GB0403163D0 (en) 2004-03-17
JP4630557B2 (ja) 2011-02-09
US7436456B2 (en) 2008-10-14
GB2398956B (en) 2006-05-17
US20040227855A1 (en) 2004-11-18
GB2398956A (en) 2004-09-01

Similar Documents

Publication Publication Date Title
DE102004007098A1 (de) Videoeinrichtung und Verfahren zum Synchronisieren von Zeitbasen von Videoeinrichtungen
DE2635039C2 (de) Fernsehübertragungssystem
DE60038533T2 (de) Taktrückgewinnung
DE3732111C2 (de)
DE2711947C3 (de) Synchronisierschaltung für Videosignale
DE69636429T2 (de) Verfahren und Gerät zur Erzeugung von Synchronisierungssignalen mit variabler Rate
DE2711948C3 (de) Schaltungsanordnung zur Synchronisierung von Fernsehsignalen
DE3041898C2 (de)
DE3311958A1 (de) Synchronisationsanordnung fuer videogeraete
DE3340542C2 (de) Abtastimpulsgenerator
DE60028692T2 (de) Verfahren und anordnung zur übertragung und zum empfang von kodierten bildern
DE3036433C2 (de) Vorrichtung zur Regelung der Phase der von mehreren Videokameras stammenden Videosignalgemische
DE3009152C2 (de)
DE2636480B2 (de) Zeitbasis-Korrektureinrichtung zur Korrektur von Zeitbasisfehlern in Video-
DE2614074B2 (de) Synchronisierungsgenerator fuer eine farbbildsignalquelle
EP0749239B1 (de) Verfahren und Vorrichtung zur Zusatzdatenübertragung in TV-Kanälen
DE3510185C2 (de) Trägersynchronisiersystem und dazu geeignete Basisstation
DE3811115B4 (de) Farbdemodulator zur Verwendung mit einem zeitfehlerkorrigierten Taktsignal
DE4311480A1 (de) Schaltvorrichtung für digitale Signale
DE4030148C2 (de) Fernsehkamerasystem
DE3903922C2 (de) Einrichtung zum Synchronisieren von Videosignalen
DE10197028T5 (de) Technik zur Stabilisierung der Chrominanzhilfsträgererzeugung in einem digitalen Line-locked-Videosystem
DE102013219140A1 (de) Paketsende- und Empfangsvorrichtung und Entwürfelungssystem
DE2155600B2 (de) Synchronisieranordnung für eine Fernsehabtasteinrichtung
DE19545906A1 (de) System zur Erzeugung eines digitalen Videotaktes

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R012 Request for examination validly filed

Effective date: 20110210

R082 Change of representative

Representative=s name: WAGNER & GEYER PARTNERSCHAFT MBB PATENT- UND R, DE

Representative=s name: WAGNER & GEYER PARTNERSCHAFT PATENT- UND RECHT, DE

R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee