DE102008023501B4 - Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate - Google Patents

Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate Download PDF

Info

Publication number
DE102008023501B4
DE102008023501B4 DE102008023501A DE102008023501A DE102008023501B4 DE 102008023501 B4 DE102008023501 B4 DE 102008023501B4 DE 102008023501 A DE102008023501 A DE 102008023501A DE 102008023501 A DE102008023501 A DE 102008023501A DE 102008023501 B4 DE102008023501 B4 DE 102008023501B4
Authority
DE
Germany
Prior art keywords
satellite
evaluation unit
signal
camera
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102008023501A
Other languages
English (en)
Other versions
DE102008023501A1 (de
Inventor
Ferenc Torma
Lars Bergmann
David Reuss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Visumotion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visumotion GmbH filed Critical Visumotion GmbH
Priority to DE102008023501A priority Critical patent/DE102008023501B4/de
Publication of DE102008023501A1 publication Critical patent/DE102008023501A1/de
Application granted granted Critical
Publication of DE102008023501B4 publication Critical patent/DE102008023501B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

Verfahren zur synchronen Aufzeichnung von mindestens zwei Video-Datenströmen unterschiedlicher Formate, bei dem
– ein erster Videodatenstrom als Sequenz von Hauptdatenblöcken von einer Hauptkamera (1) erzeugt wird,
– ein zweiter Videodatenstrom als Sequenz von Satellitendatenblöcken von einer Satellitenkamera (2) erzeugt wird, dadurch gekennzeichnet, daß
– der erste Videodatenstrom in einer ersten Auswerteeinheit (5) und der zweite Videodatenstrom in einer zweiten Auswerteeinheit (6) aufgezeichnet wird,
– mittels eines an die Hauptkamera (1) angepaßten Gleichlaufsignals Hauptkamera (1) und erste Auswerteeinheit (5) synchronisiert werden, wobei die Hauptkamera (1) jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt und an die erste Auswerteeinheit (5) übermittelt, die diesen aufzeichnet,
– das Gleichlaufsignal in ein an die Satellitenkamera (2) angepaßtes Steuersignal umgewandelt und dieses an die Satellitenkamera (2) und/oder an die zweite Auswerteeinheit (6) übermittelt wird,
– die Satellitenkamera (2) jeweils bei Empfang des Steuersignals einen Satellitendatenblock, der kleiner als der Hauptdatenblock...

Description

  • Die Erfindung betrifft ein Verfahren und eine Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate, bei dem ein erster Videodatenstrom als Sequenz von Hauptdatenblöcken von einer Hauptkamera erzeugt wird, und ein zweiter Videodatenstrom als Sequenz von Satellitendatenblöcken von einer Satellitenkamera erzeugt wird.
  • Eine Möglichkeit zur Erzeugung dreidimensionaler Eindrücke bei bewegten Bildern besteht darin, ein und dieselbe Szene aus verschiedenen Blickwinkeln gleichzeitig aufzunehmen und anschließend mit Hilfe von Computeralgorithmen, die – in der Regel digital vorliegenden – Daten der verschiedenen Kameras zu einem einzigen Datenstrom, der die räumlichen Informationen enthält und auf entsprechenden Geräten räumlich darstellbar bzw. mit entsprechenden Hilfsmittel räumlich wahrnehmbar ist, zusammenzusetzen. Dabei reichen in der Regel drei Kameras aus, wie beispielsweise in der DE 10 2006 055 641.0 beschrieben wird. Dabei verwendet man üblicherweise eine Hauptkamera und eine oder mehrere Satellitenkameras. Bei der Synchronisierung der Aufnahmen zur Erzeugung eines einheitlichen Datenstroms, d. h. bei einer Anpassung der Datenströme aneinander derart, daß nur zur gleichen realen Zeit aufgenommene Datenströme bzw. Datensätze miteinander verknüpft werden, entstehen keine Probleme, wenn Haupt- und Satellitenkameras vom gleichen Typ sind. Dies würde in der Regel einen Satz hochwertiger Kameras erfordern, da mindestens eine der Kameras in hoher Auflösung, beispielsweise im HD-TV-Format, aufzeichnen muß, um heutigen Anforderungen genüge zu tragen.
  • Günstiger ist es, nur eine hochwertige Kamera zu verwenden und für die Satellitenkameras preiswertere Kameras mit anderen Spezifikationen, beispielsweise mit niedrigerer Auflösung oder auch mit nur einem einzigen Bilddetektor – während die Hauptkamera hier in der Regel für jede der Grundfarben R, G, B einen eigenen Detektor aufweist – zu verwenden. Die Aufzeichnung der Videodatenströme erfolgt in diesem Fall jedoch nicht synchronisiert, die anschließend notwendige nachträgliche Synchronisation ist extrem aufwendig und vermindert die Qualität des Videomaterials, besonders in Verbindung mit einer nachfolgenden Verarbeitung in einer 3D-Post-Produktion, d. h. der Zusammenstellung von Szenen mit Hilfe eines Videoschnittprogramms einschließlich des Einfügens von weiteren Elementen wie Titeln etc. im Rahmen einer Nachbearbeitung des Bildmaterials.
  • In der US 2003/0021591 A1 wird ein Verfahren beschrieben, welches die synchrone Aufzeichnung von mehreren Video-Datenströmen digitaler Videokameras ermöglichst. Zur Synchronisation wird von einer ersten Kamera ein Synchronisationssignal an die anderen Kameras übermittelt. Anschließend werden die Datenströme beispielsweise auf einen PC oder einen Webserver übertragen, die Synchronisation dient dabei dazu, die Datenströme unabhängig von der Kamera, von der sie aufgezeichnet wurden, derselben Datenbank zur Verfügung zu stellen, so daß alle beteiligten Personen Zugang zu den gleichen Daten haben. Die Schrift beschreibt auch eine Anordnung zur Durchführung dieses Verfahrens, die Synchronisation bezieht sich hier auf eine nachträgliche Behandlung des aufgezeichneten Materials.
  • In der US 6,084,979 wird ein Verfahren zur synchronen Aufzeichnung von mehreren Video-Datenströmen beschrieben, bei dem zunächst die Kameras zu einem gemeinsamen Synchronisationssignal synchronisiert werden, welches von einem entsprechenden Signalgeber erzeugt wird. Die Ausgabe jeder der Kameras wird außerdem mit einem Zeitstempel versehen, der von einer entsprechenden Zeitcodierungseinheit erzeugt wird. Hier werden die Datenströme analog auf VCR aufgezeichnet und anschließend digitalisiert, wobei die Zeitcodierung eine Korrelierung der einzelnen, mit verschiedenen Kameras aufgezeichneten Datenblöcke erlaubt.
  • Ein ähnliches Verfahren wird auch in der US 2005/0151852 A1 beschrieben. Hier wird ein Objekt oder eine Szene aus mehreren Perspektiven gleichzeitig aufgenommen. Die Aufzeichnungsgeräte sind in bezug auf eine gemeinsame Referenz synchronisiert, die Aufzeichnungen werden auch mit entsprechenden Zeitmarkierungen versehen, so daß eine Abstimmung der von verschiedenen Aufzeichnungsgeräten aufgezeichneten Datenströme aneinander vorgenommen werden kann.
  • In der DE 199 41 321 C2 wird ein Verfahren zur gleichzeitig ablaufenden Wiedergabe digital gespeicherter Videobilder von mehreren Videokameras beschrieben. Die Videobilder werden parallel aufgezeichnet, und zwar von Videokameras mit unterschiedlichen Aufzeichnungsraten. Eine der Kameras wird als Hauptkamera zur zeitlichen Bezugnahme ausgewählt, die Wiedergabe der von den übrigen Kameras aufgezeichneten Videodatenströme wird dann anhand der entsprechenden zu den Videobildern aufgezeichneten Zeiten der Hauptkamera zeitlich ausgerichtet.
  • In der WO 2007/110822 A1 wird ebenfalls ein Verfahren zur synchronen Aufzeichnung mehrerer Videodatenströme beschrieben. Hierzu wird von den beteiligten Kameras ein Identifikationssignal elektronisch empfangen, dieses Identifikationssignal wird mit den Datenströmen assoziiert und wird dazu benutzt, die Datenströme zu synchronisieren.
  • Aufgabe der Erfindung ist es, ein Verfahren und eine Anordnung zu entwickeln, mit denen die eingangs beschriebenen Nachteile überwunden werden können, und die eine synchrone Aufzeichnung auch bei der Verwendung verschiedener Kameratypen erlauben, so daß eine Nachbearbeitung erleichtert wird.
  • Diese Aufgabe wird bei einem Verfahren der eingangs beschriebenen Art dadurch gelöst, daß der erste Videodatenstrom in einer ersten Auswerteeinheit und der zweite Videodatenstrom in einer zweiten Auswerteeinheit aufgezeichnet wird und mittels eines an die Hauptkamera angepaßten Gleichlaufsignals Hauptkamera und erste Auswerteeinheit synchronisiert werden, wobei die Hauptkamera jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt und an die erste Auswerteeinheit übermittelt. Die erste Auswerteeinheit zeichnet den Hauptdatenblock dann auf. Außerdem wird das Gleichlaufsignal in ein an die Satellitenkamera angepaßtes Steuersignal umgewandelt, das Steuersignal wird an die Satellitenkamera sowie die zweite Auswerteinheit übermittelt. Jeweils bei Empfang des Steuersignals erzeugt die Satellitenkamera einen Satellitendatenblock, der kleiner als der Hauptdatenblock ist, und übermittelt ihn an die zweite Auswerteeinheit, wo er aufgezeichnet wird. Auf diese Weise werden die Sequenzen von Haupt- und Satellitendatenblöcken synchron aufgezeichnet. Falls der Hauptdatenblock kleiner als der Satellitendatenblock sein sollte, so wird die Satellitenkamera zur Hauptkamera umdefiniert und die Hauptkamera zur Satellitenkamera. Eine solche Umdefinition ist durchaus möglich, da es bei den meisten Kameras möglich ist, Videodatenströme in verschiedenen Genauigkeiten aufzuzeichnen. Ein Hauptdatenblock entspricht dabei einem sogenannten Frame, womit üblicherweise ein Bild in einer Bildsequenz bezeichnet wird. Beispielsweise kann die Aufzeichnungsrate bei 30 Frames pro Sekunde liegen. Es werden in diesem Fall 30 Hauptdatenblöcke bzw. 30 Bilder pro Sekunde aufgezeichnet.
  • Die Aufteilung in eine erste und eine zweite Auswerteeinheit ist dabei nicht unbedingt erforderlich sondern eher der Tatsache geschuldet, daß bei Aufzeichnungen im High-Definition-Format (HD-Format) mittels CCD- oder CMOS-Technik der Datendurchsatz gegenüber herkömmlichen Formaten erhöht wird, so daß man beispielsweise bei der Verwendung herkömmlicher und kostengünstiger Rechentechnik bei den derzeit möglichen Abarbeitungsgeschwindigkeiten in bezug auf die Frequenzen von Datenbus und Prozessor in der Regel beispielsweise zwei Rechner wird verwenden müssen. Selbstverständlich ist gleichermaßen auch die Abarbeitung in einer einzigen Auswerteeinheit möglich und äquivalent zur Auswertung in zwei Auswerteeinheiten, wobei eine Ankopplung der Kameras jedoch an verschiedenen Stellen erfolgt, beispielsweise über zwei verschiedene Steckkarten. Ein solcher PC vertilgt dann vorzugsweise auch über zwei Prozessoren bzw. einen Prozessor mit hoher Leistungsfähigkeit sowie mindestens zwei Festplatten. Ob also eine oder mehrere Auswerteeinheiten verwendet werden, ist letztlich unwesentlich; wichtig ist nur, daß genügend Kapazität zur Verfügung steht, um die Datenströme gleichzeitig aufzuzeichnen und die Aufzeichnung zu steuern.
  • Um die Genauigkeit bei der Erzeugung räumlicher Bilder zu erhöhen, kann es darüber hinaus vorteilhaft sein, mehr als eine Satellitenkamera zu verwenden. In einer vorteilhaften Ausgestaltung des Verfahrens werden daher weitere Videodatenströme von weiteren Satellitenkameras erzeugt und als Sequenzen von weiteren Satellitendatenblöcken in der zweiten Auswerteeinheit aufgezeichnet. Das Steuersignal wird auch an die weiteren Satellitenkameras übermittelt, die jeweils beim Empfang des Steuersignals einen Satellitendatenblock, der kleiner als der Hauptdatenblock ist, aufnehmen und an die zweite Auswerteeinheit übermitteln, die diese aufzeichnet. Alternativ kann die Aufzeichnung auch in der ersten Auswerteeinheit sowie auch in einer dritten Auswerteeinheit erfolgen, der Verfahrensablauf wird davon nicht beeinträchtigt oder wesentlich beeinflußt. Wesentlich ist nur, daß die Kapazität der Auswerteeinheit(en) ausreicht, um die eintreffenden Datenströme zu verarbeiten und das System zu steuern. Grundsätzlich lassen sich beliebig viele Satellitenkameras verwenden. Als eine gute Wahl hat sich die Verwendung von drei oder vier Satellitenkameras herausgestellt; hier liegt zum einen der Aufwand noch in vertretbarem Maße, zum anderen ist die Genauigkeit bei der Erzeugung räumlicher Bilder ausreichend hoch auch für hochauflösende Formate.
  • Das in ein Steuersignal umgewandelte Gleichlaufsignal kann dabei direkt an die Satellitenkamera übermittelt werden um diese zu steuern, es kann aber auch an die zweite Auswerteeinheit geleitet werden, welches dann die Satellitenkamera(s) steuert.
  • In einer bevorzugten Ausgestaltung des Verfahrens empfängt die Hauptkamera mit dem Gleichlaufsignal auch ein Zeitkodierungssignal, welches dann in der ersten Auswerteeinheit aufgezeichnet wird. Dieses Zeitkodierungssignal wird beispielsweise in der Hauptkamera jeweils in einen Hauptdatenblock eingebunden und zusammen mit diesem an die Auswerteeinheit übermittelt. Da die Satellitenkamera(s) über das Gleichlaufsignal fest an die Hauptkamera gekoppelt sind, muß das Zeitcodierungssignal nicht an diese übermittelt werden. Die Aufzeichnung in der zweiten Auswerteeinheit wird zweckmäßig mittels eines Aufnahmesignals, welches die erste Auswerteeinheit aussendet, gesteuert. So kann beispielsweise sicher gestellt werden, daß die zweite Auswerteeinheit nur dann aufzeichnet, wenn auch die erste Auswerteeinheit aufzeichnet. Dies ist insbesondere dann sinnvoll, wenn beispielsweise alle Kameras von einem einzigen Bedienungspult gesteuert werden. Das Gleichlaufsignal kann von einem externen Signalgeber erzeugt werden, in einer bevorzugten Ausgestaltung erzeugt die Hauptkamera das Gleichlaufsignal jedoch selbst. Dies ist kostengünstig und platzsparend. Auch können zwei Signalgeber verwendet werden, so daß die Hauptkamera beispielsweise ihr Gleichlaufsignal von einem externen Signalgeber bekommt, selbst aber ein Gleichlaufsignal erzeugt, welches zur Steuerung der Satellitenkameras verwendet wird.
  • Die Aufgabe wird für eine Anordnung der eingangs beschriebenen Art dadurch gelöst, daß sie neben der Hauptkamera und der mindestens einen Satellitenkamera auch eine mit der Hauptkamera verbundene erste Auswerteeinheit, die den ersten Videodatenstrom aufzeichnet, umfaßt, sowie eine mit der mindestens einen Satellitenkamera verbundene zweite Auswerteeinheit, die den zweiten Videodatenstrom aufzeichnet. Die Anordnung umfaßt außerdem einen Signalgeber, der mit der Hauptkamera und der ersten Auswerteeinheit verbunden ist und seinerseits Mittel zur Erzeugung und Ausgabe eines an die Hauptkamera angepaßten Gleichlaufsignals umfaßt, durch welches Hauptkamera und erste Auswerteeinheit synchronisiert werden, so daß die Hauptkamera jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt, der von der ersten Auswerteeinheit aufgezeichnet wird. Die Anordnung umfaßt schließlich eine Kontrolleinheit, die mit dem Signalgeber, der ersten und der zweiten Auswerteeinheit sowie mit der mindestens einen Satellitenkamera verbunden ist, wobei die Kontrolleinheit einen Umwandlungschaltung umfaßt, die das Gleichlaufsignal in ein an die Satellitenkamera angepaßtes Steuersignal umwandelt, welches von der Kontrolleinheit an die mindestens eine Satellitenkamera übermittelt wird, so daß die mindestens eine Satellitenkamera jeweils bei Empfang des Steuersignals einen Satellitendatenblock erzeugt, der von der zweiten Auswerteeinheit aufgezeichnet wird. Dadurch wird eine synchrone Aufzeichnung der Sequenzen von Haupt- und Satellitendatenblöcken ermöglicht.
  • Alternativ kann das Gleichlaufsignal auch direkt in der Hauptkamera erzeugt werden, wenn der Signalgeber als Bauteil in die Hauptkamera integriert ist. Gerade höhenwertige Kameras verfügen bereits über integrierte bzw. eingebaute Signalgeber, so daß auf einen externen Signalgeber in diesem Fall auch verzichtet werden kann. Das vom Signalgeber in der Hauptkamera erzeugte Gleichlaufsignal wird dann äquivalent an eine entsprechende Steuereinheit in der Kamera, die alternativ auch von außen das Signal empfangen kann, übertragen. Das Steuersignal für die Satellitenkameras wird dann aus dem Gleichlaufsignal bzw. dem Takt der Hauptkamera abgeleitet, nach dem auch die Hauptdatenblöcke erzeugt werden. Beide Alternativen können auch kombiniert werden, so daß die Anordnung zwei Signalgeber aufweist. Die Hauptkamera kann dann beispielsweise das Gleichlaufsignal des externen Signalgebers beziehen, die Satellitenkameras werden über das vom Signalgeber in der Hauptkamera erzeugte Gleichlaufsignal, welches in das Steuersignal umgewandelt wird, gesteuert.
  • Haupt- und Satellitenkamera sind dabei in der Regel verschiedene Kameratypen, bzw. Kameras, die mit unterschiedlichen Aufzeichnungsformaten arbeiten. Aus diesem Grund weichen auch erster Videodatenstrom und zweiter Videodatenstrom voneinander ab. Der von der Hauptkamera erzeugte erste Videodatenstrom wird von einer ersten Auswerteeinheit aufgezeichnet, der von der mindestens einen Satellitenkamera erzeugte Videodatenstrom wird von einer zweiten Auswerteeinheit aufgezeichnet. Eine solche Auswerteeinheit kann beispielsweise eine entsprechende PC-Karte mit Festplatte sein. Auf diese Weise können erste und zweite Auswerteeinheit in einem einzigen PC integriert sein, wenn die Prozessorleistung des PCs die parallele Aufzeichnung von Videodatenströmen mit teilweiser hoher Auflösung erlaubt. Ansonsten ist es auch möglich, jede der Auswerteeinheiten jeweils als PC auszugestalten.
  • Um die Bedienung zu vereinfachen bzw. um die Datenströme nachzubearbeiten sind erste und/oder zweite Auswerteeinheit vorzugsweise mit einem Bildschirm und Eingabemitteln, wie sie für einen PC üblich sind, ausgestaltet.
  • Während die Verwendung mindestens einer Satellitenkamera grundsätzlich ausreicht, um aus den zwei aufgezeichneten Videodatenströmen einen Datenstrom mit stereoskopischen bzw. räumlich darstellbaren Bildern zu erzeugen, so wird Qualität der räumlich darstellbaren Videosequenzen gesteigert, wenn mehr als eine Satellitenkamera verwendet werden, beispielsweise zwei oder drei Satellitenkameras. Als guter Kompromiß bezüglich des Aufwandes an Technik einerseits und Qualität der Bilder andererseits hat sich die Verwendung von vier oder fünf Satellitenkameras herausgestellt. Jede der Satellitenkameras ist dann mit der Kontrolleinheit und/oder der zweiten Auswerteeinheit verbunden, je nach dem, von wo aus die Satellitenkameras gesteuert werden. Die Kontrolleinheit kann das in ein Steuersignal umgewandelte Gleichlaufsignal entweder direkt an die Satellitenkameras übermitteln, so daß auf diese Weise die Aufzeichnung gesteuert wird. Alternativ oder in Ergänzung ist auch eine Übermittlung des Steuersignals an die zweite Auswerteinheit möglich, so daß die Aufzeichnung von dieser gesteuert wird.
  • Falls die zweite Auswerteeinheit nicht in der Lage sein sollte, die Videodatenströme aller Satellitenkameras synchron aufzuzeichnen, beispielsweise wegen zu geringer Prozessorleistungsfähigkeit, zu wenig Speicherplatz auf den Festplatten, oder zu wenig Steckplätzen in entsprechenden Karten, die in einen PC eingebaut sind, so lassen sich selbstverständlich auch weitere Auswerteeinheiten verwenden, die dann ebenfalls in Analogie zur zweiten Auswerteeinheit mit der Kontrolleinheit und den jeweiligen Satellitenkameras, denen sie zugeordnet sind, verbunden werden. Da die Satellitenkameras jedoch hauptsächlich dazu verwendet werden, Tiefeninformationen zu erhalten, so ist die Aufzeichnung mit einer relativ niedrigen Auflösung von beispielsweise 640×480 Pixeln (VGA), 320×240 Pixeln (QVGA) oder sogar nur 320×200 Pixeln (CGA) möglich und in den meisten Fällen auch ausreichend, wenn der von der Hauptkamera kommende erste Videodatenstrom in einem hochauflösenden HD-TV-Format aufgezeichnet wird, d. h. nach derzeitigem Standard im Format 1280×720 Pixel (720p) oder im Format 1920×1080 Pixel (1080i), bei einem Seitenverhältnis von 16:9, 16:10 oder einem anderen Seitenverhältnis. Auch andere Aufzeichnungsformate, die für Computerdarstellungen besser geeignet sind, wie beispielsweise im QXGA (2048×1536 Pixel) oder WQXGA (2560×1600 Pixel) sind selbstverständlich möglich. Auch die Satellitenkameras können selbstverständlich in diesen hochauflösenden Formaten aufzeichnen, sofern die Peripherie, d. h. die Auswerteeinheiten und Schnittstellen diesbezüglich ausgelegt sind.
  • In einer bevorzugten Ausgestaltung der Erfindung umfaßt der Signalgeber Mittel zur Erzeugung und Ausgabe eines Zeitkodierungssignals, welches an die Hauptkamera übermittelt und in der ersten Auswerteeinheit aufgezeichnet wird. Das Zeitkodierungssignal wird dabei in der Hauptkamera in den jeweiligen Hauptdatenblock eingebunden, dies erleichtert die spätere Nachbearbeitung. Da die Satellitenkameras über das Gleichlaufsignal bzw. das daraus erzeugte Steuersignal fest an die Hauptkamera gekoppelt sind, ist eine Übermittlung des Zeitkodierungssignals gesondert an die Satellitenkameras nicht notwendig, obwohl eine Übertragung selbstverständlich möglich ist.
  • Als Gleichlaufsignal wird vorzugsweise ein Drei-Niveau-Synchronisationssignal (tri-level synchronisation signal, TLS-Signal) gemäß des Standards SMPTE 274M verwendet. Diese Art des Gleichlaufsignals ist besonders gut geeignet für hochauflösende (HD-)Anwendungen. Ein solches Drei-Niveau-Synchronisationssignal bietet gegenüber herkömmlichen Zwei-Niveau-Synchronisationssignalen (bi-level synchronisation Signal, BLS-Signal), wie sie für NTSC- und PAL-Formate verwendet werden, den Vorteil, daß es sowohl die horizontale als auch die vertikale Synchronisation umfaßt, so daß zur Übertragung des Signals nur eine Leitung notwendig ist – im Gegensatz beispielsweise zu Signalen, wie sie in der Synchronisation von VGA-Bildschirmen verwendet werden, dort werden die Synchronisationssignale für horizontale und vertikale Synchronisation über verschiedene Drähte geleitet. Grundsätzlich ist eine Synchronisation für die Aufnahme einzelner Frames von hochauflösenden Formaten wie 1080i und 720/60p (interlaced) auch mit normalen Zwei-Niveau-Synchronisationssignalen möglich, jedoch werden gerade bei der Verwendung höherwertiger Kameras als Hauptkamera Drei-Niveau-Synchronisationssignale benötigt, während für die einfacheren Satellitenkameras Zwei-Niveau-Synchronisationssignale ausreichend sind, bzw. von diesen TLS-Signale gar nicht verarbeitet werden können.
  • Zur Steuerung der Satellitenkameras reicht dann ein normales Zwei-Niveau-Synchronisationssignal, welches als Transistor-Transistor-Logik-Impuls erzeugt wird, als Steuersignal aus, da nur die Aufnahmezeitpunkte für jeden Frame synchronisiert werden müssen.
  • Die hochauflösende Hauptkamera ist mit der ersten Auswerteeinheit dabei zweckmäßig über eine HD-SDI-Schnittstelle verbunden. Dabei handelt es sich im Prinzip um Steckverbindungen für Koaxialkabel, die Signalübertragung erfolgt nach dem Standard SMPTE 292M und erlaubt Übertragungsraten von nominell 1,5 Gbit/s. Diese Schnittstellen sind beispielsweise für die Videoformate 720p und 1080i geeignet. Für höhere Auflösungen, beispielsweise für das Videoformat 1080p können selbstverständlich auch andere Schnittstellen wie die Dual-Link-HD-SDI-Schnittstelle (nach dem Standard SMPTE 372M) oder eine 3G-SDI-Schnittstelle nach dem Standard SMPTE4 24M verwendet werden. In diesem Fall sind Übertragungsraten von bis zu 2,970 Gbit/s möglich.
  • Schnittstellen wie eine DVI-Schnittstelle oder eine HDMI-Schnittstelle können ebenfalls verwendet werden. Für die Satellitenkameras können grundsätzlich dieselben Schnittstellen verwendet werden, jedoch ist auch die Verwendung anderer Schnittstellen möglich, wenn die Datenübertragungsraten nicht so hoch sind. Beispielsweise kann die mindestens eine Satellitenkamera über eine CameraLink, IEEE1394- oder IEEE802.3-2005-Schnittstelle mit der zweiten Auswerteinheit verbunden sein. Diese Firewire bzw. Ethernet-Schnittstellen bieten Übertragungsgeschwindigkeiten, die für die Satellitenkameras üblicherweise ausreichen. Selbstverständlich ist auch die Verwendung der oben für die Hauptkamera aufgezählten Schnittstellen möglich.
  • In einer besonders bevorzugten Ausgestaltung der Erfindung umfaßt die Kontrolleinheit eine der Umwandlungsschaltung nachgeschaltete Verzögerungsschaltung. Kameras verschiedener Typen benötigen für die Bildverarbeitung, d. h. die Aufnahme und Abspeicherung eines Frames bis zur Übermittlung an die Auswerteeinheit verschieden lange, wenn sie von verschiedenen Typen sind. Diese sogenannten Latenz- oder Verzögerungszeiten lassen sich mit Hilfe der Verzögerungsschaltung berücksichtigen, indem das Steuersignal mit einer diese Differenz von den Bildbearbeitungszeiten von Haupt- und Satellitenkamera berücksichtigenden Verzögerung an die mindestens eine Satellitenkamera ausgegeben wird. Aufgrund des höheren Datenvolumens kann dabei auch die Hauptkamera für die Aufzeichnung eines Frames länger brauchen, in diesem Fall muß die Aufzeichnung der Satellitenkamera etwas verzögert beginnen, aber auch der umgekehrte Fall ist denkbar, in diesem Fall muß die Aufzeichnung der Satellitenkamera etwas gegenüber der Hauptkamera vorverlegt werden.
  • Die Aufzeichnung der von den Satellitenkameras erzeugten Daten kann direkt über die Kontrolleinheit gesteuert werden, in einer bevorzugten Ausgestaltung umfaßt die erste Auswerteinheit jedoch eine Steuerschnittstelle, bevorzugt eine DeckControl-Schnittstelle, mittels der mit einem Aufnahmesignal über die Kontrolleinheit die Aufzeichnung in der zweiten Auswerteeinheit gesteuert werden kann. Dies bedeutet, daß beispielsweise die zweite Auswerteeinheit nur dann Daten aufnimmt, wenn auch die erste Auswerteeinheit Daten aufnimmt. Sind beide Auswerteeinheiten in einem einzigen PC untergebracht, so kann die Steuerung auch auf andere Weise intern erfolgen.
  • Schließlich kann auch die Kontrolleinheit als Karte ausgestaltet sein, die in einen entsprechenden Steckplatz im PC oder sonstigem Rechner, beispielsweise einem Rack vom Typ U1, U2 oder U3 eingesetzt werden kann. Auf diese Weise ist eine kompakte und kundenfreundliche Bauform möglich.
  • Es versteht sich, daß die vorstehend genannten und die nachstehend genannten noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in andern Kombinationen oder in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Nachfolgend wird die Erfindung beispielhaft anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
  • 1 ein Kamerasystem aus einer Hauptkamera und zwei Satellitenkameras,
  • 2 den grundlegenden Aufbau einer Anordnung zur synchronen Aufzeichnung der Videodatenströme von den Kameras aus 1,
  • 3 den beispielhaften Verlauf eines Gleichlaufsignals als Teil eines HD-Videosignals in Abhängigkeit von der Zeit gemäß des Standards SMPTE 274M, sowie
  • 4 das Prinzip einer Schaltung für die Umwandlung des Gleichlaufsignals in ein Steuersignal für die Satellitenkameras mit anschließender Verzögerung.
  • Die in 1 gezeigte Anordnung umfaßt eine Hauptkamera 1 sowie zwei rechts und links von der Hauptkamera 1 angeordnete Satellitenkameras 2. Alle Kameras 1, 2 sind auf ein Objekt 3 gerichtet und mit einer Steuereinheit 4 verbunden. Die optischen Achsen der Kameras 1, 2 sind im Beispiel sternförmig ausgerichtet und schneiden sich etwa im Zentrum des Objekts 3, aber auch eine parallele Ausrichtung der optischen Achsen ist ohne weiteres einstellbar.
  • Die Hauptkamera 1 erzeugt einen ersten Videodatenstrom in hoher Auflösung als Sequenz von Hauptdatenblöcken. Als Hauptkamera 1 sind beispielsweise Kameras geeignet, die im Bereich der professionellen Videoverarbeitung oder beim Fernsehen verwendet werden. Üblicherweise handelt es sich dabei um Kameras, die einzelne Bilder, sogenannte Frames in hoher Auflösung von nominal 1920×1080 Pixeln nach dem SMPTE-274M-2005-Standard aufzeichnen. Jeder Frame besteht dabei aus 1125 Zeilen, von denen allerdings nur 1080 aktiv, d. h. sichtbar sind, sowie 1920 Pixeln in jeder Spalte, von denen jedes wiederum in die Farbwerte Rot, Grün und Blau quantisiert ist. Auch andere hochauflösende Formate können allerdings aufgezeichnet werden.
  • Zusätzlich zur Hauptkamera umfaßt die Anordnung mindestens eine Satellitenkamera 2, die einen zweiten Videodatenstrom als Sequenz von Satellitendatenblöcken erzeugt. Im gezeigten Beispiel in 1 sind zwei Satellitenkameras 2 vorgesehen, von denen jede jeweils einen Videodatenstrom als Sequenz von Satellitendatenblöcken erzeugt.
  • Während von der Hauptkamera 1 das hochauflösende Bild bzw. die hochauflösende Bildsequenz aufgenommen wird, dienen die Satellitenkameras 2, die in der Regel versetzt zur optischen Achse der Hauptkamera angeordnet sind, der Aufnahme eines untergeordneten Anteils an Bildinformationen, die hauptsächlich für die Erzeugung von Tiefeninformationen, aber auch für andere Bildinformationen, wie etwa Hinterschneidungen, sogenannte Okklusionen, benötigt werden. Die Tiefeninformationen können dabei mit einer geringeren Auflösung als das Hauptbild aufgenommen werden, ohne daß Verluste in der 3D-Darstellung auftreten. Daher reichen qualitativ einfachere Optiken und Bildsensoren für die Satellitenkameras aus, was zu einer deutlichen Kosteneinsparung führt.
  • Mit Hilfe eines Softwarealgorithmus wird die Tiefeninformation aus den Bildern der Hauptkamera 1 und der Satellitenkameras 2 ermittelt. Dies ist möglich, da die drei Kameras die Szene bzw. das Objekt 3 aus verschiedenen Blickwinkeln aufnehmen. Die Bilddaten der Satellitenkameras 2 werden für die Darstellung der für die Hauptkamera 1 verdeckten Elemente im Bild benötigt, die Satellitenkameras 2 blicken sozusagen hinter die Elemente im Vordergrund. Grundsätzlich reicht für die Gewinnung der Tiefeninformation auch eine binokulare Stereokamera aus, jedoch erhält man bei der Verwendung von trinokularen Systemen mehr Informationen. Noch mehr Informationen erhält man bei der Verwendung einer größeren Zahl von Satellitenkameras 2, beispielsweise vier oder acht Satellitenkameras 2, was ebenso möglich ist. Die Abstände von je zwei benachbarten Kameras zueinander orientieren sich dabei in ihrer Größenordnung am Abstand der menschlichen Augen, dies ist bis auf etwa einen Faktor 0,2 bis 0,5 in etwa der minimale Abstand, der gewährleistet werden muß.
  • In 2 ist der Aufbau der Steuereinheit 4 detaillierter dargestellt. Die Steuereinheit 4 umfaßt unter anderem eine erste Auswerteeinheit 5 und eine zweite Auswerteeinheit 6, einen Signalgeber 7 sowie eine Kontrolleinheit 8. Der Signalgeber 7 ist mit der Hauptkamera 1 und der ersten Auswerteeinheit 5 verbunden. Er umfaßt Mittel zur Erzeugung und Ausgabe eines an die Hauptkamera 1 angepaßten Gleichlaufsignals, durch welches Hauptkamera 1 und/oder erste Auswerteeinheit 5 synchronisiert werden, so daß die Hauptkamera 1 jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt, der von der ersten Auswerteeinheit 5 aufgezeichnet wird. Im gezeigten Beispiel ist der Signalgeber 7 als eigene Einheit ausgestaltet, er kann aber gleichermaßen auch direkt in die Hauptkamera 1 eingebunden und in diese als Bauteil integriert sein. Insbesondere hochwertige Kameras verfügen beispielsweise über solche Signalgeber 7, die TLS-Signale aussenden können. Außerdem können sowohl ein interner Signalgeber 7 in der Hauptkamera 1 als auch ein externer Signalgeber 7 verwendet werden. Letzterer kann beispielsweise sei Signal an die Hauptkamera 1 übermitteln, ersterer sein Signal an die Kontrolleinheit 8. Die Kontrolleinheit 8 ihrerseits ist mit dem Signalgeber 7, der ersten Auswerteeinheit 5, der zweiten Auswerteeinheit 6 und den beiden Satellitenkameras 2 verbunden. Die Kontrolleinheit 8 umfaßt eine Umwandlungsschaltung 11, die das Gleichlaufsignal in ein an die Satellitenkameras 2 angepaßtes Steuersignal umwandelt. Dieses Steuersignal wird von der Kontrolleinheit 8 an die beiden Satellitenkameras 2 übermittelt, so daß die Satellitenkameras 2 jeweils bei Empfang des Steuersignals jeweils einen Satellitendatenblock erzeugen, der von der zweiten Auswerteeinheit 6 aufgezeichnet wird. Insgesamt ist auf diese Weise eine synchrone Aufzeichnung der Sequenzen von Haupt- und Satellitendatenblöcken möglich.
  • Im gezeigten Beispiel sind die beiden Auswerteeinheiten 5 und 6 als Teile eines PCs, symbolisiert durch die gestrichelte Linie, dargestellt. Jede der Auswerteinheiten 5, 6 kann aber in einem eigenen PC oder einem anderen Rechnertyp integriert sein, sofern dies erforderlich oder praktisch ist. Die erste Auswerteeinheit 5 umfaßt eine erste Schnittstellenkarte 9, die zweite Auswerteeinheit 6 eine zweite Schnittstellenkarte 10. Die Verwendung einer ersten und einer zweiten Schnittstellenkarte 9, 10 ist nur beispielhaft, die Schnittstellen, d. h. die Verbindungen zur Hauptkamera 1 bzw. zu den Satellitenkameras 2 und zur Kontrolleinheit 8 können auch auf andere Weise realisiert werden, die Verwendung von Einsteckkarten in PCs ist jedoch die bei weitem häufigste und praktischste Variante, da diese einfach ausgewechselt werden können. Erste und zweite Schnittstellenkarte 9 bzw. 10 sind dann über die Steckplätze des PCs mit dessen Bus und damit auch mit dem Prozessor, einer Graphikkarte, Festplatten etc. verbunden. Bekannte und häufig verwendeten Schnittstellen sind beispielsweise Firewire (IEEE1394), GigaBit-Ethernet (IEEE802.3-2005), HD-SDI (SMPTE292M) und CameraLink. Wegen der geringen Übertragungsrate scheidet jedoch eine Firewire-Schnittstelle für die Hauptkamera 1 aus, sie kommt jedoch für die Satellitenkameras 2 in Frage. Bevorzugt verwendet man für die Hauptkamera 1 eine HD-SDI-Schnittstelle und für die Satellitenkameras 2 GigaBit-Ethernet-Schnittstellen oder CameraLink-Schnittstellen. Letztere lassen sich jedoch auch für die Hauptkamera 1 verwenden, ebenso läßt sich die HD-SDI-Schnittstelle auch für die Satellitenkameras 2 verwenden. Für die Satellitenkameras 2 reichen unter Umständen auch einfache SDI-Schnittstellen (SDI – Serial Digital Interface) aus. Der Vorteil einer HD-SDI-Schnittstelle liegt darin, daß zum einen HD-TV-Auflösungen übertragen werden können, zum anderen aber auch Drei-Niveau-Synchronisationssignale (TLS-Signale) übertragen werden können. Auch ein Zeitkodierungssignal kann im Videosignal über diese Schnittstelle übertragen werden. Die Aufnahme wird üblicherweise mit der Hauptkamera 1 selbst gesteuert, sofern nicht eine dafür ausgelegte Schnittstelle an Kamera und PC vorhanden ist. Aufgrund der großen Unterstützung durch die meisten Firmen bietet eine CameraLink-Schnittstelle Vorteile in bezug auf die Satellitenkamers 2, sie ist universell einsetzbar und für viele Kameratypen, die als Satellitenkameras 2 verwendet werden können, geeignet. Vorzugsweise ist die zweite Auswerteeinheit 6 daher mit einer solchen Schnittstelle ausgestaltet, während für die erste Auswerteeinheit 5, die mit der Hauptkamera 1 verbunden ist, eine HD-SDI-Schnittstelle zu bevorzugen ist, da diese HD-TV-Übertragungen sowie die Übetragung des TLS-Signals ermöglicht. Grundsätzlich können Bilder in HD-Auflösung allerdings auch über CameraLink-Schnittstellen übertragen werden, bei entsprechender Synchronisation können diese daher ebenfalls für die Hauptkamera 1 verwendet werden.
  • Auch die Satellitenkameras können natürlich eine HD-Auflösung nach dem HD-TV-Standard SMPTE-274M mit einer Auflösung von 1920×1125 Bildpunkten aufweisen, dies wird jedoch eher die Ausnahme sein. Wichtig ist, daß alle drei Kameras die Bilder im sogenannten Progressive-Scan-Verfahren aufnehmen, mit einer Bildwiederholrate von bis zu dreißig Voltbildern je Sekunde. Bei diesem Verfahren wird jeweils ein volles Bild aufgenommen, d. h. es findet – im Gegensatz zum sogenannten Interlaced-Verfahren – kein zeitlich alternierendes Weglassen von Zeilen statt. Weisen alle drei Kameras HD-Auflösung auf, so können sie sich dennoch in der Qualität unterscheiden, indem beispielsweise die Hauptkamera für jede der Farben R, G und B einen eigenen CCD-Sensor aufweist, die Satellitenkameras jeweils nur eine CCD für alle Farben. Die Bildwiederholrate von bis zu dreißig Frames pro Sekunde ergibt sich aus der Anforderung, die aufgenommenen Sequenzen später auf PCs abzuspielen, wobei Interferenzen mit der Bildwiederholfrequenz der Computermonitore unterdrückt werden müssen und auch auf Phasengleichheit geachtet werden muß.
  • Während es bei der Verwendung gleicher Kameras kein Problem ist, diese zu synchronisieren, so entstehen aufgrund der unterschiedlichen technischen Konfigurationen verschiedener Kameratypen Probleme. Zur Steuerung und Synchronisierung der Haupt- und Satellitenkameras 1, 2 wird der Signalgeber 7 verwendet. Er ist mit der Hauptkamera 1 und/oder der ersten Auswerteinheit 5 verbunden und umfaßt Mittel zur Erzeugung und Ausgabe eines an die Hauptkamera 1 angepaßten Gleichlaufsignals. Ein solches Gleichlaufsignal – auch Synchronisierungssignal oder Trigger-Impuls genannt – kann beispielsweise von einem Masterclock-Generator erzeugt werden. Handelt es sich bei der Hauptkamera um eine im HD-TV-Format, d. h. gemäß SMPTE-274M-Standard um eine mit einer Auflösung von 1920×1080 sichtbaren Pixeln aufzeichnende Kamera, so ist gemäß des genannten Standards als Gleichlaufsignal ein TLS-Signal erforderlich. Bei anderen Formaten können gegebenenfalls andere Gleichlaufsignale verwendet werden, wie beispielsweise ein Zwei-Niveau-Gleichlaufsignal.
  • Im Falle der Verwendung eines TLS-Signals kann beispielsweise ein Masterclock-Generator wie der Colourlocked Synchroniser ACL2002 der Firma Ambient verwendet werden, sofern das TLS-Signal nicht durch einen Signalgeber 7 in der Hauptkamera 1 selbst erzeugt wird, oder zusätzlich zu diesem. Dieser gibt nach Einstellung der Auflösung und Bildwiederholrate ein definiertes TLS-Signal bezeichnet, aus. Die eingestellte Auflösung beinhaltet die Zeilenzahl und die Zeilenauflösung, sie bestimmt zusammen mit der Bildwiederholrate die Zeilendauer, d. h. die Zeit, die für die Übertragung einer Zeile benötigt wird, und somit den Zeitpunkt und die Frequenz des ausgehenden Synchronisierungssignals bzw. -impulses. Mit dem hier beispielhaft erwähnten Gerät läßt sich auch ein Zeitkodierungssignal erzeugen, welches an die Hauptkamera 1 übermittelt und in der ersten Auswerteeinheit 5 aufgezeichnet wird.
  • Ein Beispiel für ein TLS-Signal ist in 3 dargestellt. Das TLS-Signal hat außer dem Null-Niveau zwei Zustände mit Amplituden von beispielsweise ±300 mV. Es wird am Anfang jeder Zeile übertragen und löst den Zeilenstart, d. h. die Aufzeichnung einer Zeile aus. Jeder Nulldurchgang vom Negativen zum Positiven definiert einen Zeilenstart. Die Aufzeichnungen eines Frames beginnt hier bei dem mit 0v gekennzeichneten Punkt auf der Zeitachse. Bei einer aktiven, d. h. sichtbaren, Auflösung von 1920×1080 Pixeln und einer progressiven Bildwiederholung von 30 Frames pro Sekunde enthält jede Zeile inklusive aller Steuer- und Synchronisierungssignale 2200 Abtastpunke, ein Bild oder Frame umfaßt 1128 Zeilen. Dies ergibt einen Signaltakt von 74,25 MHz. Zu jedem Zeilenwechsel wird ein TLS-Signal ausgegeben, ein Frame-Wechsel wird durch eine negative Amplitude in den passiven Videozeilen des Bildbereichs, in denen keine Bildinformationen übermittelt werden, gekennzeichnet. Dies sind jeweils die ersten 41 Zeilen jedes Bildes, wobei die 5 ersten Zeilen mit negativer Amplitude des TLS-Signals gesendet werden. In den aktiven Zeilen 42 bis 1121 werden die Videodaten mit positiver Amplitude übertragen. Zur Synchronisation wird in den passiven Zeilen 1 bis 5 statt der Videodaten der sogenannte Banking-Impuls mit negativer Amplitude gesendet. Jeder dieser Impulse hat eine Länge von 1920 Takten pro Zeile.
  • Sind die Satellitenkameras 2 ebenfalls durch eine Steuerung über ein TLS-Signal ausgelegt, so kann das Signal selbstverständlich direkt vom Signalgeber 7 an die Satellitenkameras 2 übermittelt werden. Die durch TLS-Signale steuerbaren Kameras sind jedoch in der Regel hochprofessionelle Kameras, die man hauptsächlich als Hauptkamera 1 verwenden wird. Als Satellitenkameras 2 kommen, wie eingangs schon erwähnt, preiswertere und einfachere Kameras in Frage, die sich in der Regel nicht über TLS-Signale steuern lassen. Auch die Art der Schnittstellen auf der zweiten Schnittstellenkarte 10, an die die Satellitenkameras 2 angeschlossen sind, ist dabei von Bedeutung. Verwendet man beispielsweise eine zweite Schnittstellenkarte 10 und zwei Satellitenkameras 2, die nach dem CameraLink-Standard ausgebildet sind, so ist eine direkte Steuerung über TLS-Signale nicht möglich. Andererseits verfügen nach diesem Standard ausgebildete Systeme über sogenannte TTL-Eingänge (Transistor-Transistor-Logik-Eingänge, d. h. Eingänge für die Übermittlung von Steuersignalen). Solche TTL-Signale entsprechen im wesentlichen Zwei-Niveau-Synchronisierungs-Signalen.
  • Während grundsätzlich eine getrennte Steuerung von Hauptkamera 1 und Satellitenkameras 2 über die Auswerteeinheiten 5, 6, die beispielsweise entsprechend miteinander verbunden sein können, möglich ist, oder auch eine Verwendung von zwei Signalgebern 7, die jeweils miteinander synchronisiert werden, so besteht eine besonders einfache Möglichkeit darin, das für die Steuerung der Hauptkamera 1 vom Signalgeber 7 erzeugte Drei-Niveau-Gleichlaufsignal in ein an die Satellitenkameras 2 angepaßtes Steuersignal umzuwandeln. Dazu dient die Kontrolleinheit 8. Diese übermittelt dann das Steuersignal an die Satellitenkameras 2, so daß die Satellitenkameras 2 jeweils bei Empfang des Steuersignals jeweils einen Satellitendatenblock erzeugen, der von der zweiten Auswerteeinheit 6 aufgezeichnet wird. Dies geschieht mittels einer in der Kontrolleinheit 8 enthaltenen Umwandlungsschaltung 11, die in 4 auf der linken Seite des Bildes dargestellt ist. Natürlich ist es möglich, daß TLS-Signal auch mit einer einfacheren Schaltung in einen TTL-Triggerimpuls umzuwandeln und ihn mit Hilfe der Software, die die zweite Schnittstellenkarte 10 in der zweiten Auswerteeinheit 6 steuert, auszuwerten. Dies führt allerdings dazu, daß nach Triggerung eines Bildes jeder weitere Triggerimpuls bei der Steuerung der zweiten Schnittstellenkarte 10 während der Übertragung Fehler erzeugen würde, was zu einem Überlauf des Fehlerspeichers führen würde. Des weiteren ist mit einer einfachen Umwandlung des Drei-Niveau-Signals in ein Zwei-Niveau-Signal nicht sichergestellt, daß korrekt zwischen Bildsynchronimpuls (der Wechsel von Zeile 1125 zur Zeile 1 in 3) und Zeilensynchronimpuls (jeder Nulldurchgang mit positiver Steigung in 3) unterschieden werden könnte. In der Umwandlungsschaltung findet nun eine Aufbereitung des TLS-Signals dahingehend statt, daß der Austastimpuls, auch Blanking-Impuls genannt, für den Bildwechsel vom übrigen TLS-Signal getrennt und anschließend für die Bildsynchronisation aufbereitet wird. Die Bildwechselinformation wird durch das TLS-Signal für die ersten 5 Zeilen übertragen. Danach wechselt das Signalniveau. Mittels der Umwandlungsschaltung 11 wird nun das die ersten 5 Zeilen eines jeden Bildes enthaltende vertikale Austastsignal in das für die Steuerung der Satellitenkameras verwendbare TTL-Steuersignal umgewandelt.
  • Die Umwandlungsschaltung 11 schneidet dabei zuerst vom TLS-Signal, welches vom Signalgeber 7 übermittelt wird, die positive Hälfte ab. Danach wird das Signal invertiert und für die weitere Signalverarbeitung verstärkt. Zur Impulstrennung wird das Signal mittels eines RC-Gliedes integriert, um die Signalenergie der Austastsignale in eine Spannung zu wandeln. Anschließend wird das erzeugte Signal mit Hilfe eines Schwellwert-Schalters ausgewertet und so die vertikalen Austastsignale in ein Steuersignal mit TTL-konformem Pegel umgewandelt.
  • Das erzeugte Steuersignal bzw. der erzeugte Impuls wird zum synchronen Auslösen der Satellitenkameras 2 genutzt. Dabei ist es jedoch möglich, daß ein auf der zweiten Schnittstellenkarte 10 installierter Framegrabber nach dem CameraLink-Standard und die Satellitenkameras 2 unterschiedliche Arten der Steuersignalverarbeitung verwenden. Das Steuersignal kann kameraseitig zum Übertragungsstart der Daten, oder zum Starten der Integrationszeit für die Aufnahme und anschließender Übertragung, genutzt werden, wobei nach dem CameraLink-Standard arbeitende Kamera die zweite Alternative ausführen. Beide Varianten sind wählbar.
  • Bei unterschiedlichen Kameratypen wird das vom Signalgeber 7 erzeugte Gleichlaufsignal bzw. das von der Umwandlungsschaltung 11 aus dem Gleichlaufsignal erzeugte Steuersignal Hauptkamera 1 und Satellitenkameras 2 zu unterschiedlichen Zeiten auslösen, die Kameras werden außerdem unterschiedliche Verarbeitungszeiten aufweisen. Um in einem solchen Fall die Kameras gleichzeitig auslösen zu können, umfaßt die Kontrolleinheit 8 außerdem eine der Umwandlungsschaltung 11 nachgeschaltete Verzögerungsschaltung 12, die das Steuersignal mit einer die Differenz von Bildverarbeitungszeiten von Hauptkamera 1 und Satellitenkameras 2 berücksichtigenden Verzögerung an die Satellitenkameras 2 ausgibt. Mit anderen Worten ausgedrückt, werden das Gleichlaufsignal und das umgewandelte Steuersignal zeitlich gegeneinander verschoben, wobei aber verhindert werden muß, daß die Satellitenkameras 2 vorzeitig auslösen. In der Verzögerungsschaltung 12 ist dabei ein Timer-Schaltkreis vom Typ NE555 vorgesehen. Eine Sekundärbeschaltung besteht aus einem RC-Glied, welches bestimmt, um welche Zeit der Impuls verschoben wird. Um die Verzögerung einstellen zu können, wird der Widerstand aus einer Reihenschaltung von einem festen Widerstand und einem Potentiometer zusammengesetzt. Als Ausgangssignal der Verzögerungsschaltung 12 kann über eine Steckbrücke 14 entweder das unverzögerte oder das verzögerte Steuersignal ausgegeben werden.
  • Die erste Auswerteeinheit 5 umfaßt außerdem eine nicht gezeigte Steuerschnittstelle, bevorzugt eine DeckControl-Schnittstelle, mittels der mit einem Aufnahmesignal über die Kontrolleinheit 8 die Aufzeichnung in der zweiten Auswerteeinheit 6 gesteuert werden kann. An die Auswerteeinheiten 5 und 6 können zudem Bildschirme und Eingabemittel angeschlossen sein, so daß eine direkte Nachbearbeitung der aufgezeichneten Videodatenströme an erster und/oder zweiter Auswerteeinheit 5 bzw. 6 möglich ist.
  • Mit der vorangehend beschriebenen Anordnung ist es möglich, Kameras verschiedener Typen so anzusteuern, daß eine synchrone Aufzeichnung von Sequenzen von Haupt- und Satellitendatenblöcken möglich ist, wodurch die Nachbearbeitung bei der Erzeugung dreidimensionaler Bildinhalte, wo die mit Hilfe der Satellitendatenblöcke abgeleiteten Tiefeninformationen eingehen, wesentlich vereinfacht wird.
  • Bezugszeichenliste
  • 1
    Hauptkamera
    2
    Satellitenkamera
    3
    Objekt
    4
    Steuereinheit
    5
    erste Auswerteeinheit
    6
    zweite Auswerteeinheit
    7
    Signalgeber
    8
    Kontrolleinheit
    9
    erste Schnittstellenkarte
    10
    zweite Schnittstellenkarte
    11
    Umwandlungsschaltung
    12
    Verzögerungsschaltung
    13
    Timer-Schaltkreis
    14
    Steckbrücke

Claims (16)

  1. Verfahren zur synchronen Aufzeichnung von mindestens zwei Video-Datenströmen unterschiedlicher Formate, bei dem – ein erster Videodatenstrom als Sequenz von Hauptdatenblöcken von einer Hauptkamera (1) erzeugt wird, – ein zweiter Videodatenstrom als Sequenz von Satellitendatenblöcken von einer Satellitenkamera (2) erzeugt wird, dadurch gekennzeichnet, daß – der erste Videodatenstrom in einer ersten Auswerteeinheit (5) und der zweite Videodatenstrom in einer zweiten Auswerteeinheit (6) aufgezeichnet wird, – mittels eines an die Hauptkamera (1) angepaßten Gleichlaufsignals Hauptkamera (1) und erste Auswerteeinheit (5) synchronisiert werden, wobei die Hauptkamera (1) jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt und an die erste Auswerteeinheit (5) übermittelt, die diesen aufzeichnet, – das Gleichlaufsignal in ein an die Satellitenkamera (2) angepaßtes Steuersignal umgewandelt und dieses an die Satellitenkamera (2) und/oder an die zweite Auswerteeinheit (6) übermittelt wird, – die Satellitenkamera (2) jeweils bei Empfang des Steuersignals einen Satellitendatenblock, der kleiner als der Hauptdatenblock ist, erzeugt und an die zweite Auswerteeinheit (6) übermittelt, die diesen aufzeichnet, – so daß die Sequenzen von Haupt- und Satellitendatenblöcken synchron aufgezeichnet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß weitere Videodatenströme von weiteren Satellitenkameras (2) erzeugt werden und als Sequenzen von weiteren Satellitendatenblöcken in der zweiten Auswerteeinheit (6) aufgezeichnet werden, wobei das Steuersignal auch an die weiteren Satellitenkameras (2) übermittelt wird, die jeweils bei Empfang des Steuersignals einen Satellitendatenblock, der kleiner als der Hauptdatenblock ist, aufnehmen und an die zweite Auswerteeinheit (6) übermitteln, die diese aufzeichnet.
  3. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß die Hauptkamera (1) mit dem Gleichlaufsignal auch ein Zeitkodierungssignal empfängt und dieses in der ersten Auswerteeinheit (5) aufgezeichnet wird.
  4. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß die erste Auswerteeinheit (5) mittels eines Aufnahmesignals die Aufzeichnung in der zweiten Auswerteeinheit (6) steuert.
  5. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß die Hauptkamera (1) das Gleichlaufsignal erzeugt.
  6. Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate, umfassend – eine Hauptkamera (1), die einen ersten Videodatenstrom als Sequenz von Haupdatenblöcken erzeugt, – mindestens eine Satellitenkamera (2), die einen zweiten Videodatenstrom als Sequenz von Satellitendatenblöcken erzeugt, dadurch gekennzeichnet, daß – eine mit der Hauptkamera (1) verbundene erste Auswerteeinheit (5), die den ersten Videodatenstrom aufzeichnet, – eine mit der mindestens einen Satellitenkamera (2) verbundene zweite Auswerteeinheit (6), die den zweiten Videodatenstrom aufzeichnet, – einen Signalgeber (7), der mit der Hauptkamera (1) und der ersten Auswerteeinheit (5) verbunden ist und Mittel zur Erzeugung und Ausgabe eines an die Hauptkamera (1) angepaßten Gleichlaufsignals umfaßt, durch welches Hauptkamera (1) und erste Auswerteeinheit (5) synchronisiert werden, so daß die Hauptkamera (1) jeweils bei Empfang des Gleichlaufsignals einen Hauptdatenblock erzeugt, der von der ersten Auswerteeinheit (5) aufgezeichnet wird, und – eine Kontrolleinheit (8), die mit dem Signalgeber (7), der ersten Auswerteeinheit (5) und der zweiten Auswerteeinheit (6) sowie der mindestens einen Satellitenkamera (2) verbunden ist, wobei die Kontrolleinheit (8) eine Umwandlungsschaltung (11) umfaßt, die das Gleichlaufsignal in ein an die mindestens eine Satellitenkamera (2) angepaßtes Steuersignal umwandelt, welches von der Kontrolleinheit (8) an die mindestens eine Satellitenkamera (2) übermittelt wird, so daß die mindestens eine Satellitenkamera (2) jeweils bei Empfang des Steuersignals einen Satellitendatenblock erzeugt, der von der zweiten Auswerteeinheit (6) aufgezeichnet wird, – wodurch eine synchrone Aufzeichnung der Sequenzen von Haupt- und Satellitendatenblöcken ermöglicht wird.
  7. Anordnung nach Anspruch 6, dadurch gekennzeichnet, daß der Signalgeber (7) Mittel zur Erzeugung und Ausgabe eines Zeitkodierungssignals umfaßt, welches an die Hauptkamera (1) übermittelt und in der ersten Auswerteeinheit (5) aufgezeichnet wird.
  8. Anordnung nach Anspruch 6 oder 7, dadurch gekennzeichnet, daß der Signalgeber (7) in die Hauptkamera (1) integriert ist.
  9. Anordnung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, daß der erste Videodatenstrom mindestens eine HD-TV-Auflösung aufweist, die Hauptkamera (1) mit der ersten Auswerteeinheit (5) über eine HD-SDI-Schnittstelle verbunden ist, und das Gleichlaufsignal ein Drei-Niveau-Synchronisationssignal ist.
  10. Anordnung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, daß die mindestens eine Satellitenkamera (2) über eine CameraLink-, IEEE1394- oder IEEE802.3-2005-Schnittstelle mit der zweiten Auswerteeinheit (6) verbunden ist.
  11. Anordnung nach einem der Ansprüche 6 bis 10, dadurch gekennzeichnet, daß das Steuersignal ein Transistor-Transistor-Logik-Signal bzw. ein Zwei-Niveau-Synchronisationssignal ist.
  12. Anordnung nach einem der Ansprüche 6 bis 11, dadurch gekennzeichnet, daß die Kontrolleinheit (8) eine der Umwandlungsschaltung (11) nachgeschaltete Verzögerungsschaltung (12) aufweist, die das Steuersignal mit einer die Differenz von Bildverarbeitungszeiten von der Hauptkamera (1) und von der mindestens einen Satellitenkamera (2) berücksichtigenden Verzögerung an die mindestens eine Satellitenkamera (2) ausgibt.
  13. Anordnung nach einem der Ansprüche 6 bis 12, dadurch gekennzeichnet, daß die erste Auswerteeinheit (5) eine Steuerschnittstelle, bevorzugt eine DeckControl-Schnittstelle umfaßt, mittels der mit einem Aufnahmesignal über die Kontrolleinheit (8) die Aufzeichnung in der zweiten Auswerteeinheit (6) gesteuert werden kann.
  14. Anordnung nach einem der Ansprüche 6 bis 13, dadurch gekennzeichnet, daß sie weitere Satellitenkameras (2) umfaßt, die mit der Kontrolleinheit (8) und der zweiten Auswerteeinheit (6) verbunden sind.
  15. Anordnung nach einem der Ansprüche 6 bis 14, dadurch gekennzeichnet, daß erste und zweite Auswerteeinheit (5, 6) jeweils als PC ausgestaltet sind.
  16. Anordnung nach einem der Ansprüche 6 bis 14, dadurch gekennzeichnet, daß erste und zweite Auswerteeinheit (5, 6) in einem PC integriert sind.
DE102008023501A 2008-05-09 2008-05-09 Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate Expired - Fee Related DE102008023501B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008023501A DE102008023501B4 (de) 2008-05-09 2008-05-09 Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008023501A DE102008023501B4 (de) 2008-05-09 2008-05-09 Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate

Publications (2)

Publication Number Publication Date
DE102008023501A1 DE102008023501A1 (de) 2009-11-12
DE102008023501B4 true DE102008023501B4 (de) 2011-04-14

Family

ID=41152774

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008023501A Expired - Fee Related DE102008023501B4 (de) 2008-05-09 2008-05-09 Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate

Country Status (1)

Country Link
DE (1) DE102008023501B4 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US20030021591A1 (en) * 2001-07-27 2003-01-30 Grosvenor David Arthur Synchronised cameras with auto-exchange
DE19941321C2 (de) * 1999-08-31 2003-12-04 Geutebrueck Gmbh Verfahren zur gleichzeitig abflaufenden Wiedergabe digital gespeicherter Videobilder zweier oder mehr verschiedener Videokameras
US20050151852A1 (en) * 2003-11-14 2005-07-14 Nokia Corporation Wireless multi-recorder system
WO2007110822A1 (en) * 2006-03-28 2007-10-04 Koninklijke Philips Electronics N.V. Method and apparatus for synchronising recording of multiple cameras

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006055641B4 (de) 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
DE19941321C2 (de) * 1999-08-31 2003-12-04 Geutebrueck Gmbh Verfahren zur gleichzeitig abflaufenden Wiedergabe digital gespeicherter Videobilder zweier oder mehr verschiedener Videokameras
US20030021591A1 (en) * 2001-07-27 2003-01-30 Grosvenor David Arthur Synchronised cameras with auto-exchange
US20050151852A1 (en) * 2003-11-14 2005-07-14 Nokia Corporation Wireless multi-recorder system
WO2007110822A1 (en) * 2006-03-28 2007-10-04 Koninklijke Philips Electronics N.V. Method and apparatus for synchronising recording of multiple cameras

Also Published As

Publication number Publication date
DE102008023501A1 (de) 2009-11-12

Similar Documents

Publication Publication Date Title
EP0737406B1 (de) Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
DE69733233T2 (de) Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts
EP0737405B1 (de) Verfahren und vorrichtung zur aufzeichnung und wiedergabe von stereoskopischen videobildern
EP1343326B1 (de) Überwachungssystem mit mehreren Videokameras
DE3233882C2 (de)
DE10016074B4 (de) Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
DE2829607A1 (de) Geraet zum ableiten von fernsehsignalen aus einem laufbildfilm
WO2008061490A2 (de) Anordnung und verfahren zur aufnahme und wiedergabe von bildern einer szene und/oder eines objektes
DE3239404A1 (de) Umcodierbares, hochaufloesendes fernsehsystem mit vertikalabtastung und umcodiereinrichtung sowie empfaenger hierfuer
DE3740826A1 (de) Fernsehempfaenger mit einer einrichtung zur unterdrueckung von flimmerstoerungen
DE3623576A1 (de) Verfahren und vorrichtung zur elektronischen uebertragung und/oder aufzeichnung sowie anschliessenden wiedergabe von stereoskopischen fernsehbildern
DE19545356C2 (de) Vorrichtung zur Darstellung von Stereo-Videobildern
DE3740782A1 (de) Fernsehempfaenger mit einer einrichtung zur unterdrueckung von flimmerstoerungen
DE19542308A1 (de) Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder
DE4134033C1 (de)
DE102008023501B4 (de) Verfahren und Anordnung zur synchronen Aufzeichnung von mindestens zwei Videodatenströmen unterschiedlicher Formate
DE102005041249A1 (de) Verfahren zur Erzeugung räumlich darstellbarer Bilder
DE102012108685B4 (de) Multi-Konverter für digitale, hochauflösende, stereoskopische Videosignale
WO2010022805A1 (de) Anzeigesystem
DE69816156T2 (de) Verfahren und Vorrichtung zur Anordnung von digitalisierten Bildsignalen oder Daten in orthogonalen Reihen und Spalten
DE69934282T2 (de) Anordnungen mit Signalen von mindestens zwei Bildern, die überlagert auf einem Bildschirm dargestellt werden
EP0645937B1 (de) Bildwiedergabesystem, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung
EP2671382B1 (de) Videoaufnahmesystem und verfahren zur videoaufnahme
DE10001005A1 (de) Stereoskopische Videoprojektion
DE19941322B4 (de) Zeitmultiplex-Verfahren zur Aufzeichnung, Übertragung und Wiedergabe von Videobildern verschiedener Videoquellen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final
R020 Patent grant now final

Effective date: 20110830

R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), 07745 JENA, DE

R081 Change of applicant/patentee

Owner name: KONINKLIJKE PHILIPS N.V., NL

Free format text: FORMER OWNER: VISUMOTION GMBH, 07745 JENA, DE

Effective date: 20120222

R082 Change of representative

Representative=s name: PATENTANWAELTE GEYER, FEHNERS & PARTNER MBB, DE

Effective date: 20120222

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Effective date: 20120222

R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

R081 Change of applicant/patentee

Owner name: KONINKLIJKE PHILIPS N.V., NL

Free format text: FORMER OWNER: 3D INTERNATIONAL EUROPE GMBH, 07745 JENA, DE

Effective date: 20140226

R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Effective date: 20140226

Representative=s name: PATENTANWAELTE GEYER, FEHNERS & PARTNER MBB, DE

Effective date: 20140226

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee