-
QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
-
Die vorliegende Anmeldung beansprucht den Vorteil und die Priorität über die am 13. Juli 2018 eingereichte vorläufige US-Patentanmeldung mit der Serien-Nr. 62/697,664 und dem Titel „VIDEO TRANSMISSION OVER AC-COUPLED CHANNELS“ und über die am 30. Oktober 2018 eingereichte US-Patentanmeldung mit der Serien-Nr. 16/174,356 und dem Titel „HIGH DEFINITION ANALOG VIDEO AND CONTROL LINK FOR AUTOMOTIVE APPLICATIONS“, die hiermit unter Bezugnahme in ihrer Gesamtheit eingeschlossen sind.
-
TECHNISCHES GEBIET DER OFFENBARUNG
-
Die vorliegende Offenbarung betrifft das Gebiet der Videosignalübertragung und insbesondere der analogen Videosignalübertragung über Wechselstrom(AC)-gekoppelte Kanäle.
-
HINTERGRUND
-
Videobasierte Anwendungen, die auf eine Echtzeit-Videoinformationserfassung angewiesen sind, wie etwa Kraftfahrzeug-Infotainment, Kraftfahrzeugfahrerassistenzsysteme (ADAS: Automotive Driver Assistance Systems), selbstfahrende Fahrzeuge und Sicherheitsüberwachungssysteme, beinhalten gewöhnlich die Aufnahme und Erzeugung von Videodaten durch eine oder mehrere Kameras. Derartige Kameras können zum Beispiel CCDs (Charge Coupled Devices), CMOS-Bildsensoren (CMOS: Complementary Metal-Oxide Semiconductor - komplementärer Metalloxidhalbleiter) oder beliebige andere geeignete Videoaufnahmeeinrichtungen aufweisen, die allgemein gesagt darauf einfallende Photonen in digitale Videodaten (Roh- oder Pixel-Videodaten) übersetzen. Bei derartigen Anwendungen müssen die Videodaten zur Verarbeitung gewöhnlich in Echtzeit von der Kamera zu anderen Einrichtungen übertragen werden. Derartige Einrichtungen können zum Beispiel elektronische Steuereinheiten (ECUs: Electronic Control Units) oder Komponenten in Kommunikations- oder Warnsystemen einschließen. Derartige Einrichtungen können zum Beispiel spezialisierte Software ausführen, um eine Verarbeitung und analytische Aufgaben basierend auf dem erfassten Bild und/oder den erfassten Videodaten durchzuführen und dementsprechend Ausgaben bereitzustellen. Die Kombination von Schichten einer Übertragungsinfrastruktur, die den Transfer der Daten zwischen der Kamera und der Videodatenempfangseinrichtung/dem Prozessor ermöglichen, kann als ein „Videolink“ oder ein „Kameralink“ bezeichnet werden.
-
Eine Vielfalt von Faktoren kann die Kosten, die Qualität und die Robustheit eines Videolinks beeinflussen. Physische Einschränkungen, wie etwa der Platz/die Oberflächenfläche, und auch Rechtsvorschriften können weitere Einschränkungen an den Videolinkanforderungen oder -spezifikationen darstellen, und somit muss Kompromiss und Erfindungsgeist angewendet werden.
-
Figurenliste
-
Um ein vollständigeres Verständnis der vorliegenden Offenbarung und der Merkmale und Vorteile davon zu vermitteln, wird nun auf die folgende Beschreibung Bezug genommen, die in Verbindung mit den begleitenden Figuren erfolgt, wobei gleiche Bezugsziffern gleiche Teile repräsentieren, in welchen gilt:
- 1 stellt ein schematisches Beispiel für eine AC-gekoppelte Schaltung in einem Single-Ended-Übertragungsschema gemäß manchen Ausführungsformen der vorliegenden Offenbarung dar;
- 2 stellt ein schematisches Beispiel für eine AC-gekoppelte Schaltung in einem differenziellen Übertragungsschema gemäß manchen Ausführungsformen der vorliegenden Offenbarung dar;
- 3 ist eine schematische Abbildung eines Videosignals während einer idealen Übertragung, bei der das Signal keinem Signalamplitudenverstärkungs(SAG: Signal Amplitude Gain)-Effekt ausgesetzt wird;
- 4 ist eine schematische Abbildung eines Videosignals, das den SAG-Effekt während einer Übertragung über ein AC-gekoppeltes System aufweist;
- 5 ist ein Flussdiagramm eines Verfahrens zum Zuweisen (allocating) von Zeitfenstern (time slots) innerhalb einer Videozeile für den Austausch eines Videosignals und von Steuerdaten zwischen dem Sender und dem Empfänger gemäß manchen Ausführungsformen der vorliegenden Offenbarung;
- 6 ist eine schematische Veranschaulichung von beispielhaften Sequenzen von Zeitfenstern für YUV- und RGB-Farbräume gemäß manchen Ausführungsformen der vorliegenden Offenbarung;
- 7 ist eine schematische Veranschaulichung einer beispielhaften Sequenz von Zeitfenstern für eine Videozeile mit mehreren separaten Steuerdatenzeitfenstern gemäß manchen Ausführungsformen der vorliegenden Offenbarung;
- 8 ist eine schematische Veranschaulichung von Flüssen von Steuerdaten in einem Videosystem gemäß manchen Ausführungsformen der vorliegenden Offenbarung;
- 9 stellt ein Blockdiagramm bereit, das ein beispielhaftes Videosystem gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht;
- 10 stellt ein Blockdiagramm bereit, das ein beispielhaftes Datenverarbeitungssystem gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht;
- 11 stellt ein Blockdiagramm bereit, das einen Codierer/Sender gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht;
- 12 stellt ein Blockdiagramm bereit, das einen Decodierer/Empfänger gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht; und
- 13 stellt ein Blockdiagramm bereit, das zwei beispielhafte Videosystemarchitekturen gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
-
BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER OFFENBARUNG
-
Übersicht
-
Die Systeme, Verfahren und Einrichtungen dieser Offenbarung weisen jeweils einige innovative Aspekte auf, von denen keiner allein für alle der hierin offenbarten wünschenswerten Attribute verantwortlich ist. Einzelheiten einer oder mehrerer Implementierungen des in dieser Patentschrift beschriebenen Gegenstands sind in der folgenden Beschreibung und den begleitenden Zeichnungen dargelegt.
-
Hierin sind Systeme und Verfahren zum Kommunizieren von Videosignalen und Steuerdaten über einen verdrahteten, AC-gekoppelten Video-und-Steuerung-Link offenbart. Derartige Systeme und Verfahren können sich insbesondere bei der Verwendung in einem Fahrzeug (wobei der Ausdruck „Fahrzeug“ nicht nur ein bereiftes Fahrzeug, wie etwa ein Auto, ein Lastwagen oder ein Bus, sondern zum Beispiel auch ein Flugzeug, ein Luftfahrzeug oder ein Raumfahrzeug einschließt), in einem Überwachungssystem oder in einer beliebigen anderen Umgebung, bei der ein Sender, der an einem Standort innerhalb einer derartigen Umgebung (z. B. innerhalb eines Fahrzeugs) angeordnet ist und dazu ausgebildet ist, ein Videosignal zu empfangen, das durch eine Kamera erfasst wird, die kommunikativ mit dem Sender gekoppelt ist, und ein Empfänger, der an einem anderen Standort innerhalb einer derartigen Umgebung angeordnet ist, Videosignale und andere Daten miteinander über eine verdrahtete Link kommunizieren müssen, eignen, sind aber nicht darauf beschränkt. Obwohl diese Offenbarung hauptsächlich Videolinks und Videosignale beschreibt, sind Ausführungsformen der vorliegenden Offenbarung ferner bei Arten von Signalen außer Videosignalen anwendbar, wie etwa Audio, Bild oder eine beliebige Kombination davon, die über einen AC-gekoppelten analogen Übertragungskanal übertragen werden können, wie hierin offenbart.
-
Bei einem Aspekt der vorliegenden Offenbarung ist ein beispielhaftes System zum Kommunizieren von Videosignalen und Steuerdaten über einen verdrahteten analogen Übertragungslink bereitgestellt. Das System weist einen Scheduler auf, der dazu ausgebildet ist, Zeitfenster für den Austausch von Daten zwischen einem Sender und einem Empfänger über den verdrahteten analogen Übertragungslink zuzuweisen. Insbesondere ist der Scheduler dazu ausgebildet, für jede von mindestens einer oder mehreren Videozeilen (z. B. für mehrere Videozeilen, z. B. für jede Videozeile) eines Videoeinzelbildes eines Videosignals, das durch einen Bildsensor in einer Kamera erfasst wird, mehrere Zeitfenster zuzuweisen, um mehrere Videokomponenten der Videozeile über den verdrahteten analogen Übertragungslink vom Sender zum Empfänger zu übertragen, ein oder mehrere Zeitfenster zuzuweisen, um Sendersteuerdaten (d. h. Daten, die durch den Sender gesendet werden, hierin auch als „Downstream“-Daten bezeichnet, wobei diese Daten Daten außer Videokomponenten sind, die die aktiven Pixelwerte, wie durch die Kamera erfasst, angeben) über denselben verdrahteten analogen Übertragungslink vom Sender zum Empfänger zu übertragen, und ein oder mehrere Zeitfenster zuzuweisen, um Empfängersteuerdaten (d. h. Daten, die durch den Empfänger gesendet werden, hierin auch als „Upstream“-Daten bezeichnet) über denselben verdrahteten analogen Übertragungslink vom Empfänger zum Sender zu übertragen. Eine derartige Implementierung ermöglicht vorteilhafterweise, alle der unterschiedlichen Videokomponenten über einen einzelnen verdrahteten Übertragungslink ohne Störung oder Übersprechen zwischen diesen Komponenten zu übertragen. Des Weiteren ermöglicht eine derartige Implementierung vorteilhafterweise nicht nur eine Bereitstellung von Downstream-Daten, sondern auch von Upstream-Daten, was z. B. dem Empfänger oder einer weiteren Einrichtung, die kommunikativ mit dem Empfänger gekoppelt ist, ermöglicht, den Sender oder eine weitere Einrichtung, die kommunikativ mit dem Sender gekoppelt ist, (neu) zu konfigurieren, z. B. die Kamera (neu) zu konfigurieren. Weiterhin ermöglicht das Scheduling der Zeitfenster, wie hierin beschrieben, vorteilhafterweise eine Übertragung des Videosignals und der Upstream- und Downstream-Steuerdaten über einen einzelnen verdrahteten Link, wobei dieser Link daher als ein „Video-und-Steuerung“-Link bezeichnet werden kann. Bei verschiedenen Aspekten der vorliegenden Offenbarung kann ein derartiger Link ein High-Definition(HD)-Link sein.
-
Andere Aspekte der vorliegenden Offenbarung stellen Verfahren zum Betreiben eines derartigen Systems bereit, sowie computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen Hardwareprozessor bewirken, dass der Prozessor die Verfahren zum Implementieren von Zeitfenstern ausführt, um Videosignale sowie Downstream- und Upstream-Steuerdaten zwischen einem Sender und einem Empfänger über einen AC-gekoppelten Video-und-Steuerung-Link auszutauschen.
-
Wie ein Fachmann zu schätzen weiß, können Aspekte der vorliegenden Offenbarung, insbesondere Aspekte eines AC-gekoppelten HD-Video-und-Steuerung-Links, wie hierin vorgeschlagen, auf verschiedene Arten und Weisen umgesetzt werden - z. B. als ein Verfahren, ein System, ein Computerprogrammprodukt oder ein computerlesbares Speichermedium. Entsprechend können Aspekte der vorliegenden Offenbarung die Form einer vollständig hardwarebasierten Ausführungsform, einer vollständig softwarebasierten Ausführungsform (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform annehmen, die Software- und Hardwareaspekte kombiniert, welche hierin alle allgemein als ein „Schaltkreis“, ein „Modul“ oder ein „System“ bezeichnet werden können. In dieser Offenbarung beschriebene Funktionen können als ein Algorithmus implementiert werden, der durch eine oder mehrere Hardwareverarbeitungseinheiten, z. B. einen oder mehrere Mikroprozessoren, eines oder mehrerer Computer ausgeführt werden kann. Bei verschiedenen Ausführungsformen können unterschiedliche Schritte und Teile der Schritte von jedem der hier beschriebenen Verfahren durch unterschiedliche Verarbeitungseinheiten durchgeführt werden. Des Weiteren können Aspekte der vorliegenden Offenbarung die Form eines Computerprogrammprodukts in einem oder mehreren computerlesbaren Medien, bevorzugt nichtflüchtig, annehmen, mit computerlesbarem Programmcode darauf umgesetzt, z. B. gespeichert. Bei verschiedenen Ausführungsformen kann ein solches Computerprogramm zum Beispiel auf die existierenden Einrichtungen und Systeme (z. B. die existierenden analogen Übertragungssysteme, insbesondere - analogen Videoübertragungssysteme, die AC-Kopplung verwenden, einschließlich Sendern, Empfängern und/oder ihrer Steuerungen usw.) heruntergeladen (aktualisiert) werden oder bei Herstellung dieser Einrichtungen und Systeme darauf gespeichert werden.
-
Die folgende ausführliche Beschreibung präsentiert verschiedene Beschreibungen von gewissen spezifischen Ausführungsformen. Allerdings können die hierin beschriebenen Innovationen in einer Vielfalt verschiedener Weisen umgesetzt werden, wie sie beispielsweise durch die Ansprüche oder ausgewählte Beispiele definiert und abgedeckt werden. In der folgenden Beschreibung wird Bezug auf die Zeichnungen genommen, in denen gleiche Bezugsziffern identische oder funktional ähnliche Elemente anzeigen können. Es versteht sich, dass die in den Zeichnungen veranschaulichten Elemente nicht unbedingt maßstabsgerecht gezeichnet sind. Außerdem versteht sich, dass bestimmte Ausführungsformen mehr Elemente als in einer Zeichnung veranschaulicht und/oder eine Teilmenge der in einer Zeichnung veranschaulichten Elemente aufweisen können. Ferner können einige Ausführungsformen eine beliebige geeignete Kombination von Merkmalen aus zwei oder mehr Zeichnungen einschließen.
-
Andere Merkmale und Vorteile der Offenbarung werden anhand der folgenden Beschreibung und der Ansprüche ersichtlich.
-
Analoge gegenüber digitaler Videoübertragung
-
In Systemen, die den Transfer von Videodaten zwischen Systemelementen (z. B. zwischen einem Bildsensor und einem Prozessor, der bei einem gewissen Abstand vom Bildsensor implementiert wird) erfordern, wie etwa Rundumsicht-ADAS oder (Sicherheits-) Überwachungssysteme, können die Videodaten, die durch eine Kamera erfasst werden, in digitaler Form, z. B. als ein serialisierter digitaler Bitstrom, übertragen werden, was z. B. als RAW-Daten, wie durch den Bildsensor erfasst, oder in einer verarbeiteten Form, z. B. YUV-Daten, die durch einen Bildsystemprozessor (ISP: Image System Processor) erzeugt werden, der ein Demosaicking an den RAW-Bildsensordaten durchführt, sein kann. Alternativ dazu können die Videodaten, die durch eine Kamera erfasst werden, vor der Übertragung in ein Analogsignal umgewandelt und formatiert werden und dann in analoger Form übertragen werden.
-
Eine analoge Videosignalübertragung kann in Kontrast zu einer digitalen Übertragung vorteilhaft sein. Die serialisierte Art der digitalen Übertragung führt zu einer digitalen Übertragung, die eine höhere Bandbreite als eine analoge Übertragung erfordert. Um die höhere Bandbreitenanforderung zu erfüllen, wird eine kostenintensivere Infrastruktur benötigt. Obwohl auch Bitgenauigkeit bei der digitalen Übertragung beibehalten wird und bei einer analogen Übertragung beeinträchtigt sein kann, kann der Einfluss von Fehlern, die bei einer digitalen Übertragung auftreten, hinsichtlich der Ausgangsvideoqualität viel wirkungsvoller sein als jene, die bei einer analogen Übertragung auftreten. Somit bietet das Übertragen der ursprünglichen digitalen Videodaten als ein Analogsignal mehrere Vorteile gegenüber einer digitalen Signalübertragung. Ein System basierend auf einer analogen Übertragung kann reduzierte Kosten und eine robustere Übertragung bieten. Obwohl der Bildsensor allgemein digitale Videodaten ausgegeben wird, können diese somit in ein Analogsignal zur Übertragung über einen analogen Videolink zu einem Empfänger zur weiteren Verarbeitung umgewandelt werden.
-
AC-gekoppelte gegenüber DC-gekoppelter analoger Übertragung
-
Bei dem Implementieren einer analogen Signalübertragung über eine verdrahtete Übertragungsleitung kann eine Wahl zwischen AC- und DC-Kopplung vorgenommen werden (wobei das Letztgenannte auch als „leitfähige Kopplung“ bezeichnet wird).
-
Eine AC-Kopplung erfordert die Verwendung von mindestens einem Kopplungskondensator, der eine zusätzliche Komponente im Vergleich zu einer DC-Kopplung ist, bei der derartige Kondensatoren nicht benötigt werden. Eine AC-gekoppelte verdrahtete Übertragungsleitung zwischen einem Sender und einem Empfänger weist typischerweise einen ersten Kopplungskondensator, der nach dem Sender und vor dem Übertragungskanal angeordnet ist, und einen zweiten Kopplungskondensator, der nach dem Übertragungskanal und vor dem Empfänger angeordnet ist, auf. Der wie hierin verwendete Ausdruck „Kopplungskondensator“ kann sich auf einen oder mehrere Kopplungskondensatoren beziehen. Im Gegensatz dazu werden bei einer DC-Kopplung nur Widerstände oder ein oder mehrere einfache Drähte und keine Kopplungskondensatoren verwendet, und daher wird eine DC-Kopplung allgemein aufgrund ihrer einfacheren Implementierung und niedrigeren Kosten und Platzanforderungen bevorzugt.
-
Des Weiteren können der eine oder die mehreren Kopplungskondensatoren zusammen mit den Abschlusswiderständen an jedem Ende und mit der Impedanz des verdrahteten Übertragungskabels als ein Hochpassfilter agieren, und können somit die Übertragung von Komponenten niedrigerer Frequenz des analogen Signals dämpfen. Dies ist für die Übertragung von Videosignalen relevant, da das Frequenzspektrum derartiger Signale häufig DC-Pegel- und Niederfrequenzelemente einschließt, die gegenüber einer derartigen Hochpassfilterung anfällig sein würden, was zu einem Verlust oder einer Verzerrung von Bildinformationen führt. Somit ist es wünschenswert, dass ein Videosignal hinunter bis zu sehr niedriger Frequenz und hinunter bis zu den DC-Pegel-Komponenten bewahrt werden kann. Dies bedeutet, dass der eine oder die mehreren Kopplungskondensatoren, die zur AC-Kopplung verwendet werden, möglicherweise sehr groß sein müssen, um die Grenzfrequenz des Hochpassfilters, der mit dem Empfängerabschluss ausgebildet ist, zu minimieren. Manche Implementierungen der AC-Kopplung können Kapazitäten von so groß wie etwa 220 Mikrofarad (uF) erfordern, um diese Komponenten niedrigerer Frequenz zu bewahren. Daher kann die AC-Kopplung aufgrund der prohibitiv großen Kondensatorgrößenanforderungen als eine unerwünschte Option angesehen werden.
-
Die AC-Kopplung kann jedoch bei gewissen Anwendungen vorteilhaft sein, da sie eine verbesserte Toleranz gegenüber manchen Fehlerbedingungen bereitstellt. Dies ist zum Beispiel bei Kraftfahrzeug-/Fahrzeuganwendungen der Fall, bei denen die Reduzierung des Schadensrisikos während einer STB-Fehlerbedingung (STB: Short-to-Battery - Kurzschluss zu Batterie) eine Motivation für AC-gekoppelte Videolinks sein kann, weil AC-gekoppelte Links intrinsisch gegenüber STB-Fehlern widerstandsfähig sind, da sie DC-Spannungspegel blockieren. Andererseits kann eine DC-Kopplung des Senderausgangspuffers mit dem Übertragungsmedium aufgrund der Anforderung zur Robustheit gegenüber STB-Fehlerbedingungen schwierig sein, die erfordern können, dass die Sendeeinrichtungen auf einer Hochspannung-Halbleiterprozesstechnologie konzipiert und hergestellt werden, die typischerweise kostenintensiver als eine standardmäßige (Niederspannung) Halbleiterprozesstechnologie ist. Somit kann die Übertragung von Videosignalen in einem AC-gekoppelten analogen Signalformat eine kosteneffektive und robuste Übertragungsoption sein, insbesondere bei Kraftfahrzeuganwendungen.
-
AC-gekoppelte analoge Single-Ended- gegenüber Differenzpaar-Übertragung
-
Eine AC-gekoppelte Übertragungsleitung für den Transfer von Videodaten kann gemäß entweder einem Single-Ended- oder einem Differenzpaar-Übertragungsschema implementiert werden. Bei manchen Implementierungen kann eine Differenzpaar-Videoübertragung besonders vorteilhaft sein, da sie von einer stärkeren Unempfindlichkeit gegenüber Rauschen im Vergleich zu einer Single-Ended-Videoübertragung profitieren kann.
-
Bei einer Single-Ended-Implementierung einer AC-gekoppelten Übertragungsleitung kann ein jeweiliger Kopplungskondensator an jeder der beiden Seiten einer Single-Ended-Übertragungsleitung angeordnet werden, d. h. ein Kopplungskondensator zwischen einem Sender und einem Leiterkabel der Leitung und ein anderer Kopplungskondensator zwischen diesem Leiterkabel und einem Empfänger. Bei einer differenziellen Implementierung einer AC-gekoppelten Übertragungsleitung kann ein jeweiliges Paar von Kopplungskondensatoren an jeder der beiden Seiten einer Differenzpaar-Übertragungsleitung angeordnet werden, d. h. ein Paar von Kopplungskondensatoren zwischen einem Sender und einem Leiterkabel der Leitung und ein anderes Paar von Kopplungskondensatoren zwischen diesem Leiterkabel und einem Empfänger. Bei verschiedenen Ausführungsformen kann ein Leiterkabel (oder einfach „Kabel“) in einem beliebigen geeigneten Verkabelungsschema implementiert werden, z. B. als ein Einzelleiter (d. h. ein Leiterdraht), als ein Koaxialkabel oder als einen Doppelleiter, wie etwa UTP (Unshielded Twisted Pair) oder STP (Shielded Twisted Pair), in Abhängigkeit vom verwendeten Übertragungsschema (d. h. in Abhängigkeit davon, ob das Übertragungsschema single-ended oder differenziell ist). Bei manchen Ausführungsformen kann das Kabel eines Videoübertragungskanals ein RCA-Typ-Kabel oder ein Koaxialkabel (das einen Signaldraht einschließt, der zumindest teilweise innerhalb einer Abschirmung aus leitfähigem Material eingeschlossen ist) oder einen nicht abgeschirmten AVSS, CIVUS oder ähnlichen Signaldraht innerhalb eines abgeschirmten Bündels einschließen.
-
Die 1 und 2 stellen schematische Beispiele für einen Single-Ended- bzw. einen Differenzpaar-Übertragungskanal dar.
-
In einem in 1 dargestellten AC-gekoppelten Übertragungsschema 100 wird ein Signal, das ein analog formatiertes Videosignal aufweisen kann, über ein Einzelleiterkabel 108, das als ein Übertragungskanal 108 angesehen werden kann, übertragen. Bei manchen Ausführungsformen kann das Leiterkabel 108 einen einfachen leitenden Draht aufweisen. Bei manchen Ausführungsformen kann das Leiterkabel 108 ein Koaxialkabel aufweisen, das einen leitfähigen Kerndraht und eine leitfähige Abschirmung aufweist, wobei der Kerndraht das Videosignal führt und die Abschirmung mit Masse verbunden ist. Da das Übertragungsschema 100 ein Single-Ended-Signalisierungsübertragungsschema ist, führt nur ein erster Draht eine variierende Spannung zwischen dem Sender und dem Empfänger, während ein zweiter Drahtleiter (in 1 nicht dargestellt) mit einem Referenzspannungssignal (wie etwa jenes, das durch die in 1 dargestellte Massereferenz 114 bereitgestellt wird) verbunden sein und dieses führen kann. Wie in 1 dargestellt, verbindet das Leiterkabel 108 einen Sender 102 und einen Empfänger 116. Bei diesem Schema können ein oder mehrere Kopplungskondensatoren 106a, 106b zwischen dem Sender 102 und dem Empfänger 116 geschaltet sein. Insbesondere können ein oder mehrere Kopplungskondensatoren 106a zwischen dem Sensor 102 und dem Leiterkabel 108 geschaltet sein und ein oder mehrere Kopplungskondensatoren 106b können zwischen dem Leiterkabel 108 und dem Empfänger 160 geschaltet sein. Der Sender 102 kann einen Gesamtwiderstand 104 aufweisen, während der Empfänger 116 einen Gesamtwiderstand 112 aufweisen kann, die in Reihe mit dem Sender 102 verbunden sind.
-
Alternativ dazu wird in einem in 2 dargestellten AC-gekoppelten Übertragungsschema 200 ein Signal, das ein analog formatiertes Videosignal aufweisen kann, über ein Differenzpaar-Leiterkabel 208, das als ein Übertragungskanal 208 angesehen werden kann, übertragen. Bei manchen Ausführungsformen kann das Leiterkabel 208 ein UTP- oder ein STP-Kabel aufweisen. Obwohl eine Single-Ended-Implementierung aufgrund ihrer einfacheren Implementierung und niedrigeren Kosten vorteilhaft sein kann, können Differenzpaar-Signalisierungsübertragungsschemen vorteilhafterweise einen Widerstand gegenüber einer externen elektromagnetischen Störung (EMI: Electromagnetic Interference) bieten und die durch den Link erzeugte Menge an elektromagnetischen Emissionen reduzieren. Dies liegt daran, dass die Eigenschaften der zwei separaten Signale/Leitungen des Differenzpaares von Leitungen so ausgewählt werden können, dass sie eine Unterdrückung von störenden Gleichtaktsignalen bereitstellen. Wie in 2 dargestellt, ist ein Sender 202, der Widerstände 204a und 204b (die in Reihe mit dem Sender 202 geschaltet sind) in den beiden Leitungen des Differenzpaarschemas aufweist, über ein Paar von Kopplungskondensatoren 206a, 206b mit dem Leiterkabel 208 verbunden. Gleichermaßen ist ein Empfänger 216 über einen Widerstand 212 (der parallel mit dem Empfänger 216 geschaltet ist) und ein Paar von Kopplungskondensatoren 206c, 206d mit dem Leiterkabel 208 gekoppelt.
-
Unerwünschte Effekte einer AC-Kopplung
-
Wie in den 1 und 2 dargestellt, können sowohl der Sender als auch der Empfänger mit dem Leiterkabel oder dem Draht AC-gekoppelt sein (die Ausdrücke Draht und Kabel können hierin austauschbar verwendet werden). Obwohl eine AC-Kopplung (egal, ob in einer Single-Ended- oder einer Differenzpaar-Implementierung) eine erhebliche Robustheit, erhebliche Risiko- und Kostenvorteile insbesondere an der Senderseite bereitstellen kann, kann es auch erhebliche Herausforderungen bei der Übertragung von analogen Videodaten bieten.
-
Wie oben kurz beschrieben, liegt eine Quelle der Herausforderungen im Vorhandensein von Kopplungskondensatoren, die zur AC-Kopplung verwendet werden, da derartige Kondensatoren Hochpassfilter mit den Abschlusswiderständen an jedem Ende des Leiterkabels bilden. In einem 50-Ohm-System mit 1-uF-Kopplungskondensatoren kann die Grenzfrequenz der Hochpassantwort zum Beispiel etwa 3 Kilohertz (kHz) betragen, was bedeutet, dass Signalkomponenten mit Frequenzen unter 3 kHz nicht über die Kopplungskondensatoren übertragen werden können. Das Vergrößern der Größe der Kopplungskondensatoren kann die Grenzfrequenz etwas verringern, aber das ist aufgrund von z. B. Kosten- und Platzerwägungen (z. B. wird die Maximalgröße der Kopplungskondensatoren möglicherweise durch den verfügbaren Platinenraum beschränkt) nicht immer möglich oder praktikabel.
-
Die Unfähigkeit, Signalkomponenten unter einer gewissen Frequenz durchlaufen zu lassen, ist besonders für Videosignale problematisch, deren spektraler Inhalt häufig Niederfrequenz- und DC-Pegel-Komponenten aufweist, die von der Art und Weise stammen können, mit der Videodaten typischerweise formatiert werden. Obwohl dies im Stand der Technik wohlbekannt ist, wird unten eine kurze Erläuterung einer beispielhaften Formatierung von Videodaten bereitgestellt.
-
Bei einer typischen Kamera wird Farbe durch Filtern des Lichts, das auf jede Photosite (oder jedes Pixel) eintrifft, erzeugt, um entweder Rot-, Grün- oder Blauwerte zu erzeugen. Die am häufigsten verwendete Anordnung für die unterschiedlichen Farben (d. h. Farbmuster) der Photosites ist ein sogenanntes „Bayer-Muster“. RAW-Daten eines einzelnen Bildes, die durch eine etwaige Kamera erfasst werden (wobei ein Video eine Sequenz von Bildern ist), repräsentieren den Wert jedes Pixels für Pixel unterschiedlicher Farben. Mit anderen Worten können RAW-Daten für ein einzelnes Bild Pixelwerte für alle roten Pixel (d. h. Pixel, die dazu ausgebildet sind, das einfallende Licht zu filtern, um Wellenlängen in dem mit der roten Farbe assoziierten Spektrum zu detektieren), Pixelwerte für alle grünen Pixel (d. h. Pixel, die dazu ausgebildet sind, das einfallende Licht zu filtern, um Wellenlängen in dem mit der grünen Farbe assoziierten Spektrum zu detektieren) und Pixelwerte für alle blauen Pixel (d. h. Pixel, die dazu ausgebildet sind, das einfallende Licht zu filtern, um Wellenlängen in dem mit der blauen Farbe assoziierten Spektrum zu detektieren) aufweisen. Jedes Pixel kann inter alia durch eine Intensität oder Größe gekennzeichnet sein und wird durch eine Anzahl von Bits (z. B. 10 Bits) repräsentiert, die zum Repräsentieren einer Größe eines Signals verwendet wird, die in einem speziellen Pixel für eine spezielle Komponente erfasst/gespeichert wird.
-
RAW-Daten können verarbeitet werden, um Komponenten zu bilden, die dann in einem Videosignal übertragen werden. Rot-, Grün- und Blauwerte oder eine verarbeitete Version dieser Werte sind beispielsweise ein Beispiel für unterschiedliche Komponenten eines erfassten Bildes, die zusammengefasst als „RGB“-Farbraum bezeichnet werden. RAW-Daten können interpoliert werden, ein Prozess, der als Demosaicking bekannt ist, und können dann durch einen ISP zu anderen Arten von Farbräumen, z. B. „YUV“-Farbräumen, transformiert werden, wobei Y die Luminanzkomponente ist, die die Intensität der Lichtinformationen führt, und U und V Chrominanzkomponenten sind, die die Farbinformationen führen. Ein Videoeinzelbild kann aus einer Matrix individueller Pixel einer oder mehrerer Komponenten zusammengesetzt sein. Bei manchen Ausführungsformen können unterschiedliche Komponenten durch unterschiedliche Kanäle übertragen werden. Insofern nichts anderes spezifiziert ist, können sich hierin bereitgestellte Beschreibungen auf Pixelwerte einer gewissen Komponente oder eine Kombination von Komponenten beziehen.
-
Die Pixelwerte eines Videoeinzelbildes (die Pixelwerte oder Pixel, die manchmal als „aktive Pixel“ bezeichnet werden, um anzugeben, dass sie Werte enthalten, die ein Videoeinzelbild repräsentieren, wie durch eine Kamera erfasst) können in horizontale Zeilen gruppiert werden und diese horizontalen Zeilen können vertikal gruppiert oder gestapelt werden, um ein Videoeinzelbild zu bilden. Der Bildschirm wird scanzeilenweise aufgebaut, indem die Pixelwerte, die durch geeignete Komponentenwerte (z. B. RGB- oder YUV-Werte) repräsentiert werden, über den Videolink gesendet werden. Das alleinige Aufweisen eines Stromes von Komponenten, z. B. eines Stromes von RGB-Farben, reicht jedoch nicht aus, um zu erkennen, welcher Teil des Stromes zu einem speziellen Pixel (z. B. dem Pixel oben links) auf einer Anzeige gehört. Um dies zu lösen, werden zwei zusätzliche Signale zu dem Videosignal, das die zu übertragenden Werte aktiver Pixel enthält, hinzugefügt - eines ist ein Signal, das Horizontal-Synchronisations(„Horizontal-Sync“)-Impulse enthält, und ein anderes ist ein Signal, das Vertikal-Synchronisations(„Vertikal-Sync“)-Impulse enthält. Ein Horizontal-Sync-Impuls liefert eine Referenz für unterschiedliche Videozeilen (d. h. er liefert eine Indikation eines Zeilenstartpunkts), während ein Vertikal-Sync-Impuls eine Referenz für unterschiedliche Videoeinzelbilder liefert (d. h. er liefert eine Indikation für einen Einzelbildstartpunkt). Ein Horizontal-Sync-Impuls (oder einfach „Horizontal-Sync“) kann ein Impuls sein, der in ein Videosignal eingefügt wird, bevor ein Strom mit Pixelwerten für eine gegebene horizontale Zeile beginnt, und/oder wenn eine horizontale Zeile abgeschlossen ist (wird aber typischerweise eingefügt, bevor eine horizontale Zeile beginnt). Zwischen zwei aufeinanderfolgenden Horizontal-Sync-Impulsen sind aktive Pixeldaten für die Zeile (d. h. Pixelwerte, die die Zeile des Videoeinzelbildes repräsentieren) eingeschlossen. Ein Vertikal-Sync-Impuls (oder einfach „Vertikal-Sync“, manchmal auch als „Vertikalrücklauf“ bezeichnet) kann ein Impuls oder eine Sequenz von Impulsen sein, der bzw. die in ein Videosignal eingefügt wird, wenn alle horizontalen Zeilen eines gegebenen Videoeinzelbildes abgeschlossen wurden und/oder bevor horizontale Zeilen eines neuen Videoeinzelbildes beginnen. Somit kann jede Einzelbildgrenze durch einen einzelnen Vertikal-Sync-Impuls oder eine einzelne Sequenz von Impulsen abgegrenzt werden. Da jede Zeile eines Einzelbildes die gleiche Anzahl von Pixeln aufweist, ist die Zeit zwischen aufeinanderfolgenden Horizontal-Sync-Impulsen eine Konstante. Da jedes volle Einzelbild (d. h. ein Einzelbild mit allen seinen Zeilen) die gleiche Anzahl von Pixeln aufweist, ist die Zeit zwischen aufeinanderfolgenden Vertikal-Sync-Impulsen eine Konstante. Auf diese Art und Weise ermöglichen Horizontal- und Vertikal-Sync-Impulse eine Bestimmung darüber, welche Farbkomponente des Videosignals zu welcher auf dem Bildschirm anzuzeigenden Position gehört. Alle üblichen analogen Videoübertragungsschemen ahmen diese Organisation der Pixel in einem Einzelbild nach und markieren die Zeilenstart- und Einzelbildstartzeiten mit einem Horizontal-Sync- bzw. Vertikal-Sync-Impuls.
-
3 veranschaulicht ein vereinfachtes Beispiel für ein analoges (Video-) Signal, das zeigt, wie Horizontal-Sync-Impulse 300 in das zu übertragende Videosignal eingeschlossen werden. Wie in 3 dargestellt, können zwischen alle zwei aufeinanderfolgenden Horizontal-Sync-Impulse 300 aktive Pixeldaten eingeschlossen sein, die in 3 als Videozeilen 302 und 304 bezeichnet sind (d. h. Zeilen, die die Videodaten führen). Die Impulse 300 werden aufgrund der Tatsache, dass sie den Startpunkt für die aktiven Pixelwerte, die als eine horizontale Pixelzeile wiedergegeben werden würden, angeben, als Horizontal-Sync-Impulse bezeichnet. Vertikal-Synchronisationszeilen (in diesem Beispiel nicht dargestellt) geben den Beginn eines neuen Videoeinzelbildes an (innerhalb welchem die mehreren aufeinanderfolgenden horizontalen Pixel(Daten)-Zeilen einen gemeinsamen vertikalen Startpunkt teilen). Typischerweise, aber nicht notwendigerweise, belegen die Horizontal-Sync-Impulse den untersten Teil des Signalbereichs. Ein flacher Teil unmittelbar vor dem Horizontal-Sync-Impuls wird als eine „vordere Austastschulter“ bezeichnet und ein horizontaler Teil unmittelbar nach dem Horizontal-Sync-Impuls wird als eine „hintere Austastschulter“ bezeichnet, wobei diese Teile auf gewisse vordefinierte Signalpegel gesetzt sind (z. B. können beide auf einen Nullspannungspegel gesetzt sein) und dann zum Identifizieren der Horizontal-Sync-Impulse verwendet werden können.
-
Das Beispiel von 3 stellt ein ideales Übertragungsschema dar, bei dem die Horizontal-Sync-Impulse ihren ursprünglichen Pegel beibehalten. Wenn diese (elektrischen) Impulse über einen AC-gekoppelten Kanal übertragen werden, kann sich jedoch ihre Flachheit oder ihr Pegel verschlechtern (d. h. deren konstante Größe über eine spezifizierte Dauer hinweg wird nicht beibehalten werden und wird sich verschlechtern), da der eine oder die mehreren Kopplungskondensatoren einen Durchlauf der elektrischen Ladung verzögern werden, wodurch bewirkt wird, was grafisch wie ein Herabhängen oder Durchhängen des anderweitig horizontalen Impulses erscheint (d. h. gerade Linien werden gekrümmt). Ein derartiger unerwünschter Effekt, der durch die Verwendung der Kopplungskondensatoren bewirkt wird, wird allgemein als ein Signalamplitudenverstärkung(SAG)-Effekt (oder einfach „SAG“ oder „Sagging“) bezeichnet. Der SAG-Effekt kann als eine allmähliche Zunahme oder Abnahme im Pegel des Videosignals über seine horizontalen (d. h. DC-Pegel-) Komponenten auf eine Weise charakterisiert werden, die von seiner Amplitude abhängt. Wenn ein horizontaler Impuls ein niedriger Wert ist, wird der SAG dazu führen, dass die Größe des Impulses allmählich zunimmt. Wenn ein horizontaler Impuls ein hoher Wert ist, wird der SAG dazu führen, dass die Größe des Impulses allmählich abnimmt. Während der erste Wert eines horizontalen Impulses unbeeinflusst bleibt, nehmen anschließende Punkte allmählich zu, wenn der Impuls niedrig ist, oder nehmen allmählich ab, wenn der Impuls hoch ist. Dieser Effekt ist in 4 dargestellt, in der der Pegel der Horizontal-Sync-Impulse 400 so gezeigt ist, dass er bezüglich einer Referenzzeile 406, die den beabsichtigten flachen Pegel angibt, herunterhängt oder durchhängt (daher die Ausdrücke „Sagging“ und „SAG-Effekt“). Wie in 4 gesehen werden kann, kann dasselbe Verhalten durch die Werte der aktiven Pixel aufgezeigt werden.
-
Der SAG-Effekt geht aus der Tatsache hervor, dass der eine oder die mehreren Kopplungskondensatoren, die zur AC-Kopplung verwendet werden, in Kombination mit dem Abschlusswiderstand im Endeffekt als Hochpassfilter agieren, die Hochfrequenzkomponenten durchlassen, während sie die Amplitude von Komponenten niedrigerer Frequenz ändern. Die Größe des Effekts hängt von der Gesamtreihenkapazität des einen oder der mehreren Kopplungskondensatoren sowie dem Wert der eingesetzten Abschlussimpedanz ab. Dies wird natürlich die Qualität der übertragenen Niederfrequenzsignale beeinflussen und ist besonders für Videosignale nachteilig, die so formatiert sind, dass sie eine DC-Komponente aufweisen, und kann die Qualität und Wiedergabetreue der wiedergegebenen/angezeigten Ausgabe erheblich beeinträchtigen.
-
Der SAG-Effekt kann auch die im Videosignal enthaltenen Timing-Daten erheblich beeinträchtigen, insbesondere kann er DC-Pegel von z. B. der vorderen Austastschulter und der hinteren Austastschulter der Horizontal-Sync-Signale verschieben, die zum Extrahieren von Timing-Informationen verwendet werden, die einen Beginn und ein Ende unterschiedlicher horizontaler Videozeilen angeben. Daher wird typischerweise eine DC-Offsetkorrektur an dem empfangenen Videosignal durchgeführt, um zu versuchen, den DC-Inhalt, der beeinträchtigt wurde, wiederherzustellen. Eine herkömmliche DC-Offsetkorrektur weist ein Klemmschema auf, bei dem der DC-Pegel des empfangenen Videosignals über eine Anzahl von aufeinanderfolgenden digitalen Abtastungen (z. B. 8, 16 oder 32 Abtastungen) der Sync-Impuls- (d. h. Sync-Spitzen), vorderen Austastschulter- oder hinteren Austastschultergebiete einer Videozeile akkumuliert oder gemittelt und dann dieser berechnete Mittelwert mit einem gewissen vordefinierten Zielwert verglichen wird. Die Differenz zwischen dem berechneten Mittelwert und dem vordefinierten Ziel wird dann als ein Klemmoffsetsignal verwendet und die nächste Videozeile wird durch diesen Klemmoffsetbetrag angepasst, wodurch eine DC-Offsetkorrektur umgesetzt wird. Ein Nachteil einer derartigen herkömmlichen Implementierung der DC-Offsetkorrektur für AC-gekoppelte Videosignale besteht darin, dass irgendein Fehler in den Messungen an der Empfängerseite zu einem erheblichen unkorrigierten Offset von einer Zeile zur nächsten im Klemmoffsetwert führen kann. Die Bittiefe und daher die Präzision der Klemmanpassung ist typischerweise außerdem beschränkt. Infolgedessen können herkömmliche DC-Offsetkorrekturschemen weiterhin zu sichtbaren Mustern führen, die unerwünschterweise im endgültigen Ausgangsvideo erscheinen, wobei die Helligkeit des resultierenden Bildes von einer Zeile zur nächsten leicht, aber bemerkbar variiert. Dies ist besonders bei Gebieten des Bildes mit einheitlicher Farbe bemerkbar, wenn in schwachem Umgebungslicht betrachtet, was häufig die Betrachtungsumgebung für eine Anzeige innerhalb eines Fahrzeugs ist.
-
Beschränkungen an bestehenden analogen Videoübertragungsschemen
-
Neben den erheblichen Herausforderungen bezüglich des oben beschriebenen SAG-Effekts weisen bekannte Videoübertragungslinks mehrere andere Beschränkungen auf.
-
Bekannte analoge Videoübertragungslinks sind häufig aufgrund ihrer Übertragungsformatwahl in der Art von Videosignalen beschränkt, die sie führen können, und sind zum Beispiel nicht in der Lage, Voll-RAW-Typ-Videodaten von einem Bildsensor zu codieren/zu übertragen.
-
Zusätzlich dazu behalten bekannte Schemen weiterhin manche Übertragungsqualitätsbeschränkungen und rufen Artefakte in den übertragenen Daten wie bei analogen Regular-Definition-NTSC(National Television System Committee)-Fernsehsystemen hervor. Bei NTSC und bekannten, darauf basierenden analogen Videoübertragungslinks werden zum Beispiel die Farbsignale auf ein Trägersignal moduliert, was zu einer spektralen Überlappung und einer gegenseitigen Störung/einem gegenseitigen Übersprechen und/oder einer Störung/einem Übersprechen mit dem Luminanzsignal führt, was die Auflösung und Qualität der empfangenen Farbsignale beschränkt.
-
Eine Videodatenreproduktion hoher Qualität ist ein kritischer Faktor in Anwendungen wie etwa ADAS, bei denen eine genaue Bilderkennung und -analyse notwendig sind, um zu gewährleisten, dass das System die korrekten Handlungen vornimmt und/oder die richtigen Entscheidungen trifft. Während der Übertragung beschädigte Daten und/oder eine aufgrund Beschränkungen am Übertragungsschema degradierte Bildqualität können zu einer schlechten Bilderkennung führen, was zu verpassten Ereignissen und/oder Falschalarmen führen könnte.
-
Obwohl darüber hinaus digitale Übertragungsschemen weder durch den SAG-Effekt noch die oben erwähnten Übersprechprobleme beeinflusst werden können, ist ihre Implementierung in gewissen Einsatzszenarien, z. B. in Fahrzeugen und Überwachungssystemen, aufgrund der Anforderung für hohe Bandbreite und Kabel- und Verbinderinfrastruktur hoher Qualität häufig prohibitiv kostenintensiv.
-
Video-und-Steuerung-Link
-
Ausführungsformen der vorliegenden Offenbarung zielen darauf ab, eine Verbesserung für zumindest manche der oben beschriebenen Beschränkungen bereitzustellen. Zu diesem Zweck sind mehrere Verfahren und Einrichtungen zur Übertragung eines HD-Videosignals (das allgemein Video-/Audio-/Bildsignal einschließt) in einer AC-gekoppelten analogen Form über einen einzelnen Draht (in einer Single-Ended-Konfiguration, wie oben beschrieben) oder alternativ über ein Differenzpaar von Drähten (in einer Differenzpaar-Konfiguration, wie oben beschrieben) und zum Empfang des Videosignals bereitgestellt, wobei die Komponententeile des Videosignals innerhalb jeweiliger Zeitfenster von beliebiger mehrerer hierin offenbarter Übertragungssequenzen codiert und übertragen werden können. Verschiedene Aspekte der vorliegenden Offenbarung ermöglichen eine zuverlässige und hochqualitative Übertragung von Videodaten. Ferner ermöglichen verschiedene Aspekte der vorliegenden Offenbarung vorteilhafte Systemarchitekturoptionen, zum Beispiel das Ermöglichen, dass sich der ISP entfernt von der raum- und leistungsbeschränkten Kamera befindet, während die Gesamtsystemkosten geringer als bekannte digitale Alternativen gehalten werden. Es wird angemerkt, dass die Ausdrücke Videoübertragungsformat, Videozeilenformat und Übertragungssequenz hierin austauschbar verwendet werden können.
-
Systeme, Verfahren, Einrichtungen und nichtflüchtige computerlesbare Medien zum Codieren, Übertragen, Decodieren und Empfangen eines oder mehrerer Signale sind hierin beschrieben. Die verschiedenen Ausführungsformen der vorliegenden Offenbarung können alleine oder in Kombination implementiert oder eingesetzt werden. Obwohl Ausführungsbeispiele hierin in Bezug auf Videoinformationssignale erläutert sind, können verschiedene Ausführungsformen der vorliegenden Offenbarung bei einem vielfältigen Bereich von Arten von Informationssignalen angewendet werden, wie etwa unter anderem Kombinationssignalen von Video- und Audioinformationen und kombinierten Medien (z. B. Video, Audio usw.) und Steuerdatensignalen, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Ausführungsformen der vorliegenden Offenbarung können in einem breiten Bereich von Systemen, Anwendungen und/oder Umgebungen implementiert oder eingesetzt werden, wie etwa unter anderem Kraftfahrzeug-Infotainment, ADAS, selbstfahrenden Fahrzeugen, Sicherheitsüberwachungssystemen und CCTV-Systemen.
-
Scheduling-Zeitfenster zur Übertragung eines Signals und von Steuerdaten
-
Ausführungsformen der vorliegenden Offenbarung basieren auf Scheduling-Zeitfenster zur Übertragung von Videosignalen, Downstream-Steuerdaten und Upstream-Steuerdaten über einen einzigen AC-gekoppelten HD-Video-und-Steuerung-Link. 5 stellt ein Flussdiagramm eines beispielhaften Verfahrens 500 zum Zuweisen von Zeitfenstern für den Austausch eines Videosignals und von Steuerdaten zwischen dem Sender und dem Empfänger gemäß manchen Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren 500 kann unter Verwendung eines beliebigen Videosystems implementiert werden, bei dem ein Videosignal durch eine Kamera erfasst oder auf eine beliebige andere Art und Weise an der Übertragungsseite erzeugt und durch einen Sender über einen AC-gekoppelten verdrahteten Videolink zu einem Empfänger übertragen wird, um an der Empfangsseite verarbeitet und möglicherweise auf einer Anzeige angezeigt zu werden. Das Verfahren 500 kann vollständig oder teilweise unter Verwendung von zum Beispiel einem in 9 dargestellten Videosystem 900 und/oder einem in 10 dargestellten Datenverarbeitungssystem 1000 implementiert werden, die unten beschrieben sind. Im Allgemeinen kann das Verfahren 500 jedoch unter Verwendung eines beliebigen Systems außer einem Videosystem implementiert werden, bei dem ein Video-/Audio-/Bildsignal durch einen geeigneten Sensor erfasst oder auf eine beliebige andere Art und Weise an der Übertragungsseite erzeugt wird, durch einen Sender über einen AC-gekoppelten verdrahteten Videolink zu einem Empfänger übertragen wird, um an der Empfangsseite verarbeitet und möglicherweise reproduziert zu werden.
-
Vor dem Beginn des Verfahrens 500 wird ein Videosignal erzeugt, das von einem Sender über den AC-gekoppelten Video-und-Steuerung-Link zu einem Empfänger übertragen werden soll. Bei manchen Ausführungsformen kann das Videosignal durch einen Bildsensor z. B. in einer Kamera erzeugt werden. Bei anderen Ausführungsformen kann das Videosignal ein computererzeugtes Videosignal oder ein Videosignal, das von einem anderen System bereitgestellt wird, sein. Bei manchen Ausführungsformen kann ein Videosignal, das vom Empfänger zum Sender übertragen werden soll, durch einen in 9 dargestellten Videogenerator 912 erzeugt werden, der im Sender enthalten sein kann oder sich extern zum Sender befinden kann, aber kommunikativ mit dem Sender gekoppelt ist.
-
Verschiedene Arbeitsabläufe des Verfahrens 500 können durch einen Scheduler durchgeführt werden, der als ein Logikelement implementiert werden kann, das die Funktionalität des Senders und des Empfängers steuert. Bei verschiedenen Ausführungsformen kann der Scheduler zum Beispiel in der Senderlogik 916, in der Empfängerlogik 926 implementiert werden, zwischen diesen beiden Logikelementen verteilt sein oder in einem separaten Logikelement analog zu der Sender- oder Empfängerlogik implementiert werden, wie unten unter Bezugnahme auf die 9 und 10 beschrieben.
-
Verschiedene Arbeitsabläufe des Verfahrens 500 können durch den Scheduler für jede von mindestens einer oder mehreren Videozeilen eines Videoeinzelbildes des Videosignals durchgeführt werden. Bei manchen Ausführungsformen können diese Arbeitsabläufe für jede Videozeile jedes Videoeinzelbildes des Videosignals durchgeführt werden. Bei anderen Ausführungsformen können diese Arbeitsabläufe für mehrere, aber nicht alle, Videozeilen mancher (möglicherweise aller) Videoeinzelbilder des Videosignals durchgeführt werden. Somit können Arbeitsabläufe des Verfahrens 500 typischerweise mehrere Male wiederholt werden, um unterschiedliche Teile (z. B. unterschiedliche Videozeilen) eines Videosignals zu übertragen. Allgemein können die Arbeitsabläufe des Verfahrens 500 auf Bedarfsbasis durchgeführt werden, wenn Steuerdaten zwischen dem Sender und dem Empfänger zu kommunizieren sind. Obwohl verschiedene Arbeitsabläufe des Verfahrens 500 in 5 in einer gewissen Reihenfolge dargestellt sind, kann sich die Reihenfolge dieser Arbeitsabläufe bei anderen Ausführungsformen von der in 5 dargestellten unterscheiden, und/oder manche Arbeitsabläufe können wiederholt werden.
-
Wie in 5 dargestellt, kann das Verfahren 500 einen Block 502 aufweisen, bei dem ein Scheduler dazu ausgebildet ist, mehrere Zeitfenster zuzuweisen, um mehrere Videokomponenten einer individuellen Videozeile des Videoeinzelbildes des durch die Kamera erfassten Videosignals vom Sender über einen AC-gekoppelten Übertragungslink, z. B. den in 9 dargestellten Link 930, zum Empfänger zu übertragen. Somit ermöglicht das Scheduling von Zeitfenstern in 502 ein Multiplexing unterschiedlicher Videokomponenten, sodass sie über einen einzelnen verdrahteten Link, im Gegensatz zu mehreren individuellen Links, wie bei manchen herkömmlichen Implementierungen durchgeführt wurde, bei denen jede Videokomponente über einen individuellen Draht übertragen wurde, übertragen werden können. Bei manchen Ausführungsformen werden, im Gegensatz zu analogen Videoübertragungslinks, keine der mehreren Videokomponenten, die vom Sender zum Empfänger übertragen werden, auf einem Trägersignal zur Übertragung vom Sender zum Empfänger moduliert, was vorteilhafterweise eine Störung/ein Übersprechen zwischen diesen Komponenten verhindert und ermöglicht, dass jede Videokomponente für jedes Pixel individuell im Empfänger wiedergewonnen wird. Videokomponenten, die nicht auf einem Trägersignal moduliert werden, sondern zeitgemultiplext werden, bedeuten, dass unterschiedliche Komponenten im Wesentlichen dasselbe Frequenzband belegen können, oder mit anderen Worten nicht in der Frequenz getrennt sind, aber aufgrund des Zeitmultiplexing nicht einander stören.
-
Bei manchen Ausführungsformen können die mehreren Komponenten, für die der Scheduler Zeitfenster in 502 plant, einen Satz von Komponenten aufweisen, der zumindest eine erste Farbkomponente und eine zweite Farbkomponente aufweist. Eine RAW-Übertragung von einem Bildsensor kann zum Beispiel eine G-Komponente und eine R-Komponente auf ungeradzahligen Zeilen und eine G-Komponente und eine B-Komponente auf geradzahligen Zeilen senden oder umgekehrt - G, B auf geraden und G, R auf ungeraden Zeilen, und die Komponenten würden dann gleichermaßen für eine analoge Übertragung vom Sender zum Empfänger angeordnet sein. Obwohl es insgesamt 3 verwendete Farbkomponenten geben kann, können diese Farbkomponenten somit zur Übertragung mit nur jeweils zwei geplant werden. Bei anderen Ausführungsformen kann ein Satz von Komponenten, für den der Scheduler Zeitfenster in 502 plant, alle drei Farbkomponenten aufweisen. Mit anderen Worten kann ein derartiger Satz von Komponenten bei manchen Ausführungsformen auch eine dritte Farbkomponente aufweisen, sodass der Satz z. B. R-, G- und B-Komponenten aufweist.
-
Bei anderen Ausführungsformen können die mehreren Komponenten, für die der Scheduler Zeitfenster in 502 plant, einen Satz von Komponenten aufweisen, der zumindest eine Luminanzkomponente und eine Farbkomponente aufweist (z. B. Y- und R-Komponenten). Obwohl es insgesamt 2 verwendete Farbkomponenten geben kann (zusätzlich zu einer Luminanzkomponente), können diese Farbkomponenten somit zur Übertragung mit nur jeweils einer geplant werden. Bei anderen Ausführungsformen kann ein derartiger Satz von Komponenten auch eine zweite Farbkomponente aufweisen, sodass der zweite Satz z. B. Y-, U- und V-Komponenten aufweist.
-
Bei manchen Ausführungsformen können die mehreren Komponenten, für die der Scheduler Zeitfenster in 502 plant, ein einziges (d. h. ein und nur ein) Zeitfenster für jede der mehreren Komponenten aufweisen. Somit kann der Sender dazu ausgebildet sein, die aktiven Pixel umzuordnen, z. B. jene, die vom Bildsensor empfangen werden, sodass alle Pixelwerte einer ersten Videokomponente für eine gegebene Videozeile nacheinander übertragen werden, alle Werte einer zweiten Videokomponente für dieselbe Zeile nacheinander übertragen werden (wobei das Zeitfenster für die zweite Videokomponente mit dem Zeitfenster für die erste Videokomponente fortlaufend sein kann, aber nicht sein muss), und so weiter. Mit anderen Worten können bei derartigen Ausführungsformen in jedem der mehreren Zeitfenster für Videokomponenten alle Pixel einer gegebenen Videokomponente nacheinander innerhalb des dieser Videokomponente zugewiesenen Zeitfensters übertragen werden. Eine derartige Implementierung kann vorteilhafterweise Energie bei einer niedrigeren Frequenz konzentrieren, was sowohl erreicht, dass das übertragene Signal weniger empfindlich gegenüber Inter-Symbolstörung ist, als auch niedrigere elektromagnetische Emissionen vom Kabel im Vergleich zu Ansätzen erzeugt, bei denen unterschiedliche Pixelwerte einer einzelnen Videokomponente im zum Empfänger übertragenen Videosignal verschachtelt sind (z. B. bei denen die Pixelwerte der Videokomponenten vom Sender zum Empfänger auf dieselbe verschachtelte Art und Weise übertragen werden, mit der Rohdaten vom Bildsensor empfangen wurden).
-
Bei manchen Ausführungsformen kann eine kombinierte Dauer der mehreren Zeitfenster zum Übertragen der mehreren Komponenten einer gegebenen Videozeile, für die der Scheduler Zeitfenster in 502 plant, gleich oder kürzer als eine Zeit sein, in der diese Videozeile zum Sender bereitgestellt wird, z. B. vom Bildsensor zum Sender bereitgestellt wird. Bei manchen Ausführungsformen kann somit Zeit eingespart werden, indem die Dauer der Videozeitfenster kürzer gemacht wird, z. B. durch das Konfigurieren eines Taktgenerators des Senders (z. B. eines in 9 dargestellten Taktgenerators 919), um die Pixel schneller (d. h. mit einer höheren Taktrate) auszutakten, was verwendet werden kann, um mehrere Videokomponenten und mehrere Steuerzeitfenster einzufügen. Mit anderen Worten kann bei manchen Ausführungsformen eine Linktaktrate (d. h. eine Taktrate, bei der die Daten zwischen dem Sender und dem Empfänger über den Link ausgetauscht werden) höher sein (z. B. 2 Mal höher, oder andere ganzzahlige oder nichtganzzahlige höhere Vielfache) als eine Eingangspixeltaktrate (d. h. eine Taktrate, bei der die Eingangspixeldaten durch den Bildsensor erfasst und/oder dem Sender bereitgestellt werden). Eine derartige Implementierung einer zeitkomprimierten Übertragung eines Videosignals kann vorteilhafterweise ermöglichen, dass mehrere Videokomponenten und Daten in der durch eine Eingangsvideozeile belegten Zeit übertragen werden, sodass die Videozeilen nicht am Sender angestaut werden (d. h., sodass der Sender keinen Engpass beim Übertragen erfasster Pixeldaten zum Empfänger erzeugt). Bei manchen Ausführungsformen kann die Zeitdauer einer gegebenen Ausgangsvideozeile (d. h. der Videozeile, die vom Sender zum Empfänger übertragen wird, wobei diese Videozeile eine Kombination (hinsichtlich Zeit - eine Summe) von Videokomponentenzeitfenstern, eines Synchronisationssignals und einer horizontalen Austastlücke, Downstream-Steuerdaten und Upstream-Steuerdatenzeitfenstern, dann auch optional ein oder mehrere Guardbands aufweisen kann) zum Beispiel gleich der Zeitdauer derselben Videozeile sein, die durch die Kamera dem Sender dargeboten wird (d. h. der Videozeile, die von der Kamera zum Sender übertragen wird, wobei diese Videozeile eine Kombination (hinsichtlich Zeit - eine Summe) einer oder mehrerer Videokomponenten, eines Synchronisationssignals und einer horizontalen Austastlücke aufweisen kann).
-
Bei manchen Ausführungsformen kann der Scheduler dazu ausgebildet sein, eine Übertragungsrate für den Austausch von Daten zwischen dem Sender und dem Empfänger unabhängig von der Eingangspixeltaktrate auszuwählen. Eine derartige Auswahl kann z. B. basierend auf einer Benutzereingabe/-konfiguration oder basierend auf der Eingangspixeltaktrate vorgenommen werden und kann vorteilhafterweise dem Scheduler ermöglichen, mehr Platz für den Austausch von Steuerdaten zwischen dem Sender und dem Empfänger zu schaffen.
-
Wie auch in 5 dargestellt, kann das Verfahren 500 einen Block 504 aufweisen, bei dem ein Scheduler dazu ausgebildet ist, ein oder mehrere Zeitfenster zum Übertragen von Sendersteuerdaten vom Sender über denselben verdrahteten analogen Übertragungslink, der zum Übertragen der Videokomponenten verwendet wird, z. B. der in 9 dargestellte Link 930, zum Empfänger zuzuweisen. Wie oben beschrieben, sind diese Steuerdaten „Downstream“-Steuerdaten, da dies zur Übertragung vom Sender zum Empfänger ist. Allgemein gesagt können die Downstream-Steuerdaten beliebige Daten außer Videokomponenten aufweisen, die die aktiven Pixelwerte angeben, wie durch die Kamera erfasst. Bei verschiedenen Ausführungsformen können Downstream-Steuerdaten Daten aufweisen, die eines oder mehrere des Folgenden ermöglichen: 1) (Neu-) Konfiguration des Empfängers, oder einer weiteren Einrichtung, die kommunikativ mit dem Empfänger gekoppelt ist, durch den Sender oder durch eine weitere Einrichtung, die kommunikativ mit dem Sender gekoppelt ist, 2) der Empfänger führt eine DC-Offsetkorrektur unter Verwendung einer statistischen Charakteristik ausgewählter aktiver Pixel durch, wie unten in einem designierten Abschnitt ausführlicher beschrieben, und 3) der Empfänger führt eine SAG-Kompensation unter Verwendung einer Inversion von Kanalcharakteristiken durch, wie unten in einem designierten Abschnitt ausführlicher beschrieben.
-
Wie ferner in 5 dargestellt, kann das Verfahren 500 einen Block 506 aufweisen, bei dem ein Scheduler dazu ausgebildet ist, ein oder mehrere Zeitfenster zum Übertragen von Empfängersteuerdaten vom Empfänger über denselben verdrahteten analogen Übertragungslink, der zum Übertragen der Videokomponenten verwendet wird, z. B. der in 9 dargestellte Link 930, zum Sender zuzuweisen. Wie oben beschrieben, sind diese Steuerdaten „Upstream“-Steuerdaten, da dies zur Übertragung vom Empfänger zum Sender ist. Somit ermöglicht das Scheduling von Zeitfenstern gemäß dem Verfahren 500 vorteilhafterweise eine Bereitstellung von nicht nur Downstream-Steuerdaten, sondern auch von Upstream-Steuerdaten. Bei manchen Ausführungsformen können die Upstream-Steuerdaten Daten aufweisen, die dem Empfänger, oder einer weiteren Einrichtung, die kommunikativ mit dem Empfänger gekoppelt ist, ermöglichen, den Sender, oder eine weitere Einrichtung, die kommunikativ mit dem Sender gekoppelt ist, (neu) zu konfigurieren, z. B. den Bildsensor, den ISP oder eine andere Komponente in der Kamera (wobei die Kamera den Sender aufweisen kann) (neu) zu konfigurieren.
-
Wie die vorstehende Beschreibung veranschaulicht, ermöglicht das Scheduling von Zeitfenstern gemäß dem Verfahren 500 vorteilhafterweise eine Übertragung der Videosignale und von Upstream- und Downstream-Steuerdaten über einen einzelnen verdrahteten Link. Bei weiteren Ausführungsformen können Zeitfenster zur Übertragung von Upstream-Steuerdaten für eine Videozeile geplant werden, während Zeitfenster zur Übertragung von Downstream-Steuerdaten für eine andere Videozeile geplant werden können. Bei derartigen Ausführungsformen ist das Verfahren 500 weiterhin anwendbar, da sowohl Upstream- als auch Downstream-Steuerdaten in den durch den Scheduler zugewiesenen Zeitfenstern ausgetauscht werden können, mit der Ausnahme, dass Arbeitsabläufe der Blöcke 504 und 506 möglicherweise nicht für eine einzelne Videozeile, sondern für zwei unterschiedliche Videozeilen durchgeführt werden.
-
Die durch die Kamera/den Bildsensor erfassten Daten können für eine anschließende Umwandlung in eine analoge Form in einem der mehreren hierin offenbarten Formate formatiert werden. Somit sind hierin verschiedene HD-Videosignalformate (Übertragungssequenzen) dargelegt, die die Verwendung einer kosteneffektiveren Videolinkarchitektur ermöglichen.
-
6 ist eine schematische Veranschaulichung von beispielhaften Sequenzen 600 und 602 von Zeitfenstern für YUV- bzw. RGB-Farbräume gemäß manchen Ausführungsformen der vorliegenden Offenbarung.
-
Wie in 6 dargestellt, kann die Sequenz 600 Werte aller Y-Komponenten, die zur Übertragung in einem einzelnen Zeitfenster zusammengruppiert sind (in der Sequenz 600 als Zeitfenster „Y“ dargestellt), Werte aller U-Komponenten, die zur Übertragung in einem einzelnen Zeitfenster zusammengruppiert sind (in der Sequenz 600 als ein Zeitfenster „U“ dargestellt), und Werte aller V-Komponenten, die zur Übertragung in einem einzelnen Zeitfenster zusammengruppiert sind (in der Sequenz 600 als ein Zeitfenster „V“ dargestellt), aufweisen. Wie oben beschrieben, kann eine derartige Gruppierung vorteilhafterweise dazu führen, dass die Energie aller Komponenten bei niedrigeren Frequenzen konzentriert wird. Bei anderen Ausführungsformen müssen unterschiedliche Werte einer oder mehrerer der YUV-Komponenten nicht zur Übertragung in einem einzelnen Zeitfenster zusammengruppiert werden und können verschachtelt sein. Bei anderen Ausführungsformen kann die Sequenz 600 des Weiteren nur zwei der 3 dargestellten Videokomponenten aufweisen - z. B. nur Y und U oder nur Y und V, da bei manchen Ausführungsformen, wie oben beschrieben, die in einer gegebenen Videozeile übertragenen Videokomponenten eine Teilmenge der gesamten Videokomponenten aufweisen können.
-
Die Sequenz 600 veranschaulicht ferner ein Zeitfenster zum Übertragen von Steuerdaten (in der Sequenz 600 als ein Zeitfenster „D“ dargestellt), die bei unterschiedlichen Ausführungsformen entweder nur Downstream- oder nur Upstream-Daten repräsentieren können oder zwei Zeitfenster (obwohl nicht spezifisch in der Sequenz 600 dargestellt) repräsentieren können - eins für Downstream- und eins für Upstream-Steuerdaten. Die Sequenz 600 veranschaulicht ferner ein Zeitfenster für Synchronisationsdaten für die Videozeile (in der Sequenz 600 als ein Zeitfenster „S“ dargestellt), z. B. einen Horizontal-Sync-Impuls mit seinen entsprechenden vorderen und hinteren Austastschultern, und/oder beliebige andere Daten, die bei der Synchronisation helfen können. Bei verschiedenen anderen Ausführungsformen kann sich die Reihenfolge der Zeitfenster der Sequenz 600 von der in 6 dargestellten unterscheiden. Bei anderen Ausführungsformen der Sequenz 600 können sich des Weiteren Videozeilenzuweisungsanteile zwischen den Videokomponenten und anderen Daten (z. B. Steuer- und/oder Synchronisationsdaten) von denen in 6 dargestellten unterscheiden, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bei verschiedenen Ausführungsformen können Zeitfenster für die Videokomponenten etwa 2/3 der Gesamtdauer einer Videozeile zur Übertragung vom Sender zum Empfänger belegen, während andere Daten etwa 1/3 der Videozeile belegen können.
-
Obwohl nicht spezifisch in 5 oder in den Sequenzen von 6 dargestellt, kann der Scheduler bei manchen Ausführungsformen ferner dazu ausgebildet sein, ein oder mehrere Guardband-Zeitfenster unmittelbar vor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern zum Übertragen der Downstream-Steuerdaten zuzuweisen und/oder ein oder mehrere Guardband-Zeitfenster unmittelbar vor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern zum Übertragen der Upstream-Steuerdaten zuzuweisen. Ein oder mehrere derartiger Guardband-Zeitfenster können hinzugefügt werden, z. B. zwischen den Upstream- und Downstream-Steuerdatenzeitfenstern, um Unterschiede der Propagationszeit durch Kanäle/Kabel unterschiedlicher Längen zu gestatten, was vorteilhafterweise eine Störung zwischen Upstream- und Downstream-Daten reduzieren oder verhindern kann. Während des einen oder der mehreren Guardband-Zeitfenster kann ein konstantes Spannungssignal über den Link 930 durch den Sender übertragen werden. Bei manchen Ausführungsformen, während sowohl des Upstream-Steuerdatenzeitfensters als auch der Guardband-Zeitfenster, kann eine Spannung mit festem Pegel vom Sender mit einem vorbestimmten Digitalcodepegel ausgegeben werden, was dazu dienen kann, einen Offset bei den Upstream-Steuerdaten, die durch den Empfänger übertragen werden, hinzuzufügen, sodass sich das kombinierte Signal während des Upstream-Steuerzeitfensters (wenn sowohl der Sender als auch der Empfänger ihre jeweiligen Signal auf dem Link ansteuern) bei einem Pegel befindet, der gut über (z. B. mindestens 5-10 % über, mindestens 30 % über oder mindestens 50 % über) den Sync-Signalen liegt, die im Downstream-Videosignal eingebettet sind, und entfernt das Risiko, dass die Upstream-Steuerdaten durch den Empfänger als ein Sync-Signal interpretiert werden. Bei manchen Ausführungsformen kann der Sender während des Upstream-Steuerdatenzeitfensters und des Guardband dazu ausgebildet sein, ein Referenzstartsignal zu finden oder zu detektieren, die Upstream-Steuerdaten zu decodieren, Steuerdaten nach Fehlern zu prüfen und auf der relevanten Steuerschnittstelle auszugeben.
-
Um die Übertragungssequenz 600 zu erzeugen, können die digitalen Videokomponenten, die am Sender von z. B. einer Kamera empfangen werden, mit einer vordefinierten Rate empfangen werden und eine jeweilige Anzahl von Taktzyklen kann im Zeitfenster in einer Videozeile zugewiesen werden, wie durch den Scheduler geplant. Bei manchen Ausführungsformen können die Zeitfenster für die Synchronisationsdaten S und die Steuerdaten D die Sequenz 600 einfassen.
-
Bei manchen Ausführungsformen kann die Videozeile durch eine Anzahl von Taktzyklen mit einem Wert oder Bereich von zum Beispiel zwischen 800 und 1920 Pixeltaktzyklen pro Videokomponente definiert sein.
-
Bei manchen Ausführungsformen kann die Übertragungssequenz 600 das Bereitstellen von Y' (luma- oder gammakomprimierte Luminanz oder Helligkeitskomponente) als ein Basisbandsignal aufweisen, während die U- und V-(Chrominanz oder Farbe-Blau-Luminanz bzw. Rotluminanzdifferenz) Komponenten als Basisbandsignale übertragen werden können, die bei oder nahe der Mitte des ausgewählten Ausgangssignalbereichs zentriert sind.
-
Bei verschiedenen Ausführungsformen können sich unterschiedliche Videokomponenten der Sequenz 600 im Frequenzbereich überlappen, aber vollständig im Zeitbereich trennbar sein. Eine derartige Sequenz kann vorteilhafterweise ein Übersprechen zwischen den Luma/Luminanz- und Farbsignalen verhindern und ferner ein Übersprechen zwischen U- und V-Chrominanzkomponenten verhindern.
-
Die in 6 dargestellte Sequenz 602 ist analog zu der Sequenz 600 und daher sind oben für die Sequenz 600 bereitgestellte Beschreibungen bei der Sequenz 602 anwendbar, mit der Ausnahme, dass der YUV-Farbraum mit dem RGB-Farbraum ersetzt wird. Bei weiteren Ausführungsformen kann das Format der Sequenz 600 mit anderen Videoanordnungssystemen verwendet werden, wie etwa den Y'IQ- oder Y CoCg-Farbräumen. Andere Farbräume liegen auch im Schutzumfang der vorliegenden Offenbarung.
-
Bei manchen derartigen Ausführungsformen kann die Y-Komponente als das Basisbandsignal verwendet werden, die U- und V-Komponenten können auch Basisband sein, aber bei der Hälfte der Luma(Y)-Bandbreite.
-
Bei anderen Ausführungsformen können die Y-, U- und V-Videokomponenten der Übertragungssequenz (oder alternativ dazu auf eine ähnliche Art und Weise wie die zuvor beschriebene Sequenz, die R-, G- und B-Komponenten oder beliebige andere Videokomponenten) auf der Pixelebene anstatt der Komponentenebene zeitverschachtelt sein. Jede Videozeile kann dann alternierende Y- und C- (d. h. alternierend zwischen U und V) Daten aufweisen. Bei einer derartigen Sequenz können die Zeitfenster für die Synchronisationsdaten S und die Steuerdaten D auch die Videozeile einfassen. Das Verschachteln auf Komponentenebene bedeutet somit das Anordnen der Pixel zur Übertragung als [Y1Y2 ... Yn][U1 U2 ... Un][V1V2 ... Vn] (d. h. Zeitmultiplexing auf Komponentenebene) für das Beispiel, wenn die Videokomponenten YUV-Komponenten sind, wohingegen das Verschachteln auf Pixelebene das Anordnen der Pixel zur Übertragung in einer alternativen Anordnung als [Y1U1V1Y2U2V2...YnUnVn] oder z. B. als [Y1U1Y2V1Y3U2Y4V2...Yn-1Un/2YnVn/2] bedeutet, in dem Fall, bei dem die Farbkomponenten die Hälfte der Anzahl von Pixeln der Y-Komponente sind. Eine Übertragungssequenz mit auf Pixelebene verschachtelten Pixelwerten kann vorteilhafterweise den im Sender und im Empfänger erforderlichen Speicher im Vergleich zu Übertragungssequenzausführungsformen reduzieren, die Zeitmultiplexing auf Komponentenebene beinhalten, da es nicht notwendig ist, alle Pixel einer gegebenen Komponente vor der Übertragung zu speichern und umzuordnen, da sie größtenteils in der Reihenfolge übertragen werden können, mit der sie beim Sender angewendet werden.
-
Bei manchen Ausführungsformen von 504 können das eine oder die mehreren Zeitfenster zum Übertragen von Downstream-Steuerdaten mindestens zwei unterschiedliche Zeitfenster aufweisen, die um ein oder mehrere Zeitfenster voneinander getrennt sind, die nicht zum Übertragen der Downstream-Steuerdaten verwendet werden. Gleichermaßen können bei manchen Ausführungsformen von 506 das eine oder die mehreren Zeitfenster zum Übertragen der Upstream-Steuerdaten mindestens zwei Zeitfenster aufweisen, die um ein oder mehrere Zeitfenster voneinander getrennt sind, die nicht zum Übertragen der Upstream-Steuerdaten verwendet werden. 7 ist eine schematische Veranschaulichung einer beispielhaften Sequenz 700 von Zeitfenstern für eine Videozeile mit mehreren separaten Steuerdatenzeitfenstern gemäß manchen Ausführungsformen der vorliegenden Offenbarung. Die Videokomponenten der Sequenz 700 sind als Komponenten C1, C2 und C3 dargestellt, die z. B. die YUV- oder RGB-Farbkomponenten sein können, und S kann ein Zeitfenster für die Synchronisationsdaten der Videozeile sein, wie oben beschrieben. Das größte Teil der Beschreibungen der Sequenzen 600 und 602 sind bei der Sequenz 700 anwendbar, mit der Ausnahme, dass die Sequenz 700 spezifisch veranschaulicht, dass bei manchen Ausführungsformen Steuerdaten in eine gegebene Richtung (z. B. in eine Downstream-Richtung oder in eine Upstream-Richtung) in Zeitfenstern übertragen werden können, die nicht aufeinanderfolgend sind - wie in 7 dargestellt, in der Zeitfenster D1 und D2 durch die Übertragung von Videokomponenten getrennt sind. Bei verschiedenen Ausführungsformen kann sowohl D1 als auch D2 sowohl Upstream- als auch Downstream-Steuerdatenzeitfenster enthalten. Das Aufweisen derartiger mehrerer Upstream- und/oder mehrerer Downstream-Steuerzeitfenster kann eine Kommunikation mit geringerer Latenz von Steuerdaten über den Link 930 ermöglichen, wie z. B. unten erläutert.
-
Bei manchen Ausführungsformen können die Downstream-Steuerdaten eine Bestätigung (ACK) durch den Sender über den Empfangsstatus der letzten Upstream-Kommunikation (mit Fehler empfangen oder ohne Fehler empfangen) oder eine Bestätigung oder eine Negativbestätigung (NACK) von einer Ferneinrichtung, die mit dem Sender verbunden ist, die möglicherweise das Endziel der letzten Upstream-Kommunikation gewesen ist, aufweisen. Gleichermaßen können die Upstream-Steuerdaten eine Bestätigung durch den Empfänger über den Status der letzten Downstream-Kommunikation aufweisen. Das Aufweisen mehrerer Upstream- und/oder mehrerer Downstream-Steuerzeitfenster pro Zeile kann eine Kommunikation mit geringerer Latenz von Steuerdaten über den Link 930 ermöglichen, da die ACK oder NACK empfangen wird und auf diese schneller gehandelt oder reagiert wird (z. B. Wiederholung falls Fehler und keine Wiederholung falls okay), im Vergleich dazu, wenn nur ein Steuerzeitfenster pro Videozeile in jede Übertragungsrichtung verwendet wird.
-
Wie zuvor kurz erwähnt, können bei manchen Ausführungsformen Video-und-Steuerung-Daten, die über den AC-gekoppelten Link 930 ausgetauscht werden, insbesondere die Downstream- und/oder die Upstream-Steuerdaten, Daten sein, die nicht vom Sender und/oder vom Empfänger stammen, sondern von weiteren Einrichtungen, die kommunikativ mit dem Sender und/oder dem Empfänger gekoppelt sind. Bei manchen Ausführungsformen können die Upstream-Steuerdaten von einer Systemsteuerung durch den Empfänger nicht nur zu der Sendereinrichtung selbst, sondern zu Ferneinrichtungen, die mit diesem Sender verbunden sind, fließen, sodass diese Ferneinrichtungen durch den Sender unter Verwendung der Systemsteuerung, die am Empfänger angebracht sein kann, gesteuert werden können. Bei manchen Ausführungsformen könnte eine Kommunikation vom Empfänger zum Sender laufen, nach Fehlern geprüft werden und dann, falls korrekt, zu der Zieleinrichtung weitergeleitet werden. Die Zieleinrichtung kann dazu ausgebildet sein, als Reaktion darauf mit einer ACK oder einer NACK oder mit Daten zu antworten, die durch den Sender zurück zum Empfänger übertragen werden können. Der Empfänger kann dann dazu ausgebildet sein, die empfangene Nachricht nach Fehlern zu prüfen und Daten aus der Nachricht zu der mit dem Empfänger verbundenen Systemsteuerung weiterzuleiten. Ein Beispiel eines solchen Szenarios ist in 8 dargestellt.
-
8 ist eine schematische Veranschaulichung von Flüssen von Steuerdaten in einem Videosystem 800 gemäß manchen Ausführungsformen der vorliegenden Offenbarung. Wie in 8 dargestellt, kann das Videosystem 800 einen Sender 810 und einen Empfänger 820 aufweisen, die kommunikativ mit einem AC-gekoppelten HD-Video-und-Steuerung-Link 830 gekoppelt sind. Der Sender 810, der Empfänger 820 und der Link 830 können zu dem Sender 910, dem Empfänger 920 und dem Link 930 analog sein, die in 9 dargestellt und unten ausführlicher beschrieben sind. Der Link 830 kann somit zur bidirektionalen Kommunikation von Steuerdaten zusätzlich zur Kommunikation des Videosignals vom Sender 810 zum Empfänger 820 konfiguriert sein. Wie auch in 8 dargestellt, kann bei manchen Ausführungsformen der Sender 810 über einen Link 814 kommunikativ mit einer weiteren Einrichtung 812 gekoppelt sein und/oder der Empfänger 820 kann über einen Link 824 kommunikativ mit einer weiteren Einrichtung 822 gekoppelt sein. Jeder der Links 814, 824 kann ein bidirektionaler Link sein, d. h. ein Link, der eine bidirektionale Kommunikation von Informationen gestattet, und kann entweder ein verdrahteter oder ein drahtloser Link sein. Bei manchen Ausführungsformen können die Links 814, 824 z. B. inter-integrierte Schaltungslinks (I2C-Links) sein. Bei manchen Ausführungsformen kann die weitere Einrichtung 812 ein Bildprozessor/-sensor sein, der z. B. im Kameramodul enthalten ist, das den Sender 810 enthält. Bei manchen Ausführungsformen kann die weitere Einrichtung 822 eine Systemsteuerung sein, z. B. eine Mikrocontrollereinheit (MCU). Wie mit den Flüssen über die Links 830, 814 und 824 veranschaulicht, können bei einer derartigen Implementierung die weitere Einrichtung 822 und die weitere Einrichtung 812 miteinander kommunizieren, als ob sie direkt miteinander verbunden wären, aber nun mit etwas Latenz, die durch das Vorhandensein des Links 830 dazwischen verursacht wird. Bei manchen Ausführungsformen kann die weitere Einrichtung 822 verwendet werden, um den Sender 810 selbst (neu) zu konfigurieren, während die weitere Einrichtung 822 bei anderen Ausführungsformen verwendet werden kann, um die weitere Einrichtung 812 (neu) zu konfigurieren. Gleichermaßen kann die weitere Einrichtung 812 bei manchen Ausführungsformen verwendet werden, um den Empfänger 820 selbst (neu) zu konfigurieren, während die weitere Einrichtung 812 bei anderen Ausführungsformen verwendet werden kann, um die weitere Einrichtung 822 (neu) zu konfigurieren.
-
Im Folgenden werden zwei besonders nützliche Arten von Daten, die vom Sender über den hierin beschriebenen AC-gekoppelten Link zum Empfänger bereitgestellt werden können, beschrieben. Beide können als Downstream-Steuerdaten bereitgestellt werden. Die erste kann Metadaten sein, die zur DC-Offsetkorrektur verwendet werden, und die zweite kann Testimpulse sein, die zur SAG-Kompensation verwendet werden, in einem Versuch, dem Empfänger zu ermöglichen, die Verschlechterung im empfangenen Videosignal zu beheben, die durch den SAG-Effekt aufgrund des Hochpassfilterverhaltens des AC-gekoppelten Übertragungskanals verursacht wird.
-
Erstes Beispiel für Downstream-Steuerdaten: Metadaten zur DC-Offsetkorrektur
-
Bei manchen Ausführungsformen kann ein Sender dazu ausgebildet sein, Metadaten, die eine statistische Charakteristik für eine Gruppe aktiver Pixel eines Teils eines durch eine Kamera erfassten Videosignals angeben, zu berechnen und einem Empfänger als Downstream-Steuerdaten bereitzustellen (d. h. der Sender kann dazu ausgebildet sein, die statistische Charakteristik über das Videosignal zu berechnen, bevor das Signal über den AC-gekoppelten Videolink übertragen wird). Der Empfänger kann dann dazu ausgebildet sein, eine analoge statistische Charakteristik über das Videosignal, das über einen AC-gekoppelten Videolink am Empfänger empfangen wird, zu berechnen und eine DC-Offsetkorrektur durch Korrigieren eines oder mehrerer Werte des empfangenen Videosignals basierend auf einem Vergleich der durch den Empfänger berechneten statistischen Charakteristik und der, die durch den Sender berechnet wird (wie durch die vom Sender empfangenen Metadaten angegeben), durchzuführen, bevor das empfangene Videosignal zur Anzeige wiedergegeben wird. Ein derartiger Ansatz kann im Vergleich zu herkömmlichen DC-Offsetkorrekturimplementierungen vorteilhafterweise das Verwenden von mehr Datenpunkten gestatten, um die DC-Offsetkorrektur durchzuführen, was eine Verbesserung bezüglich des Ausmaßes ermöglicht, mit dem das Videosignal, wie an der Empfängerseite wiedergewonnen, jenem ähnelt, das durch die Kamera an der Senderseite erfasst wird, was zu einer verbesserten Qualität des wiedergegebenen Videos führt.
-
„Statistische Charakteristik“ ist ein Ausdruck, der hierin eingesetzt wird, um sich auf eine beliebige geeignete Charakteristik zu beziehen, die auf eine quantitative Art und Weise Pixelwerte eines Teils des zum Empfänger zu übertragenden Videosignals beschreibt. Ein Sender und ein Empfänger würden in Übereinstimmung sein, wie, und über welche Pixel des Videosignals, eine derartige statistische Charakteristik berechnet werden soll. Daher würde ein Vergleich einer derartigen statistischen Charakteristik, die durch den Sender über das zu übertragende Videosignal berechnet wird, und einer analogen Charakteristik, die durch den Empfänger über das Videosignal, wie am Empfänger empfangen, d. h. nachdem das Signal über den AC-gekoppelten Link übertragen wurde, berechnet wird, ein Maß des DC-Offsets bereitstellen, den das Videosignal aufgrund der AC-gekoppelten Übertragung erfahren hat. Der Empfänger kann dann eine DC-Offsetkompensation am empfangenen Videosignal basierend auf dem Ergebnis des Vergleichs durchführen. Auf diese Art und Weise können die tatsächlichen aktiven Pixelwerte eines Videosignals vorteilhafterweise in einem Klemmschema verwendet werden, im Gegensatz zu einem kleinen Fenster von DC-Werten, wie die Sync-Spitze, die vordere oder hintere Austastlücke, wie bei oben beschriebenen herkömmlichen Implementierungen der DC-Offsetkorrektur verwendet wurde. Des Weiteren ermöglichen die hierin beschriebenen Ausführungsformen keine Notwendigkeit, gewisse vordefinierte Zielwerte für jegliche DC-Pegel anzunehmen, wie auch bei den oben beschriebenen herkömmlichen Implementierungen der Fall war, sondern stattdessen ermöglichen sie vorteilhafterweise das Verwenden dynamisch berechneter „Ziel“-Werte (z. B. die statistische Charakteristik, wie durch den Sender berechnet, die das „Ziel“ zum Durchführen der Klemmung an der Empfängerseite ist).
-
Unter Anleitung dieser allgemeinen Prinzipien gibt es viele Variationen, wie eine statistische Charakteristik berechnet und vom Sender zum Empfänger bereitgestellt werden kann. Manche dieser Variationen sind unten beschrieben. Im Allgemeinen liegt jedoch eine jegliche statistische Charakteristik, die auf eine beliebige Art und Weise gemäß den hierin beschriebenen Prinzipien berechnet und vom Sender zum Empfänger in einer beliebigen Form und über einen beliebigen kommunikativen Link zwischen dem Sender und dem Empfänger bereitgestellt wird, innerhalb des Schutzumfangs der vorliegenden Offenbarung.
-
Es gibt 3 Aspekte, über die sich ein Sender und ein Empfänger im Wesentlichen einig sein sollten, um von der Verwendung der wie hierin beschriebenen statistischen Charakteristik zu profitieren. Der erste Aspekt enthält, über welche Pixel des Videosignals die statistische Charakteristik zu berechnen ist. Der zweite Aspekt enthält, wie eine statistische Charakteristik zu berechnen ist, d. h. welche mathematische Operation an den mehreren Pixeln, die gemäß dem ersten Aspekt identifiziert/ausgewählt werden, durchzuführen ist. Der dritte Aspekt enthält, wie die berechnete statistische Charakteristik, die durch den Sender berechnet wird, durch sogenannte „Metadaten“ repräsentiert werden soll, die dann vom Sender zum Empfänger übertragen werden, um dem Empfänger zu ermöglichen, den Vergleich durchzuführen und ferner eine DC-Offsetkompensation basierend auf dem Vergleich durchzuführen. Jeder dieser drei Aspekte wird jetzt beschrieben.
-
Bezüglich des ersten Aspekts gibt es ein zu erzielendes Gleichgewicht zwischen der gewünschten Genauigkeit zwischen dem Videosignal, wie es vor der AC-gekoppelten Übertragung war, und dem Videosignal, wie es an der Empfängerseite nach der AC-gekoppelten Übertragung wiedergewonnen wird. Bei manchen Implementierungen kann ein derartiges Gleichgewicht von den Umständen eines speziellen Einsatzszenarios abhängen, z. B. der Rechenleistung am Sender und/oder am Empfänger, den Bandbreitenbeschränkungen zum Übertragen von Metadaten zum Empfänger usw. Bei manchen Ausführungsformen kann eine statistische Charakteristik über alle aktiven Pixel jeder Videozeile berechnet werden. Somit kann eine derartige statistische Charakteristik für jede Videozeile eines Videoeinzelbildes berechnet werden. Bei anderen Ausführungsformen kann eine statistische Charakteristik über eine gewisse Teilmenge aller aktiven Pixel jeder Videozeile (d. h. über einen Anteil einer einzelnen Videozeile) berechnet werden, z. B. für die erste Hälfte aktiver Pixel jeder Videozeile oder für eine gewisse Anzahl von Pixeln, die im Wesentlichen um eine Mitte jeder Videozeile zentriert ist, oder für jedes gerade oder jedes ungerade Pixel jeder Videozeile oder über beliebige andere Pixel, die aufgrund deren Eignung für ein spezielles Einsatzszenario gewählt werden. Bei derartigen Ausführungsformen eines Anteils von Pixeln einer Videozeile, der zum Berechnen einer statistischen Charakteristik verwendet wird, kann eine derartige statistische Charakteristik z. B. für jede Videozeile eines Videoeinzelbildes berechnet werden. Bei noch anderen Ausführungsformen ist eine statistische Charakteristik über Pixel aus zwei oder mehr Zeilen zu berechnen, z. B. für alle Pixel von zwei oder mehr Videozeilen eines Videoeinzelbildes oder für einen Bruchteil aller Pixel von zwei oder mehr Videozeilen (z. B. für die erste Hälfte aller Pixel einer ersten Videozeile und die zweite Hälfte aller Pixel einer zweiten Videozeile oder für alle Pixel der ersten Videozeile einer gewissen Zahl, z. B. die Hälfte der Pixel der zweiten Videozeile). Bei derartigen Ausführungsformen kann eine derartige statistische Charakteristik für jede zwei oder mehr Videozeilen eines Videoeinzelbildes berechnet werden, wodurch somit die Belastung an sowohl den Rechenressourcen, die zum Berechnen der statistischen Charakteristik verwendet werden, als auch der Bandbreite, die zum Übertragen der statistischen Charakteristik vom Sender zum Empfänger verwendet wird, reduziert wird, während potenziell die Genauigkeit geopfert wird, da das Videosignal Pixelwerte aufweisen kann, die sich erheblich von einer Zeile zu einer anderen unterscheiden. Bei noch anderen Beispielen kann eine statistische Charakteristik über alle Pixel von allen horizontalen Zeilen eines gegebenen Videoeinzelbildes oder über alle Pixel jeder zweiten Zeile eines Videoeinzelbildes oder über gewisse andere ausgewählte Pixel über ein gegebenes Videoeinzelbild oder sogar über Pixel aus zwei oder mehr Videoeinzelbildern berechnet werden.
-
Bezüglich des zweiten Aspekts kann die statistische Charakteristik bei manchen Ausführungsformen ein Mittel oder einen Durchschnitt eines Werts mehrerer aktiver Pixel des Videosignals aufweisen, die gemäß dem oben beschriebenen ersten Punkt ausgewählt wurden. Bei anderen Ausführungsformen kann die statistische Charakteristik eine Summe aller Pixelwerte derartiger mehrerer aktiver Pixel aufweisen. Bei noch anderen Ausführungsformen kann die statistische Charakteristik einen Median aller Pixelwerte oder eine beliebige andere numerische Charakteristik, die eine nützliche Indikation der Pixelwerte der ausgewählten Pixel bereitstellt, aufweisen. Es sollte angemerkt werden, dass, obwohl sich unten bereitgestellte Beschreibungen auf eine einzige statistische Charakteristik beziehen, die für gewisse mehrere Pixelwerte berechnet wird (die z. B. gemäß dem oben beschriebenen ersten Aspekt ausgewählt wurden), bei anderen Ausführungsformen mehrere derartige Charakteristiken durch den Sender und den Empfänger für gegebene mehrere Pixelwerte berechnet werden können und die DC-Offsetkorrektur basierend auf einer oder mehreren dieser statistischen Charakteristiken durchgeführt werden kann. Bei manchen Ausführungsformen kann ein Sender zum Beispiel dazu ausgebildet sein, sowohl einen Durchschnittswert als auch eine Summe mehrerer gewisser Pixelwerte eines Videosignals zu berechnen und dann sowohl den Durchschnitt als auch die Summe dem Empfänger bereitzustellen. Da sich der Empfänger mit dem Sender einig ist, würde der Empfänger auch sowohl den Durchschnitt als auch die Summe berechnen, jetzt jedoch für die analogen Pixel des empfangenen Videosignals, und dann eine DC-Offsetkorrektur basierend auf einem Vergleich von jeder dieser zwei unterschiedlichen statistischen Charakteristiken, wie durch den Sender und den Empfänger berechnet, durchführen.
-
Bezüglich des dritten Aspekts sind „Metadaten“ ein Ausdruck, der hierin zum Beschreiben einer Repräsentation der durch den Sender berechneten statistischen Charakteristik verwendet wird. Wiederum gibt es viele mögliche Variationen, wie Metadaten basierend auf der durch den Sender berechneten statistischen Charakteristik erzeugt werden könnten, die alle innerhalb des Schutzumfangs der vorliegenden Offenbarung liegen. Bei manchen Ausführungsformen können die Metadaten einfach die statistische Charakteristik aufweisen, wie sie durch den Sender berechnet wurde. Bei anderen Ausführungsformen können die Metadaten eine codierte Version der durch den Sender berechneten statistischen Charakteristik aufweisen. Der berechnete Wert der statistischen Charakteristik kann zum Beispiel als einer mehrerer vordefinierter Pegel, z. B. 10 Pegel, oder zu diesen gehörend angesehen werden und die Metadaten können eine Indikation des speziellen Pegels sein, dem der berechnete Wert entspricht. Bei noch anderen Ausführungsformen sind die Metadaten möglicherweise kein kompletter Wert der durch den Sender berechneten statistischen Charakteristik, sondern nur eine gewisse Zahl der niederwertigsten Bits (LSBs - Least Significant Bits). Beispielsweise unter der Annahme, dass die durch den Sender berechnete statistische Charakteristik ein digitaler Wert mit M Bits sein kann, wobei M gleich oder größer als 2 ist, dann können die Metadaten die N LSBs des M-Bit-Wortes der statistischen Charakteristik sein, wobei N größer als Null und kleiner als M ist (M könnte z. B. gleich 7 sein und N könnte gleich 3 sein). Derartige Ausführungsformen basieren auf einer Realisierung, dass nicht erwartet wird, dass sich die Werte der am Sender und am Empfänger berechneten statistischen Charakteristik erheblich unterscheiden, und dass daher das Bereitstellen von nur einer gewissen Anzahl von LSBs vom Sender zum Empfänger ausreichen wird, damit der Empfänger in der Lage ist, zu bestimmen, wie die Werte des empfangenen Videosignals basierend auf dem Vergleich der durch die Metadaten repräsentierten LSBs und dem Wert der durch den Empfänger berechneten statistischen Charakteristik zu modifizieren sind.
-
Wie oben beschrieben, ist der Empfänger dazu ausgebildet, die durch den Empfänger berechnete statistische Charakteristik mit jener, die durch den Sender berechnet wird, zu vergleichen (wobei das Letztgenannte durch die Metadaten, die der Empfänger empfing, angegeben wird) und eine DC-Offsetkorrektur eines oder mehrerer Werte des empfangenen Videosignals basierend auf dem Vergleich durchzuführen. Bei manchen Ausführungsformen kann der Vergleich zum Beispiel ein einfaches Bestimmen der Differenz zwischen den zwei Werten der statistischen Charakteristik enthalten und die DC-Offsetkorrektur kann eine Klemmung durch Verschieben eines oder mehrerer Werte des empfangenen Videosignals um die Differenz enthalten. Bei anderen Ausführungsformen kann der Vergleich kompliziertere Formen annehmen, solange entschieden wird, dass die durchgeführte DC-Offsetkorrektur eine Verbesserung darüber bereitstellt, wie das empfangene Videosignal jenem ähnelt, das durch den Sender übertragen wird.
-
Es gibt auch viele unterschiedliche Ausführungsformen dafür, welche Werte des empfangenen Videosignals der Empfänger ausgebildet ist, basierend auf den Metadaten, die als Downstream-Steuerdaten empfangen werden, zu korrigieren. Bei manchen Ausführungsformen kann der Empfänger dazu ausgebildet sein, die DC-Offsetkorrektur nur bei jenen Pixelwerten des Videosignals anzuwenden, über die die statistische Charakteristik berechnet wurde. Bei anderen Ausführungsformen kann der Empfänger dazu ausgebildet sein, die DC-Offsetkorrektur bei einer Teilmenge dieser Pixelwerte anzuwenden. Bei noch anderen Ausführungsformen kann der Empfänger dazu ausgebildet sein, die DC-Offsetkorrektur bei einer größeren Anzahl von Pixeln als jene anzuwenden, für die die statistische Charakteristik berechnet wurde. Die statistische Charakteristik kann zum Beispiel für Pixelwerte jeder zweiten Zeile berechnet werden und der Empfänger kann dazu ausgebildet sein, die DC-Offsetkorrektur an beiden Zeilen für jeden Wert der empfangenen statistischen Charakteristik anzuwenden. Es sollte auch angemerkt werden, dass die DC-Offsetkorrektur bei den Werten des Videosignals außer den Pixelwerten angewendet werden kann, z. B. bei den Werten der Sync-Signale (Horizontal- und/oder Vertikal-Sync-Signale), bei vorderen Austastlücken und/oder bei hinteren Austastlücken der Sync-Signale usw.
-
Zweites Beispiel für Downstream-Steuerdaten: Testimpulse zur SAG-Kompensation
-
Als ein zweites Beispiel für Downstream-Daten, die über den hierin beschriebenen AC-gekoppelten HD-Video-und-Steuerung-Link bereitgestellt werden können, gibt es mehrere Testimpulse, die durch den Sender bereitgestellt werden und dazu ausgebildet sind, dem Empfänger zu ermöglichen, eine oder mehrere SAG-Kompensationstechniken bei den mehreren Videokomponenten anzuwenden, die vom Sender über denselben Link empfangen werden. Insbesondere können die Testimpulse den vordefinierten/bekannten Inhalt bereitstellen, der dem Empfänger ermöglichen kann, eine adaptive Filterung zur Kompensation des SAG-Effekts, der dem Videosignal infolge dessen auferlegt wird, dass es über den hierin beschriebenen AC-gekoppelten Link übertragen wird, zu implementieren. Bei manchen Ausführungsformen kann ein beispielhaftes adaptives Filterverfahren Anwenden eines Filters bei einem über den AC-gekoppelten Link empfangenen Videosignal aufweisen, um ein korrigiertes Videosignal zu erzeugen, wobei eine Transferfunktion des Filters von einem Linkparameter (α-Parameter) abhängt, der auf mehreren Parametern des AC-gekoppelten Links (wie etwa verschiedenen Widerständen und Kapazitäten des AC-gekoppelten Links) basiert. Das Verfahren kann ferner Extrahieren eines vordefinierten (d. h. bekannten) Inhalts aus dem korrigierten Videosignal (das als die Testimpulse implementiert werden kann, die in die Downstream-Richtung vom Sender zum Empfänger bereitgestellt werden) und Anpassen des Linkparameters α basierend auf einem Vergleich des extrahierten vordefinierten Inhalts mit einem gewissen erwarteten Inhalt (d. h. einem erwarteten vordefinierten/bekannten Inhalt) aufweisen, sodass der angepasste Übertragungsparameter für eine oder mehrere anschließende Anwendungen des Filters verwendet werden kann, wodurch ein adaptives Filter umgesetzt wird. Das Verwenden eines adaptiven Filters zum Kompensieren des SAG-Effekts kann vorteilhafterweise ein Berücksichtigen von Änderungen in den Werten der Parameter des AC-gekoppelten Links aufgrund von Prozess- und/oder Spannungs- und/oder Temperaturvariationen (PVT-Variationen) ermöglichen, was zu verbesserten SAG-Kompensationsergebnissen im Vergleich zu Ansätzen des Stands der Technik führt. Es sollte angemerkt werden, dass, obwohl bei manchen Ausführungsformen derartige Testimpulse als Teil von Steuerdaten angesehen werden können, die in die Downstream-Richtung bereitgestellt werden, da sie zusätzlich zum Videosignal bereitgestellt werden, derartige Testimpulse bei anderen Ausführungsformen Teil des Videosignals sein können, z. B. Horizontal- und/oder Vertikal-Synchronisationsimpulse, in welchem Fall sie als Teil des Videosignals im Gegensatz zu „Steuerdaten“ an sich angesehen werden können. In jedem Fall können die Testimpulse, die vom Sender zum Empfänger bereitgestellt werden, um einen „bekannten Inhalt“ bereitzustellen, der dem Empfänger ermöglicht, eine SAG-Effekt-Kompensation durchzuführen, als Downstream-Daten angesehen werden, die in geeigneten Zeitfenstern über den AC-gekoppelten Video-und-Steuerung-Link bereitgestellt werden, wie hierin beschrieben.
-
Bei einem weiteren Beispiel könnten die Downstream-Daten bei manchen Ausführungsformen auch einen Testimpuls oder mehrere Testimpulse enthalten, die entweder dieselben sein können wie die Impulse, die zum Anwenden einer oder mehrerer SAG-Kompensationstechniken verwendet werden, oder sich von diesen unterscheiden können. Die mehreren oben beschriebenen Testimpulse können verwendet werden, um den Empfänger zu unterstützen, eine oder mehrere Entzerrungstechniken zur Kompensation einer Inter-Symbolstörung, die durch die beschränkte Bandbreite des Übertragungskanals verursacht wird, und/oder zur Kompensation von Reflexionen, die durch eine Impedanzfehlanpassung zwischen dem Kabel und Abschlusswiderständen oder zwischen unterschiedlichen Abschnitten des Übertragungskabels verursacht werden, anzuwenden, und/oder dem Empfänger zu ermöglichen, Taktphasenwiederherstellungstechniken anzuwenden, sodass jedes Pixel auf dem Link individuell und an einem Punkt, bei dem es sich an einem stabilen Wert anstatt im Übergang zwischen benachbarten Pixelwerten befindet, abgetastet wird. Ähnlich zu den oben beschriebenen Testimpulsen zur SAG-Kompensation können der eine oder die Testimpulse, die dem Empfänger zum Implementieren von Entzerrungstechniken, zum Kompensieren von Reflexionen und/oder zum Anwenden von Taktphasenwiederherstellungstechniken bereitgestellt werden, bei manchen Ausführungsformen als Teil von Steuerdaten angesehen werden, die in die Downstream-Richtung bereitgestellt werden, da sie zusätzlich zu dem Videosignal bereitgestellt werden, während derartige Testimpulse bei anderen Ausführungsformen Teil des Videosignals sein können.
-
Beispielhaftes Videosystem
-
9 veranschaulicht ein beispielhaftes Videosystem 900 gemäß manchen Ausführungsformen der vorliegenden Offenbarung. Wie in 9 dargestellt, kann das beispielhafte System 900 einen Sender 910 und einen Empfänger 920 aufweisen, die durch einen AC-gekoppelten Link 930 gekoppelt sind. Der AC-gekoppelte Link 930 kann ein beliebiges geeignetes verdrahtetes Leiterkabel sein, z. B. das oben beschriebene Single-Ended-Leiterkabel 108 oder das Differenzpaar-Kabel 208.
-
Wie in 9 dargestellt, kann der Sender 910 einen Videosignalgenerator 912 aufweisen oder kommunikativ mit diesem gekoppelt sein. Der Videosignalgenerator 912 kann ein beliebiges geeignetes Mittel zum Erzeugen eines Signals aufweisen, das über den AC-gekoppelten Link 930 zum Empfänger 920 zu übertragen ist. Bei manchen Ausführungsformen kann der Videosignalgenerator 912 zum Beispiel einen beliebigen geeigneten Sensor, einen beliebigen geeigneten ISP oder eine beliebige geeignete Kamera (die mehrere Kameras enthalten kann) aufweisen, der bzw. die dazu ausgebildet ist, ein Videosignal (das mehrere Videosignale enthalten kann) zu erfassen. Bei anderen Ausführungsformen kann der Signalgenerator 912 ein Mittel zum Erzeugen eines computererzeugten Videosignals aufweisen.
-
Wie ferner in 9 dargestellt, kann der Sender 910 auch einen oder mehrere Wandler 914 aufweisen oder kommunikativ mit diesen gekoppelt sein. Die Wandler 914 können Digital-Analog-Wandler (DACs) und/oder Analog-Digital-Wandler (ADCs) aufweisen und können mit Taktsignalen versehen werden, die durch einen Taktgenerator 919 z. B. unter Steuerung des Prozessors 915 erzeugt werden.
-
Wie hierin verwendet, bezieht sich der Ausdruck „DAC“ auf eine elektronische Schaltung/Einrichtung, die einen digitalen Wert, der eine Amplitude einer kontinuierlichen physikalischen Größe repräsentiert, zu einem entsprechenden analogen Wert umwandelt. Bei manchen Ausführungsformen können der eine oder die mehreren DACs in den Wandlern 914 dazu ausgebildet sein, ein digitales Signal, das durch den Signalgenerator 912 erzeugt wird, zu empfangen, z. B. ein digitales Videosignal, das digitale Pixelwerte, wie durch die Kamera erfasst, aufweist, zu empfangen, und die digitalen Werte (d. h. zeitdiskrete und amplitudendiskrete Werte des digitalen Signals) zu einem zeitkontinuierlichen und amplitudenkontinuierlichen Analogsignal umzuwandeln. Bei manchen Ausführungsformen können der eine oder die mehreren DACs in den Wandlern 914 dazu ausgebildet sein, eine verarbeitete Version des durch den Signalgenerator 912 erzeugten digitalen Signals, z. B. wie durch die Senderlogik 916 verarbeitet, um wie hierin beschriebene Downstream-Steuerdaten (z. B. Metadaten) einzuschließen, die zur Übertragung in einer beliebigen der hierin beschriebenen Übertragungssequenzen gebildet sind, zu empfangen und dieses Signal zur analogen Domäne zur AC-gekoppelten Übertragung über den AC-gekoppelten Link 930 zum Empfänger umzuwandeln.
-
Wie hierin verwendet, bezieht sich der Ausdruck „ADC“ auf eine elektronische Schaltung/Einrichtung, die eine kontinuierliche physikalische Größe, die durch ein analoges Signal geführt wird, in eine digitale Zahl, die die Amplitude der Größe repräsentiert (oder zu einem digitalen Signal, das diese digitale Zahl führt), umwandelt. Das Ergebnis ist eine Sequenz von digitalen Werten (d. h. ein Digitalsignal), die ein zeitkontinuierliches und amplitudenkontinuierliches analoges Eingangssignal in ein zeitdiskretes und amplitudendiskretes digitales (Einzelbit- oder Mehrbit-) Signal umgewandelt hat. Im Fall des einen oder der mehreren ADCs in den Wandlern 914, die im Videosystem 900 verwendet werden, kann das derzeitig umgewandelte analoge Eingangssignal die Upstream-Steuerdaten sein, die vom Empfänger 920 über den AC-gekoppelten Video-und-Steuerung-Link 930, wie hierin beschrieben, empfangen werden, um z. B. weiter in digitaler Form durch die Senderlogik 916 verarbeitet zu werden.
-
Wie auch in 9 dargestellt, kann der Sender 910 ferner eine Senderlogik 916 aufweisen oder kommunikativ mit dieser gekoppelt sein. Die Senderlogik 916 kann in Hardware, Software, Firmware oder einer beliebigen geeigneten Kombination von einer oder mehreren von diesen implementiert werden, und kann dazu ausgebildet sein, den Betrieb des Senders 910 zu steuern, wie hierin beschrieben. Zu diesem Zweck kann die Senderlogik 916 mindestens einen Prozessor 915 und mindestens ein Speicherelement 917 zusammen mit einer beliebigen anderen geeigneten Hardware und/oder Software nutzen, um ihre beabsichtigte Funktionalität zu ermöglichen, wie hierin beschrieben. Ein Teil der Funktionalität der Senderlogik 916 kann Agieren als ein Scheduler zum Planen von zumindest manchen der Zeitfenster sowie zum Erstellen von Video- und Steuerdaten zur Übertragung über den AC-gekoppelten Link 930 zum Empfänger enthalten, wie hierin beschrieben. Bei manchen Ausführungsformen kann der Prozessor 915 Software oder einen Algorithmus ausführen, um die wie in der vorliegenden Offenbarung besprochenen Aktivitäten durchzuführen, der Prozessor 915 kann z. B. die Algorithmen ausführen, die die Digital-Analog-Umwandlung von Signalen, die durch den Signalgenerator 912 zur Übertragung über den analogen Übertragungslink 930 erzeugt werden, steuern, und/oder die Algorithmen ausführen, die die Analog-Digital-Umwandlung von Upstream-Steuerdaten, die vom Empfänger 920 über den analogen Übertragungslink 930 empfangen werden, steuern. Bei einem anderen Beispiel kann der Prozessor 915 Algorithmen ausführen, die die Erzeugung und Übertragung von Downstream-Steuerdaten (z. B. Metadaten, verschiedene Bestätigungen usw.) zum Empfänger 920 steuern, wie hierin beschrieben. Weitere Beschreibungen des Prozessor 915 und des Speicherelements 917 sind unten bereitgestellt.
-
In 9 ist auch dargestellt, dass der Sender 910 auch einen Übertragungs(TX)- und Empfangs-(RX)- d. h. TX/RX-Schaltkreis 918 zum Übertragen von Video- und Downstream-Steuerdaten zum Empfänger 920 und zum Empfangen von Upstream-Steuerdaten vom Empfänger 920 über den analogen Übertragungslink 930 aufweisen kann oder damit kommunikativ gekoppelt sein kann. Insbesondere kann der TX/RX-Schaltkreis 918 Komponenten aufweisen, um eine AC-gekoppelte Übertragung von Übertragungssequenzen mit Video- und Downstream-Steuerdaten in ihren zugewiesenen Zeitfenstern zu ermöglichen, wie hierin beschrieben. Bei manchen Ausführungsformen kann der TX/RX-Schaltkreis 918 eine derartige Übertragungssequenz von z. B. dem DAC in den Wandlern 914 erhalten, wobei die Übertragungssequenzen durch die Senderlogik 916 verarbeitet (z. B. erstellt) werden. Des Weiteren kann der TX/RX-Schaltkreis 918 Komponenten aufweisen, um einen AC-gekoppelten Empfang von Upstream-Steuerdaten innerhalb beliebiger der Übertragungssequenzen in zugewiesenen Zeitfenstern zu ermöglichen, wie hierin beschrieben. Bei manchen Ausführungsformen kann der TX/RX-Schaltkreis 918 derartige Upstream-Steuerdaten dem ADC in den Wandlern 914 und/oder direkt der Senderlogik 916 zur weiteren Verarbeitung bereitstellen, wie hierin beschrieben. Bei manchen Ausführungsformen können Komponenten des TX/RX-Schaltkreises 918 Kopplungskondensatoren, z. B. Kopplungskondensatoren an der Senderseite, wie hierin unter Bezugnahme auf die 1 und 2 beschrieben, sowie einen beliebigen anderen Schaltkreis, wie in der Technik bekannt, aufweisen, der zur AC-gekoppelten analogen Übertragung und zum AC-gekoppelten analogen Empfangen von Signalen zu verwenden ist.
-
Jetzt mit Bezug auf die Empfangsseite des Videosystems 900, wie in 9 dargestellt, kann der Empfänger 920 einen TX/RX-Schaltkreis 928, eine Empfängerlogik 926, einen oder mehrere Wandler 924 und optional eine Videokonsumeinrichtung 922 aufweisen oder mit diesen kommunikativ gekoppelt sein. Die Videokonsumeinrichtung 922 kann bei manchen Ausführungsformen eine Videoverarbeitungseinrichtung sein, wie etwa ein ISP, eine Videoanalyseeinrichtung, wie etwa ein ADAS-Prozessor, oder eine Videowiedergabeeinrichtung, wie etwa eine Anzeige.
-
Ähnlich zu den Wandlern 914 können die Wandler 924 einen oder mehrere ADCs und einen oder mehrere DACs aufweisen und können mit Taktsignalen versehen werden, die durch einen Taktgenerator 929 z. B. unter Steuerung des Prozessors 925 erzeugt werden. Im Fall des ADC in den Wandlern 924, die im Videosystem 900 verwendet werden, kann das derzeitig umgewandelte analoge Eingangssignal die Video-und Downstream-Steuerdatenübertragungssequenz sein, wie oben beschrieben, die vom Sender 910 über den AC-gekoppelten Video-und-Steuerung-Link 930 übertragen und durch den TX/RX-Schaltkreis 928 empfangen wird, um z. B. weiter in digitaler Form durch die Empfängerlogik 926 verarbeitet zu werden. Im Fall des DAC in den Wandlern 924, die im Videosystem 900 verwendet werden, kann das derzeitig umgewandelte digitale Eingangssignal die Upstream-Steuerdaten sein, wie oben beschrieben, die vom Empfänger 920 über den AC-gekoppelten Video-und-Steuerung-Link 930 zum Sender 910 zu übertragen sind.
-
Der TX/RX-Schaltkreis 928 kann dazu ausgebildet sein, Signale vom Sender 910 zu empfangen. Insbesondere kann der TX/RX-Schaltkreis 928 Komponenten aufweisen, um den Empfang von AC-gekoppelten Video- und Downstream-Steuerdaten in einer beliebigen der analogen Übertragungssequenzen zu ermöglichen, wie hierin beschrieben, um z. B. einem oder mehreren ADCs in den Wandlern 924 zur Umwandlung zu digital bereitgestellt zu werden und der Empfängerlogik 926 zur weiteren Verarbeitung, möglicherweise nach der Umwandlung durch den einen oder die mehreren Wandler 924, bereitgestellt zu werden. Zusätzlich dazu kann der TX/RX-Schaltkreis 928 dazu ausgebildet sein, Upstream-Steuersignale vom Empfänger 920 zum Sender 910 in zugewiesenen Zeitfenstern innerhalb Übertragungssequenzen zu übertragen, wie hierin beschrieben. Bei manchen Ausführungsformen können Komponenten des TX/RX-Schaltkreises 928 Kopplungskondensatoren, z. B. Kopplungskondensatoren an der Empfängerseite, wie hierin unter Bezugnahme auf die 1 und 2 beschrieben, sowie einen beliebigen anderen Schaltkreis, wie in der Technik bekannt, aufweisen, der zum Empfang und zur Übertragung von AC-gekoppelten analogen Signalen zu verwenden ist.
-
Ähnlich zu der Senderlogik 916 kann die Empfängerlogik 926 in Hardware, Software, Firmware oder einer beliebigen geeigneten Kombination von einer oder mehreren von diesen implementiert werden, und kann dazu ausgebildet sein, den Betrieb des Empfängers 920 zu steuern, wie hierin beschrieben. Zu diesem Zweck kann die Empfängerlogik 926 mindestens einen Prozessor 925 und mindestens ein Speicherelement 927 zusammen mit einer beliebigen anderen geeigneten Hardware und/oder Software nutzen, um ihre beabsichtigte Funktionalität zu ermöglichen, wie hierin beschrieben. Bei manchen Ausführungsformen kann der Prozessor 925 Software oder einen Algorithmus ausführen, um die wie in der vorliegenden Offenbarung besprochenen Aktivitäten durchzuführen, der Prozessor 925 kann z. B. die Algorithmen durchführen, die die Analog-Digital-Umwandlung von Signalen, die durch den TX/RX-Schaltkreis 928 empfangen werden, nachdem sie über den analogen Übertragungslink 930 übertragen wurden, möglicherweise nachdem sie durch den ADC 924 zur digitalen Domäne umgewandelt wurden, steuern. Des Weiteren kann der Prozessor 925 Algorithmen ausführen, die den Empfang und die Verarbeitung von Downstream-Steuerdaten vom Sender 910 steuern, wie hierin beschrieben. Des Weiteren kann der Prozessor 925 Algorithmen ausführen, die an die im Downstream-Signal eingebetteten Synchronisationssignale feststellen und die Erzeugung eines zeilenfestgestellten Linktaktes durch den Taktgenerator 929 steuern, der zum Gewährleisten einer pixelgenauen Abtastung des Downstream-Signals durch den ADC in den Wandlern 924 verwendet wird. Weiterhin kann der Prozessor 925 Algorithmen ausführen, die die Übertragung und die Verarbeitung von Upstream-Steuerdaten zur Übertragung vom Empfänger 920 zum Sender 910 steuern, wie hierin beschrieben. Weitere Beschreibungen des Prozessor 925 und des Speicherelements 927 sind unten bereitgestellt.
-
Jeder der Prozessoren 915, 925 kann dazu ausgebildet sein, über einen oder mehrere Interconnects oder Busse kommunikativ mit anderen Systemelementen gekoppelt zu werden. Ein derartiger Prozessor kann eine beliebige Kombination von Hardware, Software oder Firmware, die eine programmierbare Logik bereitstellt, aufweisen, einschließlich eines Mikroprozessors, eines Digitalsignalprozessors (DSP), eines feldprogrammierbaren Gate-Arrays (FPGA), eines programmierbaren Logik-Arrays (PLA), einer anwendungsspezifischen IC (ASIC) oder eines virtuellen Maschinenprozessors als nichtbeschränkendes Beispiel. Der Prozessor 915 kann kommunikativ mit dem Speicherelement 917 gekoppelt sein, während der Prozessor 925 kommunikativ mit dem Speicherelement 927 gekoppelt sein kann, zum Beispiel in einer Direktspeicherzugriff(DMA)-Konfiguration. Jedes der Speicherelemente 917, 927 kann eine beliebige flüchtige oder nichtflüchtige Speichertechnologie aufweisen, einschließlich Double-Data-Rate(DDR)-Random-Access-Memory(RAM), Synchronous-RAM (SRAM), Dynamic-RAM (DRAM), Flash, eines Nurlesespeichers (ROM), optischer Medien, virtueller Speichergebiete, eines Magnet- oder Bandspeichers oder einer beliebigen anderen geeigneten Technologie. Sofern nicht anders vorgegeben, sollten beliebige der hierin besprochenen Speichergegenstände als innerhalb des breiten Ausdrucks „Speicherelement“ eingeschlossen aufgefasst werden.
-
Die Informationen, die in der einen oder den mehreren Komponenten/dem einen oder den mehreren Elementen des Senders 910 und des Empfängers 920 verfolgt oder an diese gesendet werden, könnten in einer/einem beliebigen Datenbank, Register, Steuerliste, Cache oder Speicherstruktur bereitgestellt und/oder gespeichert werden, die alle bei einem beliebigen geeigneten Zeitrahmen referenziert werden können. Jegliche derartige Speicherungsoptionen können in dem breiten Ausdruck „Speicherelement“, wie hierin verwendet, enthalten sein und können zum Implementieren des Speicherelements 917 und/oder des Speicherelements 927 verwendet werden. Gleichermaßen sollten beliebige der potenziellen Verarbeitungselemente, Module und Maschinen, die hierin beschrieben sind, als innerhalb des breiten Ausdrucks „Prozessor“, wie hierin verwendet, eingeschlossen aufgefasst werden und können zum Implementieren des Prozessors 915 und/oder des Prozessor 925 verwendet werden. Jedes der in 9 dargestellten Elemente, z. B. der Signalgenerator 912, die Wandler 914, die Senderlogik 916, die Signalwiedergabe 922, die Wandler 924 oder die Empfängerlogik 926, kann auch geeignete Schnittstellen zum Empfangen, Übertragen und/oder anderweitigem Kommunizieren von Daten oder Informationen in einer Netzwerkumgebung entweder über einen verdrahteten oder drahtlosen Kommunikationslink aufweisen.
-
Bei gewissen Implementierungsbeispielen können Mechanismen zum Durchführen von Übertragungssequenzen zur Übertragung von Video- und Steuerdaten über einen AC-gekoppelten Link, wie hierin umrissen, durch eine Logik implementiert sein, die in einem oder mehreren greifbaren Medien codiert ist, die nichtflüchtige Medien einschließen können, z. B. eine eingebettete Logik, die in einer ASIC, in DSP-Anweisungen, Software (möglicherweise einschließlich Objektcode und Quellcode), die durch einen Prozessor auszuführen ist, oder einer anderen ähnlichen Maschine usw. bereitgestellt ist. Bei manchen dieser Fälle können Speicherelemente, wie etwa z. B. die in 9 dargestellten Speicherelemente 917 und 927, Daten oder Informationen speichern, die für die hierin beschriebenen Operationen verwendet werden. Dies schließt Speicherelemente ein, die dazu in der Lage sind, Software, Logik, Code oder Prozessoranweisungen zu speichern, die ausgeführt werden, um die hierin beschriebenen Aktivitäten durchzuführen. Ein Prozessor kann einen beliebigen Typ von Anweisungen ausführen, die mit den Daten oder Informationen assoziiert sind, um die hierin ausführlich beschriebenen Operationen zu erzielen. Bei einem Beispiel könnten die Prozessoren, wie etwa z. B. die in 9 dargestellten Prozessoren 915 und 925, ein Element oder einen Artikel (z. B. Daten) von einem Zustand oder Gegenstand zu einem anderen Zustand oder Gegenstand transformieren. Bei einem anderen Beispiel können die hierin dargelegten Aktivitäten mit einer festen Logik oder programmierbaren Logik (z. B. Software/Computeranweisungen, die durch einen Prozessor ausgeführt werden) implementiert werden und könnten die hierin identifizierten Elemente irgendein Typ eines programmierbaren Prozessors, einer programmierbaren digitalen Logik (z. B. ein FPGA, ein DSP, ein löschbarer programmierbarer Nurlesespeicher (EPROM), ein elektrisch löschbarer programmierbarer Nurlesespeicher (EEPROM)) oder eine ASIC sein, der/die digitale Logik, Software, Code, elektronische Anweisungen oder eine beliebige geeignete Kombination davon aufweist.
-
Beispielhaftes Datenverarbeitungssystem
-
10 stellt ein Blockdiagramm bereit, das ein beispielhaftes Datenverarbeitungssystem zum Implementieren der Erzeugung, des Scheduling, und der Packung von Video- und Steuerdaten zur Übertragung über einen AC-gekoppelten HD-Video-und-Steuerung-Link (z. B. den Link 930), wie hierin offenbart, veranschaulicht, gemäß manchen Ausführungsformen der vorliegenden Offenbarung. Ein derartiges Datenverarbeitungssystem könnte dazu ausgebildet sein, um z. B. als die hierin beschriebene Senderlogik 916 und/oder als die Empfängerlogik 926 oder als ein beliebiges anderes System zu fungieren, das dazu ausgebildet ist, verschiedene verbesserte Mechanismen bezüglich des Scheduling von Zeitfenstern zur Übertragung eines Videos und von bidirektionalen Steuerdaten als AC-gekoppelte Signale zu implementieren, wie hierin offenbart.
-
Wie in 10 dargestellt, kann das Datenverarbeitungssystem 1000 mindestens einen Prozessor 1002 aufweisen, der über einen Systembus 1006 mit Speicherelementen 1004 gekoppelt ist. Von daher kann das Datenverarbeitungssystem Programmcode innerhalb der Speicherelemente 1004 speichern. Ferner kann der Prozessor 1002 den Programmcode ausführen, auf den von den Speicherelementen 1004 über einen Systembus 1006 zugegriffen wird. Bei einem Aspekt kann das Datenverarbeitungssystem als ein Computer implementiert sein, der zum Speichern und/oder Ausführen von Programmcode geeignet ist. Es versteht sich jedoch, dass das Datenverarbeitungssystem 1000 in der Form eines beliebigen Systems einschließlich eines Prozessors und eines Speichers implementiert sein kann, das zum Durchführen der innerhalb der vorliegenden Offenbarung beschriebenen Funktionen in der Lage ist.
-
Bei manchen Ausführungsformen kann der Prozessor 1002 der Prozessor 915 sein und die Speicherelemente 1004 können die Speicherelemente 917 des Senders 910 des in 9 dargestellten Videosystems 900 sein, wie oben beschrieben. Bei manchen Ausführungsformen kann der Prozessor 1002 der Prozessor 925 sein und die Speicherelemente 1004 können die Speicherelemente 927 des Empfängers 920 des in 9 dargestellten Videosystems 900 sein, wie oben beschrieben.
-
Die Speicherelemente 1004 können eine oder mehrere physische Speichereinrichtungen aufweisen, wie etwa zum Beispiel einen lokalen Speicher 1008 und eine oder mehrere Massenspeicherungseinrichtungen 1010. Der lokale Speicher kann auf einen RAM oder (eine) andere nichtbeständige Speichereinrichtung(en) verweisen, die allgemein während einer tatsächlichen Ausführung des Programmcodes verwendet wird (werden). Eine Massenspeicherungseinrichtung kann als eine Festplatte oder eine andere beständige Datenspeicherungseinrichtung implementiert sein. Das Verarbeitungssystem 1000 kann auch einen oder mehrere (nicht dargestellte) Cache-Speicher aufweisen, die eine temporäre Speicherung von zumindest etwas Programmcode bereitstellen können, um die Anzahl an Malen zu reduzieren, die Programmcode während der Ausführung aus der Massenspeicherungseinrichtung 1010 abgerufen werden muss.
-
Eingabe/Ausgabe(E/A)-Einrichtungen, die als eine Eingabeeinrichtung 1012 und eine Ausgabeeinrichtung 1014 dargestellt sind, können optional mit dem Datenverarbeitungssystem gekoppelt sein. Beispiele für Eingabeeinrichtungen können unter anderem eine Tastatur, eine Zeigeeinrichtung, wie etwa eine Maus, oder dergleichen einschließen. Beispiele für Ausgabeeinrichtungen können unter anderem einen Monitor oder eine Anzeige, Lautsprecher oder dergleichen einschließen. Eingabe- und/oder Ausgabeeinrichtungen können entweder direkt oder durch dazwischenliegende E/A-Steuerungen mit dem Datenverarbeitungssystem gekoppelt sein.
-
Bei einer Ausführungsform können die Eingabe- und die Ausgabeeinrichtungen als eine kombinierte Eingabe/Ausgabe-Einrichtung (in 10 mit einer gestrichelten Linie veranschaulicht, die die Eingabeeinrichtung 1012 und die Ausgabeeinrichtung 1014 umgibt) implementiert sein. Ein Beispiel für eine solche kombinierte Einrichtung ist eine berührungsempfindliche Anzeige, manchmal auch als „Berührungsbildschirmanzeige“ oder einfach „Berührungsbildschirm“ bezeichnet. Bei einer derartigen Ausführungsform kann eine Eingabe in die Einrichtung durch eine Bewegung eines physischen Objekts, wie etwa z. B. eines Eingabestifts oder eines Fingers eines Benutzers, auf oder nahe der Berührungsbildschirmanzeige bereitgestellt werden.
-
Wenn in einem Videosystem gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung verwendet, z. B. in dem in 9 dargestellten Videosystem 900, kann die Eingabeeinrichtung 1012 zum Empfangen einer Eingabe, z. B. wie durch einen Benutzer bereitgestellt, und zum Konfigurieren des Videosystems 900 gemäß der Benutzereingabe verwendet werden. Der Sender 910 und der Empfänger 920 des Videosystems 900 können dann gemäß der durch die Eingabeeinrichtung 1012 empfangenen Eingabe konfiguriert werden.
-
Ein Netzwerkadapter 1016 kann auch optional mit dem Datenverarbeitungssystem gekoppelt sein, um zu ermöglichen, dass es mit anderen Systemen, Computersystemen, entfernten Netzwerkvorrichtungen und/oder entfernten Speicherungseinrichtungen durch dazwischenliegende private oder öffentliche Netzwerke gekoppelt wird. Der Netzwerkadapter kann einen Datenempfänger zum Empfangen von Daten, die durch die Systeme, Einrichtungen und/oder Netzwerke an das Datenverarbeitungssystem 1000 übertragen werden, und einen Datensender zum Übertragen von Daten von dem Datenverarbeitungssystem 1000 an die Systeme, Einrichtungen und/oder Netzwerke aufweisen. Modems, Kabelmodems und Ethernet-Karten sind Beispiele für verschiedene Typen eines Netzwerkadapters, die mit dem Datenverarbeitungssystem 1000 verwendet werden können.
-
Wenn in einem Videosystem gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung verwendet, z. B. in dem in 9 dargestellten Videosystem 900, kann der Netzwerkadapter 1016 zum Empfangen einer Eingabe von anderen Systemen, Computersystemen, Fernnetzwerkeinrichtungen und/oder Fernspeicherungseinrichtungen über dazwischenliegende private oder öffentliche Netzwerke und zum Konfigurieren des Videosystems 900 gemäß der empfangenen Eingabe verwendet werden. Der Netzwerkadapter 1016 kann zum Beispiel dazu ausgebildet sein, Beispiele einer Eingabe, wie unter Bezugnahme auf die Eingabe beschrieben, die durch die Eingabeeinrichtung 1012 vom Benutzer empfangen wird, zu empfangen, mit der Ausnahme, dass sie jetzt von anderen Systemen, Computersystemen, Fernnetzwerkeinrichtungen und/oder Fernspeicherungseinrichtungen über dazwischenliegende private oder öffentliche Netzwerke empfangen werden würde. Der Sender 910 und der Empfänger 920 des Videosystems 900 können dann gemäß der durch den Netzwerkadapter 1016 empfangenen Eingabe konfiguriert werden.
-
Wie in 10 veranschaulicht, können die Speicherelemente 1004 eine Anwendung 1018 speichern. Bei verschiedenen Ausführungsformen kann die Anwendung 1018 in dem lokalen Speicher 1008, der einen oder den mehreren Massenspeicherungseinrichtungen 1010 oder getrennt von dem lokalen Speicher und den Massenspeicherungseinrichtungen gespeichert sein. Es versteht sich, dass das Datenverarbeitungssystem 1000 ferner ein (in 10 nicht dargestelltes) Betriebssystem ausführen kann, das eine Ausführung der Anwendung 1018 ermöglichen kann. Die Anwendung 1018, die in der Form von ausführbarem Programmcode implementiert ist, kann durch das Datenverarbeitungssystem 1000, z. B. durch den Prozessor 1002, ausgeführt werden. Als Reaktion auf das Ausführen der Anwendung kann das Datenverarbeitungssystem 1000 dazu ausgebildet sein, eine oder mehrere hierin beschriebene Operationen oder Verfahrensschritte durchzuführen.
-
Weitere Variationen und Modifikationen
-
Es wird beabsichtigt, dass dieser Abschnitt weitere Einzelheiten und mögliche Variationen und Modifikationen an dem hierin beschriebenen Videosystem, z. B. dem Videosystem 900, insbesondere bezüglich der Video- und Steuerdatenübertragung über einen AC-gekoppelten HD-Übertragungslink, z. B. den Link 930, bereitstellt, wie hierin beschrieben.
-
11 stellt ein schematisches Diagramm eines Codierungsschemas/Codierers 1100 gemäß manchen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 11 abgebildet, können digitale Videoeingangsdaten, die RGB-Videodaten, YUV-Videodaten oder beliebige andere Farbraumdaten sein können, die möglicherweise durch einen ISP verarbeitet werden, einem Codierer als Videokomponententeile (im Gegensatz zu einem zusammengesetzten Video) bereitgestellt werden. Bei manchen Ausführungsformen kann der Codierer 1100 der oben beschriebene Sender 910 sein. Die Videokomponententeile sind in 11 als Signale 1104a, 1104b und 1104c bezeichnet und können z. B. eine Luminanzkomponente 1104a (z. B. Y- oder Y'-Luminanzkomponente) und Farbdifferenzsignale 1104b und 1104c (z. B. Farbdifferenzsignale U und V oder Pb- und Pr-Signale) aufweisen. Alternativ dazu können die Komponententeile G-, R- und B-Komponenten von RAW-Eingangsdaten aufweisen.
-
Bei manchen Ausführungsformen kann die Abtastrate der U- und V(Chrominanz)-Komponententeile bezüglich des Y(Luminanz)-Komponententeils zum Beispiel Folgendes sein: 4:4:4 (kein Herunterabtasten der Chrominanzkanäle), horizontales Herunterabtasten von 4:2:2 (oder 2:1) ohne vertikalem Herunterabtasten, das heißt jede Scanzeile enthält vier Y-Abtastungen für jede zwei U oder V-Abtastungen, horizontales Herunterabtasten von 4:2:0 (oder 2:1) mit einem vertikalen Herunterabtasten von 2:1, horizontales Herunterabtasten von 4:1:1 (oder 4:1) ohne vertikalem Herunterabtasten. Analoge Schemen können bei Videokomponenten 1104 außer YUV-Komponenten anwendbar sein. Bei verschiedenen Ausführungsformen kann eine beliebige Größe oder ein beliebiger Grad an vertikalem Herunterabtasten und/oder horizontalem Herunterabtasten alleine oder in Kombination eingesetzt werden, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen.
-
Die Daten können in den Codierer über eine parallele oder serielle digitale Schnittstelle/einen parallelen oder seriellen digitalen Port eintreten, die bzw. der den Bildsensor mit dem Codierer verbindet. Eine serielle digitale Schnittstelle kann vorteilhafterweise weniger Stifte zur Datenübertragung als eine parallele digitale Schnittstelle erfordern. Signale können von einer/einem einzigen oder mehreren Kameras oder Bildsensoren empfangen werden. In einem ADAS-System können Kameras zum Beispiel an unterschiedlichen Teilen des Fahrzeugs angeordnet sein, die jeweils in eine andere Richtung zeigen (obwohl ihre Blickfelder überlappen können). In einem derartigen Fall können die durch die verschiedenen Bildsensoren erzeugten Signale in sequenzieller Form bereitgestellt werden oder können alternativ kombiniert oder eingefügt werden. Zusätzlich dazu können die eine oder die mehreren Kameras/der eine oder die mehreren Bildsensoren innerhalb eines Systems statisch sein (das heißt immer in dieselbe Richtung zeigen) oder sie können dynamisch sein (die Richtung basierend auf einer mechanischen oder manuellen Eingabe durch einen Benutzer oder basierend auf einer automatisierten Eingabe, die durch eine Steuereinrichtung ausgeführt wird, ändern) oder können eine Kombination von beiden sein. Die Ausdrücke Kamera und Bildsensor können durchweg der Offenbarung austauschbar als die Quelle von zu übertragenden Videodaten verwendet werden.
-
Die Komponentenvideoteile 1104a, 1104b und 1104c können jeweiligen Datenpufferblöcken 1106a, 1106b und 1106c bereitgestellt werden. Bei manchen Ausführungsformen können die Datenpufferblöcke 1106a, b, c zum Beispiel FIFO(First In First Out)-Datenpuffer aufweisen. Den Puffern 1106 kann ein Taktsignal 1102 bereitgestellt werden. Bei manchen Ausführungsformen kann das Taktsignal 1102 über einen Phasenregelkreis (PLL: Phase-Locked Loop) 1105 bereitgestellt werden, der zum Beispiel dazu ausgebildet sein kann, die Eingangstaktfrequenz zu verdoppeln oder die Eingangstaktfrequenz mit einem vordefinierten und/oder benutzerdefinierten Faktor (zum Beispiel einem Faktor von 2 oder einem anderen ganzzahligen oder nicht ganzzahligen Vielfachen) zu multiplizieren.
-
Bei einigen Ausführungsformen können die Komponentenvideoteile 1104a, b, c vor dem Puffern jeweiligen Tiefpassfiltern (LPF: Low Pass Filter) 1108a, b, c bereitgestellt werden. Die LPFs 1108 können für jeden der Komponententeile/jedes der Komponentensignale anders konfiguriert sein. Das LPF für die Luminanzkomponente kann zum Beispiel umgangen werden oder kann anderweitig dazu ausgebildet sein, eine Vollabtastrate unterzubringen (das heißt keine Dezimierung), während das LPF für die Chrominanz(Farbdifferenz)-Komponenten eine Filterung und ein Herunterabtasten anwenden können, sodass sie eine Bandbreite und Ausgangsdatenrate aufweisen, die nur die Hälfte oder ein anderer Anteil von jener des Luminanzsignals ist. Die unterschiedlichen LPF-Raten können die Zuweisungsanteile der unterschiedlichen Komponententeile in der Videozeile widerspiegeln, die vom Sender zum Empfänger zu übertragen sind, wie oben beschrieben.
-
Darüber hinaus kann ein Timing-Erzeugungssignal bei Block 1112 aus einem Synchronisationsimpulssignal S erzeugt werden und dieses Timing-Erzeugungssignal kann auch dem Multiplexerblock 1110 bereitgestellt werden. Der Block 1112 kann auch zum Erzeugen von Downstream-Steuerdaten verantwortlich sein, die vom Sender zum Empfänger in den jeweiligen zugewiesenen Zeitfenstern bereitzustellen sind, wie oben beschrieben.
-
Die Ausgangssignale der Datenpuffer können im Anschluss mindestens einem Multiplexer 1110 für Zeitmultiplexing bereitgestellt werden (unterschiedliche Multiplexing-Anordnungen können verwendet werden), sowie das Ausgangssignal vom Steuerdaten-/Sync-Block 1112 (der Steuerdaten sowie das Synchronisationssignal aufweist), um eine gemultiplexte Signalausgabe zu erzeugen. Somit können die Steuerdaten und das Synchronisationssignal mit den Videodatenkomponententeilsignalen zeitgemultiplext werden, z. B. wie oben unter Bezugnahme auf das Verfahren 500 beschrieben.
-
In dem Steuerdaten-und-Synchronisationssignal-Kombinations-/Erfassungsblock 1120 können das digitale Synchronisationssignal und die Downstream-Steuerdaten kombiniert und dem Multiplexer 1110 bereitgestellt werden. Eine Anzahl von leeren Pixeln kann an ihren jeweiligen Stellen hinzugefügt werden. Bei verschiedenen Ausführungsformen können Steuerdaten von verschiedenen Quellen gesammelt werden, wie etwa I2C, einer SPI (Serial Peripheral Interface - serielle Peripherieschnittstelle), einem GPIO (General Purpose Input/Output - Allgemeinzweck-Eingang/Ausgang) und anderen Schnittstellen/Links, und können formatiert und in Steuerpakete gepackt werden, möglicherweise mit Fehlerschutz-/-detektionscodes, die erzeugt werden und enthalten sind, um Robustheit bei der Übertragung bereitzustellen. Die Steuerdaten können Senderdaten, Empfängerantwortdaten und/oder eine Kombination davon aufweisen. Empfängerdaten RD (Upstream) können auch bei Block 1120 empfangen und zu Komponenten, die sich extern zum Codierer befinden, weitergeleitet werden. Senderausgangsdaten können am Ausgang des DAC-Blocks 1118 erzeugt werden. Ein Übertragungsdatensignal TD kann auch einem FIFO-Puffer 1126 und anschließend dem Steuerdaten-und-Synchronisationssignal-Kombinationsblock 1120 bereitgestellt werden. Die Downstream-Steuerdaten/-Pakete können in ihre zugewiesenen Zeitfenster innerhalb der Videozeile eingefügt werden. Es kann mehrere Upstream- und mehrere Downstream-Steuerzeitfenster pro Videozeile geben, um eine niedrigere Latenz/einen höheren Durchsatz von Steuerdaten auf Systemebene zu ermöglichen.
-
Das resultierende zeitgemultiplexte Signal kann einem DAC-Block 1118, z. B. dem DAC, der als einer der in 9 dargestellten Wandler in 914 implementiert wird, zur Umwandlung in ein analoges Format vor der Übertragung bereitgestellt werden. Ein codiertes Analogsignal 1124 kann schließlich durch den Codierer 1100 ausgegeben werden und das kombinierte Linksignal 1124, das sowohl die durch den DAC-Block 1118 des Senders downstream-angesteuerten Daten als auch die durch den Fernempfänger upstream-angesteuerten Daten aufweist, wird über den Analog-Digital-Umwandlungsblock 1122 zurück in den Codierer eingespeist, um die Upstream-Steuerdaten zu decodieren.
-
Optional kann das zeitgemultiplexte Signal bei manchen Ausführungsformen einem Verstärkungs-/Offsetanpassungsblock 1114 bereitgestellt werden. Auf diese Art und Weise kann eine Verstärkungs-/Offsetanpassung dem Signal in seiner digitalen Form vor der analogen Umwandlung bereitgestellt werden. Dies kann vorteilhafterweise eine digitale Übersetzung der Videosignalpegel bereitstellen, um Platz für den Hs-Horizontal-Synchronisationsimpuls entfernt vom (unter dem) aktiven Video zu lassen. Alternativ oder zusätzlich dazu kann die Signalverstärkungs-/Offsetanpassung nach der Digital-Analog-Umwandlung bereitgestellt werden.
-
Bei manchen Ausführungsformen kann das zeitgemultiplexte Signal optional einem Interpolationsblock 1116 vor dem Bereitstellen von diesem für den DAC-Block 1118 und irgendwelchen Verstärkungs-/Offsetblöcken bereitgestellt werden. Dies kann vorteilhafterweise das Signal vor der Digital-Analog-Umwandlung verbessern und kann vorteilhafterweise die Frequenz seiner Spektralbilder erhöhen, was zu einem vorzugsweise elektromagnetischen Emissionsspektrum führt und die Möglichkeit von Aliasing-Artefakten an den wiederhergestellten Daten im Empfänger reduziert.
-
Bei manchen Ausführungsformen kann das Videosignal ein 720p-Videostrom mit progressiver Abtastung sein, der zeitgemultiplexte Y-, U- und V-Komponenten aufweist, die bei einer Frequenz von 148,5 Megahertz (MHz) ausgegeben/getaktet werden können, wodurch 1280 Y-Abtastungen, 640 U-Abtastungen, 640 V-Abtastungen sowie 740 Sync-/Austastungs-/Daten-/Audioabtastungen erzeugt werden (die zwischen dem Sender und dem Empfänger aufgeteilt sind). Bei manchen Ausführungsformen können die U- und V-Chrominanzkomponenten somit herunterabgetastet werden/eine niedrigere Abtastrate als die Luminanzkomponente aufweisen, ohne einen wesentlichen Verlust der Wahrnehmungsqualität. Diese Abtastungen können zusammengruppiert und zeitgemultiplext werden, um ein Videosignal mit einer Videozeilendauer von etwa 22,2 Mikrosekunden (µs) zu bilden.
-
Bei manchen derartige Ausführungsformen kann die Größe von FIFOs 1106 zum Beispiel dazu eingerichtet sein, mindestens eine volle Zeile unterschiedlicher Kombinationen von Y-, U- und V-Komponentenabtastungen (ausschließlich Filterlatenz, das heißt der zeitlichen Differenz zwischen dem Eingang und der Antwort) bei jeweils 8 Bits und 740 Abtastungen von anderen Daten bei jeweils 4 Bits unterzubringen. Zusätzliche Bits pro (z. B. 10, 12 oder 14) können zugewiesen werden, falls die eingegebenen digitalen Videodaten RAW-Bildsensordaten sind. Das Eingangsvideosignal oder die Eingangsvideozeile kann eine Taktfrequenz von 74,25 MHz aufweisen, während der Ausgang bei einer Taktfrequenz von 148,5 MHz wiedergegeben werden kann, wodurch die Daten schneller als die Eingangsrate ausgelesen werden können.
-
Bei manchen Ausführungsformen kann ein 1080p Videostrom mit progressiver Abtastung in Videozeilen mit einer Länge von 22,2 µs durch eine Abtastung mit einer Rate von 297 MHz oder 4400 Taktzyklen codiert werden, was zum Beispiel 1920 Y-Abtastungen, 960 U-Abtastungen, 960 V-Abtastungen und 560 Abtastungen, die zur Synchronisation, Austastung, Steuerdaten oder Audiodaten verwendet werden können, erzeugt.
-
Bei manchen Ausführungsformen kann das digitale Eingangsvideo ein verschachteltes digitales Video sein.
-
Die Decodierung-und-Codierung-Schemen gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung ermöglichen vorteilhafterweise die Übertragung von Steuerdaten in sowohl die Upstream- als auch Downstream-Richtung und verbessern ferner die Kommunikation zwischen dem Sender und dem Empfänger über das gemeinsame Nutzen und/oder den Austausch von Steuerdaten.
-
Steuerdaten, die an dem Empfänger erzeugt werden, können empfangen werden und über einen Sender/Empfänger-Steuerdatenblock zurück zum Sender gesendet werden (nachfolgend als der Sender-Empfänger-Datenaustauschblock bezeichnet). Derartige Daten können durch den Sender in analoger Form über den hierin beschriebenen AC-gekoppelten Link empfangen werden und müssen möglicherweise vor der Verarbeitung durch den Sender zu einem digitalen Signal umgewandelt werden. Jegliche relevanten Daten können zurück in das zeitgemultiplexte Signal zur (Neu-) Übertragung zeitgemultiplext werden.
-
Bei verschiedenen Ausführungsformen kann die Übertragung der Steuerdaten bei unterschiedlichen Raten in Abhängigkeit von der Art der Daten stattfinden. Konfigurationsdaten vom Empfänger, z. B. Daten von der ECU, der Head-Unit (HU) oder der Systemsteuerung, zum Sender (z. B. für die Kamera oder den Bildsensor) sowie jegliche Status-/Fehlerdaten zwischen dem Sender und dem Empfänger können bei einer relativ niedrigen Geschwindigkeit (zum Beispiel einer typischen I2C-Übertragungsrate) gesendet werden. Bei manchen Ausführungsformen wird ein I2C-Link mit 400 Kilohertz (kHz), wie in 8 dargestellt, zu 60 µs pro Schreibvorgang (d. h. 3 Zeilen von 720p/4 Zeilen von 180p) führen.
-
Um die Steuerdaten mit den Videokomponenten zeitzumultiplexen, können Zeitfenster für Upstream- und Downstream-Richtungen jeweils zugewiesen, z. B. vordefiniert, werden, z. B. wie oben unter Bezugnahme auf das Verfahren 500 beschrieben. Bei manchen Ausführungsformen können der Sender und/oder der Empfänger dazu ausgebildet sein, Übertragungsstart- und -stopphinweise aus dem Sync-Signal zu identifizieren und herzuleiten.
-
Bei manchen Ausführungsformen kann das Videosystem dazu ausgebildet sein, die Laufzeit entlang des Kabels über eine periodische (mindestens einmal, nachdem der Videolink hergestellt wurde) Messsequenz zu berücksichtigen und zu messen. Der Empfänger kann dazu ausgebildet sein, Daten zu puffern und sie schnell während ihres designierten Zeitfensters bzw. ihrer designierten Zeitfenster zum Übertragen von Upstream-Steuerdaten zu senden.
-
Zum Beispiel kann eine I2C-Übertragung von 400 kHz (3 x 8 Bits) 60 µs oder 3 Zeilen von 720p zum Senden brauchen. Somit kann sie in 162 Nanosekunden (ns) übertragen, muss aber bis zur nächsten Zeile auf eine Antwort warten, und die Antwort kann zumindest bis zur nächsten Zeile verzögert sein. Auf Systemebene kann der Sender ein Handshaking fälschen, Daten senden, eine Antwort empfangen und zurück zum Sender senden (z. B. unter Verwendung von I2C-Impuls-/-Taktstreckung).
-
Bei manchen Ausführungsformen können die Steuerdatenzeitfenster zum Beispiel für ein 720p-/1080p-Video 2,48 µs/0,94 µs breit sein.
-
In der Praxis kann die verfügbare Zeit in einer Videozeile durch die Laufzeit zwischen dem Sender und dem Empfänger und zurück in gewissem Maße reduziert werden. Im Fall eines 10 Meter (m) langen Übertragungskabels/-drahtes könnte sich die Laufzeit zum Beispiel auf 100 ns oder 15 Taktzyklen bei 148,5 MHz belaufen. Bei manchen Ausführungsformen kann eine Kompensation dieses Zeitfensterbreitenreduzierungseffekts innerhalb des Videosystems, z. B. des Videosystems 900, bereitgestellt werden. Der Effekt könnte zum Beispiel gemessen und kompensiert werden, insbesondere, falls sich die Sender- und Empfängerzeitfenster auf derselben Videozeile befinden. Dies kann insbesondere wichtig sein, falls Bits mit kürzerer Dauer gesendet werden. Bei manchen Ausführungsformen kann die Laufzeit entlang des Übertragungskabels durch das Messen über eine oder mehrere periodische (mindestens einmal nach der Herstellung des Links) Messsequenzen berücksichtigt werden.
-
Bei manchen Ausführungsformen des Videosystems 900 kann der Sender den Empfänger anweisen, eine Testimpulssequenz zu übertragen, um das Zeitfenster einzurichten. Der Empfänger kann den Testimpuls beim Start des Zeitfensters bezüglich seines empfangenen Sync-Impulses übertragen. Der Sender kann lauschen und die Ankunftszeit bezüglich seines eigenen Sync-Impulses messen. Der Sender kann die Daten zum Empfänger senden, um seine Daten um eine spezifische oder vordefinierte Anzahl von Abtastungen vorzurücken. Alternativ dazu kann ein Einrichten eines Zeitfensters ein Ping-Pong-Protokoll beinhalten, bei dem der Sender zum Beispiel auslösen kann, dass der Empfänger ,spricht‘, oder alternativ dazu kann der Empfänger auslösen, dass der Sender ,spricht‘.
-
12 stellt ein schematisches Diagramm eines Decodierungsschemas/Decodierers 1200 gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung dar. Bei manchen Ausführungsformen kann der Decodierer 1200 der oben beschriebene Empfänger 920 sein. Wie in 12 dargestellt, kann ein Eingangssignal 1204, das das codierte Senderausgangssignal aufweist, bei manchen Ausführungsformen einem Analog-Digital-Wandler 1208 zur Umwandlung in eine digitale Form bereitgestellt werden. Optional kann das Eingangssignal 1204 einem Klemmelement 1206 vor der Analog-Digital-Umwandlung bereitgestellt werden, was vorteilhafterweise die vertikale Position des Signals verankern kann, um Variationen im durchschnittlichen Bildpegel (APL: Average Picture Level) entgegenzuwirken, was sich besonders für AC-gekoppelte Übertragungslinks eignet, wie hierin beschrieben, da sich die Vorspannung mit dem Videoinhalt ändern kann. Eine Klemmeinrichtung kann dabei helfen, die relevanten Pegel ungeachtet des Videos oder der Sync-Amplitude konstant zu halten. Bei manchen Ausführungsformen kann die Klemmeinrichtung 1206 zum Beispiel eine Sync-Spitzenklemmung oder eine Diodenklemmung aufweisen.
-
Das Signal kann im Anschluss einem Verstärkungs-/Offsetkorrekturblock 1210 sowie einem Synchronisations- oder ,Sync‘-Detektionsblock 1212 bereitgestellt werden. Der Sync-Detektionsblock 1212 kann ein Timing-Referenzsignal 1214 ausgeben, das dann durch einen Timing-Erzeugungsblock 1230 verwendet werden kann, um anderen Blöcken, einschließlich des Verstärkungs-/Offsetblocks 1210, des kombinierten U pstream-Steuerdaten-F ormatieru ngs-/Downstream-Steuerdaten-Wiederherstellungsblocks 1232 und eines optionalen Filters 1216, am Empfänger Timing-Signale bereitzustellen.
-
Bei manchen Ausführungsformen kann das verarbeitete Eingangssignal 1204 zu einem Demultiplexing-Block 1218 weitergeleitet werden, bei dem es in separate Komponenten (das heißt die drei Videokomponententeile und das Steuerdatensignal) demultiplext wird, die jeweiligen Puffern 1220a, b, c, d bereitgestellt werden. Die Puffer können FIFO-Puffer sein. Die Puffergröße kann zum Beispiel dementsprechend ausgewählt werden, um die erforderliche Anzahl von Pixeln pro Zeile der Komponententeilsignale unterzubringen. Somit kann die Puffergröße für unterschiedliche Komponententeile anders sein. Alternativ dazu kann der Puffer dementsprechend skaliert werden, wenn mit verschiedenen Signaltypen oder -strukturen, wie etwa RAW-Daten, umgegangen wird. Die FIFO-Puffer können jeweils die Komponentensignale 1222a, b, c und das Steuerdatensignal 1222d ausgeben.
-
Ein Linktaktsignal 1202 kann aus den Sync-Impulsen, die in der Downstream-Videoübertragung eingebettet sind, durch einen Sync-Detektionsblock 1212 und einen Timing-Erzeugungsblock 1230 wiedergewonnen werden. Der Linktakt kann einem Frequenzteilerblock 1240 bereitgestellt werden, der die Taktfrequenz um einen gewissen Faktor, z. B. um 2, teilen kann, um einen oder mehrere Pixellesetakte 1205 zu erzeugen. Der Block 1240 kann einen PLL oder Frequenz-Synthesizer aufweisen, was ihm ermöglicht, eine Teilung durch ganzzahlige oder nicht ganzzahlige Verhältnisse durchzuführen. Das Pixellesetaktsignal 1205 kann anschließend auch den mehreren Puffern 1220a, b, c, d bereitgestellt werden.
-
Der kombinierte Upstream-Steuerdaten-Formatierungs-/Downstream-Steuerdaten-Wiederherstellungsblock 1232 kann jegliche Steuerdaten (egal ob in Bezug auf Timing oder Videoinhalt) aus dem verarbeiteten Eingangssignal 1204 empfangen und jegliche relevanten Daten über den DAC-Block 1234 zurück an den Sender bereitstellen.
-
13 stellt ein Blockdiagramm bereit, das zwei beispielhafte Videosystemarchitekturen gemäß manchen Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
-
Unter Bezugnahme auf die Systemarchitektur 1300 (das in 13 dargestellte obere Bild) können innerhalb eines Kameramoduls 1301 RAW-Bilddaten durch einen Bildsensor 1303 erzeugt werden, durch einen ISP 1304 in ein YUV-Video umgewandelt werden und zur Übertragung über ein Kabel 1308 durch einen Sender 1305 vorbereitet werden, wobei der Sender 1305 ein beliebiger der hierin beschriebenen Sender sein kann (z. B. der in 9 dargestellte Sender 910). Innerhalb einer ECU 1307 wird die Übertragung durch einen Empfänger 1306 empfangen, wobei der Empfänger 1306 ein beliebiger der hierin beschriebenen Empfänger sein kann (z. B. der in 9 dargestellte Empfänger 920), der das Video decodiert und als YUV-Videodaten zu einem Videokonsumenten 1307 (z. B. der in 9 dargestellten Videokonsumeinrichtung 922) ausgibt. Obwohl nicht ausdrücklich dargestellt, können Upstream-Steuerdaten, die zum Beispiel I2C-Transaktionen, GPIOs und/oder Einzelbild-Sync-Referenzsignale führen, vom Empfänger 1306 über dasselbe Kabel 1308 zum Sender 1305 und/oder darüber hinaus zum ISP 1304 und/oder zum Bildsensor 1303 fließen.
-
Jetzt unter Bezugnahme auf die alternative Systemarchitektur 1310 (das in 13 dargestellte untere Bild) können innerhalb eines Kameramoduls 1311 RAW-Bilddaten durch einen Bildsensor 1313 erzeugt werden und zur Übertragung über ein Kabel 1318 durch einen Sender 1315 vorbereitet werden, wobei der Sender 1315 ein beliebiger der hierin beschriebenen Sender sein kann (z. B. der in 9 dargestellte Sender 910). Innerhalb einer ECU 1317 wird die Übertragung durch einen Empfänger 1316 empfangen, wobei der Empfänger 1316 ein beliebiger der hierin beschriebenen Empfänger sein kann (z. B. der in 9 dargestellte Empfänger 920), der das Video decodiert und als RAW-Bilddaten zum ISP 1314 ausgibt, der YUV-Videodaten erzeugt und sie zu einem Videokonsumenten 1317 (z. B. der in 9 dargestellten Videokonsumeinrichtung 922) ausgibt. Obwohl nicht ausdrücklich dargestellt, können Upstream-Steuerdaten, die zum Beispiel I2C-Transaktionen, GPIOs und/oder Einzelbild-Sync-Referenzsignale führen, vom Empfänger 1316 über dasselbe Kabel 1318 zum Sender 1315 und/oder darüber hinaus zum Bildsensor 1313 fließen. Eine derartige Architektur ermöglicht vorteilhafterweise, dass sich der ISP in der ECU 1317 anstatt in dem raum- und leistungsbeschränkten Kameramodul 1311 befindet, eine Architektur, die nicht möglich ist, falls bekannte analoge Videoübertragungslinks verwendet werden.
-
Jetzt unter Bezugnahme auf Einzelheiten der Videoübertragung werden bei verschiedenen Ausführungsformen die Videodaten vorzugsweise als ein zeitgemultiplextes Komponentenvideo übertragen. Bei verschiedenen Ausführungsformen kann die Übertragung verschiedene Formen oder Präzisionspegel (8-Bit- oder Voll-14-Bit-RAW-Daten) annehmen.
-
Bei manchen Ausführungsformen können die Komponententeile in ähnliche Gruppen angeordnet werden, in einen Speicher getaktet und um verschiedene Beträge/Zeiträume verzögert werden, z. B. mit einer schnelleren Rate ausgelesen werden, als sie geschrieben wurden, sodass sie zeitkomprimiert werden, bevor sie zusammen in ihren zugewiesenen Zeitfenstern auf der Videozeile gemultiplext werden.
-
Bei manchen Ausführungsformen kann eine einzelne Videokomponente über eine Anzahl, z. B. 1 bis 3, von Abtastungen ausgebreitet sein, um Robustheit bei der Übertragung bereitzustellen.
-
Bei manchen Ausführungsformen können Steuerdaten von I2C, SPI, GPIO und anderen Schnittstellen gesammelt, formatiert und in Steuerpakete gepackt werden, wobei Fehlerschutz-/-detektionscodes erzeugt und hinzugefügt werden, um Robustheit bei der Übertragung bereitzustellen.
-
Bei manchen Ausführungsformen können Downstream-Steuerpakete in ihre zugewiesenen Zeitfenster innerhalb der Videozeile eingefügt werden. Bei manchen Ausführungsformen kann es mehrere Upstream- und Downstream-Steuerzeitfenster pro Videozeile geben, um eine niedrigere Latenz/einen höheren Durchsatz von Steuerdaten zu ermöglichen. Bei manchen Ausführungsformen kann die Linkzeilenfrequenz ein Vielfaches der Eingangsvideofrequenz sein. Somit kann die Linktaktrate bei manchen Ausführungsformen größer oder gleich der Eingangspixeltaktrate sein. Der Linktakt kann ein höheres ganzzahliges, rationales oder fraktionales Vielfaches der Eingangspixeltaktrate sein, was mehr Platz zum Steuern von Zeitfenstern auf jeder Videozeile ermöglicht.
-
Bei manchen Ausführungsformen kann ein Zeitfenster durch den Sender für Upstream-Steuerdaten freigehalten werden, die durch andere Einrichtungen im System außerhalb des Senders hinzugefügt werden sollen.
-
Bei manchen Ausführungsformen kann die Ausgabe eines beliebigen der hierin beschriebenen DACs optional gefiltert werden, um Rauschen zu reduzieren oder gewisse Frequenzbänder zu verbessern.
-
Bei manchen Ausführungsformen kann während des Upstream-Steuerzeitfensters und Guardband ein Referenzstartsignal gefunden oder detektiert werden und Upstream-Daten werden decodiert, nach Fehlern geprüft und auf der relevanten Steuerschnittstelle ausgegeben.
-
Bei manchen Ausführungsformen kann das Übertragungskabel elektrisch abgeschlossen sein und kann mit sowohl dem Sender als auch dem Empfänger ACgekoppelt sein.
-
Bei manchen Ausführungsformen kann ein digitales De-Emphasis im Sender oder in der Codierungsseite angewendet werden und durch ein Inversfilter im Empfänger oder in der Decodierungszeit kompensiert werden, um Emissionen vom Kabel zu steuern.
-
Jede Videozeile, einschließlich vertikaler Austastung und vertikalen Synchronisationszeilen, können Downstream-Steuerkanalzeitfenster sowie Upstream-Steuerkanalzeitfenster aufweisen. Alternativ dazu kann der Downstream- und Upstream-Steuerkanal jeweils in jeder zweiten Zeile bereitgestellt werden (das heißt eine erste Videozeile kann ein oder mehrere Downstream-Steuerkanalzeitfenster aufweisen und eine anschließende, z. B. zweite, Videozeile kann ein oder mehrere Upstream-Steuerkanalzeitfenster aufweisen). Andere Variationen sind ebenfalls möglich.
-
Bei manchen Ausführungsformen weist das Videosignal vorzugsweise einen Horizontal-Sync-Impuls auf, der einen Videopixelzeilenstart (Zeilenstartpunkt) definiert. Alternativ dazu kann der Horizontal-Sync-Impuls einen Zeilenendpunkt definieren. Bei manchen Ausführungsformen weist das Videosignal vorzugsweise ein Vertikal-Sync-Signal auf, das einen vertikalen Einzelbildstartpunkt definiert. Die Kombination von Horizontal- und Vertikal-Sync-Signalen kann eine zusammengesetzte Sync bilden.
-
Bei manchen Ausführungsformen können zwei Steuerzeitfenster pro Zeile bereitgestellt werden. Bei anderen Ausführungsformen können mehr als zwei Steuerzeitfenster pro Zeile bereitgestellt werden.
-
Bei manchen Ausführungsformen können Offsetkorrekturcodes (OCC: Offset Correction Codes) in dem einen oder den mehreren Steuerdatenzeitfenstern enthalten sein. OCC können Informationen über den durchschnittlichen Pegel der Videozeile aufweisen, die vorteilhafterweise durch den Systemempfänger verwendet werden können, um die Qualität der Videoklemmung zu verbessern, z. B. wie oben unter Bezugnahme auf die Verwendung von Metadaten beschrieben.
-
Bei manchen Ausführungsformen kann eine unsymmetrische Anordnung von Steuerzeitfenstern bereitgestellt werden. Bei manchen Ausführungsformen können zum Beispiel mehr Upstream-Steuerzeitfenster als Downstream-Steuerzeitfenster bereitgestellt werden. Bei manchen Ausführungsformen kann eine Initialisierung für die Übertragung von Steuerdaten reserviert werden und keine Videodaten werden während der Initialisierung übertragen, wodurch dem Kameramodul ermöglicht wird, entfernt über den Link in einem kurzen Zeitraum konfiguriert zu werden, was die Zeit vom Einschalten zum Konfigurieren der Kamera zur Videoerzeugung reduziert.
-
Bei manchen Ausführungsformen kann der Empfänger eine Gleichtakt-Tracking-Schaltung aufweisen, die an dem Signal vom Kabel angewendet werden kann, um Gleichtaktverschiebungen, die durch Störer am Kabel induziert werden, aufzuheben, bevor es gefiltert und dann durch einen ADC abgetastet wird, dessen Taktfrequenz und Phase durch einen digitalen PLL gesteuert werden können, der dazu ausgebildet sein kann, einen eingebetteten Sync-Impuls innerhalb des Signals einzuhalten, um zu gewährleisten, dass es eine Abtastung im Empfänger für jedes Pixel gibt, das durch den Sender gesendet wird. Das Signal kann durch einen oder mehrere Digitalverarbeitungsblöcke laufen, einschließlich einer SAG-Effekt-Korrektur (auch als SAG bezeichnet), um Artefakte aufgrund der AC-Kopplung zu korrigieren, und durch einen digitalen Entzerrer zu laufen, um jegliche Verluste und/oder Reflexionen im Kabel/Übertragungskanal zu kompensieren. Das kompensierte Signal kann dann in seine Farbkomponenten demultiplext werden. Die eingebetteten Steuerdaten können aus ihren zugewiesenen Zeitfenstern im Signal wiederhergestellt und Fehlerdetektions- und Schutzcodes nach Fehlern geprüft werden, wobei erfolgreich empfangene Pakete dem Sender bestätigt werden und fehlerhaft empfangene Pakete den Sender als NACK (nicht bestätigt) aufgezeigt werden. Upstream-Steuerdaten können in das eine oder die mehreren geeigneten Zeitfenster zur Übertragung zurück durch das Kabel zum Sender eingefügt werden.
-
Auswahlbeispiele
-
Der wie hierin beschriebene Video-und-Steuerung-Link ist eine innovative neue Kameralinktechnologie, die ein HD-Video über UTP-Kabel und nicht abgeschirmte Verbinder ermöglicht, wodurch ein leichter Upgrade-Pfad von Standard-Definition(SD)- zu HD-Kameras ohne die Notwendigkeit zum Ändern der vorhandenen Kabel- und Verbinderinfrastruktur ermöglicht wird. Der hierin beschriebene Video-und-Steuerung-Link ermöglicht ein Kameralink mit reduzierten Systemkosten, erheblichen Gewichtseinsparungen und erhöhter Robustheit gegenüber alternativen Lösungen. Das Portfolio von Sender- und Empfängereinrichtungen, wie hierin beschrieben, ermöglicht eine nahtlose Kamerakonnektivität in einem Fahrzeug und kann insbesondere für Kraftfahrzeuganwendungen bei der Bereitstellung einer robusten Kameralinklösung für Rückfahrkameras, Rundumsichtkameras und elektronische Spiegel vorteilhaft sein.
-
Beispiel 1 stellt ein System zum Kommunizieren von Videosignalen und Steuerdaten in einem Fahrzeug über einen verdrahteten (d. h. nicht drahtlosen) analogen Übertragungslink bereit, wobei das System einen Sender, einen Empfänger und einen Scheduler aufweist. Der Sender ist an einem ersten Ort innerhalb eines Fahrzeugs angeordnet und dazu ausgebildet, ein Videosignal, das durch einen Bildsensor erfasst wird, zu empfangen. Der Empfänger ist an einem zweiten Ort innerhalb des Fahrzeugs angeordnet, wobei sich der zweite Ort vom ersten Ort unterscheidet. Der Scheduler ist dazu ausgebildet, Zeitfenster für den Austausch von Daten zwischen dem Sender und dem Empfänger über den verdrahteten analogen Übertragungslink zuzuweisen, indem für jede von mindestens einer oder mehreren Videozeilen eines Videoeinzelbildes des Videosignals Folgendes durchgeführt wird: Zuweisen mehrerer Zeitfenster zum Übertragen mehrerer Basisband( d. h. nicht auf einem Trägersignal modulierter)-Videokomponenten einer individuellen Videozeile des Videoeinzelbildes des Videosignals, das durch den Bildsensor erfasst wird, vom Sender über den verdrahteten analogen Übertragungslink zum Empfänger, Zuweisen eines oder mehrerer Zeitfenster zum Übertragen von Sendersteuerdaten (d. h. Daten, die durch den Sender gesendet werden, hierin auch als „Downstream“-Daten bezeichnet, wobei diese Daten anders sind als Videokomponenten, die die aktiven Pixelwerte angeben, wie durch den Bildsensor erfasst) vom Sender über den verdrahteten analogen Übertragungslink (d. h. über den gleichen Link, der zum Übertragen der Videokomponenten verwendet wird) zum Empfänger, und Zuweisen eines oder mehrerer Zeitfenster zum Übertragen von Empfängersteuerdaten (d. h. Daten, die durch den Empfänger gesendet werden, hierin auch als „Upstream“-Daten bezeichnet) vom Empfänger über den verdrahteten analogen Übertragungslink (d. h. über den gleichen Link, der zum Übertragen der Videokomponenten verwendet wird) zum Sender.
-
Beispiel 2 stellt das System gemäß Beispiel 1 bereit, wobei der verdrahtete analoge Übertragungslink ein einzelner Differenzpaar-Übertragungslink ist.
-
Beispiel 3 stellt das System gemäß Beispiel 1 bereit, wobei der verdrahtete analoge Übertragungslink ein Single-Ended-Draht-Übertragungslink ist.
-
Beispiel 4 stellt das System gemäß einem der vorstehenden Beispiele bereit, wobei der verdrahtete analoge Übertragungslink ein AC-gekoppelter analoger Übertragungslink zwischen dem Sender und dem Empfänger ist.
-
Beispiel 5 stellt das System gemäß Beispiel 4 bereit, wobei die Sendersteuerdaten Metadaten enthalten, die eine statistische Charakteristik der zwei oder mehr Pixelwerte der individuellen Videozeile, wie durch den Bildsensor erfasst, angeben, und wobei die Metadaten dazu ausgebildet sind, dem Empfänger zu ermöglichen, eine oder mehrere DC-Offsetkorrekturtechniken an den mehreren Videokomponenten, die vom Sender empfangen werden, anzuwenden.
-
Beispiel 6 stellt das System gemäß Beispiel 5 bereit, wobei die statistische Charakteristik ein Durchschnitt (oder Mittel), eine Summe oder ein Median der zwei oder mehr Pixelwerte ist.
-
Beispiel 7 stellt das System gemäß Beispiel 6 bereit, wobei der Scheduler ferner dazu ausgebildet ist, ein oder mehrere Zeitfenster zum Übertragen mehrerer Testimpulse, die dazu ausgebildet sind, dem Empfänger zu ermöglichen, eine oder mehrere SAG-Kompensationstechniken an den mehreren Videokomponenten, die vom Sender empfangen werden, anzuwenden, vom Sender über den verdrahteten analogen Übertragungslink zum Empfänger zuzuweisen. Bei manchen Ausführungsformen könnten die Senderdaten auch mehrere Testimpulse (die entweder dieselben Impulse wie Beispiel 7 sein könnten oder sich von diesen unterscheiden könnten) aufweisen (d. h. der Scheduler kann dazu ausgebildet sein, ein oder mehrere Zeitfenster zum Übertragen von diesen vom Sender über den verdrahteten analogen Übertragungslink zum Empfänger zuzuweisen), um dem Empfänger zu ermöglichen, eine oder mehrere Entzerrungstechniken anzuwenden, und/oder dem Empfänger zu ermöglichen, Taktphasenwiederherstellungstechniken anzuwenden.
-
Beispiel 8 stellt das System nach einem der vorstehenden Beispiele bereit, wobei das eine oder die mehreren Zeitfenster zum Übertragen der Sendersteuerdaten mindestens zwei Zeitfenster aufweisen, die um ein oder mehrere Zeitfenster voneinander getrennt sind, die nicht zum Übertragen der Sendersteuerdaten verwendet werden, und/oder das eine oder die mehreren Zeitfenster zum Übertragen der Empfängersteuerdaten mindestens zwei Zeitfenster aufweisen, die um ein oder mehrere Zeitfenster voneinander getrennt sind, die nicht zum Übertragen der Empfängersteuerdaten verwendet werden.
-
Beispiel 9 stellt das System nach einem der vorstehenden Beispiele bereit, wobei der Scheduler ferner dazu ausgebildet ist, ein oder mehrere Guardband-Zeitfenster unmittelbar bevor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern zum Übertragen der Sendersteuerdaten zuzuweisen und/oder ein oder mehrere Guardband-Zeitfenster unmittelbar bevor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern zum Übertragen der Empfängersteuerdaten zuzuweisen, wobei der Sender dazu ausgebildet ist, ein Signal mit konstanter Spannung in dem einen oder den mehreren Guardband-Zeitfenstern und/oder in dem einen oder den mehreren Zeitfenstern zum Übertragen der Empfängersteuerdaten zu übertragen.
-
Beispiel 10 stellt das System gemäß einem der vorstehenden Beispiele bereit, wobei die mehreren Komponenten einen ersten Satz von Komponenten und einen zweiten Satz von Komponenten aufweisen, wobei der erste Satz von Komponenten zumindest eine erste Farbkomponente und eine zweite Farbkomponente (z. B. G- und R-Komponenten aufweist) und der zweite Satz von Komponenten zumindest eine Luminanzkomponente und eine Farbkomponente (z. B. Y- und R-Komponenten) aufweist. Bei manchen weiteren Ausführungsformen kann der erste Satz von Komponenten auch eine dritte Farbkomponente aufweisen, sodass der erste Satz z. B. R-, G- und B-Komponenten aufweist. Bei manchen weiteren Ausführungsformen kann der zweite Satz von Komponenten auch eine zweite Farbkomponente aufweisen, sodass der zweite Satz z. B. Y-, U- und V-Komponenten aufweist.
-
Beispiel 11 stellt das System gemäß einem der vorstehenden Beispiele bereit, wobei die mehreren Zeitfenster, die zum Übertragen der mehreren Komponenten zugewiesen sind, ein einzelnes (d. h. ein und nur ein) Zeitfenster für jede der mehreren Komponenten aufweisen.
-
Beispiel 12 stellt das System gemäß einem der vorstehenden Beispiele bereit, wobei eine kombinierte Dauer der mehreren Zeitfenster zum Übertragen der mehreren Komponenten der individuelle Videozeile gleich oder kürzer als eine Zeit ist, in der die individuelle Videozeile vom Bildsensor zum Sender bereitgestellt wird.
-
Beispiel 13 stellt das System gemäß einem vorstehenden Beispiel bereit, wobei der Scheduler dazu ausgebildet ist, eine Übertragungsrate für den Austausch von Daten zwischen dem Sender und dem Empfänger unabhängig von der Eingangspixeltaktrate auszuwählen.
-
Beispiel 14 stellt einen Videoempfänger zum Empfangen von Daten in einem AC-gekoppelten Videosystem bereit, wobei der Videoempfänger Folgendes aufweist: Mittel zum Empfangen von Daten über einen AC-gekoppelten analogen Übertragungskanal; Mittel zum Extrahieren, aus den empfangenen Daten, von Videosignaldaten, wobei jede Zeile der Videosignaldaten aus mehreren Zeitfenstern innerhalb der empfangenen Daten extrahiert wird, die zum Übertragen mehrerer Basisbandvideokomponenten individueller Videozeilen eines Videoeinzelbildes eines Videosignals, das durch einen Bildsensor erfasst wird, zugewiesen sind; Mittel zum Extrahieren, aus den empfangenen Daten, von Downstream-Steuerdaten, wobei die Downstream-Steuerdaten aus einem oder mehreren Zeitfenstern innerhalb der empfangenen Daten extrahiert werden, die zum Übertragen der Downstream-Steuerdaten zugewiesen sind; und Mittel zum Übertragen, über den AC-gekoppelten analogen Übertragungskanal, von Upstream-Steuerdaten, wobei die Upstream-Steuerdaten in einem oder mehreren Zeitfenstern, die zum Übertragen der Upstream-Steuerdaten zugewiesen sind, übertragen werden.
-
Beispiel 15 stellt den Videoempfänger gemäß Beispiel 14 bereit, wobei der Videoempfänger an einem ersten Ort innerhalb des Fahrzeugs bereitgestellt ist und der Bildsensor an einem zweiten Ort innerhalb des Fahrzeugs bereitgestellt ist, wobei sich der zweite Ort vom ersten Ort unterscheidet.
-
Beispiel 16 stellt den Videoempfänger gemäß den Beispielen 14 oder 15 bereit, wobei der Videoempfänger dazu ausgebildet ist, die Daten von einem Sender, der kommunikativ mit einer weiteren Einrichtung gekoppelt ist, zu empfangen, und dazu ausgebildet ist, die Upstream-Steuerdaten oder Downstream-Steuerdaten zu verwenden, um eines oder mehrere der Folgenden durchzuführen: Unterstützen der weiteren Einrichtung beim Modifizieren von Betriebseinstellungen des Senders oder einer oder mehrerer Einrichtungen, die kommunikativ mit dem Sender gekoppelt sind (z. B. des Bildsensors und/oder des ISP), Lesen von Statusinformationen des Senders oder der einen oder der mehreren Einrichtungen, die kommunikativ mit dem Sender gekoppelt sind.
-
Beispiel 17 stellt den Videoempfänger gemäß Beispiel 16 bereit, wobei die weitere Einrichtung eine Systemsteuerung oder eine Mikrocontrollereinheit eines Fahrzeugs ist.
-
Beispiel 18 stellt einen Videosender zum Übertragen von Daten in einem AC-gekoppelten Videosystem bereit, wobei der Videosender Folgendes aufweist: Mittel zum Übertragen von Videosignaldaten über einen AC-gekoppelten analogen Übertragungskanal, wobei jede Zeile der Videosignaldaten in mehreren Zeitfenstern übertragen wird, die zum Übertragen der Videosignaldaten zugewiesen sind, und mehrere Basisbandvideokomponenten einer individuellen Videozeile eines Videoeinzelbildes eines Videosignals, das durch einen Bildsensor erfasst wird, aufweist; Mittel zum Übertragen von Downstream-Steuerdaten über den AC-gekoppelten analogen Übertragungskanal, wobei die Downstream-Steuerdaten in einem oder mehreren Zeitfenstern übertragen werden, die zum Übertragen der Downstream-Steuerdaten zugewiesen sind; und Mittel zum Empfangen von Upstream-Steuerdaten über den AC-gekoppelten analogen Übertragungskanal, wobei die Upstream-Steuerdaten in einem oder mehreren Zeitfenstern enthalten sind, die zum Übertragen der Upstream-Steuerdaten zum Videosender zugewiesen sind.
-
Beispiel 19 stellt den Videosender gemäß Beispiel 18 bereit, wobei der Videosender kommunikativ mit dem Bildsensor gekoppelt ist und dazu ausgebildet ist, eine Modifikation einer oder mehrerer Betriebseinstellungen der Bildsensoreinrichtung gemäß den Upstream-Steuerdaten, die durch den Videosender empfangen werden, zu unterstützen.
-
Beispiel 20 stellt den Videosender gemäß den Beispielen 18 oder 19 bereit, der ferner Folgendes aufweist: Mittel zum Übertragen eines Signals mit konstanter Spannung über den AC-gekoppelten analogen Übertragungskanal in einem oder mehreren Guardband-Zeitfenstern und/oder in dem einen oder den mehreren Zeitfenstern, die zum Übertragen der Upstream-Steuerdaten zum Videosender zugewiesen sind, wobei das eine oder die mehreren Guardband-Zeitfenster unmittelbar vor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern, die zum Übertragen der Downstream-Steuerdaten zugewiesen sind, liegen und/oder das eine oder die mehreren Guardband-Zeitfenster unmittelbar vor und/oder unmittelbar nach dem einen oder den mehreren Zeitfenstern, die zum Übertragen der Upstream-Steuerdaten zugewiesen sind, liegen.
-
Beispiel 21 stellt ein Codierungsverfahren zum Codieren eines digitalen Ausgangssignals eines Bildsensors in eine beliebige der oben beschriebenen Übertragungssequenzen bereit. Dies kann vorteilhafterweise eine robustere Übertragung der Videodaten ermöglichen.
-
Beispiel 22 stellt das Codierungsverfahren gemäß Beispiel 21 bereit, das ferner einen SAG-Effekt-Reduzierungsmechanismus oder -schritt aufweist. Dies kann vorteilhafterweise eine Erstellung der Videodaten zur Übertragung auf eine Art und Weise ermöglichen, bei der sie wiederhergestellt oder zumindest im Wesentlichen beim Empfang korrigiert werden können.
-
Beispiel 23 stellt ein Decodierungsverfahren zum Decodieren eines analogen Ausgangssignals, das in eine der oben beschriebenen Übertragungssequenzen codiert ist, bereit. Dies kann vorteilhafterweise eine richtige Decodierung der übertragenen Videodaten ermöglichen.
-
Beispiel 24 stellt das Decodierungsverfahren gemäß Beispiel 23 bereit, das ferner einen/ein SAG-Effekt-Reduzierungsmechanismus und/oder -verfahren aufweist. Dies kann vorteilhafterweise die Qualität des empfangenen Signals zur weiteren Verarbeitung und Verwendung verbessern.
-
Beispiel 25 stellt eine Codierungsvorrichtung zum Codieren eines digitalen Ausgangssignals eines Bildsensors in eine beliebige der oben beschriebenen Übertragungssequenzen bereit. Dies kann vorteilhafterweise eine richtige Decodierung der übertragenen Videodaten ermöglichen.
-
Beispiel 26 stellt eine Decodierungsvorrichtung zum Decodieren eines analogen Ausgangssignals, das in eine der oben beschriebenen Übertragungssequenzen codiert ist, bereit. Dies kann vorteilhafterweise eine richtige Decodierung der übertragenen Videodaten ermöglichen.
-
Beispiel 27 stellt einen Sender zum Codieren eines digitalen Ausgangssignals eines Bildsensors in eine beliebige der oben beschriebenen Übertragungssequenzen bereit. Dies kann vorteilhafterweise eine richtige Decodierung der übertragenen Videodaten ermöglichen.
-
Beispiel 28 stellt einen Empfänger zum Decodieren eines analogen Ausgangssignals, das in eine der oben beschriebenen Übertragungssequenzen codiert ist, bereit. Dies kann vorteilhafterweise eine richtige Decodierung der übertragenen Videodaten ermöglichen.
-
Beispiel 29 stellt einen Übertragungskanal/einen Übertragungslink bereit, der durch einen Widerstand oder durch einen effektiven Widerstand an einem oder beiden Enden abgeschlossen wird. Dies kann vorteilhafterweise die Qualität der Übertragung verbessern.
-
Ein beliebiges des Systems, des Senders, des Empfängers und des Verfahrens nach einem der vorstehenden Beispiele kann in einem Fahrzeug oder in einem Überwachungssystem implementiert werden. Des Weiteren kann ein beliebiges des Systems, des Senders, des Empfängers und des Verfahrens nach einem der vorstehenden Beispiele einen Bildsensor oder eine Kamera aufweisen oder mit diesem/dieser kommunikativ gekoppelt/verbunden sein, der bzw. die dazu ausgebildet ist, das Videosignal (oder im Allgemeinen ein Video-/Audio-/Bildsignal, das Video- und/oder Audio- und/oder Bildsignale aufweisen kann), das über den AC-gekoppelten Link zu übertragen ist, wie hierin beschrieben, zu erfassen, wobei die Kamera mehrere optischen Sensoren (z. B. Photodioden) aufweisen kann, die dazu ausgebildet sind, Pixelwerte des Video-/Audio-/Bildsignals, das über einen derartigen AC-gekoppelten Link zu übertragen ist, zu erzeugen.
-
Andere Implementationsanmerkungen. Varianten und Anwendungen
-
Hierin besprochene Prinzipien und Vorteile können in einer beliebigen Einrichtung oder einem beliebigen System verwendet werden, die bzw. das einen AC-gekoppelten HD-Signal-und-Steuerung-Link zum Kommunizieren von Videosignalen, Audiosignalen und/oder Bildern sowie bidirektionalen Steuerdaten benötigen kann. Es versteht sich, dass nicht notwendigerweise alle hierin erwähnten Aufgaben oder Vorteile gemäß jeglicher bestimmten hierin beschriebenen Ausführungsform erreicht werden können. Somit erkennt beispielsweise der Fachmann, dass gewisse Ausführungsformen dafür ausgebildet sein können, auf eine Art und Weise zu arbeiten, die einen Vorteil oder eine Gruppe von hierin gelehrten Vorteilen erzielt oder optimiert, ohne notwendigerweise andere Aufgaben oder Vorteile zu erzielen, wie sie hierin möglicherweise gelehrt oder vorgeschlagen werden.
-
Bei einem Ausführungsbeispiel kann eine beliebige Anzahl elektrischer Schaltungen der Figuren auf einer Platine einer assoziierten elektronischen Einrichtung implementiert sein. Die Platine kann eine allgemeine Leiterplatte sein, die verschiedene Komponenten des internen elektronischen Systems der elektronischen Einrichtung aufweisen und ferner Verbinder für andere Peripheriegeräte bereitstellen kann. Spezieller kann die Platine die elektrischen Verbindungen bereitstellen, durch die die anderen Komponenten des Systems elektrisch kommunizieren können. Es können beliebige geeignete Prozessoren (einschließlich DSPs, Mikroprozessoren, unterstützender Chipsätze usw.), computerlesbare nichtflüchtige Speicherelemente usw. basierend auf speziellen Konfigurationserfordernissen, Verarbeitungsanforderungen, Computerdesigns usw. in geeigneter Weise mit der Platine gekoppelt sein. Andere Komponenten, wie etwa ein externer Speicher, zusätzliche Sensoren, Steuerungen für die Audio-/Video-Anzeige und Peripherieeinrichtungen können als Steckkarten, über Kabel an der Platine angeschlossen oder in der Platine selbst integriert sein. Bei verschiedenen Ausführungsformen können die hierin beschriebenen Funktionalitäten in Emulationsform als Software oder Firmware implementiert werden, die innerhalb eines oder mehrerer konfigurierbarer (z. B. programmierbarer) Elemente läuft, die in einer Struktur angeordnet sind, die diese Funktionen unterstützt. Die die Emulation bereitstellende Software oder Firmware kann auf einem nichtflüchtigen computerlesbaren Speichermedium bereitgestellt sein, das Anweisungen aufweist, die einem Prozessor ermöglichen, diese Funktionalitäten auszuführen.
-
Bei einem anderen Ausführungsbeispiel können die elektrischen Schaltungen der Figuren als eigenständige Module (z. B. eine Einrichtung mit assoziierten Komponenten und einem Schaltkreis, der zum Durchführen einer speziellen Anwendung oder Funktion ausgebildet ist) implementiert sein oder als Plug-In-Module in anwendungsspezifischer Hardware elektronischer Einrichtungen implementiert sein. Es sei angemerkt, dass bestimmte Ausführungsformen der vorliegenden Offenbarung einfach in einem SOC-Gehäuse (SOC: System On Chip - System auf Chip), entweder teilweise oder in Gänze, enthalten sein können. Ein SOC repräsentiert eine IC, die Komponenten eines Computers oder eines anderen elektronischen Systems in einem einzigen Chip integriert. Es kann digitale, analoge, Mischsignal- und häufig Hochfrequenzfunktionen enthalten: diese können alle auf einem einzigen Chipsubstrat bereitgestellt werden. Andere Ausführungsformen können ein Multichipmodul (MCM) mit mehreren separaten ICs aufweisen, die sich innerhalb eines einzigen Elektronikgehäuses befinden und durch das Elektronikgehäuse zur engen Interaktion miteinander ausgebildet sind. Bei verschiedenen anderen Ausführungsformen können die Digitalfilter in einem oder mehreren Siliziumkernen in anwendungsspezifischen integrierten Schaltungen (ASICs), FPGAs und anderen Halbleiterchips implementiert werden.
-
Es ist auch zwingend notwendig, darauf hinzuweisen, dass alle der Spezifikationen, Abmessungen und Beziehungen, die hierin umrissen sind (z. B. die Anzahl an Prozessoren, Logikoperationen usw.), lediglich zum Zwecke eines Beispiels oder der Lehre dargeboten wurden. Solche Informationen können beträchtlich variiert werden, ohne vom Wesen der vorliegenden Offenbarung oder dem Schutzumfang der angehängten Ansprüche abzuweichen. Die Spezifikationen gelten lediglich für ein nichtbeschränkendes Beispiel und dementsprechend sollten sie derart ausgelegt werden. In der vorausgehenden Beschreibung wurden Ausführungsbeispiele unter Bezugnahme auf bestimmte Komponentenanordnungen beschrieben. Verschiedene Modifikationen und Änderungen können an derartigen Ausführungsformen vorgenommen werden, ohne vom Schutzumfang der angehängten Ansprüche abzuweichen. Die Beschreibung und die Zeichnungen sind demgemäß vielmehr in einem veranschaulichenden als in einem einschränkenden Sinne zu betrachten.
-
Es sei angemerkt, dass mit den zahlreichen hierin bereitgestellten Beispielen Interaktionen hinsichtlich zwei, drei, vier oder mehr elektrischer Komponenten beschrieben sein können. Jedoch erfolgte dies lediglich zu Klarheits- und Beispielszwecken. Es versteht sich, dass das System auf eine beliebige geeignete Weise verteilt oder zusammengesetzt sein kann. Zusammen mit ähnlichen Gestaltungselementen können beliebige der veranschaulichten Komponenten, Module und Elemente der Figuren in verschiedenen möglichen Konfigurationen kombiniert werden, die alle deutlich innerhalb des breiten Schutzumfangs der vorliegenden Offenbarung liegen. In gewissen Fällen kann es einfacher sein, eine oder mehrere der Funktionalitäten eines gegebenen Satzes von Abläufen lediglich durch Bezugnahme auf eine begrenzte Anzahl elektrischer Elemente zu beschreiben. Es versteht sich, dass die elektrischen Schaltungen der Figuren und ihre Lehren leicht skalierbar sind und eine große Anzahl an Komponenten sowie kompliziertere/komplexere Anordnungen und Konfigurationen aufnehmen können. Demgemäß sollten die bereitgestellten Beispiele weder den Schutzbereich beschränken noch verhindern, dass die allgemeinen Lehren der elektrischen Schaltungen möglicherweise auf eine Vielzahl von anderen Architekturen angewendet werden.
-
Es sei angemerkt, dass in der vorliegenden Offenbarung Bezugnahmen auf verschiedene Merkmale (z. B. Elemente, Strukturen, Module, Komponenten, Schritte, Operationen, Charakteristika usw.), die in „einer Ausführungsform“, „einem Ausführungsbeispiel“, „einer Ausführungsform“, „einer anderen Ausführungsform“, „manchen Ausführungsformen“, „verschiedenen Ausführungsformen“, „anderen Ausführungsformen“, „einer alternativen Ausführungsform“ und dergleichen enthalten sind, bedeuten sollen, dass beliebige solche Merkmale in einer oder mehreren Ausführungsformen der vorliegenden Offenbarung enthalten sind, aber möglicherweise in denselben Ausführungsformen kombiniert oder nicht notwendigerweise kombiniert sein können.
-
Es ist auch wichtig, anzumerken, dass die Funktionen bezüglich eines AC-gekoppelten HD-Video-/Audio-/Bild-und-Steuerung-Links, z. B. jene, die in dem einen oder den mehreren in 5 dargestellten Prozessen zusammengefasst sind, nur manche der möglichen Funktionen veranschaulichen, die durch die oder innerhalb der in den Figuren veranschaulichten Systeme, z. B. der in den 9 und 10 dargestellten Systeme, ausgeführt werden können. Manche dieser Vorgänge können gegebenenfalls gelöscht oder entfernt werden oder diese Vorgänge können beträchtlich modifiziert oder geändert werden, ohne von dem Schutzumfang der vorliegenden Offenbarung abzuweichen. Zusätzlich kann das Timing dieser Operationen beträchtlich abgeändert werden. Die vorstehenden Betriebsflüsse, wie z. B. in 5 dargestellt, sind für Beispiel- und Besprechungszwecke angeboten worden. Durch hierin beschriebene Ausführungsformen wird dahingehend erhebliche Flexibilität bereitgestellt, dass beliebige geeignete Anordnungen, Chronologien, Ausgestaltungen und Timingmechanismen bereitgestellt werden können, ohne von den Lehren der vorliegenden Offenbarung abzuweichen.
-
Zahlreiche andere Änderungen, Ersetzungen, Variationen, Abänderungen und Modifikationen können von einem Fachmann ermittelt werden und es ist beabsichtigt, dass die vorliegende Offenbarung alle solche Änderungen, Ersetzungen, Variationen, Abänderungen und Modifikationen, wie sie in den Schutzumfang der angehängten Ansprüche fallen, einschließt. Es ist anzumerken, dass alle optionalen Merkmale von beliebigen der oben beschriebenen Vorrichtung, der Einrichtung oder des Systems auch hinsichtlich des Verfahrens oder der Prozesse zum Verwenden oder Betreiben der Vorrichtung, der Einrichtung oder des Systems implementiert werden können, und Einzelheiten in den Beispielen, die für beliebige der hierin beschriebenen Vorrichtung, der Einrichtung oder des Systems bereitgestellt sind, können irgendwo in entsprechenden Verfahren oder Prozessen verwendet werden, und umgekehrt.
-
Aspekte der vorliegenden Offenbarung betreffen Systeme und Verfahren zum Kommunizieren von Videosignalen und Steuerdaten über einen verdrahteten AC-gekoppelten HD-Video-und-Steuerung-Link. Bei einem anderen Aspekt weist ein beispielhaftes System einen Scheduler auf, der dazu ausgebildet ist, Zeitfenster für den Austausch von Daten zwischen einem Sender und einem Empfänger über einen derartigen Link zuzuweisen. Der Scheduler ist dazu ausgebildet, für jede von mindestens einer oder mehreren Videozeilen eines Videoeinzelbildes eines Videosignals, das durch eine Kamera erfasst wird, mehrere Zeitfenster zum Übertragen mehrerer Videokomponenten der Videozeile vom Sender zum Empfänger zuzuweisen, ein oder mehrere Zeitfenster zum Übertragen von Sendersteuerdaten vom Sender zum Empfänger zuzuweisen und ein oder mehrere Zeitfenster zum Übertragen von Empfängersteuerdaten vom Empfänger zum Sender zuzuweisen.