-
Die vorliegende Erfindung betrifft eine Anordnung, ein Fortbewegungsmittel sowie ein Verfahren zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale. Insbesondere betrifft die vorliegende Erfindung die Vermeidung von Bildstörungen aufgrund von ausgelassenen oder doppelt angezeigten Einzelbildern (englisch: „frames“).
-
Derzeit verfügbare Produkte und Technologien ermöglichen keine Synchronisierung zweier oder mehrerer Bildschirme (englisch: „display“), welche unterschiedliche Auflösungen aufweisen, sofern der anzuzeigende Inhalt von einer zentralen Bildquelle zur Verfügung gestellt wird. Dies kann zu einem sichtbaren Anzeigefehler (englisch: „jitter“), zu ausgelassenen sowie zu doppelt angezeigten Frames sowie zu Schwebung und dem sogenannten „Beat Effekt“ in dem dargestellten Bildinhalt führen.
-
Im Stand der Technik ist es bekannt, mehrere Videosenken (Bildschirme) einer jeweils gleichen Auflösung, von einem selben Hersteller sowie der gleichen Technologie zur zeitgleichen Anzeige eines Bildsignals zu verwenden. Dies ermöglicht problemlos eine fehlerfreie Anzeige, da sämtliche, das Timing beeinflussende Parameter dieselben sind. Eine perfekte Bildschirmsynchronisation ist jedoch insbesondere dann eine Herausforderung, wenn die verwendeten Bildschirme unterschiedliche Timings aufweisen und beide im direkten Blickfeld des Betrachters angeordnet sind.
-
Eine kurze Einführung zur Bildanzeigetechnologie des Standes der Technik wird in Verbindung mit den beigefügten Zeichnungsfiguren gegeben.
-
Es ist eine Aufgabe der vorliegenden Erfindung, einen identischen Anzeigeinhalt auf mehreren, insbesondere unterschiedlichen, Videosenken fehlerfrei darzustellen.
-
Die vorstehende Aufgabe wird erfindungsgemäß durch ein Verfahren zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale gelöst. Das Quellsignal kann beispielsweise ein im Wesentlichen statisches oder ein Bewegtbild (Videosignal) sein, welches sowohl dem ersten als auch dem zweiten Bildsignal zugrunde gelegt wird. In einem ersten Schritt werden erste Bildphaseninformationen eines ersten Bildsignals extrahiert. Als „Bildphaseninformationen“ seien im Rahmen der vorliegenden Erfindung solche Signale im Quellsignal verstanden, welche Aufschluss darüber geben, welcher Frame gerade anzuzeigen ist. Insbesondere können die Bildphaseninformationen eine Position innerhalb eines Frames kennzeichnen. Diese Position kann insbesondere innerhalb eine Vielzahl aufeinanderfolgend anzuzeigender Frames enthalten und entsprechend gekennzeichnet werden. Die Bildphaseninformationen können sich insbesondere auf nicht anzuzeigende Informationen zur Bildsteuerung bzw. Anzeigesteuerung und zur Synchronisation von Zeilen und/oder Spalten beziehen. In einem zweiten Schritt werden entsprechende Bildphaseninformationen eines zweiten Bildsignals extrahiert. Die Bildphaseninformationen können beispielsweise von einem sog. „Display- Controller“ auf Basis des Quellsignals einer gemeinsamen Datenquelle erzeugt werden. Sofern vorhanden, wird ein zeitlicher Versatz zwischen den ersten Bildphaseninformationen und den zweiten Bildphaseninformationen ermittelt. Diese können Aufschluss darüber geben, in welchem zeitlichen Zusammenhang die Quelldaten bzw. das Quellsignal in das erste Bildsignal bzw. das zweite Bildsignal gewandelt werden. Schließlich wird der zeitliche Versatz zwischen dem ersten Bildsignal und dem zweiten Bildsignal entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen korrigiert. Mit anderen Worten wird ein Signal zur Beschleunigung oder Verzögerung eines der Bildsignale ausgegeben oder ein Takt zur Ausgabe eines der Bildsignale entsprechend angepasst. Im Ergebnis wird ein zeitlicher Versatz zwischen den Bildsignalen verringert, so dass das Quellsignal ohne ein Auslassen ganzer Frames oder die wiederholte Anzeige ein und desselben Frames von zwei jeweiligen Videosenken dargestellt werden kann. Im Ergebnis können zwei Bildsignale innerhalb eines Kernblickfeldes eines Anwenders dargestellt werden, ohne dass etwaige Timing- Unterschiede zu erkennbaren Einbußen der Darstellungsqualität führen.
-
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
-
Bevorzugt kann das erste Bildsignal auf einer ersten Videosenke in Form eines Bildschirms und/oder in Form eines Head-Up-Displays und/oder in Form eines Kombi-Instrumentes und/oder in Form einer Datenbrille mit integrierter Anzeigeeinheit und/oder auf einem drahtlosen elektronischen Anwender- Endgerät angezeigt werden. Auch das zweite Bildsignal kann auf einer entsprechenden, insbesondere ungleichnamig, ausgestalteten Videosenke dargestellt werden.
-
Die erste Videosenke kann sich von der zweiten Videosenke beispielsweise durch eine andere native Auflösung und/oder durch eine andere Auflösung des jeweiligen aktiven oder inaktiven Bildbereiches und/oder durch andere Konfigurationsparameter (z.B. Größe und/oder Lage von Parametern wie z.B. Frontporch, Backporch, Sync Width, Pixel Clock etc.) unterscheiden. Während die vorgenannten Parameter bzw. Eigenschaften bei im Stand der Technik bekannten Anordnungen häufig ursächlich für timingbedingte Darstellungsunregelmäßigkeiten sind, führt die erfindungsgemäße Korrektur des zeitlichen Versatzes zu einer stabilen und fehlerfreien Videodarbietung. Die erfindungsgemäße Synchronisation der zwei Bildsignale, insbesondere die Korrektur des zeitlichen Versatzes kann insbesondere in regelmäßigen Abständen, bevorzugt in jedem Frame des Quellsignals bzw. eines oder beider der Bildsignale ausgeführt werden. Dies wirkt auch starken Timingunterschieden und ihren negativen Auswirkungen effektiv entgegen.
-
Beispiele für Bildphaseninformationen, deren zeitlicher Versatz bezüglich des ersten und zweiten Bildsignals zueinander verglichen wird, sind das (vertical) blanking-Signal, das vertical synchronize-Signal, das horizontal synchronize-Signal, das Ausbleiben von Data Enable(DE)-Signalen oder das eine Linie vor einer vertikalen Synchronisierung-Signal. Selbstverständlich sollten einander entsprechende Bildphaseninformationen im ersten und zweiten Bildsignal zur Bestimmung des zeitlichen Versatzes verwendet werden.
-
Das Korrigieren des zeitlichen Versatzes kann beispielsweise durch das Ausgeben eines zweiten Taktsignals für eine Wiedergabe des zweiten Bildsignals erfolgen. Hierzu kann es erforderlich sein, ein im Stand der Technik sämtlichen Videosenken zugespieltes bzw. zur Verfügung gestelltes Taktsignal für die Darstellung des zweiten Bildsignals außer Kraft zu setzen und durch das zweite Taktsignal, welches erfindungsgemäß hinsichtlich des zeitlichen Versatzes korrigiert worden ist, zu ersetzen. Alternativ oder zusätzlich kann zur Korrektur des zeitlichen Versatzes ein nicht-sichtbarer Bildsignalbestandteil (z.B. eine Bildphaseninformation) des ersten oder zweiten Bildsignals zusätzlich zum Quellsignal in den Datenstrom eingereiht oder ein im Quellsignal enthaltener nicht sichtbarer Bildsignalbestandteil aus dem Bildsignalstrom entfernt werden, um den zeitlichen Versatz zu verringern oder vollständig zu beheben.
-
Das grundsätzliche Timing der Wiedergabe des ersten und des zweiten Bildsignals kann durch ein erstes Taktsignal festgelegt werden, welches von einer das Quellsignal erzeugenden Einheit ausgegeben wird. Zumindest für eines der beiden Bildsignale kann dieses erste Taktsignal auch erfindungsgemäß zur Festlegung des Timings verwendet werden. Für das jeweils andere Bildsignal kann jedoch das erste Taktsignal modifiziert oder durch ein anderes (zweites Taktsignal) zeitweise oder vollständig ersetzt werden. Für den Fall, dass eine vom ersten Taktsignal abweichende Frequenz zur optimalen Wiedergabe des zweiten Bildsignals erforderlich ist, kann ein frequenzmoduliertes Signal (z.B. ein Sinussignal oder ein Sägezahnsignal oder ein Dreiecksignal oder ein Rechtecksignal oder ein PWM-Signal) auf Basis der ersten Bildphaseninformationen und/oder auf Basis des ersten Taktsignals erzeugt werden, um das Timing für das zweite Bildsignal festzulegen.
-
Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anordnung zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale vorgeschlagen. Die Anordnung kann beispielsweise Bestandteil einer Anwenderschnittstelle für ein Fortbewegungsmittel, für eine Arbeitsmaschine o.ä. sein. Die Anordnung umfasst eine Bildsignalquelle (auch Eingang zur Verarbeitung eines externen Bildsignals) zur Erzeugung eines ersten Bildsignals und eines zweiten Bildsignals. Mit anderen Worten werden in der Anordnung zwei Bildsignale aus einem jeweiligen, insbesondere jedoch gemeinsamen bzw. identischen, Quellsignal erzeugt. Weiter umfasst die Anordnung eine erste Videosenke und eine zweite Videosenke, welche jeweils als Anzeigemittel zur Anzeige des ersten bzw. des zweiten Bildsignals ausgestaltet sein können. Auch eine Aufnahmeeinheit nach Art eines Recorders kann als Videosenke vorgesehen werden, dessen Aufzeichnungsergebnis dieselben erfindungsgemäß hohen Qualitätsansprüche an die optische Darstellung des Quellsignals erfüllt. Zusätzlich sind eine erste Auswerteeinheit und eine zweite Auswerteeinheit vorgesehen, welche auch in einer einzigen Auswerteeinheit zusammengefasst sein können. Die erste Auswerteeinheit ist daher mindestens eingerichtet, erste Bildphaseninformationen des ersten Bildsignals zu extrahieren. Mit anderen Worten erkennt die Auswerteeinheit, in welcher Bildphase der eingehende Datenstrom sich aktuell befindet. Die zweite Auswerteeinheit ist mindestens eingerichtet, zweite, zu den ersten Bildphaseninformationen korrespondierende Bildphaseninformationen aus dem zweiten Bildsignal zu extrahieren. Zur erfindungsgemäßen Korrektur gegebenenfalls zwischen den Bildsignalen bestehender zeitlicher Unterschiede ist eine Synchronisationseinheit vorgesehen, welche ebenfalls als Bestandteil der ersten und/oder zweiten Auswerteeinheit realisiert sein kann. Die Synchronisationseinheit ist eingerichtet, einen zeitlichen Versatz zwischen den Bildsignalen auf Basis der ersten Bildphaseninformationen und der zweiten Bildphaseninformationen zu ermitteln und zu korrigieren. Im Falle einer Anwenderschnittstelle für einen Fahrerarbeitsplatz kann die erste Videosenke beispielsweise ein Kombiinstrument, ein Head-Up-Displayoder ein zentrales Informationsdisplay in der Armaturentafel sein. Die zweite Videosenke kann eine andere der vorgenannten Ausgestaltungen oder ein Drahtlosanwenderendgerät sein. Die erste und zweite Auswerteeinheit können als Display-Controller ausgeführt sein, welche einer jeweiligen Videosenke zugeordnet sind. Sofern Sorge dafür getragen wird, dass die ersten Bildphaseninformationen des ersten Bildsignals auch der zweiten Auswerteeinheit zugeführt werden, kann die zweite Auswerteeinheit die Aufgaben der ersten Auswerteeinheit zusätzlich übernehmen, wodurch die erste Auswerteeinheit ein Bestandteil der zweiten Auswerteeinheit wird. Entsprechendes gilt für den umgekehrten Fall, in welchem die zweiten Bildphaseninformationen der ersten Auswerteeinheit bereitgestellt werden. Auch die Synchronisationseinheit kann in Abhängigkeit der Infrastruktur zur Ermittlung der erforderlichen Informationen der ersten Videosenke oder der zweiten Videosenke zugeordnet sein. Die erste Auswerteeinheit, die zweite Auswerteeinheit und die Synchronisationseinheit können in einem gemeinsamen Chip bzw. auf einer gemeinsamen Platine angeordnet sein, wodurch die Hardware besonders einfach und kostengünstig zu fertigen und in ihre Peripherie zu integrieren ist. Im Ergebnis ist jede erfindungsgemäß vorgeschlagene Anordnung in der Lage, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Verfahrens zu verwirklichen, weshalb zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
-
Die Synchronisationseinheit kann eingerichtet sein, ein Taktsignal an die zweite Auswerteeinheit auszugeben, wobei das Taktsignal als frequenzmoduliertes Signal (z.B. Sinussignal oder Sägezahnsignal oder Rechtecksignal oder Dreiecksignal oder ein PWM-Signal) ausgestaltet sein kann. Im Ansprechen auf den Empfang des Taktsignals kann die zweite Auswerteeinheit eingerichtet sein, das zweite Bildsignal zu synchronisieren. Mit anderen Worten veranlasst die zweite Auswerteeinheit eine entsprechend dem Taktsignal erfolgende Ausgabe des aktuellen Rahmens des zweiten Bildsignals.
-
Die erste Auswerteeinheit, die zweite Auswerteeinheit und die Synchronisationseinheit können elektrisch, insbesondere galvanisch, und/oder optisch miteinander verbunden sein und bevorzugt sämtlich als integrierter Schaltkreis ausgeführt sein. Insbesondere sind die vorgenannten Komponenten innerhalb eines gemeinsamen mechanischen Verbundes relativ zueinander angeordnet. Beispielsweise sind sie in einem gemeinsamen Gehäuse eines elektronischen Steuergerätes angeordnet. Dies schließt jedoch nicht aus, dass externe Leitungen vorgesehen sind, um ausgegebene Informationen an anderenorts am Gehäuse bzw. Chip vorgesehene Eingänge weiterzuleiten.
-
Eine alternative Ausgestaltung einer erfindungsgemäßen Anordnung weist eine drahtgebundene oder drahtlose Verbindung zwischen der Bildsignalquelle und einem ersten Gerät auf, welches die erste Auswerteeinheit, die erste Videosenke und die Synchronisationseinheit aufweist. Das erste Gerät kann beispielsweise als elektronisches Anwenderendgerät und/oder Drahtloskommunikationsgerät (z.B. Handy, Smartphone, Tablet, Netbook, Notebook, o.ä.) ausgestaltet sein. Zusätzlich ist eine drahtlose oder drahtgebundene Übertragung zwischen der Bildsignalquelle und einem zweiten Gerät vorgesehen, wobei das zweite Gerät die zweite Auswerteeinheit und die zweite Videosenke aufweist. Auch das zweite Gerät kann als elektronisches Anwenderendgerät und/oder als Drahtloskommunikationsgerät ausgestaltet sein. Die Synchronisationseinheit innerhalb des ersten Gerätes ist eingerichtet, einen zeitlichen Versatz zwischen einem mittels des ersten Gerätes ausgegebenen ersten Bildsignal und einen mittels des zweiten Gerätes ausgegebenen zweiten Bildsignal zu verringern. Dies kann beispielsweise durch Verzögerung oder Beschleunigung des ersten Bildsignals und/oder des zweiten Bildsignals (mittels eines angepassten Takts oder durch Anpassung (künstliche Verlängerung oder Verkürzung) eines Bildsignals) erfolgen.
-
Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel (z.B. ein PKW, ein Transporter, ein LKW, ein Motorrad, ein Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine Anordnung gemäß dem zweitgenannten Erfindungsaspekt aufweist. Auf diese Weise können mehrere, im Fortbewegungsmittel angeordnete Videosenken im unmittelbaren Blickfeld des Fahrers mit einem, z.B. im Wesentlichen identischen, Quellsignal versorgt werden, ohne dass optisch qualitative Einbußen aufgrund des Bildwiedergabetimings zu befürchten sind. Auch die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Fortbewegungsmittels/Fahrzeugs entsprechen denen der vorgenannten Erfindungsaspekte, so dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
-
Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
-
1 ein Schaubild zur Veranschaulichung eines Aufbaus eines Frames als Bildsignalbestandteil;
-
2 eine Prinzipskizze zum detaillierten Bildaktualisierungsablauf;
-
3 eine Prinzipskizze veranschaulichend Auswirkungen unsynchronisierter Videosenken;
-
4 eine Prinzipskizze zur Veranschaulichung einer erfindungsgemäßen Synchronisierung mehrerer Bildsignale;
-
5 ein Prinzipschaltbild veranschaulichend ein erstes Ausführungsbeispiel einer erfindungsgemäßen Anordnung, umfassend zwei eigenständige Endgeräte;
-
6 ein Prinzipschaltbild veranschaulichend ein zweites Ausführungsbeispiel einer erfindungsgemäßen Anordnung, bei welcher die gesamte Signalverarbeitung innerhalb eines einzigen Chips erfolgt; und
-
7 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Synchronisation zweier Bildsignale.
-
1 zeigt einen Frame 15 eines Bildsignals und diejenigen Signalbestandteile, welche die sichtbaren Pixel 12 säumen. Eine oberste horizontale Linie von Pixeln 6 dient der vertikalen Synchronisierung (VSync). Darunter sind zwei horizontale Linien von Pixeln 7 als vertical back porch (VBP) vorgesehen. Den vorgenannten nicht-sichtbaren Signalbestandteilen sowie den sichtbaren Pixeln 12 sind jeweilige Pixel 9 als horizontal synchronize (HSync), gefolgt von zwei Pixeln 10 als horizontal back porch (HBP) vorangestellt. Abgeschlossen werden die Linien der sichtbaren Pixel 12 von jeweils drei Pixeln 11 als horizontal front porch (HFP). Unterhalb der sichtbaren Pixel 12 wird jeder Rahmen 15 durch zwei Zeilen von Pixeln 8 als vertikal front porch (VFP) abgeschlossen. Die sichtbaren Pixel 12 sind die tatsächlich optisch vom Betrachter erfassten Bildinformationen. Sie sind für jedes Anzeigeelement vorgegeben, wobei die anderen Parameter bis zu einem gewissen Grad konfigurierbar sind. Die vertikale Schwarztastperiode (Vertical Blanking Period) ist als diejenige Zeit definiert, in welcher kein sichtbarer Pixel 12 an die Videosenke gesendet wird und repräsentiert somit die Dauer von VBP, VSync und VFP. Mit anderen Worten fängt die Vertikal Blank Period mit der Horizontal Front Porch nach dem letzten sichtbaren Pixel, welches an das Display gesendet wurde, an. Die Vertikal Blank Period endet mit der Horizontal Front Porch vor dem ersten sichtbaren Pixel. Der Beginn der vertikalen Schwarztastperiode (ebenfalls der Beginn von VFP) stellt einen im Rahmen der vorliegenden Erfindung verwendbaren Timingparameter für eine Videosenke bzw. ein Bildsignal dar. Dies rührt daher, dass der Beginn von VFP eine maximale Vorlaufzeit vor dem Anfang des nächsten Frames kennzeichnet und daher eine komfortable Aktualisierung der angesteuerten Anzeige ermöglicht (sofern erforderlich). Solche Aktualisierungen können Pufferaustausche (buffer swap), Color Lookup-Table (CLUT)-Aktualisierungen, Hardware (HW)-Layer- Aktualisierungen, etc., umfassen.
-
2 zeigt eine höhere Detailtiefe für eine Aktualisierung einer Anzeige über der Zeit. Das Diagramm zeigt in seiner obersten Zeile einen vollen Frameaktualisierungszyklus, darunter eine vergrößerte Darstellung einer einzelnen Linie und zuunterst schließlich den Zeitverlauf für die einzelnen Linien der Videosenke. Beachtenswert in diesem Zusammenhang ist die Gesamtzahl der Taktvorgaben innerhalb eines einzigen Rahmens 15. Dieser Parameter hat einen direkten Einfluss auf den Zeitverlauf der Anzeige. Üblicherweise weist eine Anzeige Toleranzen zwischen dem Parametern VSync, VFP, VBP, HSync, HFP, HBP und der Taktfrequenz auf. In Verbindung mit den sichtbaren Displaypixeln (Auflösung) und den vorgenannten variablen Parametern bestimmt die Taktvorgabe die Aktualisierungsrate (Periode des Aktualisierungszyklus) des Displays.
-
3 zeigt eine Prinzipskizze der Effekte asynchroner Videosenken. Die mittlere Reihe repräsentiert die Master-Videosenke, innerhalb welcher der synchronisierte Inhalt für alle Anzeigen auf Basis des Timings des Masterdisplays erstellt (gerendert) wird. Die oberste Reihe repräsentiert ein Bildsignal 1 mit einer höheren Aktualisierungsrate als der Master 2 und die untere Reihe repräsentiert ein Bildsignal 3 mit einer langsameren Aktualisierungsrate als der Master 2. Die Darstellung stellt eine extreme Fehlsynchronisation der Bildsignale 1, 2, 3 dar. Der Master 2 steuert die Anzeigedarstellung für sämtliche Videosenken. Da die Anzeigen nicht synchronisiert werden und der Inhalt zur Darstellung auf der Masteranzeige synchronisiert ist, muss derselbe Frame im Falle des ersten Bildsignals 1 mehrfach an die schnellere Videosenke gesendet werden. Dies führt zu einem Jitter bei der Aktualisierung des Bildsignals 1 und macht sich z.B. durch unsanfte Animationen bemerkbar. Wenn die Anzeige nicht unmittelbar durch eine zentrale Einheit gesteuert wird (z.B. ist dies der Fall bei verteilten Anzeigen) kann dies auch zu einem Pufferleerlauf („buffer under flow“) führen. Demgegenüber führt die Aktualisierungslatenz des unteren Bildsignals 3 dazu, dass der Frame 6 des Master-Bildsignals 2 überhaupt nicht dargestellt wird.
-
4 zeigt den erfindungsgemäßen Idealfall eines ersten Bildsignals 2 als Masterbildsignal, auf welches ein zweites Bildsignal 4 als Slave-Bildsignal vollständig synchronisiert ist. Ein alternatives zweites Bildsignal 5 weist einen konstanten zeitlichen Versatz (Offset) gegenüber dem ersten Bildsignal 2 auf, wodurch die Darstellungsaufgaben deterministisch werden, wodurch die Systemressourcen besser/effizienter verteilt werden können.
-
5 zeigt ein erstes Ausführungsbeispiel einer erfindungsgemäßen Anordnung, in welcher eine Bildsignalquelle in Form eines Prozessors 16 Eingangspuffer 27 zweier Mobiltelefone 28, 29 mit Bildsignalen versorgt. Die den Eingangspuffern 27 nachgeschalteten Display-Controller 24, 25 werden zudem gemäß dem Stand der Technik mit einem Taktsignal 18 eines Taktgebers 17 versorgt. Die Display-Controller 24, 25 liefern ein erstes Bildsignal 2 bzw. ein zweites Bildsignal 4 an jeweilige Displays 13, 14. Da die Mobiltelefone 28, 29 von unterschiedlichen Herstellern sind und insbesondere die Displays 13, 14 als unterschiedlich ausgeführte Videosenken unterschiedliche Auflösungen und Technologien aufweisen, sind die vom externen Prozessor 16 gelieferten Bildsignale bezüglich der oben erläuterten optischen Qualitätseinbußen gefährdet, welche sich insbesondere dann ungünstig auswirken, wenn beide Displays 13, 14 im Blickfeld eines Betrachters angeordnet werden. Fett gestrichelt sind die erfindungsgemäßen Modifikationen der Anordnung dargestellt. Zunächst wird die nicht mehr benötigte Verbindungsleitung zwischen dem Taktgeber 17 und dem zweiten Display-Controller 25 aufgetrennt. Das neue Taktsignal wird einer geschlossenen Regeschleife 26 innerhalb des zweiten Display-Controllers 25 von einer erfindungsgemäß vorgeschlagenen Synchronisierungseinheit 19 zugeführt. Diese erhält zudem als Auswerteeinheit die Bildsignale 2, 4, und wertet in diesen enthaltenen Bildphaseninformationen aus, um einen zeitlichen Versatz zwischen beiden zu ermitteln. Entsprechend wird die geschlossene Regelschleife 26 derart mit einem frequenzmodulierten Signal durch die Synchronisierungseinheit 19 angesteuert, dass zumindest die sichtbare Bestandteile der Bildsignale 2, 4 vollständig und identisch (Frame für Frame) auf den Displays 13, 14 angezeigt werden.
-
6 zeigt eine Anordnung, bei welcher zwei Displays 13, 14 (z.B. ein Kombiinstrument und ein Head-Up-Display) durch einen einzelnen Chip 20 mit erfindungsgemäß synchronisierten Bildsignalen 2, 4 versorgt werden. Von einer Bildsignalquelle in Form eines Prozessors 17 gelangt ein Quellsignal in eine Auswerteeinheit 21, welche geschlossene Regelschleifen 22, 23 zur Erzeugung eines jeweiligen Eingangssignals für einen ersten Display-Controller 24 und einen zweiten Display-Controller 25 bereitstellen. Wie in Verbindung mit 5 erläutert, ist eine Synchronisierungseinheit 19 vorgesehen, die Bildphaseninformationen innerhalb der Bildsignale 2, 4 zu extrahieren, einen zeitlichen Versatz zwischen beiden zu ermitteln und durch Ausgabe eines angepassten Taktsignals über außerhalb des Chips 20 geführte Leitung 20a der zweiten geschlossenen Regelschleife 23 zuzuführen, um deren Ausgangssignal hinsichtlich seiner Frequenz anzupassen. Auf diese Weise sorgt die Synchronisierungseinheit 19 durch eine Frequenzmodulation des von ihr ausgegebenen Taktsignals für eine Synchronisation der Bildsignale 2, 4, um optische Unregelmäßigkeiten bei der Darbietung der Bildsignale 2, 4 auf den Bildschirmen 13, 14 zu vermeiden.
-
7 zeigt Schritte eines Ausführungsbeispiels eines Verfahrens zur Synchronisation zweier, auf einem identischen Quellsignal basierender Bildsignale. In Schritt 100 wird ein erstes Taktsignal für eine Wiedergabe des ersten Bildsignals empfangen, welches von einer Quelle für das erste Bildsignal und das zweite Bildsignal ausgegeben wird. In Schritt 200 werden erste Bildphaseninformationen eines ersten Bildsignals und in Schritt 300 zweite, zu den ersten Bildphaseninformationen korrespondierende Bildphaseninformationen eines zweiten Bildsignals extrahiert. In Schritt 400 wird ermittelt, dass aufgrund des gemeinsamen ersten Taktsignals ein zeitlicher Versatz zwischen den ersten Bildphaseninformationen und den zweiten Bildphaseninformationen besteht. Dies kann beispielsweise auf unterschiedlichen Bildschirmauflösungen und/oder Bildschirmtechnologien beruhen, welche zur Anzeige der ersten und zweiten Bildsignale verwendet werden. Entsprechend wird erfindungsgemäß der zeitliche Versatz zwischen den Bildsignalen entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen in Schritt 500 korrigiert. Auf diese Weise kann vermieden werden, dass sich zeitliche Fehlanpassungen des ersten Bildsignals gegenüber dem zweiten Bildsignal beispielsweise nach mehreren Frames derart drastisch erhöhen, dass nach einer gewissen Zeit einzelne Frames des Quellsignals in einem Bildsignal mehrfach enthalten sind oder gänzlich fehlen.
-
Die vorliegende Erfindung ermöglicht eine deterministische Speicherbandbreite sowie deterministische Laufzeiten bei der Anzeige eines Quellsignals auf mindestens zwei Videosenken. Dies führt dazu, dass wichtige Arbeitspakete für die verwendeten Display-Controller zu vorbestimmten Zeitpunkten ausgeführt werden, so dass deren Arbeitsauslastung über der Zeit besser absehbar ist. Insbesondere werden keine Rahmenbildsignale ausgelassen oder Qualitätseinbußen durch mehrfache Darstellung eines identischen Rahmens hingenommen. Die vorhandene Speicherbandbreite kann besser aufgeteilt werden und die Synchronisation unterschiedlicher Bildschirme kann verbessert werden. Schließlich wird auch die Sicherheit durch die detaillierte Echtzeitabbildung sicherheitsrelevanter Informationen erhöht.
-
Bezugszeichenliste
-
- 1–5
- Bildsignale
- 6–12
- Bildphaseninformationen
- 13, 14
- Videosenken
- 15
- Frame (Bildsignalbestandteil)
- 16
- Prozessor
- 17
- Taktgeber
- 18
- Takt
- 19
- Auswerte-/Synchronisierungseinheit
- 20
- Chip
- 20a
- Taktleitung
- 21
- Auswerteeinheit
- 22, 23
- geschlossene Regelschleifen
- 24, 25
- Display-Controller
- 26
- geschlossene Regelschleife
- 27
- Eingangspuffer
- 28, 29
- Mobiltelefone
- 100–500
- Verfahrensschritte