DE102015209089A1 - Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale - Google Patents

Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale Download PDF

Info

Publication number
DE102015209089A1
DE102015209089A1 DE102015209089.2A DE102015209089A DE102015209089A1 DE 102015209089 A1 DE102015209089 A1 DE 102015209089A1 DE 102015209089 A DE102015209089 A DE 102015209089A DE 102015209089 A1 DE102015209089 A1 DE 102015209089A1
Authority
DE
Germany
Prior art keywords
image
signal
phase information
image signal
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015209089.2A
Other languages
English (en)
Inventor
Sean Brown
Kai Klein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102015209089.2A priority Critical patent/DE102015209089A1/de
Publication of DE102015209089A1 publication Critical patent/DE102015209089A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Es werden ein Fortbewegungsmittel, eine Anordnung sowie ein Verfahren zur Synchronisation zweier, auf einem identischen Quellsignal basierender Bildsignale (2, 4) vorgeschlagen. Das Verfahren umfasst die Schritte: – Extrahieren erster Bildphaseninformationen eines ersten Bildsignals (2), – Extrahieren zweiter, zu den ersten Bildphaseninformationen korrespondierender Bildphaseninformationen eines zweiten Bildsignals (4), – Ermitteln eines zeitlichen Versatzes zwischen den ersten Bildphaseninformationen und den zweiten Bildphaseninformationen, und – Korrigieren des zeitlichen Versatzes zwischen den Bildsignalen (2, 4) entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen.

Description

  • Die vorliegende Erfindung betrifft eine Anordnung, ein Fortbewegungsmittel sowie ein Verfahren zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale. Insbesondere betrifft die vorliegende Erfindung die Vermeidung von Bildstörungen aufgrund von ausgelassenen oder doppelt angezeigten Einzelbildern (englisch: „frames“).
  • Derzeit verfügbare Produkte und Technologien ermöglichen keine Synchronisierung zweier oder mehrerer Bildschirme (englisch: „display“), welche unterschiedliche Auflösungen aufweisen, sofern der anzuzeigende Inhalt von einer zentralen Bildquelle zur Verfügung gestellt wird. Dies kann zu einem sichtbaren Anzeigefehler (englisch: „jitter“), zu ausgelassenen sowie zu doppelt angezeigten Frames sowie zu Schwebung und dem sogenannten „Beat Effekt“ in dem dargestellten Bildinhalt führen.
  • Im Stand der Technik ist es bekannt, mehrere Videosenken (Bildschirme) einer jeweils gleichen Auflösung, von einem selben Hersteller sowie der gleichen Technologie zur zeitgleichen Anzeige eines Bildsignals zu verwenden. Dies ermöglicht problemlos eine fehlerfreie Anzeige, da sämtliche, das Timing beeinflussende Parameter dieselben sind. Eine perfekte Bildschirmsynchronisation ist jedoch insbesondere dann eine Herausforderung, wenn die verwendeten Bildschirme unterschiedliche Timings aufweisen und beide im direkten Blickfeld des Betrachters angeordnet sind.
  • Eine kurze Einführung zur Bildanzeigetechnologie des Standes der Technik wird in Verbindung mit den beigefügten Zeichnungsfiguren gegeben.
  • Es ist eine Aufgabe der vorliegenden Erfindung, einen identischen Anzeigeinhalt auf mehreren, insbesondere unterschiedlichen, Videosenken fehlerfrei darzustellen.
  • Die vorstehende Aufgabe wird erfindungsgemäß durch ein Verfahren zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale gelöst. Das Quellsignal kann beispielsweise ein im Wesentlichen statisches oder ein Bewegtbild (Videosignal) sein, welches sowohl dem ersten als auch dem zweiten Bildsignal zugrunde gelegt wird. In einem ersten Schritt werden erste Bildphaseninformationen eines ersten Bildsignals extrahiert. Als „Bildphaseninformationen“ seien im Rahmen der vorliegenden Erfindung solche Signale im Quellsignal verstanden, welche Aufschluss darüber geben, welcher Frame gerade anzuzeigen ist. Insbesondere können die Bildphaseninformationen eine Position innerhalb eines Frames kennzeichnen. Diese Position kann insbesondere innerhalb eine Vielzahl aufeinanderfolgend anzuzeigender Frames enthalten und entsprechend gekennzeichnet werden. Die Bildphaseninformationen können sich insbesondere auf nicht anzuzeigende Informationen zur Bildsteuerung bzw. Anzeigesteuerung und zur Synchronisation von Zeilen und/oder Spalten beziehen. In einem zweiten Schritt werden entsprechende Bildphaseninformationen eines zweiten Bildsignals extrahiert. Die Bildphaseninformationen können beispielsweise von einem sog. „Display- Controller“ auf Basis des Quellsignals einer gemeinsamen Datenquelle erzeugt werden. Sofern vorhanden, wird ein zeitlicher Versatz zwischen den ersten Bildphaseninformationen und den zweiten Bildphaseninformationen ermittelt. Diese können Aufschluss darüber geben, in welchem zeitlichen Zusammenhang die Quelldaten bzw. das Quellsignal in das erste Bildsignal bzw. das zweite Bildsignal gewandelt werden. Schließlich wird der zeitliche Versatz zwischen dem ersten Bildsignal und dem zweiten Bildsignal entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen korrigiert. Mit anderen Worten wird ein Signal zur Beschleunigung oder Verzögerung eines der Bildsignale ausgegeben oder ein Takt zur Ausgabe eines der Bildsignale entsprechend angepasst. Im Ergebnis wird ein zeitlicher Versatz zwischen den Bildsignalen verringert, so dass das Quellsignal ohne ein Auslassen ganzer Frames oder die wiederholte Anzeige ein und desselben Frames von zwei jeweiligen Videosenken dargestellt werden kann. Im Ergebnis können zwei Bildsignale innerhalb eines Kernblickfeldes eines Anwenders dargestellt werden, ohne dass etwaige Timing- Unterschiede zu erkennbaren Einbußen der Darstellungsqualität führen.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Bevorzugt kann das erste Bildsignal auf einer ersten Videosenke in Form eines Bildschirms und/oder in Form eines Head-Up-Displays und/oder in Form eines Kombi-Instrumentes und/oder in Form einer Datenbrille mit integrierter Anzeigeeinheit und/oder auf einem drahtlosen elektronischen Anwender- Endgerät angezeigt werden. Auch das zweite Bildsignal kann auf einer entsprechenden, insbesondere ungleichnamig, ausgestalteten Videosenke dargestellt werden.
  • Die erste Videosenke kann sich von der zweiten Videosenke beispielsweise durch eine andere native Auflösung und/oder durch eine andere Auflösung des jeweiligen aktiven oder inaktiven Bildbereiches und/oder durch andere Konfigurationsparameter (z.B. Größe und/oder Lage von Parametern wie z.B. Frontporch, Backporch, Sync Width, Pixel Clock etc.) unterscheiden. Während die vorgenannten Parameter bzw. Eigenschaften bei im Stand der Technik bekannten Anordnungen häufig ursächlich für timingbedingte Darstellungsunregelmäßigkeiten sind, führt die erfindungsgemäße Korrektur des zeitlichen Versatzes zu einer stabilen und fehlerfreien Videodarbietung. Die erfindungsgemäße Synchronisation der zwei Bildsignale, insbesondere die Korrektur des zeitlichen Versatzes kann insbesondere in regelmäßigen Abständen, bevorzugt in jedem Frame des Quellsignals bzw. eines oder beider der Bildsignale ausgeführt werden. Dies wirkt auch starken Timingunterschieden und ihren negativen Auswirkungen effektiv entgegen.
  • Beispiele für Bildphaseninformationen, deren zeitlicher Versatz bezüglich des ersten und zweiten Bildsignals zueinander verglichen wird, sind das (vertical) blanking-Signal, das vertical synchronize-Signal, das horizontal synchronize-Signal, das Ausbleiben von Data Enable(DE)-Signalen oder das eine Linie vor einer vertikalen Synchronisierung-Signal. Selbstverständlich sollten einander entsprechende Bildphaseninformationen im ersten und zweiten Bildsignal zur Bestimmung des zeitlichen Versatzes verwendet werden.
  • Das Korrigieren des zeitlichen Versatzes kann beispielsweise durch das Ausgeben eines zweiten Taktsignals für eine Wiedergabe des zweiten Bildsignals erfolgen. Hierzu kann es erforderlich sein, ein im Stand der Technik sämtlichen Videosenken zugespieltes bzw. zur Verfügung gestelltes Taktsignal für die Darstellung des zweiten Bildsignals außer Kraft zu setzen und durch das zweite Taktsignal, welches erfindungsgemäß hinsichtlich des zeitlichen Versatzes korrigiert worden ist, zu ersetzen. Alternativ oder zusätzlich kann zur Korrektur des zeitlichen Versatzes ein nicht-sichtbarer Bildsignalbestandteil (z.B. eine Bildphaseninformation) des ersten oder zweiten Bildsignals zusätzlich zum Quellsignal in den Datenstrom eingereiht oder ein im Quellsignal enthaltener nicht sichtbarer Bildsignalbestandteil aus dem Bildsignalstrom entfernt werden, um den zeitlichen Versatz zu verringern oder vollständig zu beheben.
  • Das grundsätzliche Timing der Wiedergabe des ersten und des zweiten Bildsignals kann durch ein erstes Taktsignal festgelegt werden, welches von einer das Quellsignal erzeugenden Einheit ausgegeben wird. Zumindest für eines der beiden Bildsignale kann dieses erste Taktsignal auch erfindungsgemäß zur Festlegung des Timings verwendet werden. Für das jeweils andere Bildsignal kann jedoch das erste Taktsignal modifiziert oder durch ein anderes (zweites Taktsignal) zeitweise oder vollständig ersetzt werden. Für den Fall, dass eine vom ersten Taktsignal abweichende Frequenz zur optimalen Wiedergabe des zweiten Bildsignals erforderlich ist, kann ein frequenzmoduliertes Signal (z.B. ein Sinussignal oder ein Sägezahnsignal oder ein Dreiecksignal oder ein Rechtecksignal oder ein PWM-Signal) auf Basis der ersten Bildphaseninformationen und/oder auf Basis des ersten Taktsignals erzeugt werden, um das Timing für das zweite Bildsignal festzulegen.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anordnung zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale vorgeschlagen. Die Anordnung kann beispielsweise Bestandteil einer Anwenderschnittstelle für ein Fortbewegungsmittel, für eine Arbeitsmaschine o.ä. sein. Die Anordnung umfasst eine Bildsignalquelle (auch Eingang zur Verarbeitung eines externen Bildsignals) zur Erzeugung eines ersten Bildsignals und eines zweiten Bildsignals. Mit anderen Worten werden in der Anordnung zwei Bildsignale aus einem jeweiligen, insbesondere jedoch gemeinsamen bzw. identischen, Quellsignal erzeugt. Weiter umfasst die Anordnung eine erste Videosenke und eine zweite Videosenke, welche jeweils als Anzeigemittel zur Anzeige des ersten bzw. des zweiten Bildsignals ausgestaltet sein können. Auch eine Aufnahmeeinheit nach Art eines Recorders kann als Videosenke vorgesehen werden, dessen Aufzeichnungsergebnis dieselben erfindungsgemäß hohen Qualitätsansprüche an die optische Darstellung des Quellsignals erfüllt. Zusätzlich sind eine erste Auswerteeinheit und eine zweite Auswerteeinheit vorgesehen, welche auch in einer einzigen Auswerteeinheit zusammengefasst sein können. Die erste Auswerteeinheit ist daher mindestens eingerichtet, erste Bildphaseninformationen des ersten Bildsignals zu extrahieren. Mit anderen Worten erkennt die Auswerteeinheit, in welcher Bildphase der eingehende Datenstrom sich aktuell befindet. Die zweite Auswerteeinheit ist mindestens eingerichtet, zweite, zu den ersten Bildphaseninformationen korrespondierende Bildphaseninformationen aus dem zweiten Bildsignal zu extrahieren. Zur erfindungsgemäßen Korrektur gegebenenfalls zwischen den Bildsignalen bestehender zeitlicher Unterschiede ist eine Synchronisationseinheit vorgesehen, welche ebenfalls als Bestandteil der ersten und/oder zweiten Auswerteeinheit realisiert sein kann. Die Synchronisationseinheit ist eingerichtet, einen zeitlichen Versatz zwischen den Bildsignalen auf Basis der ersten Bildphaseninformationen und der zweiten Bildphaseninformationen zu ermitteln und zu korrigieren. Im Falle einer Anwenderschnittstelle für einen Fahrerarbeitsplatz kann die erste Videosenke beispielsweise ein Kombiinstrument, ein Head-Up-Displayoder ein zentrales Informationsdisplay in der Armaturentafel sein. Die zweite Videosenke kann eine andere der vorgenannten Ausgestaltungen oder ein Drahtlosanwenderendgerät sein. Die erste und zweite Auswerteeinheit können als Display-Controller ausgeführt sein, welche einer jeweiligen Videosenke zugeordnet sind. Sofern Sorge dafür getragen wird, dass die ersten Bildphaseninformationen des ersten Bildsignals auch der zweiten Auswerteeinheit zugeführt werden, kann die zweite Auswerteeinheit die Aufgaben der ersten Auswerteeinheit zusätzlich übernehmen, wodurch die erste Auswerteeinheit ein Bestandteil der zweiten Auswerteeinheit wird. Entsprechendes gilt für den umgekehrten Fall, in welchem die zweiten Bildphaseninformationen der ersten Auswerteeinheit bereitgestellt werden. Auch die Synchronisationseinheit kann in Abhängigkeit der Infrastruktur zur Ermittlung der erforderlichen Informationen der ersten Videosenke oder der zweiten Videosenke zugeordnet sein. Die erste Auswerteeinheit, die zweite Auswerteeinheit und die Synchronisationseinheit können in einem gemeinsamen Chip bzw. auf einer gemeinsamen Platine angeordnet sein, wodurch die Hardware besonders einfach und kostengünstig zu fertigen und in ihre Peripherie zu integrieren ist. Im Ergebnis ist jede erfindungsgemäß vorgeschlagene Anordnung in der Lage, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Verfahrens zu verwirklichen, weshalb zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Die Synchronisationseinheit kann eingerichtet sein, ein Taktsignal an die zweite Auswerteeinheit auszugeben, wobei das Taktsignal als frequenzmoduliertes Signal (z.B. Sinussignal oder Sägezahnsignal oder Rechtecksignal oder Dreiecksignal oder ein PWM-Signal) ausgestaltet sein kann. Im Ansprechen auf den Empfang des Taktsignals kann die zweite Auswerteeinheit eingerichtet sein, das zweite Bildsignal zu synchronisieren. Mit anderen Worten veranlasst die zweite Auswerteeinheit eine entsprechend dem Taktsignal erfolgende Ausgabe des aktuellen Rahmens des zweiten Bildsignals.
  • Die erste Auswerteeinheit, die zweite Auswerteeinheit und die Synchronisationseinheit können elektrisch, insbesondere galvanisch, und/oder optisch miteinander verbunden sein und bevorzugt sämtlich als integrierter Schaltkreis ausgeführt sein. Insbesondere sind die vorgenannten Komponenten innerhalb eines gemeinsamen mechanischen Verbundes relativ zueinander angeordnet. Beispielsweise sind sie in einem gemeinsamen Gehäuse eines elektronischen Steuergerätes angeordnet. Dies schließt jedoch nicht aus, dass externe Leitungen vorgesehen sind, um ausgegebene Informationen an anderenorts am Gehäuse bzw. Chip vorgesehene Eingänge weiterzuleiten.
  • Eine alternative Ausgestaltung einer erfindungsgemäßen Anordnung weist eine drahtgebundene oder drahtlose Verbindung zwischen der Bildsignalquelle und einem ersten Gerät auf, welches die erste Auswerteeinheit, die erste Videosenke und die Synchronisationseinheit aufweist. Das erste Gerät kann beispielsweise als elektronisches Anwenderendgerät und/oder Drahtloskommunikationsgerät (z.B. Handy, Smartphone, Tablet, Netbook, Notebook, o.ä.) ausgestaltet sein. Zusätzlich ist eine drahtlose oder drahtgebundene Übertragung zwischen der Bildsignalquelle und einem zweiten Gerät vorgesehen, wobei das zweite Gerät die zweite Auswerteeinheit und die zweite Videosenke aufweist. Auch das zweite Gerät kann als elektronisches Anwenderendgerät und/oder als Drahtloskommunikationsgerät ausgestaltet sein. Die Synchronisationseinheit innerhalb des ersten Gerätes ist eingerichtet, einen zeitlichen Versatz zwischen einem mittels des ersten Gerätes ausgegebenen ersten Bildsignal und einen mittels des zweiten Gerätes ausgegebenen zweiten Bildsignal zu verringern. Dies kann beispielsweise durch Verzögerung oder Beschleunigung des ersten Bildsignals und/oder des zweiten Bildsignals (mittels eines angepassten Takts oder durch Anpassung (künstliche Verlängerung oder Verkürzung) eines Bildsignals) erfolgen.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel (z.B. ein PKW, ein Transporter, ein LKW, ein Motorrad, ein Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine Anordnung gemäß dem zweitgenannten Erfindungsaspekt aufweist. Auf diese Weise können mehrere, im Fortbewegungsmittel angeordnete Videosenken im unmittelbaren Blickfeld des Fahrers mit einem, z.B. im Wesentlichen identischen, Quellsignal versorgt werden, ohne dass optisch qualitative Einbußen aufgrund des Bildwiedergabetimings zu befürchten sind. Auch die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Fortbewegungsmittels/Fahrzeugs entsprechen denen der vorgenannten Erfindungsaspekte, so dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
  • 1 ein Schaubild zur Veranschaulichung eines Aufbaus eines Frames als Bildsignalbestandteil;
  • 2 eine Prinzipskizze zum detaillierten Bildaktualisierungsablauf;
  • 3 eine Prinzipskizze veranschaulichend Auswirkungen unsynchronisierter Videosenken;
  • 4 eine Prinzipskizze zur Veranschaulichung einer erfindungsgemäßen Synchronisierung mehrerer Bildsignale;
  • 5 ein Prinzipschaltbild veranschaulichend ein erstes Ausführungsbeispiel einer erfindungsgemäßen Anordnung, umfassend zwei eigenständige Endgeräte;
  • 6 ein Prinzipschaltbild veranschaulichend ein zweites Ausführungsbeispiel einer erfindungsgemäßen Anordnung, bei welcher die gesamte Signalverarbeitung innerhalb eines einzigen Chips erfolgt; und
  • 7 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Synchronisation zweier Bildsignale.
  • 1 zeigt einen Frame 15 eines Bildsignals und diejenigen Signalbestandteile, welche die sichtbaren Pixel 12 säumen. Eine oberste horizontale Linie von Pixeln 6 dient der vertikalen Synchronisierung (VSync). Darunter sind zwei horizontale Linien von Pixeln 7 als vertical back porch (VBP) vorgesehen. Den vorgenannten nicht-sichtbaren Signalbestandteilen sowie den sichtbaren Pixeln 12 sind jeweilige Pixel 9 als horizontal synchronize (HSync), gefolgt von zwei Pixeln 10 als horizontal back porch (HBP) vorangestellt. Abgeschlossen werden die Linien der sichtbaren Pixel 12 von jeweils drei Pixeln 11 als horizontal front porch (HFP). Unterhalb der sichtbaren Pixel 12 wird jeder Rahmen 15 durch zwei Zeilen von Pixeln 8 als vertikal front porch (VFP) abgeschlossen. Die sichtbaren Pixel 12 sind die tatsächlich optisch vom Betrachter erfassten Bildinformationen. Sie sind für jedes Anzeigeelement vorgegeben, wobei die anderen Parameter bis zu einem gewissen Grad konfigurierbar sind. Die vertikale Schwarztastperiode (Vertical Blanking Period) ist als diejenige Zeit definiert, in welcher kein sichtbarer Pixel 12 an die Videosenke gesendet wird und repräsentiert somit die Dauer von VBP, VSync und VFP. Mit anderen Worten fängt die Vertikal Blank Period mit der Horizontal Front Porch nach dem letzten sichtbaren Pixel, welches an das Display gesendet wurde, an. Die Vertikal Blank Period endet mit der Horizontal Front Porch vor dem ersten sichtbaren Pixel. Der Beginn der vertikalen Schwarztastperiode (ebenfalls der Beginn von VFP) stellt einen im Rahmen der vorliegenden Erfindung verwendbaren Timingparameter für eine Videosenke bzw. ein Bildsignal dar. Dies rührt daher, dass der Beginn von VFP eine maximale Vorlaufzeit vor dem Anfang des nächsten Frames kennzeichnet und daher eine komfortable Aktualisierung der angesteuerten Anzeige ermöglicht (sofern erforderlich). Solche Aktualisierungen können Pufferaustausche (buffer swap), Color Lookup-Table (CLUT)-Aktualisierungen, Hardware (HW)-Layer- Aktualisierungen, etc., umfassen.
  • 2 zeigt eine höhere Detailtiefe für eine Aktualisierung einer Anzeige über der Zeit. Das Diagramm zeigt in seiner obersten Zeile einen vollen Frameaktualisierungszyklus, darunter eine vergrößerte Darstellung einer einzelnen Linie und zuunterst schließlich den Zeitverlauf für die einzelnen Linien der Videosenke. Beachtenswert in diesem Zusammenhang ist die Gesamtzahl der Taktvorgaben innerhalb eines einzigen Rahmens 15. Dieser Parameter hat einen direkten Einfluss auf den Zeitverlauf der Anzeige. Üblicherweise weist eine Anzeige Toleranzen zwischen dem Parametern VSync, VFP, VBP, HSync, HFP, HBP und der Taktfrequenz auf. In Verbindung mit den sichtbaren Displaypixeln (Auflösung) und den vorgenannten variablen Parametern bestimmt die Taktvorgabe die Aktualisierungsrate (Periode des Aktualisierungszyklus) des Displays.
  • 3 zeigt eine Prinzipskizze der Effekte asynchroner Videosenken. Die mittlere Reihe repräsentiert die Master-Videosenke, innerhalb welcher der synchronisierte Inhalt für alle Anzeigen auf Basis des Timings des Masterdisplays erstellt (gerendert) wird. Die oberste Reihe repräsentiert ein Bildsignal 1 mit einer höheren Aktualisierungsrate als der Master 2 und die untere Reihe repräsentiert ein Bildsignal 3 mit einer langsameren Aktualisierungsrate als der Master 2. Die Darstellung stellt eine extreme Fehlsynchronisation der Bildsignale 1, 2, 3 dar. Der Master 2 steuert die Anzeigedarstellung für sämtliche Videosenken. Da die Anzeigen nicht synchronisiert werden und der Inhalt zur Darstellung auf der Masteranzeige synchronisiert ist, muss derselbe Frame im Falle des ersten Bildsignals 1 mehrfach an die schnellere Videosenke gesendet werden. Dies führt zu einem Jitter bei der Aktualisierung des Bildsignals 1 und macht sich z.B. durch unsanfte Animationen bemerkbar. Wenn die Anzeige nicht unmittelbar durch eine zentrale Einheit gesteuert wird (z.B. ist dies der Fall bei verteilten Anzeigen) kann dies auch zu einem Pufferleerlauf („buffer under flow“) führen. Demgegenüber führt die Aktualisierungslatenz des unteren Bildsignals 3 dazu, dass der Frame 6 des Master-Bildsignals 2 überhaupt nicht dargestellt wird.
  • 4 zeigt den erfindungsgemäßen Idealfall eines ersten Bildsignals 2 als Masterbildsignal, auf welches ein zweites Bildsignal 4 als Slave-Bildsignal vollständig synchronisiert ist. Ein alternatives zweites Bildsignal 5 weist einen konstanten zeitlichen Versatz (Offset) gegenüber dem ersten Bildsignal 2 auf, wodurch die Darstellungsaufgaben deterministisch werden, wodurch die Systemressourcen besser/effizienter verteilt werden können.
  • 5 zeigt ein erstes Ausführungsbeispiel einer erfindungsgemäßen Anordnung, in welcher eine Bildsignalquelle in Form eines Prozessors 16 Eingangspuffer 27 zweier Mobiltelefone 28, 29 mit Bildsignalen versorgt. Die den Eingangspuffern 27 nachgeschalteten Display-Controller 24, 25 werden zudem gemäß dem Stand der Technik mit einem Taktsignal 18 eines Taktgebers 17 versorgt. Die Display-Controller 24, 25 liefern ein erstes Bildsignal 2 bzw. ein zweites Bildsignal 4 an jeweilige Displays 13, 14. Da die Mobiltelefone 28, 29 von unterschiedlichen Herstellern sind und insbesondere die Displays 13, 14 als unterschiedlich ausgeführte Videosenken unterschiedliche Auflösungen und Technologien aufweisen, sind die vom externen Prozessor 16 gelieferten Bildsignale bezüglich der oben erläuterten optischen Qualitätseinbußen gefährdet, welche sich insbesondere dann ungünstig auswirken, wenn beide Displays 13, 14 im Blickfeld eines Betrachters angeordnet werden. Fett gestrichelt sind die erfindungsgemäßen Modifikationen der Anordnung dargestellt. Zunächst wird die nicht mehr benötigte Verbindungsleitung zwischen dem Taktgeber 17 und dem zweiten Display-Controller 25 aufgetrennt. Das neue Taktsignal wird einer geschlossenen Regeschleife 26 innerhalb des zweiten Display-Controllers 25 von einer erfindungsgemäß vorgeschlagenen Synchronisierungseinheit 19 zugeführt. Diese erhält zudem als Auswerteeinheit die Bildsignale 2, 4, und wertet in diesen enthaltenen Bildphaseninformationen aus, um einen zeitlichen Versatz zwischen beiden zu ermitteln. Entsprechend wird die geschlossene Regelschleife 26 derart mit einem frequenzmodulierten Signal durch die Synchronisierungseinheit 19 angesteuert, dass zumindest die sichtbare Bestandteile der Bildsignale 2, 4 vollständig und identisch (Frame für Frame) auf den Displays 13, 14 angezeigt werden.
  • 6 zeigt eine Anordnung, bei welcher zwei Displays 13, 14 (z.B. ein Kombiinstrument und ein Head-Up-Display) durch einen einzelnen Chip 20 mit erfindungsgemäß synchronisierten Bildsignalen 2, 4 versorgt werden. Von einer Bildsignalquelle in Form eines Prozessors 17 gelangt ein Quellsignal in eine Auswerteeinheit 21, welche geschlossene Regelschleifen 22, 23 zur Erzeugung eines jeweiligen Eingangssignals für einen ersten Display-Controller 24 und einen zweiten Display-Controller 25 bereitstellen. Wie in Verbindung mit 5 erläutert, ist eine Synchronisierungseinheit 19 vorgesehen, die Bildphaseninformationen innerhalb der Bildsignale 2, 4 zu extrahieren, einen zeitlichen Versatz zwischen beiden zu ermitteln und durch Ausgabe eines angepassten Taktsignals über außerhalb des Chips 20 geführte Leitung 20a der zweiten geschlossenen Regelschleife 23 zuzuführen, um deren Ausgangssignal hinsichtlich seiner Frequenz anzupassen. Auf diese Weise sorgt die Synchronisierungseinheit 19 durch eine Frequenzmodulation des von ihr ausgegebenen Taktsignals für eine Synchronisation der Bildsignale 2, 4, um optische Unregelmäßigkeiten bei der Darbietung der Bildsignale 2, 4 auf den Bildschirmen 13, 14 zu vermeiden.
  • 7 zeigt Schritte eines Ausführungsbeispiels eines Verfahrens zur Synchronisation zweier, auf einem identischen Quellsignal basierender Bildsignale. In Schritt 100 wird ein erstes Taktsignal für eine Wiedergabe des ersten Bildsignals empfangen, welches von einer Quelle für das erste Bildsignal und das zweite Bildsignal ausgegeben wird. In Schritt 200 werden erste Bildphaseninformationen eines ersten Bildsignals und in Schritt 300 zweite, zu den ersten Bildphaseninformationen korrespondierende Bildphaseninformationen eines zweiten Bildsignals extrahiert. In Schritt 400 wird ermittelt, dass aufgrund des gemeinsamen ersten Taktsignals ein zeitlicher Versatz zwischen den ersten Bildphaseninformationen und den zweiten Bildphaseninformationen besteht. Dies kann beispielsweise auf unterschiedlichen Bildschirmauflösungen und/oder Bildschirmtechnologien beruhen, welche zur Anzeige der ersten und zweiten Bildsignale verwendet werden. Entsprechend wird erfindungsgemäß der zeitliche Versatz zwischen den Bildsignalen entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen in Schritt 500 korrigiert. Auf diese Weise kann vermieden werden, dass sich zeitliche Fehlanpassungen des ersten Bildsignals gegenüber dem zweiten Bildsignal beispielsweise nach mehreren Frames derart drastisch erhöhen, dass nach einer gewissen Zeit einzelne Frames des Quellsignals in einem Bildsignal mehrfach enthalten sind oder gänzlich fehlen.
  • Die vorliegende Erfindung ermöglicht eine deterministische Speicherbandbreite sowie deterministische Laufzeiten bei der Anzeige eines Quellsignals auf mindestens zwei Videosenken. Dies führt dazu, dass wichtige Arbeitspakete für die verwendeten Display-Controller zu vorbestimmten Zeitpunkten ausgeführt werden, so dass deren Arbeitsauslastung über der Zeit besser absehbar ist. Insbesondere werden keine Rahmenbildsignale ausgelassen oder Qualitätseinbußen durch mehrfache Darstellung eines identischen Rahmens hingenommen. Die vorhandene Speicherbandbreite kann besser aufgeteilt werden und die Synchronisation unterschiedlicher Bildschirme kann verbessert werden. Schließlich wird auch die Sicherheit durch die detaillierte Echtzeitabbildung sicherheitsrelevanter Informationen erhöht.
  • Bezugszeichenliste
  • 1–5
    Bildsignale
    6–12
    Bildphaseninformationen
    13, 14
    Videosenken
    15
    Frame (Bildsignalbestandteil)
    16
    Prozessor
    17
    Taktgeber
    18
    Takt
    19
    Auswerte-/Synchronisierungseinheit
    20
    Chip
    20a
    Taktleitung
    21
    Auswerteeinheit
    22, 23
    geschlossene Regelschleifen
    24, 25
    Display-Controller
    26
    geschlossene Regelschleife
    27
    Eingangspuffer
    28, 29
    Mobiltelefone
    100–500
    Verfahrensschritte

Claims (10)

  1. Verfahren zur Synchronisation zweier, auf einem Quellsignal basierender Bildsignale (2, 4) umfassend die Schritte: – Extrahieren (200) erster Bildphaseninformationen (612) eines ersten Bildsignals (2), – Extrahieren (300) zweiter, zu den ersten Bildphaseninformationen (612) korrespondierender Bildphaseninformationen (612) eines zweiten Bildsignals (4), – Ermitteln (400) eines zeitlichen Versatzes zwischen den ersten Bildphaseninformationen (612) und den zweiten Bildphaseninformationen (612), und – Korrigieren (500) des zeitlichen Versatzes zwischen den Bildsignalen (2, 4) entsprechend dem zeitlichen Versatz zwischen den Bildphaseninformationen (612).
  2. Verfahren nach Anspruch 1 weiter umfassend Anzeigen – des ersten Bildsignals (2) auf einer ersten Videosenke (13) und – des zweiten Bildsignals (4) auf einer zweiten Videosenke (14). Verfahren nach Anspruch 2, wobei die erste Videosenke (13) – eine andere native Auflösung als die zweite Videosenke (14) und/oder – eine andere Auflösung des jeweiligen aktiven oder inaktiven Bildbereiches als die zweite Videosenke (14) und/oder – andere Konfigurationsparameter aufweist.
  3. Verfahren nach einem der vorstehenden Ansprüche, wobei die Bildphaseninformationen (612) ein – „Virtual Blanking“ Signal, und/oder – „Vertical Synchronize“-Signal, und/oder – „Horizontal Synchronize“ Signal und/oder – Ausbleiben eines Data Enable-Signals und/oder – „Linien vor einer vertikalen Synchronisierung“-Signal kennzeichnen.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei das Korrigieren (500) des zeitlichen Versatzes – ein Ausgeben eines zweiten Taktsignals für eine Wiedergabe des zweiten Bildsignals und/oder – ein zusätzliches Ausgeben bzw. ein Unterdrücken einer Ausgabe eines sichtbaren und/oder nicht sichtbaren Bildsignalbestandteils des zweiten Bildsignals (4) und/oder – ein zusätzliches Ausgeben eines sichtbaren oder nicht-sichtbaren Bildes, welches nicht im zweiten Bildsignal (4) enthalten ist, umfasst.
  5. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend – Empfangen (100) eines ersten Taktsignals (18) für eine Wiedergabe des ersten Bildsignals (2), welches von einer Quelle (16) für das erste Bildsignal (2) und das zweite Bildsignal (4) ausgegeben wird.
  6. Anordnung umfassend – eine Bildsignalquelle (16) zur Erzeugung eines ersten Bildsignals (2) und eines zweiten Bildsignals (4), – eine erste Videosenke (13) zur Anzeige des ersten Bildsignals (2), – eine zweite Videosenke (14) zur Anzeige des zweiten Bildsignals (4) – eine erste Auswerteeinheit (19), welche eingerichtet ist, erste Bildphaseninformationen (612) des ersten Bildsignals (2) zu extrahieren, – eine zweite Auswerteeinheit (19), welche eingerichtet ist, zweite, zu den ersten Bildphaseninformationen (612) korrespondierende Bildphaseninformationen (612) des zweiten Bildsignals (4) zu extrahieren, und – eine Synchronisationseinheit (19), welche eingerichtet ist, einen zeitlichen Versatz zwischen den Bildsignalen (2, 4) auf Basis der ersten Bildphaseninformationen (612) und der zweiten Bildphaseninformationen (612) zu ermitteln und zu korrigieren.
  7. Anordnung nach Anspruch 7, wobei – die Synchronisationseinheit (19) eingerichtet ist, – das erste Bildsignal (2) enthaltend die ersten Bildphaseninformationen (612) von der ersten Auswerteeinheit (19) und – das zweite Bildsignal (4) enthaltend die zweiten Bildphaseninformationen (612) von der zweiten Auswerteeinheit (19) zu erhalten, und – ein Taktsignal, insbesondere ein frequenzmoduliertes Signal, bevorzugt ein Sinussignal oder ein Sägezahnsignal oder ein Rechtecksignal und/oder ein PWM-Signal, an die zweite Auswerteeinheit (19) auszugeben, und wobei – die zweite Auswerteeinheit (19) eingerichtet ist, das zweite Bildsignal (4) mit dem Taktsignal zu synchronisieren.
  8. Anordnung nach Anspruch 7 oder 8, wobei – die erste Auswerteeinheit (19), – die zweite Auswerteeinheit (19) und – die Synchronisationseinheit (19) elektrisch, insbesondere galvanisch, und/oder optisch miteinander verbunden sind, und bevorzugt sämtlich als integrierter Schaltkreis (20) ausgeführt sind.
  9. Anordnung nach einem der Ansprüche 7 oder 8, wobei – die Bildsignalquelle (16) drahtgebunden oder drahtlos – mit einem ersten Gerät (28) umfassend – die erste Auswerteeinheit (19), – die erste Videosenke (13) und – die Synchronisationseinheit (19) und – mit einem zweiten Gerät (29) umfassend – die zweite Auswerteeinheit (19) und – die zweite Videosenke (19) zur Übertragung der Bildsignale (2, 4) verbunden ist.
  10. Fortbewegungsmittel umfassend eine Anordnung nach einem der vorstehenden Ansprüche 7 bis 10.
DE102015209089.2A 2015-05-19 2015-05-19 Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale Pending DE102015209089A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015209089.2A DE102015209089A1 (de) 2015-05-19 2015-05-19 Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015209089.2A DE102015209089A1 (de) 2015-05-19 2015-05-19 Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale

Publications (1)

Publication Number Publication Date
DE102015209089A1 true DE102015209089A1 (de) 2016-11-24

Family

ID=57231137

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015209089.2A Pending DE102015209089A1 (de) 2015-05-19 2015-05-19 Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale

Country Status (1)

Country Link
DE (1) DE102015209089A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195086B1 (en) * 1996-09-12 2001-02-27 Hearme Method and apparatus for loosely synchronizing closed free running raster displays
US20060119747A1 (en) * 2003-11-07 2006-06-08 Vitito Christopher J Automobile entertainment system
US8384725B2 (en) * 2009-10-30 2013-02-26 Yamaha Corporation Method and computer for controlling image processor, and machine readable storage medium for use in computer
DE112011105224T5 (de) * 2011-05-11 2014-02-20 Mitsubishi Electric Corp. Bildinformations-Wiedergabeeinheit, Bildinformations-Wiedergabevorrichtung und Synchronisationskontrollverfahren

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195086B1 (en) * 1996-09-12 2001-02-27 Hearme Method and apparatus for loosely synchronizing closed free running raster displays
US20060119747A1 (en) * 2003-11-07 2006-06-08 Vitito Christopher J Automobile entertainment system
US8384725B2 (en) * 2009-10-30 2013-02-26 Yamaha Corporation Method and computer for controlling image processor, and machine readable storage medium for use in computer
DE112011105224T5 (de) * 2011-05-11 2014-02-20 Mitsubishi Electric Corp. Bildinformations-Wiedergabeeinheit, Bildinformations-Wiedergabevorrichtung und Synchronisationskontrollverfahren

Similar Documents

Publication Publication Date Title
DE102015108424B4 (de) Dynamische Frame-Wiederholung in einem Variable-Wiederauffrischungs-Rate-System
DE102015108057B4 (de) Aktualisierungsabhängiges adaptives Dithering für ein Display mit variabler Aktualisierungsrate
DE102006029710B4 (de) Vorrichtung und Verfahren zur Ansteuerung einer Flüssigkristallanzeigevorrichtung
DE69933436T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE69735034T2 (de) Vorrichtung zum Verarbeiten eines Videosignals
DE112011105224B4 (de) Bildinformations-Wiedergabeeinheit, Bildinformations-Wiedergabevorrichtung und Synchronisationskontrollverfahren
DE102010029030A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Daten in einem Fahrzeug
DE102016224166B3 (de) Head-Up-Display
DE102016113431A1 (de) System und Verfahren zur ereignisbasierten Synchronisierung bei der Mediendateiübetragung und Anzeigewiedergabe zwischen einem Peripheriesystem und einem Host-Gerät
DE112018007466T5 (de) Multimediavorrichtung zur Verarbeitung von Videosignalen und Steuerverfahren dafür
DE112011102392B4 (de) Synchronisation von Shutter-Signalen für mehrere 3D-Wiedergabegeräte/Vorrichtungen
DE69839079T2 (de) System und verfahren für 2-abgriff/3-abgriff flimmerfiltern
DE19545356C2 (de) Vorrichtung zur Darstellung von Stereo-Videobildern
WO2009040320A2 (de) Verfahren und vorrichtung zur synchronisation einer bildanzeige in einem kraftfahrzeug
DE112010005619T5 (de) Dreidimensionale Bilderzeugung
DE69737319T2 (de) Doppelfensterverarbeitungsvorrichtung für Fernsehsystem
DE102005041249A1 (de) Verfahren zur Erzeugung räumlich darstellbarer Bilder
DE102015209089A1 (de) Fortbewegungsmittel, Anordnung und Verfahren zur Synchronisation zweier Bildsignale
DE102019116144A1 (de) Systeme und Verfahren zur Takterzeugung für einen asymmetrischen Bildsplitter
WO2006042706A1 (de) Verfahren zur erzeugung räumlich darstellbarer bilder und anordnung zur räumlich wahrnehmbaren darstellung solcher bilder
EP1680929B1 (de) Ansteuerung zur stereoprojektion
DE10339661B4 (de) Verfahren und Anordnung zur Synchronisation eines Videoeingangs- mit einem Videoausgangssignal
DE102012016487B4 (de) Bildmodul für eine Bildwand
DE102007001843B4 (de) Verfahren zum Verarbeiten von Bilddaten
DE102015103778A1 (de) Verfahren zur Ausgabe eines Bilds einer Bildsequenz auf einer Anzeigeeinheit, Anzeigevorrichtung und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed