-
QUERVERWEISE AUF VERWANDTE ANMELDUNG
-
Diese Anmeldung basiert auf der am 30. November 2012 eingereichten
japanischen Patentanmeldung Nr. 2012-262547 , auf deren Offenbarung hiermit vollinhaltlich Bezug genommen wird.
-
GEBIET DER ERFINDUNG
-
Die vorliegende Erfindung betrifft eine Fahrzeug-Videobearbeitungsvorrichtung, die mehrere Videoeingangssignale empfängt und verarbeitet, und ferner ein Fahrzeug-Videobearbeitungssystem, das eine Videosignalverarbeitung unter Verwendung der Fahrzeug-Videobearbeitungsvorrichtung ausführt.
-
HINTERGRUND
-
Im Laufe der letzten Jahre ist einher mit der Entwicklung der digitalen Technologie die Videobearbeitung vorangeschritten. Ein Verfahren einer Videobearbeitungsvorrichtung ist beispielsweise aus dem Patentdokument 1 bekannt. Das Patentdokument 1 offenbart ein System mit einem DVD-Spieler, einem TV-Monitor-System und dergleichen. Wenn das TV-Monitor-System ein TV-System als Daten von dem DVD-Spieler empfängt, vergleicht das TV-Monitor-System die Daten mit einem vorliegenden TV-System. Wenn sich die Daten von dem vorliegenden TV-System unterscheiden, gibt das TV-Monitor-System Steuersignale, die auf einem neu geschalteten System basieren, an ICs, einschließlich eines RGB-Composite-Wandlungs-ICs, und einen Timing-Controller.
-
Gemäß dem vorstehend beschriebenen Verfahren kann Information entsprechend einem Aufnahmesystem, wie beispielsweise NSC (National Television System Committee) oder PAL (Phase Alternating Line), die im DVD-Spieler verwendet werden, über eine LAN-(Local Area Network oder lokales Netzwerk)-Leitung an das TV-Monitor-System gesendet werden und das TV-Monitor-System die Videoverarbeitungsschaltung oder dergleichen in Übereinstimmung mit dem Aufnahmesystem wechseln. Folglich kann ein automatischer Wechsel an einem optimalen Zeitpunkt erfolgen und ist ein manuelles Schalten nicht mehr erforderlich.
-
Das Fahrzeug-Videobearbeitungssystem ist beispielsweise mit externen Vorrichtungen, wie beispielsweise einer Navigationsvorrichtung, einer AV-(Audio Visual oder Bild und Ton)-Platine und einer Außenbildaufnahmekamera, die angeordnet sind, verbunden. Das Fahrzeug-Videobearbeitungssystem empfängt und verarbeitet Videosignale, die von den externen Vorrichtungen gesendet werden. Das Fahrzeug-Videobearbeitungssystem muss für eine Anzahl solcher Videoeingabesystems ausgelegt sein.
-
Demgegenüber ist, während der Entwicklung von Fahrzeugvorrichtungen, eine Produktentwicklung unter Verwendung herkömmlicher kundenspezifischen Vorrichtungen erfolgt. Mit der Entwicklung von Multimediatechnologie von tragbaren Informationsendgeräten, Smartphones und dergleichen im Laufe der letzten Jahre ist jedoch der Bedarf an der Verwendung einer Haupt-CPU mit einem hohen Supportvermögen für verschiedene Systeme der vorstehend beschriebenen verschiedenen tragbaren Informationsendgeräte gestiegen. Diese Art von Haupt-CPU weist eine hohe Marktliquidität und Einsatzflexibilität auf und kann die Entwicklungskosten von verschiedenen peripheren Schaltungen, Programmen und dergleichen reduzieren.
-
Demgegenüber liegen, da die vorstehend beschriebene Art von Haupt-CPU ein geringes Anpassungsvermögen aufweist, verschiedene Beschränkungen während der Verwendung vor. Insbesondere kann die Haupt-CPU dann, wenn die Haupt-CPU eine geringe Anzahl von Eingabesystemen, wie beispielsweise einen Kanal, aufweist, und eine Eingangsbitbreite des Eingabesystems beispielsweise auf acht Bits (zweite Bitbreite) gesetzt und geringer als eine Eingangsbitbreite (erste Bitbreite) eines Videosystems ist, das eine Eingangsbitbreite von 18 Bits aufweist, verschiedenen Beschränkungen unterliegen. Folglich kann die Haupt-CPU schwer einen Video-Prozess unter Anwendung eines bestehenden Verfahrens ausführen.
-
LITERATUR AUS DEM STAND DER TECHNIK
-
PATENTDOKUMENTE
-
- Patentdokument 1: JP 2001-359052 A
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Es ist angesichts der obigen Schwierigkeiten Aufgabe der vorliegenden Erfindung, eine Fahrzeug-Videobearbeitungsvorrichtung bereitzustellen, die eine Bildverarbeitung an einem Videosignal mit einem bestimmten Videoformat, das aufgrund einer Bitbreite des Videoformats schwer von einer externen Videovorrichtung direkt einzugeben oder an eine externe Zielvorrichtung auszugeben ist, in geeigneter Weise ausführen kann. Es ist ferner Aufgabe der vorliegenden Erfindung, ein Fahrzeug-Videobearbeitungssystem bereitzustellen, das eine Bildverarbeitung unter Verwendung der Fahrzeug-Videobearbeitungsvorrichtung ausführt.
-
Gemäß einem ersten Aspekt der vorliegenden Erfindung weist eine Fahrzeug-Videobearbeitungsvorrichtung eine Taktausgabeeinheit und eine Ausgabeeinheit auf. Die Fahrzeug-Videobearbeitungsvorrichtung empfängt ein Videosignal, das von einer externen Videovorrichtung ausgegeben wird, über eine Videosignalempfangseinheit. Das Videosignal weist ein vorbestimmtes Videoformat und eine erste Bitbreite auf und wird zusammen mit einem ersten Taktsignal gesendet. Die Taktausgabeeinheit gibt ein zweites Taktsignal mit einer Frequenz aus, die erhalten wird, indem eine Frequenz des ersten Taktsignals mit einem vorbestimmten Multiplizierungsfaktor multipliziert wird. Die Ausgabeeinheit wandelt das Videosignal mit der ersten Bitbreite in Übereinstimmung mit dem Multiplizierungsfaktor in ein Videosignal mit einer zweiten Bitbreite und gibt das Videosignal, das gewandelt wird, um die zweite Bitbreite aufzuweisen, zusammen mit dem zweiten Taktsignal aus. Die zweite Bitbreite ist geringer als die erste Bitbreite.
-
Bei der obigen Vorrichtung kann eine Bildverarbeitung in geeigneter Weise an einem Videosignal erfolgen, das ein bestimmtes Videoformat aufweist, das aufgrund einer Bitbreite des Videoformats schwer von einer externen Videovorrichtung direkt einzugeben oder an eine externe Zielvorrichtung auszugeben ist.
-
Gemäß einem zweiten Aspekt der vorliegenden Erfindung weist ein Fahrzeug-Videobearbeitungssystem die Fahrzeug-Videobearbeitungsvorrichtung gemäß dem ersten Aspekt, eine Videosignalempfangseinheit und eine Haupt-CPU (Central Processing Unit oder zentrale Rechen- oder Verarbeitungseinheit) auf. Die Videosignalempfangseinheit ist mit der Fahrzeug-Videobearbeitungsvorrichtung verbunden. Die Videosignalempfangseinheit empfängt ein Videosignal von einer externen Videovorrichtung, wandelt das Videosignal, das empfangen wird, in ein Videosignal mit einem vorbestimmten Videoformat und einer ersten Bitbreite und gibt das Videosignal, das gewandelt wird, an die Fahrzeug-Videobearbeitungsvorrichtung. Die Haupt-CPU empfängt, von der Fahrzeug-Videobearbeitungsvorrichtung, ein Videosignal mit einer zweiten Bitbreite.
-
Bei dem obigen System kann eine Bildverarbeitung bzw. Bildbearbeitung in geeigneter Weise an einem Videosignal erfolgen, das ein bestimmtes Videoformat aufweist, das aufgrund einer Bitbreite des Videoformats schwer von einer externen Videovorrichtung direkt einzugeben oder an eine externe Zielvorrichtung auszugeben ist.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
Die obigen und weitere Aufgaben, Eigenschaften und Vorteile der vorliegenden Erfindung sind aus der nachfolgenden detaillierten Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen näher ersichtlich. In den Zeichnungen zeigt:
-
1 ein schematisches Blockdiagramm zur Veranschaulichung einer elektrischen Konfiguration einer ASIC (Application Specific Integrated Circuit oder anwendungsspezifische integrierte Schaltung) zur Videoverarbeitung gemäß einer Ausführungsform der vorliegenden Erfindung;
-
2 ein schematisches Blockdiagramm zur Veranschaulichung einer elektrischen Konfiguration eines Fahrzeug-Videobearbeitungssystem gemäß einer Ausführungsform der vorliegenden Erfindung;
-
3 eine Abbildung zur Veranschaulichung eines Videoausgabeformats einer Navigationsvorrichtung vor einer Formatwandlung;
-
4 eine Abbildung zur Veranschaulichung von Videosignalen nach einer Nulleinfügung durch eine Nulleinfügeeinheit;
-
5 eine Abbildung zur Veranschaulichung eines entsprechenden Verhältnisses (erstes Beispiel) zwischen einem Multiplizierungsfaktor und einem Ausgabeformat einer Formatwandlungseinheit;
-
6 eine Abbildung zur Veranschaulichung eines entsprechenden Verhältnisses (zweites Beispiel) zwischen einem Multiplizierungsfaktor und einem Ausgabeformat einer Formatwandlungseinheit; und
-
7 ein Blockdiagramm zur Veranschaulichung einer elektrischen Konfiguration eines Hauptteils einer Schaltung zur Verwendung einer Videobearbeitungs-ASIC gemäß einem weiteren Verfahren.
-
AUSFÜHRUNGSFORMEN ZUM AUSFÜHREN DER ERFINDUNG
-
Nachstehend ist eine an einem Fahrzeug befestigte Vorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
-
(Erste Ausführungsform)
-
Eine fahrzeugeigene Vorrichtung (IN-V-VORR) 1 ist, wie in 2 gezeigt, derart aufgebaut, dass sie an einem Fahrzeug (nicht gezeigt) befestigbar ist, und wird durch Zusammenbau einer digitalen Platine (DIG PL) 2 und einer Energieversorgungsplatine (EN-VERS-PL) 3 gebildet. Die fahrzeugeigene Vorrichtung 1 kann eine Vorrichtung, die fix an einem Fahrzeug befestigt wird, oder eine Vorrichtung, die entfernbar an einem Fahrzeug befestigt wird, sein. Die digitale Platine 2 und die Energieversorgungsplatine 3 werden über einen Draht bzw. eine Leitung elektrisch miteinander verbunden, und Energie und Daten können zwischen elektrischen Elementen, die auf den Platinen befestigt sind, übertragen werden.
-
Nachstehend sind hauptsächlich Signalverarbeitungsschaltungen in einem Videobearbeitungssystem beschrieben und ist eine Beschreibung eines Tonverarbeitungssystems ausgelassen. Die digitale Platine 2 weist eine zentrale Hauptrecheneinheit (CPU) 4, einen Powermanagement-IC (PMIC) 5, der paarweise mit der Haupt-CPU 4 angeordnet ist, einen Takterzeugungs-IC (CGIC) 6, einen Speicher (SPEICHER) 7 und dergleichen auf. Die digitale Platine 2 weist Empfänger (EMPF) 8 und 9, die Videosignale von verschiedenen Videosystemen empfangen, eine Videobearbeitungs-ASIC (VD-BEARB-ASIC) 11 als ein Beispiel für eine Fahrzeug-Videobearbeitungsvorrichtung, eine E/A-Einheit (E/A) 12, einen USB-Hub (USB-HUB) 14 und dergleichen auf.
-
Die Haupt-CPU 4 ist beispielsweise eine CPU bekannter Bauart mit einem Kern oder eine Doppelkern-CPU, die mit einer Betriebsfrequenz in dem Bereich von 1 bis 2 GHz arbeiten. Die Haupt-CPU 4 weist einen eingebetteten sekundären Zwischenspeicher auf. Die Haupt-CPU 4 ist auf dem Markt erhältlich und weist eine hohe Markliquidität und Einsatzflexibilität auf. Der Speicher 7 wird als eine Hauptspeichervorrichtung verwendet. Die Haupt-CPU 4 führt eine Steuerung bezüglich der Videobearbeitung aus, indem sie ein Betriebsprogramm ausführt.
-
Der Empfänger 8 empfängt ein Einkanal-(System)-Videosignal von einer Navigationsvorrichtung (NAVI) 10, die als eine externe Vorrichtung verbunden ist. Wenn die Navigationsvorrichtung 10 ein Videosignal gemäß LVDS (Low Voltage Differential Signaling) an den Empfänger 8 gibt, führt der Empfänger 8 eine Seriell-Parallel-Wandlung an dem LVDS-Signal aus, erfasst der Empfänger 8 ein Videosignal in einem digitalen RGB-(DRGB)-Format (RB666) und gibt der Empfänger 8 das Wandlungssignal an die Videobearbeitungs-ASIC 11.
-
Der Empfänger 8 ist ferner in der Lage, ein Signalformat zu wandeln und ein gewandeltes Signal auszugeben, wie beispielsweise ein Videosignalformat in Übereinstimmung mit einem Wechselsignal entsprechend einem Signal, das von einer externen Vorrichtung empfangen wird (wie beispielsweise ein von der Haupt-CPU 4 ausgegebenes Wechselsignal), in ein YUV-Format zu wandeln und das gewandelte Videosignal an die Videobearbeitungs-ASIC 11 auszugeben. Auf die Signalwandlung wird nicht näher eingegangen. Der Empfänger 8 gibt ein Signal im RGB666-Format an die Videobearbeitungs-ASIC 11. Wenn die Videobearbeitungs-ASIC 11 einen Kanal wählt, um ein Signal zu empfangen, und das empfangene Signal an die E/A-Einheit 12 ausgibt, wandelt der Empfänger 8 das Videoformat in ein RGB565-Format, indem er einen Teil der Information, die im empfangenen Signal enthalten ist, entfernt.
-
Bekanntermaßen weist das Videosignal der Navigationsvorrichtung 10 im DRGB-Format auch dann, wenn der Daten-Dropout berücksichtigt wird, eine geringere Videoverschlechterung als das Videosignal im YUV-Format auf. Folglich gibt der Empfänger 8 das Videosignal im DRGB-Format an die Videobearbeitungs-ASIC 11.
-
Der Empfänger 9 empfängt Zweikanalvideosignale von einer Bild- und Ton-Platine (AV-PL) 13, die als die externe Vorrichtung verbunden ist, gemäß LVDS. Anschließend führt der Empfänger 9 eine Seriell-Parallel-Wandlung an dem LVDS-Signal aus und gibt der Empfänger 9 das Wandlungssignal an die Videobearbeitungs-ASIC 11. Die AV-Platine 13 ist beispielsweise eine Vorrichtung, die ein Videosignal gemäß dem Blu-ray-Disk-(eingetragene Marke)-Standard ausgibt. Wenn der Empfänger 9 ein Videosignal empfängt, führt der Empfänger 9 eine Seriell-Parallel-Wandlung an dem empfangenen Videosignal aus, erfasst der Empfänger 9 ein Videosignal im YUV422-Format und gibt der Empfänger 9 das Wandlungssignal an die Videobearbeitungs-ASIC 11.
-
Die Videobearbeitungs-ASIC 11 dient als ein Beispiel für die Fahrzeug-Videobearbeitungsvorrichtung der Ausführungsform. Die Videobearbeitungs-ASIC 11 empfängt Videosignale von den Empfängern 8 und 9, schaltet die auf mehreren Kanälen (System) gesendeten Videosignale und gibt die gewandelten Signale an die E/A-Einheit 12. Hierauf ist nachstehend noch näher eingegangen. Der USB-Hub 14 empfängt ein Videosignal, das von einer externen Verbindungsvorrichtung (EXT VORR) 15 gesendet wird, die auf einer Außenseite mit der Videobearbeitungsvorrichtung verbunden ist. Anschließend gibt der USB-Hub 14 das Videosignal an die E/A-Einheit 12.
-
Die E/A-Einheit 12 empfängt Signale von der Videobearbeitungs-ASIC 11, dem USB-Hub 14 und dergleichen. Die E/A-Einheit 12 führt eine Eingabe- und Ausgabe-Steuerung aus und gibt ein Videosignal gemäß LVDS an einen Sender (SENDER) 16, und zwar im Ansprechen auf ein von der Haupt-CPU 4 gesendetes Befehlssignal. Der Sender 16 gibt das Videosignal gemäß LVDS an eine zweite Anzeigeeinheit (2. ANZEIGE) 17, die auf einer Außenseite verbunden ist. Die Anzeigeeinheit 17 führt einen Anzeigeprozess in Übereinstimmung mit dem empfangenen Videosignal aus.
-
Die E/A-Einheit 12 und die Haupt-CPU 4 sind über einen PCI-(Peripheral Component Interconnect)-Express-X16-Bus verbunden. Die Haupt-CPU 4 empfängt ein Videosignal, das von der Videobearbeitungs-ASIC 11 gesendet wird, über die E/A-Einheit 12. Ferner gibt die Haupt-CPU 4 Mehrkanalvideosignale unter Verwendung eines SDVO (Serial Digital Video Out) über denselben Bus, über den das Videosignal von der Videobearbeitungs-ASIC 11 empfangen wird, an die E/A-Einheit 12.
-
Die Haupt-CPU 4 gibt Zeichnungsdaten im DRGB-Format an einen Decoder (DECODER) 18, der auf der Energieversorgungsplatine 3 befestigt ist. Der Prozess des Decoders 18 ist nachstehend noch beschrieben. Die E/A-Einheit 12 ist elektrisch mit einer berührungsempfindlichen Bedienfeldeinheit (BER EMPF BF) 19 verbunden, die auf der Energieversorgungsplatine 3 befestigt ist, und gibt ein Berührungssignal von einer anderen Hardware-Vorrichtung (Haupt-CPU 4) ein oder an eine andere Hardware-Vorrichtung (Haupt-CPU 4) aus.
-
Auf der Energieversorgungsplatine 3 ist eine Energieversorgungseinheit (ENVERS) 20 befestigt, die eine Energieversorgungsspannung empfängt, die von einer fahrzeugeigenen Batterie (nicht gezeigt) bereitgestellt wird. Im Ansprechen auf eine Betätigung eines ACC-Schalters (nicht gezeigt) durch den Benutzer stellt die Energieversorgungseinheit 20 Energie zum Betreiben von auf der digitalen Platine 2 und der Energieversorgungsplatine 3 befestigten elektrischen Elementen bereit. Auf der Energieversorgungsplatine 3 sind, zusätzlich zu dem Decoder 18 und der berührungsempfindlichen Bedienfeldeinheit 19, ein Unter-Mikrocomputer (UNTER-MC) 21, ein Flash-Speicher (FLASH) 22, eine LED-(Leuchtdiode)-Ansteuereinheit (LED-TREBER) 23 und eine Flüssigkristallanzeigeeinheit (LCD-EINHEIT) 24 befestigt. Die LCD-Einheit 24 entspricht einer ersten Anzeigeeinheit (1. ANZEIGE).
-
Der Unter-Mikrocomputer 21 ist ein Ein-Chip-Mikrocomputer und arbeitet mit einem NOR-Flash-Speicher 22, der extern befestigt ist. Der Unter-Mikrocomputer 21 führt, im Wesentlichen, eine Kommunikationsverbindung eines fahrzeugeigenen Netzwerkes über ein Fahrzeug-CAN (Controller Area Network) (V-CAN) und ein Multimedia-CAN (M-CAN) aus. Der Unter-Mikrocomputer 21 steuert einen LED-Treiber 23 zur Ansteuerung einer Hintergrundbeleuchtungs-LED (HGB-LED) 25, die in der LCD-Einheit 24 enthalten ist. Der LED-Treiber 23 steuert die in der LCD-Einheit 24 enthaltene Hintergrundbeleuchtungs-LED 25 an, um diese einzuschalten. Die LCD-Einheit 24 weist die Hintergrundbeleuchtungs-LED (HG-BEL-LED) 25, eine LCD-Steuerschaltung (LCD-STSG) 26 und einen Flüssigkristallbildschirm (LCD-BILDSCHIRM) 27 auf. Die LCD-Steuerschaltung 26 steuert eine Anzeige des Flüssigkristallbildschirms 27.
-
Der Decoder 18 empfängt Videosignale von einer Heckkamera (HECK-KAM) 28, einer Seitenkamera (SEITEN-KAM) 29 und einer analogen Videoausgabevorrichtung (ANLG VD-AUSGABEVORR) 30. Die Heckkamera 28, die Seitenkamera 29 und die analoge Videoausgabevorrichtung 30 sind außerhalb der fahrzeugeigenen Vorrichtung positioniert. Der Decoder 18 wandelt das analoge Videosignal in ein DRGB-Signal und gibt selektiv, im Ansprechen auf ein Steuersignal, das von der Haupt-CPU 4 oder dem Unter-Mikrocomputer 21 gesendet wird, DRGB-Format-Zeichnungsdaten, die von der Haupt-CPU 4 gesendet werden, und ein DRGB-Format-Videosignal, das von den Kameras 28 bis 30 gesendet wird, an die LCD-Einheit 24. Der Decoder 18 führt eine RGB zu YUV-Wandlung an den Zeichnungsdaten im DRGB-Format aus und gibt die gewandelten YUV422-Format-Daten an die Videobearbeitungs-ASIC 11.
-
1 zeigt ein Blockdiagramm zur Veranschaulichung einer Konfiguration der Videobearbeitungs-ASIC. Die ASIC 11 dient als eine Wähleinheit und weist eine Eingangsschalteinheit (EING-SW) 31, eine Nulleinfügeeinheit (NULLEINFÜG) 32, einen First-In-First-Out-Zwischenspeicher (FIFO-ZS) 33, eine Formatwandlungseinheit (WANDLER) 34, eine Multipliziereinheit (MULTIPLZ) 35 und einen Taktschalter (TAKT-SW) 36 auf.
-
Die Nulleinfügeeinheit 32 empfängt ein Videosignal im RGB666-Format von einem dritten Kanal (3. KANAL), wandelt das empfangene Videosignal im RGB666-Format in ein Videosignal im RGB888-Format und gibt das gewandelte Signal synchron zu einem Taktsignal an die Eingangsschalteinheit 31. Insbesondere fügt die Nulleinfügeeinheit 32, wenn sie das Videosignal wandelt, eine Null in jede niederwertigere zwei Bits des empfangenen RGB666-Format-Videosignal, um das RGB888-Format-Videosignal mit 24 Bits an Daten zu erhalten.
-
Die Eingangsschalteinheit 31 wählt eine von einer 24-Bit-Eingabe vom ersten Kanal (1. Kanal), einer 24-Bit-Eingabe vom zweiten Kanal (2. Kanal) und einer 24-Bit-Eingabe von der Nulleinfügeeinheit 32 in Übereinstimmung mit einem von der Haupt-CPU 4 gesendeten Wahlsignal VSEL. Anschließend gibt die Eingangsschalteinheit 31 das vom gewählten Kanal gesendete Signal an den FIFO-Zwischenspeicher 33. D. h., das an die Eingangsschalteinheit 31 gegebene Signal wird zu einem 24-Bit-Signal vereinheitlicht.
-
Der FIFO-Zwischenspeicher 33 speichert die eingegebenen 24-Bit-Videosignale temporär und stimmt einen Lese- und Schreibzeitpunkt der Videosignale ab. Eine Zwischenspeicherkapazität des FIFO-Zwischenspeichers 33 wird unter Berücksichtigung der Zeitabweichungen zwischen dem Eingangstakt und den Ausgangstakten (Verzögerungen, die durch Prozesse erzeugt werden, die in der Multipliziereinheit 35 und im Taktschalter 36 ausgeführt werden) und eines Takt-Jitters festgelegt. Die Zwischenspeicherkapazität kann beispielsweise auf 32 Wörter festgelegt sein. Die Multipliziereinheit 35 multipliziert ein Taktsignal zur Synchronisierung (erstes Taktsignal) mit einem anderen Taktsignal (zweites Taktsignal) anhand einer Multiplizierung von × 1 bis × 4 Malen (× 1, × 1,5, × 2, × 3, × 4) in Übereinstimmung mit einem Wahlsignal XSEL und gibt das zweite Taktsignal an den Taktschalter 36.
-
Die Videobearbeitungs-ASIC 11 weist einen Schwingkreis 38 auf, der aus einem Inverter G1, einem Quarzoszillator 37 und Kondensatoren C1 und C2 aufgebaut ist. Der Quarzoszillator 37 und die Kondensatoren C1 und C2 sind auf einer Außenseite vorgesehen. Gemäß dieser Konfiguration kann die ASIC 11 ein Hochleistungstaktsignal empfangen, das nicht durch Jitter anderer Schaltungskomponenten beeinträchtigt wird. Der Schwingkreis 38 gibt ein Taktsignal aus, der vom Quarzoszillator 37 erzeugt wird, der bei einer vorbestimmten Frequenz schwingt. Der Schwingkreis 38 wird verwendet, wenn ein Taktsignal, das zusammen mit einem Videosignal von einem gewählten Kanal unter dem ersten bis dritten Kanal gesendet wird, eine schlechte Jitter-Leistung aufweist. Der Schwingkreis 38 erzeugt ein Taktsignal und gibt das Taktsignal an den Taktschalter 36.
-
Der Taktschalter 36 wählt, in Übereinstimmung mit dem Wahlsignal XSEL von der Haupt-CPU 4, ein Ausgangstaktsignal von der Multipliziereinheit 35 oder ein vom Schwingkreis 38 erzeugtes Taktsignal. Anschließend gibt der Taktschalter 36 das gewählte Taktsignal an die Formatwandlungseinheit 34.
-
Die Formatwandlungseinheit 34 wandelt Formate von Videosignalen, die im FIFO-Zwischenspeicher 33 gespeichert werden. Wenn der Eingangsschalteinheit 31 ein Videosignal im DRGB-Format, das von einem Kanal empfangen wird, schaltet und ausgibt, wandelt die Formatwandlungseinheit 34 das Ausgabeformat in Übereinstimmung mit dem Wahlsignal XSEL. Wenn ein eingegebenes Videosignal beispielsweise im DRGB-Format vorliegt, kann das Videosignal im DRGB-Format ohne irgendeine Formatwandlung ausgegeben werden. Gemäß einem weiteren Beispiel kann dann, wenn ein eingegebenes Videosignal im DRGB-Format vorliegt, ein Teil des eingegebenen Videosignals entfernt und einzig ein verbleibender Teil des eingegebenen Videosignals ausgegeben werden. Gemäß noch einem weiteren Beispiel führt die Formatwandlungseinheit 34 dann, wenn ein eingegebenes Videosignal im DRGB-Format vorliegt, eine RGB- in YUV-Wandlung zur Wandlung des Videosignals im DRGB-Format in ein Videosignal im YUV-Format aus. Die ASIC 11 kann ebenso ein Rohbild ausgeben. Die ASIC 11 kann jedes der Videosignale, das von den drei Kanälen eingegeben werden, handhaben und ein Videosignal im RGB-Format, im YUV-Format oder dergleichen ausgeben.
-
Nachstehend ist der von der ASIC 11 mit der vorstehend beschriebenen Konfiguration zum Ausführen einer Videobearbeitung ausgeführte Betrieb beschrieben.
-
Der Empfänger 8 empfängt, von der Navigationsvorrichtung 10, ein 18-Bit-RGB-Signal via LVDS. Der Empfänger 8 unterzieht das LVDS-Signal einer Seriell/Parallel-Wandlung und gibt das gewandelte Signal über den dritten Kanal an die ASIC 11. Die Nulleinfügeeinheit 32 der ASIC 11 fügt eine Null in die niederwertigen (unteren) zwei Bits jedes Signalsegments des RGB666-(18 Bit)-Formats ein, um ein Signal im RGB888-(24 Bits)-Format zu erhalten. Anschließend gibt die Nulleinfügeeinheit 32 das Signal im RGB888-Format in Übereinstimmung mit einem Synchronisierungstaktsignal an die Eingangsschalteinheit 31. Der erste und der zweite Kanal der ASIC 11 können 24-Bit-Signale empfangen, und der Empfänger 9 und der Decoder 18 empfangen ein 24-Bit-Videosignal von den externen Vorrichtungen. Videosignale, die über den ersten bis dritten Kanal eingegeben werden, werden im 24-Bit-Format an die ASIC 11 gegeben. Die Eingangsschalteinheit 31 wählt einen Kanal in Übereinstimmung mit dem von der Haupt-CPU 4 gesendeten Wahlsignal VSEL und gibt ein vom gewählten Kanal eingegebenes Videosignal an den FIFO-Zwischenspeicher 33.
-
Der FIFO-Zwischenspeicher 33 speichert Daten. Ein Taktsignal wird vom gewählten Kanal der Eingangsschalteinheit 31 gleichzeitig an den FIFO-Zwischenspeicher 33 gegeben. Der Multiplizierungsfaktor der Multipliziereinheit 35 kann in Schritten von 0,5 Mal von einem Mal bis zu vier Malen abgestimmt werden und wird in Übereinstimmung mit dem Wahlsignal XSEL geschaltet. Die Multipliziereinheit 35 multipliziert ein an den FIFO-Zwischenspeicher 33 ausgegebenes Taktsignal mit dem Multiplizierungsfaktor, der im Voraus in Übereinstimmung mit einem Format bestimmt wird, das von der Formatwandlungseinheit 34 ausgegeben wird.
-
Der Taktschalter 36 wählt, als ein auszugebendes Taktsignal, ein internes Multiplikationstaktsignal oder ein Taktsignal, das vom externen Quarzoszillator 37 gesendet wird, in Übereinstimmung mit dem Wahlsignal XSEL von der Haupt-CPU 4. Hierin wird das Taktsignal vom externen Quarzoszillator 37 als ein multipliziertes Taktsignal verwendet. Anschließend gibt der Taktschalter 36 das gewählte Taktsignal an die Formatwandlungseinheit 34.
-
Nachstehend ist beschrieben, warum ein Taktsignal als wählbar ausgelegt wird. Die von den Empfängern 8 und 9 und dem Decoder 18 gesendeten Taktsignale weisen eine schwache Jitter-Leistung auf. Wenn der nachteilige Effekt des Jitters verhältnismäßig gering ist, kann der interne Multiplikationstakt so wie er ist verwendet werden. Wenn der nachteilige Effekt des Jitters hoch ist, wird vorzugsweise ein frequenzvervielfachtes Taktsignal unter Verwendung des externen Quarzoszillators 37 erzeugt und das erzeugte frequenzvervielfachte Taktsignal verwendet. Gemäß dieser Konfiguration kann ein Taktsignal flexibel unter Berücksichtigung einer Leistung eines im System enthaltenen Chips gewählt werden.
-
Die Formatwandlungseinheit 34 empfängt ein 24-Bit-Ausgangssignal von der Eingangsschalteinheit 31 synchron zu einem Taktsignal und führt eine Formatwandlung in den folgenden vier Mustern aus. (1) Ausgabe des 24-Bit-Signals, ohne irgendeinen Prozess auszuführen. (2) Von dem 24-Bit-Signal, Ausgabe vorbestimmter acht Bits × 2 synchron zu einem Taktsignal mit einer Frequenz des Taktsignals × 2. (3) Von dem 24-Bit-Signal, Ausgabe vorbestimmter acht Bits × 3 synchron zu einem Taktsignal mit einer Frequenz des Taktsignals × 3. (4) Von dem 24-Bit-Signal, Ausgabe vorbestimmter 16 Bits × 1,5 synchron zu einem Taktsignal mit einer Frequenz des Taktsignals × 1,5.
-
3 zeigt ein Format eines von der Navigationsvorrichtung ausgegebenen Videosignals vor einer Wandlung, 4 zeigt ein Videosignal nach einer Nulleinfügung durch die Nulleinfügeeinheit, und die 5 und 6 zeigen entsprechende Verhältnisse zwischen Multiplizierungsfaktoren und Ausgabeformaten. Nachstehend ist, unter Bezugnahme auf die 3, ein Beispiel eines Empfangs eines Signals von der Navigationsvorrichtung 10 beschrieben. Hierin liegt das Signal von der Navigationsvorrichtung 10 im RGB666-Format vor und weist 18 Bits an Daten auf. Die Nulleinfügeeinheit 32 addiert, wie in 4 gezeigt, eine null zu niederwertigen Bits (R1, R0, G1, G0, B1 und B0) des Signals im RGB666-Format und gewinnt ein 24-Bit-Signal. Folglich können, in der Eingangsschalteinheit 31 und den folgenden Blöcken, alle der internen Prozesse in 24 Bits erfolgen. Dementsprechend werden die internen Prozesse vereinfacht.
-
Nach der Nulleinfügung gibt die Formatwandlungseinheit 34, im Falle des Musters (1), 24 Bits des Signals so wie sie sind aus. Im Falle des Musters (2) gibt die Formatwandlungseinheit 34, wie in 5 gezeigt, die Bits G4 bis G2 und B7 bis B3 in Übereinstimmung mit dem ersten Takt des Taktsignals aus, der in der Multipliziereinheit 35 mit zwei multipliziert wird, und die Bits R7 bis R3 und G7 bis G5 in Übereinstimmung mit dem nächsten Takt aus.
-
Auf diese Weise kann die Formatwandlungseinheit 34, durch die Wandlung, die Bits R7 bis R3 (entsprechend R5 bis R1 vor der Wandlung), G7 bis G2 (entsprechend G5 bis G0 vor der Wandlung) und B7 bis B3 (entsprechend B5 bis B1 vor der Wandlung) im Format von RGB565 ausgeben. Zu dieser Zeit wird, da die Formatwandlungseinheit 34 das Format in das RGB565-Format wandelt, verglichen mit der 18-Bit-Videosignal des ersten Males, die Information von einem niederwertigen Bit von Rot (R) und einem niederwertigen Bit von Blau (B) entfernt. Es war jedoch erkennbar, dass sich die Sichtbarkeit hinsichtlich der Videobildcharakteristika der Navigationsvorrichtung 10 im Wesentlichen nicht verschlechtert hat.
-
Wenn die fahrzeugeigene Vorrichtung 1 beispielsweise ein Videosignal von der Navigationsvorrichtung 10 empfängt, zeigt die fahrzeugeigene Vorrichtung 1 wiederholt ein Standbild auf der Flüssigkristallbildschirm 27, um so eine Karte im Randbereich der Position des Subjektfahrzeugs und eine Route zu einem Zielort anzuzeigen. Es war erkennbar, dass dann, wenn das YUV-Format als ein Ausgabevideoformat der Navigationsvorrichtung 10 verwendet wurde, die Grobheit eines Standbildes leichter zu erkennen ist. Folglich zeigt die fahrzeugeigene Vorrichtung 1 ein Ausgabevideobild der Navigationsvorrichtung 10 unter Verwendung des Formats von DRGB565 auf dem Flüssigkristallbildschirm 27. Dies führt dazu, dass die Sichtbarkeit des Ausgabevideobildes der Navigationsvorrichtung 10 weniger wahrscheinlich abnimmt.
-
Im Falle des Musters (3) multipliziert die Multipliziereinheit 35 das Taktsignal, wie in 6 gezeigt, mit drei. In diesem Fall gibt die Formatwandlungseinheit 34 acht Bits von Rot (R) in Übereinstimmung mit dem ersten Takt des Multiplizierungstaktsignals, acht Bits von Grün (G) in Übereinstimmung mit dem nächsten Takt und acht Bits von Blau (B) in Übereinstimmung mit dem übernächsten Takt aus.
-
Wenn ein Videosignal im Videoformat von YUV422 von der AV-Platine 13 oder dem Decoder 18 empfangen wird, gibt die ASIC 11 das Videosignal in dem Videoformat so wie es ist aus, formt die ASIC 11 die Wellenform des Videosignals und gibt die ASIC 11 das einer Wellenformung unterzogene Signal an die E/A-Einheit 12.
-
Folglich kann die ASIC 11 ein Signal in Übereinstimmung mit der Eingangsbitbreite der Haupt-CPU 4 in geeigneter Weise wandeln und das gewandelte Signal ausgeben. Wenn die Haupt-CPU 4 beispielsweise lediglich in der Lage ist, ein Eingangssignal mit einer 8-Bit-Breite zu empfangen, verarbeitet die ASIC 11 ein eingegebenes Signal zu einem 8-Bit-Signal und gibt die ASIC 11 das 8-Bit-Signal aus. Wenn die Haupt-CPU 4 in der Lage ist, ein Eingangssignal mit einer 16-Bit-Breite zu empfangen, gibt die ASIC 11 das 8-Bit-Signal aus. D. h., die ASIC 11 gibt das Signal flexibel in Übereinstimmung mit einem Vermögen der Haupt-CPU 4 aus.
-
(Nutzung der Videobearbeitungs-ASIC 11 in einem anderen System)
-
7 dient zur Veranschaulichung einer weiteren Nutzung der Videobearbeitungs-ASIC 11. Eine Haupt-CPU (HAUPT-CPU) 39 ist, wie in 7 gezeigt, in der Vorstufe der Videobearbeitungs-ASIC (VD BEARB ASIC) 11 verbunden. Obgleich die Haupt-CPU 39 eine Funktion ähnlich derjenigen der Haupt-CPU 4 aufweist, kann die Haupt-CPU 39 ein 24-Bit-Videosignal ausgeben.
-
D. h., in diesem System ist die Haupt-CPU 39 mit einem Speicher (SPEICHER) 40 verbunden und gibt die Haupt-CPU 39 ein 24-Bit-Videosignal im RGB888-Format aus. Die ASIC 11 empfängt das 24-Bit-Videosignal, nimmt eine Wellenform eines Taktsignals des Videosignals unter Verwendung des externen Schwingkreises (SCHW-KREIS) 38 vor und gibt das Videosignal zusammen mit dem geformten Taktsignal an einen Sender (SENDER) 41. Der Sender 41 gibt ein Videobild via LVDS an eine Anzeige (ANZEIGE) 42, und die Anzeige 42 führt einen Anzeigeprozess aus.
-
In diesem System werden die Eingaben des zweiten und des dritten Kanals der ASIC 11 ungültig gemacht. Die Videobearbeitungs-ASIC 11 ist dazu ausgelegt, ein Takt-Jitter zu beheben und ein Videosignal an den Sender 41 auszugeben. Die Videobearbeitungs-ASIC 11 weist, wie vorstehend beschrieben, ebenso eine Taktwellenformformungsfunktion auf. Auch in solch einem Fall kann das System unter Verwendung der Videobearbeitungs-ASIC 11 flexibel konfiguriert werden.
-
In der vorliegenden Ausführungsform empfängt die Videobearbeitungs-ASIC 11 ein 18-Bit-Videosignal (18 Bits entsprechend einer ersten Bitbreite) im RGB666-Format von der Navigationsvorrichtung 10 über den Empfänger 8, wandelt die Videobearbeitungs-ASIC 11 das 18-Bit-Videosignal im RGB666-Format in ein Videoformat von 8 Bits (entsprechend einer zweiten Bitbreite: Mehrfaches von acht) × 2 und kann die Videobearbeitungs-ASIC 11 das gewandelte Signal zusammen mit einem mit zwei multiplizierten Taktsignal ausgeben. Ferner kann die ASIC 11 das Videosignal in ein Videoformat von 8 Bits × 3, wie beispielsweise das RGB888-Format, wandeln und das gewandelte Signal zusammen mit einem mit drei multiplizierten Taktsignal ausgeben. Folglich wird auch dann, wenn die Haupt-CPU 4 ein Videosignal nicht im Videoformat von RGB666 empfängt, das Videosignal im RGB666-Format in geeigneter Weise verarbeitet und kann das verarbeitete Signal an die Haupt-CPU 4 ausgegeben werden. Da die Videobearbeitungs-ASIC 11 niederwertige Bits während der Wandlung eines Videosignals im Videoformat von RGB666 in ein Videosignal im Videoformat von RGB565 entfernt, kann eine Verschlechterung in einem Videobild so weit wie möglich unterdrückt werden.
-
In der ASIC 11 fügt die Nulleinfügeeinheit 32 eine null als niederwertige Bits in Übereinstimmung mit einem Videosignal mit der größten Anzahl von Bits unter den Videosignalen in verschiedenen Formaten ein. Auf diese Weise wird der interne Prozess vereinfacht. Da die Eingangsschalteinheit 31 Videosignale in verschiedenen Videoformaten, die auf das Videosignal mit der größten Anzahl von Bits (24 Bits) abgestimmt werden, schaltet und ausgibt, kann die Eingangsschalteinheit 31 durch eine Wähleinheit mit einer Funktion zum Wählen eines 24-Bit-Signals bereitgestellt werden. Folglich kann die Eingangsschalteinheit 31 einfach aufgebaut sein. Gemäß dieser Konfiguration können Videosignale in verschiedenen Videoformaten, die jeweils eine beliebige Bitbreite aufweisen, empfangen und selektiv ausgegeben werden und kann die Videosignalbearbeitung flexibel erfolgen.
-
Da der Taktschalter 36 ein Taktsignal, das vom Schwingkreis 38 gesendet und vom Quarzoszillator 37 erzeugt wird, beispielsweise auch dann ausgeben kann, wenn die von den Empfängern 8 und 9 eingegebenen Taktsignale eine schlechte Jitter-Leistung aufweisen, kann der Einfluss des Jitters eliminiert werden.
-
Auch wenn der Standard eines Eingabevideoformats der Haupt-CPU 4 beispielsweise beschränkt wird, kann die ASIC 11 das Videoformat wechseln und ein gewandeltes Signal ausgeben und eine flexible Bearbeitung der Videosignale unterstützen.
-
In den obigen Ausführungsform ist ein Beispiel aufgezeigt, bei dem die ASIC 11 ein Videosignal im Videoformat von YUV422 von der AV-Platine 13 und dem Decoder 18 empfängt und das Videosignal so wie es ist an die E/A-Einheit 12 ausgibt. Alternativ kann die Videobearbeitungs-ASIC 11, da sie ein Videosignal von 24 Bits empfangen kann, ebenso Videosignale in verschiedenen Videoformaten (Farbräume) von RGB444, RGB888 und dergleichen empfangen. Anschließend kann die Videobearbeitungs-ASIC 11 die Signale an die Eingangsbitbreite der Haupt-CPU 4 anpassen und die gewandelten Signale ausgeben.
-
Egal, ob die allgemeine Haupt-CPU 4 gemäß obiger Beschreibung oder eine kundenspezifische Haupt-CPU, die für gewöhnlich für eine Fahrzeugsteuerung verwendet wird, verwendet wird, kann, unter Verwendung der ASIC 11, ein System, das für verschiedene Videoformate ausgelegt ist, flexibel konfiguriert und die vorliegende Erfindung auf verschiedene Systeme angewandt werden.
-
In den obigen Ausführungsformen entsprechen die Empfänger 8 und 9 einer Videosignalempfangseinheit, entspricht die Navigationsvorrichtung 10 einer externen Videovorrichtung, entspricht die Videobearbeitungs-ASIC 11 einer Fahrzeug-Videobearbeitungsvorrichtung, entspricht die AV-Platine 13 einer externen Videovorrichtung, entspricht die Formatwandlungseinheit 34 einer Ausgabeeinheit, entspricht der Taktschalter 36 einer Taktausgabeeinheit und entspricht der Quarzoszillator 37 einer Taktstabilisierungsschaltung.
-
Die vorstehend beschriebene Erfindung umfasst die folgenden Modi.
-
Gemäß einem Aspekt der vorliegenden Offenbarung weist die Fahrzeug-Videobearbeitungsvorrichtung 11 die Taktausgabeeinheit 36 und die Ausgabeeinheit 34 auf. Ein Videosignal, das von der externen Videovorrichtung 10 oder 13 ausgegeben wird und ein vorbestimmtes Videoformat und eine erste Bitbreite aufweist, wird zusammen mit einem ersten Takt, der mit dem Videosignal korreliert, über die Videosignalempfangseinheit 8 oder 9 an die Fahrzeug-Videobearbeitungsvorrichtung 11 gegeben. Die Taktausgabeeinheit 36 gibt ein zweites Taktsignal mit einer Frequenz aus, die erhalten wird, indem eine Frequenz des ersten Taktsignals mit einem vorbestimmten Multiplizierungsfaktor multipliziert wird. Die Ausgabeeinheit 34 wandelt das Videosignal mit der ersten Bitbreite in Übereinstimmung mit dem Multiplizierungsfaktor in ein Videosignal mit einer zweiten Bitbreite und gibt das Videosignal mit der zweiten Bitbreite zusammen mit dem zweiten Taktsignal aus. Die zweite Bitbreite ist geringer als die erste Bitbreite.
-
Gemäß der vorstehend beschriebenen Konfiguration wird dann, wenn ein Videosignal ein Format und eine Bitbreite aufweist, die nicht geeignet sind, um von einer externen Videovorrichtung direkt an eine Vorrichtung auf der Ausgabeseite gegeben zu werden, das Format des Videosignals gewandelt, um eine zweite Bitbreite aufzuweisen, und zwar in Übereinstimmung mit einem vorbestimmten Multiplizierungsfaktor. Folglich kann das Videosignal in dem gewandelten Videoformat in geeigneter Weise verarbeitet und an die Vorrichtung auf der Ausgabeseite gegeben werden.
-
Ferner kann die Ausgabeeinheit 34, während einer Wandlung des Formats des Videosignals mit der ersten Bitbreite in das Format mit der zweiten Bitbreite, wenigstens ein niederwertiges (unteres) Bit aus der ersten Bitbreite entfernen.
-
Ferner können die Videosignalempfangseinheiten 8, 9 mehrere Kanäle aufweisen, kann die externe Videovorrichtung mehrere Unter-Vorrichtungen 10, 13 aufweisen und können die mehrere Kanäle der Videosignalempfangseinheiten 8, 9 jeweils mit den mehreren Unter-Vorrichtungen 10, 13 verbunden sein. In diesem Fall werden mehrere Videosignale mit verschiedenen Videoformaten von den mehreren Unter-Vorrichtungen an die mehreren Kanäle gegeben. Eines der Videosignale, das die größte Bitbreite aufweist, kann als ein bestimmtes Videosignal bezeichnet werden. Die Fahrzeug-Videobearbeitungsvorrichtung 11 kann ferner eine Nulleinfügeeinheit 32 und eine Eingabeschalteinheit 31 aufweisen. Die Nulleinfügeeinheit 32 kann wiederholt eine null in wenigstens ein niederwertiges Bit von jedem der Videosignale mit Ausnahme des bestimmten Videosignals einfügen, bis eine Bitbreite von jedem der Videosignale die Bitbreite des bestimmten Videosignals annimmt. Die Eingabeschalteinheit 31 wählt und gibt eines der Videosignale aus, die jeweils eine Bitbreite gleich der Bitbreite des bestimmten Videosignals aufweisen. Die Ausgabeeinheit 34 wandelt das von der Eingabeschalteinheit ausgegebene Videosignal in das Videosignal mit der zweiten Bitbreite und gibt das Videosignal, das gewandelt wird, um die zweite Bitbreite aufzuweisen, aus. Die Nulleinfügeeinheit 32 fügt eine null in niederwertige Bits ein, und zwar in Übereinstimmung mit dem bestimmten Videosignal mit der größten Anzahl von Bits unter den Videosignalen verschiedener Formate. Auf diese Weise kann der interne Prozess vereinfacht werden. Da die Eingangsschalteinheit 31 Videosignale in verschiedenen Videoformaten schaltet und ausgibt und auf das Videosignal der größten Bitbreite abstimmt, kann die Eingangsschalteinheit 31 durch eine Wähleinheit mit einer Funktion zum Wählen vorbestimmter Bits entsprechend der größten Anzahl von Bits bereitgestellt werden. Dementsprechend kann die Konfiguration der Eingangsschalteinheit weiter vereinfacht werden. Folglich können Videosignale in mehreren Videoformaten, die jeweils eine beliebige Bitbreite aufweisen, empfangen und selektiv ausgegeben werden und kann eine Verarbeitung der Videosignale flexibel erfolgen.
-
Die mehreren Unter-Vorrichtungen sind beispielsweise durch die Navigationsvorrichtung 10 und die digitale Videosignalausgabevorrichtung 13, die gemäß einem vorbestimmten Standard arbeitet, bereitgestellt.
-
Ferner kann die externe Videovorrichtung die Navigationsvorrichtung 10 aufweisen. Das Videosignal mit der ersten Bitbreite ist beispielsweise ein Videosignal in einem RGB666-Format, und das Videosignal mit der zweiten Bitbreite ist beispielsweise ein Videosignal in einem RGB565-Format. Die Ausgabeeinheit 34 wandelt das Videosignal im RGB666-Format, das von der Navigationsvorrichtung 10 über die Videosignalempfangseinheit 8 eingegeben wird, in das Videosignal im RGB565-Format und gibt das Videosignal im RGB565-Format aus.
-
Ferner kann die Taktausgabeeinheit 36 ein Taktsignal mit einer Frequenz gleich einer Frequenz des ersten Taktsignals erzeugen oder ein Taktsignal mit einer Frequenz, die erhalten wird, indem die Frequenz des ersten Taktsignals unter Verwendung einer Taktstabilisierungsschaltung 37 multipliziert wird, erzeugen und das Taktsignal ausgeben, das anstelle des ersten Taktsignals erzeugt wird, das von der externen Videovorrichtung 10, 13 über die Videosignalempfangseinheit 8, 9 eingegeben wird.
-
Gemäß einem weiteren Aspekt der vorliegenden Erfindung weist das Fahrzeug-Videobearbeitungssystem 1 die vorstehend beschriebene Fahrzeug-Videobearbeitungsvorrichtung 11, eine Videosignalempfangseinheit 8, 9 und eine zentrale Hauptverarbeitungseinheit 4 auf. Die Videosignalempfangseinheit 8, 9 ist mit der Fahrzeug-Videobearbeitungsvorrichtung 11 verbunden, empfängt ein Videosignal von einer externen Videovorrichtung 10, 13, wandelt das Videosignal in ein Videosignal mit einem vorbestimmten Videoformat und einer ersten Bitbreite und gibt das resultierende Signal an die Fahrzeug-Videobearbeitungsvorrichtung 11 aus. Die zentrale Hauptverarbeitungseinheit 4 empfängt ein Videosignal mit einer zweiten Bitbreite von der Fahrzeug-Videobearbeitungsvorrichtung 11.
-
Obgleich die vorliegende Erfindung vorstehend in Verbindung mit ihren bevorzugten Ausführungsformen beschrieben ist, sollte wahrgenommen werden, dass sie nicht auf die bevorzugten Ausführungsformen und Konstruktionen beschränkt ist, sondern verschiedene Modifikationen und äquivalente Anordnungen mit abdecken soll. Ferner sollen, obgleich vorstehend die verschiedenen Kombinationen und Konfigurationen, die bevorzugte werden, beschrieben sind, andere Kombinationen und Konfigurationen, die mehr, weniger oder nur ein einziges Element aufweisen, ebenso als mit im Schutzumfang der vorliegenden Erfindung beinhaltet verstanden werden.