JP2013213859A - Video system and video processing method - Google Patents

Video system and video processing method Download PDF

Info

Publication number
JP2013213859A
JP2013213859A JP2012082824A JP2012082824A JP2013213859A JP 2013213859 A JP2013213859 A JP 2013213859A JP 2012082824 A JP2012082824 A JP 2012082824A JP 2012082824 A JP2012082824 A JP 2012082824A JP 2013213859 A JP2013213859 A JP 2013213859A
Authority
JP
Japan
Prior art keywords
video
frame
output
display
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012082824A
Other languages
Japanese (ja)
Inventor
Takeo Matsumoto
武生 松本
Teruhiko Kamibayashi
輝彦 上林
Yasushi Onishi
康司 大西
Daisuke Yamamoto
大輔 山本
Tomoyuki Fujimoto
知之 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012082824A priority Critical patent/JP2013213859A/en
Publication of JP2013213859A publication Critical patent/JP2013213859A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to suppress an increase in the number of GDCs and ASICs included in a video processing path, and distribute video information for every display at an optimal display frame rate, even when video display is performed on a plurality of displays.SOLUTION: A video system includes: a video creation device that outputs video in a frame sequence at a predetermined frame transmission rate; an output control device that receives the video from the video creation device in a frame sequence at said frame transmission rate, and outputs the video to a display device; and a plurality of display devices. The video creation device outputs a frame sequence of a composite video obtained by combining frame sequences of a plurality of videos output respectively from a plurality of the display devices; and the output control device extracts frame sequences of individual videos output from the frame sequence of the composite video to the respective display devices.

Description

本発明は、車両に搭載されるディスプレイへの映像処理方法の技術に関する。   The present invention relates to a technique of a video processing method for a display mounted on a vehicle.

近年、車両に搭載されるディスプレイの数量は、提供されるコンテンツ(例えば、ナビゲーション、テレビジョン(TV)放送、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)等の再生画像、カメラ撮影画像、車両状態を示す描画画像、ゲーム等)の多様化に伴い増加する傾向にある。   In recent years, the number of displays mounted on a vehicle is the content provided (for example, navigation, television (TV) broadcast, playback images such as DVD (Digital Versatile Disk) and BD (Blu-ray Disc)), and camera-captured images. , Drawing images showing vehicle conditions, games, etc.) tend to increase with diversification.

従来、提供されたコンテンツは、例えば、図1に示すように、ディスプレイごとに設けられた映像処理経路90を介して各ディスプレイ上に表示されていた。図1の映像表示処理の形態は、7インチのメインディスプレイ93に、640×480画素の画面解像度で表示画像を表示出力する映像処理経路90と、4.3インチのサブディスプレイ94に640×350画素の画面解像度で表示画像を表示出力する映像処理経路90との、2系統の映像処理経路を備える。   Conventionally, provided content has been displayed on each display via a video processing path 90 provided for each display, for example, as shown in FIG. In the form of the video display processing of FIG. 1, a video processing path 90 for displaying and displaying a display image with a screen resolution of 640 × 480 pixels on a 7-inch main display 93 and a 640 × 350 on a 4.3-inch sub-display 94. Two video processing paths are provided, including a video processing path 90 that displays and outputs a display image at the pixel screen resolution.

例えば、ナビゲーションから供給された映像情報93aは、GDC(Graphics Display
Controller)91、ASIC(Application Specific Integrated Circuit)92といった映像表示処理の専用LSI(Large Scale Integration)を含む、一方の映像処理経路
90を介して映像表示処理が施される。映像表示処理が施された映像情報93aは、例えば、センターコンソールに設けられたメインディスプレイ93に表示出力される。同様に、エアコン等の作動状態を示す描画画像等の映像情報94aは、他方のGDC91、ASIC92を含む映像処理経路90を介して映像表示処理が施され、例えば、メータフード内に設けられた4.3インチディスプレイ94に表示出力される。
For example, the video information 93a supplied from the navigation is GDC (Graphics Display).
The video display processing is performed through one video processing path 90 including a dedicated LSI (Large Scale Integration) for video display processing such as a controller 91 and an application specific integrated circuit (ASIC) 92. The video information 93a subjected to the video display processing is displayed and output on a main display 93 provided in the center console, for example. Similarly, video information 94a such as a drawing image indicating an operating state of an air conditioner or the like is subjected to video display processing via a video processing path 90 including the other GDC 91 and ASIC 92, for example, 4 provided in a meter hood. Displayed on the 3-inch display 94.

メインディスプレイ93に表示出力される映像情報93aは、メインディスプレイ93の表示画面を更新するフレームレート周期(表示フレームレート)で、映像処理経路90から出力される。また、サブディスプレイ94に表示出力される映像情報94aも同様に、サブディスプレイ94の表示画面を更新するフレームレート周期(表示フレームレート)で、映像処理経路90から出力される。   The video information 93 a displayed and output on the main display 93 is output from the video processing path 90 at a frame rate period (display frame rate) for updating the display screen of the main display 93. Similarly, the video information 94a displayed and output on the sub display 94 is also output from the video processing path 90 at a frame rate period (display frame rate) for updating the display screen of the sub display 94.

なお、本明細書で説明する技術に関連する技術が記載されている文献としては、以下の特許文献1乃至3が存在している。   The following Patent Documents 1 to 3 exist as documents describing techniques related to the technique described in this specification.

特開平4−297222号公報JP-A-4-297222 特開2007−249753号公報JP 2007-249753 A 特開2004−258871号公報Japanese Patent Laid-Open No. 2004-258871

図1に示すように、従来の映像表示処理の形態では、映像を表示するディスプレイの数だけGDC及びASICを含む映像処理経路を必要としていた。しかしながら、映像処理経路に含まれるGDCは安価でないため、提供される映像コンテンツの増加に対応しようとすれば、システム全体としてのコストアップが課題となっていた。また、映像処理経路を複数に備える場合には、GDC及びASICといった専用ICを搭載する基板サイズの
増大化を招く虞がある。
As shown in FIG. 1, the conventional video display processing mode requires video processing paths including GDCs and ASICs as many as the number of displays for displaying video. However, since the GDC included in the video processing path is not inexpensive, it has been a problem to increase the cost of the entire system if an attempt is made to cope with an increase in video content to be provided. In addition, when a plurality of video processing paths are provided, there is a risk of increasing the size of a substrate on which a dedicated IC such as a GDC or ASIC is mounted.

また、複数のディスプレイで映像処理経路を共有しようとする場合、映像処理経路は、映像情報を出力するための、ディスプレイごとに異なる表示フレームレートを考慮しなければならない。つまり、映像処理経路は、各ディスプレイに映像情報を表示するための、複数のASIC間で表示フレームレートを調停できる調停回路を必要としていた。   In addition, when a video processing path is to be shared by a plurality of displays, the video processing path has to consider a display frame rate that is different for each display for outputting video information. In other words, the video processing path requires an arbitration circuit capable of arbitrating the display frame rate between a plurality of ASICs for displaying video information on each display.

開示の技術の課題は、複数のディスプレイに映像表示を行う場合でも映像処理経路に含まれるGDC、ASICの数量の増加を抑制し、ディスプレイごとに最適な表示フレームレートで映像情報を分配する技術を提供することにある。   The problem of the disclosed technology is to suppress the increase in the number of GDC and ASIC included in the video processing path even when video is displayed on a plurality of displays, and to distribute the video information at an optimal display frame rate for each display. It is to provide.

開示の技術の一側面は、次の映像システムの構成によって例示される。すなわち、映像システムは、所定のフレーム伝送レートのフレーム列で映像を出力する映像生成装置と、映像生成装置からフレーム伝送レートのフレーム列で映像を受信し、映像を表示装置に出力する出力制御装置と、複数の表示装置と、を備え、映像生成装置は、複数の表示装置にそれぞれ出力される複数の映像のフレーム列を組合せた合成映像のフレーム列を出力し、出力制御装置は、合成映像のフレーム列からぞれぞれの表示装置に出力される個別映像のフレーム列を抽出する。   One aspect of the disclosed technology is exemplified by the following video system configuration. That is, a video system includes a video generation device that outputs video at a frame sequence of a predetermined frame transmission rate, and an output control device that receives video from the video generation device at a frame sequence of frame transmission rate and outputs the video to a display device And a plurality of display devices, wherein the video generation device outputs a composite video frame sequence obtained by combining a plurality of video frame sequences output to the plurality of display devices, and the output control device outputs the composite video The frame sequence of the individual video output to each display device is extracted from each frame sequence.

このような構成によれば、映像生成装置は、複数の表示装置にそれぞれ出力される複数の映像のフレーム列を組合せた合成映像のフレーム列を所定のフレーム伝送レートで出力し、出力制御装置は、所定のフレーム伝送レートで出力された合成映像のフレーム列からぞれぞれの表示装置に出力される個別映像のフレーム列を抽出することができる。その結果、複数の表示装置に映像表示を行う場合でもGDC、ASICの数量を増加せずに映像処理経路が構成できる。ぞれぞれの表示装置に出力される個別映像のフレーム列の抽出は並列して行われ、表示装置ごとに最適なフレームレートで出力できる。   According to such a configuration, the video generation device outputs a frame sequence of a composite video obtained by combining a plurality of video frame sequences output to a plurality of display devices at a predetermined frame transmission rate, and the output control device The frame sequence of the individual video output to each display device can be extracted from the frame sequence of the composite video output at a predetermined frame transmission rate. As a result, even when video is displayed on a plurality of display devices, a video processing path can be configured without increasing the number of GDCs and ASICs. Extraction of the frame sequence of the individual video output to each display device is performed in parallel, and can be output at an optimal frame rate for each display device.

本映像システムによれば、複数のディスプレイに映像表示を行う場合でも映像処理経路に含まれるGDC、ASICの数量の増加を抑制し、ディスプレイごとに最適なフレームレートで映像情報を分配する技術を提供できる。   According to this video system, even when video is displayed on multiple displays, the technology to suppress the increase in the number of GDC and ASIC included in the video processing path and distribute video information at the optimal frame rate for each display is provided. it can.

従来の映像処理経路の構成を説明する図である。It is a figure explaining the structure of the conventional video processing path | route. 本実施形態の映像システムの概略構成図である。It is a schematic block diagram of the video system of this embodiment. 運転席正面のインストルメントパネルに設けられた2つのサブディスプレイに映像データを表示出力する例を示す図である。It is a figure which shows the example which displays and outputs video data on two sub displays provided in the instrument panel in front of a driver's seat. 本実施形態の映像システムの映像表示処理を例示するフローチャートである。It is a flowchart which illustrates the video display process of the video system of this embodiment. 従来の映像処理経路による映像データの表示出力を説明する図である。It is a figure explaining the display output of the video data by the conventional video processing path. 本実施形態のGDC/ASIC間のデータ出力を例示するタイミングチャートである。It is a timing chart which illustrates the data output between GDC / ASIC of this embodiment. ASICの概略ブロック図の例示である。It is an illustration of the schematic block diagram of ASIC. 本実施形態のGDC/ASIC間のデータ出力を例示するタイミングチャートである。It is a timing chart which illustrates the data output between GDC / ASIC of this embodiment. 実施例2の映像表示処理を例示するフローチャートである。10 is a flowchart illustrating an image display process according to the second embodiment. 実施例2の映像表示処理を例示するタイミングチャートである。6 is a timing chart illustrating a video display process according to the second embodiment. 実施例2の映像表示処理を例示するタイミングチャートである。6 is a timing chart illustrating a video display process according to the second embodiment. 実施例3の映像表示処理を説明する図である。It is a figure explaining the video display process of Example 3. FIG. 実施例3の映像表示処理を例示するフローチャートである。12 is a flowchart illustrating an image display process according to the third embodiment. 実施例3の映像表示処理を例示するタイミングチャートである。12 is a timing chart illustrating a video display process according to the third embodiment. 本実施形態の映像システムを備えたAVN機を例示する図である。It is a figure which illustrates the AVN machine provided with the video system of this embodiment.

以下、図面を参照して、一実施形態に係る映像システムについて説明する。以下の実施形態の構成は例示であり、映像システムは実施形態の構成には限定されない。   Hereinafter, a video system according to an embodiment will be described with reference to the drawings. The configuration of the following embodiment is an exemplification, and the video system is not limited to the configuration of the embodiment.

以下、図2から図15の図面に基づいて、映像システムを説明する。   Hereinafter, the video system will be described with reference to FIGS. 2 to 15.

〔装置構成〕
図2は、本実施形態の映像システムの概略構成図である。図2に例示の映像システム10は、例えば、後述する車載用オーディオ・ビジュアル・ナビゲーション一体機(AVN機)といった情報処理システムの一部を構成する。図2の映像システム10には、例えば、AVN機からナビゲーション、テレビジョン(TV)放送、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)等の再生画像、カメラ撮影画像、車両状態を示す描画画像、ゲーム等といったAVN機が表示可能な、各種コンテンツが供給される。
〔Device configuration〕
FIG. 2 is a schematic configuration diagram of the video system of the present embodiment. The video system 10 illustrated in FIG. 2 constitutes a part of an information processing system such as an in-vehicle audio / visual / navigation integrated machine (AVN machine) described later. The video system 10 in FIG. 2 shows, for example, navigation from an AVN machine, television (TV) broadcast, playback images such as DVD (Digital Versatile Disk) and BD (Blu-ray Disc), camera-captured images, and vehicle status. Various contents that can be displayed on an AVN machine such as a drawing image and a game are supplied.

映像システム10は、上述した各種コンテンツごとに映像コンテンツが表示されるディスプレイ(表示装置)に応じた描画処理を行い、例えば、8ビットの階調情報を有する、赤(R)、緑(G)、青(B)といった色要素の画素で構成された映像データを生成する。そして、映像システム10は生成された映像データに対し、例えば、線形補正による色補正やガンマ補正といった色調補正等の表示処理を行う。表示処理後の映像データは、ディスプレイごとに最適な表示フレームレートで、所定の画面解像度で該ディスプレイ上に表示される。   The video system 10 performs a drawing process corresponding to the display (display device) on which the video content is displayed for each of the various contents described above, and has, for example, red (R) and green (G) having 8-bit gradation information. , Blue (B) image data composed of pixels of color elements is generated. Then, the video system 10 performs display processing such as color correction by linear correction and color tone correction such as gamma correction on the generated video data. The video data after the display processing is displayed on the display at a predetermined screen resolution at an optimal display frame rate for each display.

図2に例示する映像システム10では、7インチサイズのメインディスプレイ13に表示出力される映像コンテンツと4.3インチサイズのサブディスプレイ14に表示出力される映像コンテンツの2系統のコンテンツが供給される。メインディスプレイ13は、例えば、ステアリング側方の、センターコンソールといった運転席と助手席とを隔てる部分に配置され、サブディスプレイ14は、例えば、運転席正面のインストルメントパネルに配置される。メインディスプレイ13は、VGA(Video Graphics Array)といった640×480画素の画面解像度を有し、サブディスプレイ14は、EGA(Enhanced Graphics Adapter)といった640×350画素の画面解像度を有する。   In the video system 10 illustrated in FIG. 2, two types of content are supplied: video content displayed and output on the 7-inch size main display 13 and video content displayed and output on the 4.3-inch size sub-display 14. . The main display 13 is disposed, for example, in a portion that separates the driver's seat such as the center console and the passenger seat on the side of the steering, and the sub display 14 is disposed, for example, on an instrument panel in front of the driver's seat. The main display 13 has a screen resolution of 640 × 480 pixels such as VGA (Video Graphics Array), and the sub-display 14 has a screen resolution of 640 × 350 pixels such as EGA (Enhanced Graphics Adapter).

映像システム10は、供給された2系統の映像コンテンツに対し、上述したディスプレイごとの描画処理および表示処理を並列して実行する。そして、映像システム10で処理された2系統の映像データは、後述するように、各ディスプレイに最適な表示フレームレートで並列して出力される。その結果、映像システム10は、例えば、ナビゲーション、テレビジョン(TV)放送、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)等の再生画像といった映像コンテンツを、VGA(Video Graphics Array)といった640×480画素の画面解像度で7インチサイズのメインディスプレイ13上に表示できる。また、メインディスプレイ13への映像表示処理と並列して、例えば、カメラ撮影画像、車両状態を示す描画画像等といった映像コンテンツを、EGA(Enhanced Graphics Adapter)といった640×350画素の画面解像度で4.3インチサイズのサブディスプ
レイ14に表示できる。
The video system 10 executes the above-described drawing processing and display processing for each display in parallel on the supplied two-line video content. The two systems of video data processed by the video system 10 are output in parallel at the optimal display frame rate for each display, as will be described later. As a result, the video system 10 uses, for example, video content such as navigation, television (TV) broadcasting, playback images such as DVD (Digital Versatile Disk) and BD (Blu-ray Disc), 640 such as VGA (Video Graphics Array). It can be displayed on a 7-inch main display 13 with a screen resolution of × 480 pixels. In parallel with the video display processing on the main display 13, for example, video content such as a camera-captured image and a drawing image indicating a vehicle state is displayed at a screen resolution of 640 × 350 pixels such as EGA (Enhanced Graphics Adapter). It can be displayed on the 3-inch size sub-display 14.

本実施形態の映像システム10は、GDC(Graphics Display Controller)11、A
SIC(Application Specific Integrated Circuit)12を備える。GDC11および
ASIC12は、複数のディスプレイに共通の映像処理経路を構成する。映像処理表示装
置10は、複数のディスプレイに共通の映像処理経路を有することにより、それぞれのディスプレイに応じた画面解像度で、供給された複数の映像コンテンツを並列して映像表示処理することができる。なお、GDC11が、映像生成装置の一例であり、ASIC12が出力制御装置の一例である。
The video system 10 of this embodiment includes a GDC (Graphics Display Controller) 11, A
An SIC (Application Specific Integrated Circuit) 12 is provided. The GDC 11 and the ASIC 12 constitute a video processing path common to a plurality of displays. Since the video processing display device 10 has a common video processing path for a plurality of displays, the video processing display device 10 can perform a video display process on a plurality of supplied video contents in parallel at a screen resolution corresponding to each display. The GDC 11 is an example of a video generation device, and the ASIC 12 is an example of an output control device.

GDC11は、2DEngineや3DEngineといったグラフィック表示プログラムを実行する複数のプロセッサ、各種演算処理を行うCPU(Central Processing Unit)、メモリ
、各種インターフェース等を有する映像表示処理用のLSI(Large Scale Integration
)である。各種インターフェースには、入出力インターフェースの他、ADC(Analog/digital converter)や、CAN(Controller Area Network)、LIN(Local Interconnect Network)、イーサネット(登録商標)等の通信インターフェースを含んでもよい。
GDC11のメモリは、GDC11の各プロセッサが各種プログラムやデータをキャッシュしたり作業領域を展開したりする記憶媒体であり、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)等を
含む。GDC11は、例えば、ROM等に記憶されている各種プログラムや各種データをRAM等に実行可能に展開し、各プロセッサ等が各種プログラムを実行することにより、映像コンテンツが表示されるディスプレイに応じた描画処理を行い、映像データの生成といった所定の目的に合致した機能を実現する。
The GDC 11 is an LSI (Large Scale Integration) for video display processing having a plurality of processors that execute graphic display programs such as 2DEngine and 3DEngine, a CPU (Central Processing Unit) that performs various arithmetic processing, a memory, various interfaces, and the like.
). The various interfaces may include communication interfaces such as ADC (Analog / digital converter), CAN (Controller Area Network), LIN (Local Interconnect Network), and Ethernet (registered trademark) in addition to the input / output interface.
The memory of the GDC 11 is a storage medium in which each processor of the GDC 11 caches various programs and data and develops a work area. For example, a RAM (Random Access Memory), a ROM (Read Only Memory), and an EPROM (Erasable Programmable). ROM) etc. For example, the GDC 11 develops various programs and various data stored in a ROM or the like in an executable manner in a RAM or the like, and each processor or the like executes the various programs, thereby drawing according to a display on which video content is displayed. Processing is performed to realize a function that meets a predetermined purpose such as generation of video data.

ASIC12は、入力された映像データに対して線形補正による色補正やガンマ補正といった色調補正等の表示処理を行う映像表示処理用のカスタムICである。ASIC12は、AND回路、OR回路、NOT回路、カウンタ回路といった論理回路、加算、乗算といった信号処理回路、メモリ、PLL(Phase-locked loop)、入出力インターフェース
等を有する。ASIC12のメモリは、入出力インターフェースを介して入力された映像データや信号処理の際に参照するテーブル等を記憶する記憶媒体であり、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)等を含む。
The ASIC 12 is a custom IC for video display processing that performs display processing such as color correction by linear correction or color tone correction such as gamma correction on input video data. The ASIC 12 includes a logic circuit such as an AND circuit, an OR circuit, a NOT circuit, and a counter circuit, a signal processing circuit such as addition and multiplication, a memory, a PLL (Phase-locked loop), an input / output interface, and the like. The memory of the ASIC 12 is a storage medium that stores video data input via an input / output interface, a table to be referred to during signal processing, and the like. For example, a RAM (Random Access Memory), a ROM (Read Only Memory), Includes EPROM (Erasable Programmable ROM).

〔処理概要〕
図2のGDC11は、供給された2系統の映像コンテンツに基づいて、メインディスプレイ13、サブディスプレイ14に表示出力する映像データを生成する。本実施形態のGDC11は、メインディスプレイ13の映像データ11aとサブディスプレイ14の映像データ11bを包含する1つの合成映像画像を生成し、ASIC12に出力する。ここで、本実施形態では、複数の映像データを包含する映像データを「合成映像画像」とし、該合成映像画像の生成を「合成」と称する。複数の映像データの「合成」の仕方として、(1)フレーム別、(2)ブランキング期間を使用、(3)描画クロックの高速化の3形態で1つの合成映像画像を生成する方法が例示できる。なお、(1)、(2)のケースでは複数面の映像データを個別に描画・生成し、共通の送信フレームでASIC12に出力するものである。
〔Outline of processing〕
The GDC 11 in FIG. 2 generates video data to be displayed and output on the main display 13 and the sub display 14 based on the supplied two video contents. The GDC 11 of the present embodiment generates one composite video image including the video data 11 a of the main display 13 and the video data 11 b of the sub display 14 and outputs it to the ASIC 12. Here, in the present embodiment, video data including a plurality of video data is referred to as “composite video image”, and generation of the composite video image is referred to as “synthesis”. Examples of methods of “compositing” a plurality of video data include a method of generating one composite video image in three forms: (1) frame by frame, (2) using a blanking period, and (3) speeding up a drawing clock. it can. In the cases (1) and (2), video data of a plurality of surfaces are individually drawn and generated, and output to the ASIC 12 with a common transmission frame.

ここで、メインディスプレイ13の映像データ11aは、例えば、640×480画素で構成され、サブディスプレイ14の映像データ11bは、例えば、640×350画素で構成されるとする。各画素は量子化されたR、G、B、の各8ビットの階調情報で表現されるとする。また、以下の説明では描画処理によって生成された映像データを“原画像”と称する。   Here, the video data 11a of the main display 13 is configured with, for example, 640 × 480 pixels, and the video data 11b of the sub display 14 is configured with, for example, 640 × 350 pixels. Assume that each pixel is represented by quantized R, G, B 8-bit gradation information. In the following description, video data generated by the drawing process is referred to as “original image”.

上述の(1)のケースでは、GDC11は、例えば、映像データ11aおよび映像データ11bを包含した1つの映像データ11cを描画・生成し、同一周期の送信フレームで映像データ11cをASIC12に出力する。GDC11が描画・生成する映像データ11cは、少なくとも、640×480画素で構成される映像データ11aと640×35
0画素で構成される映像データ11bを包含する画素サイズであればよい。図例では、映像データ11cは、映像データ11aと映像データ11bとが縦方向(垂直方向)に上下に並ぶため、少なくとも640×(480+350)画素以上の画素サイズであればよい。なお、このような映像データ11cの描画・生成は、個別に描画された映像データ11aの原画像と映像データ11bの原画像とを各原画像の画素サイズを保持したまま合成し、1つの合成映像画像の映像データ11cを生成するとしてもよい。
In the case of the above (1), for example, the GDC 11 draws and generates one video data 11c including the video data 11a and the video data 11b, and outputs the video data 11c to the ASIC 12 with a transmission frame of the same period. The video data 11c drawn and generated by the GDC 11 includes video data 11a and 640 × 35 composed of at least 640 × 480 pixels.
Any pixel size including the video data 11b composed of 0 pixels may be used. In the illustrated example, the video data 11c may have a pixel size of at least 640 × (480 + 350) pixels since the video data 11a and the video data 11b are arranged vertically in the vertical direction (vertical direction). Such drawing / generation of the video data 11c is performed by synthesizing the original image of the video data 11a and the original image of the video data 11b, which are drawn individually, while maintaining the pixel size of each original image. The video data 11c of the video image may be generated.

(2)のケースでは、GDC11は、例えば、映像データ11aおよび映像データ11bを包含した1つの映像データ11cを描画・生成する。そして、例えば、GDC11は、映像データ11aに対応するディスプレイの表示領域の有効範囲内で映像データ11aの画像フレームをASIC12に出力し、ブランキング期間内に映像データ11bを圧縮や複数フレームに跨って送信可能なようにデータサイズを分割し、ASIC12に出力する。つまり、GDC/ASIC間で受け渡しされる合成映像画像は、有効範囲期間+ブランキング期間で、同一周期となる送信フレームを形成する。   In the case (2), the GDC 11 renders and generates one video data 11c including the video data 11a and the video data 11b, for example. Then, for example, the GDC 11 outputs the image frame of the video data 11a to the ASIC 12 within the effective range of the display area corresponding to the video data 11a, and compresses the video data 11b within a blanking period or straddles a plurality of frames. The data size is divided so that transmission is possible and output to the ASIC 12. That is, the composite video image transferred between the GDC / ASIC forms a transmission frame having the same period in the effective range period + the blanking period.

図例では、映像データ11cは、映像データ11aと映像データ11bとが縦方向(垂直方向)に上下に並ぶため、640×480画素サイズの映像データ11aをメインディスプレイ13の表示領域の有効範囲内でASIC12に出力する。そして、640×350画素サイズの映像データ11bをメインディスプレイ13のブランキング期間内でASIC12に出力する。一般的に、有効範囲期間とブランキング期間とを比較すると、ブランキング期間が短いため、該ブランキング期間内に映像データ11bを出力するために、所定の圧縮又は複数フレームに跨って送信可能なようにデータサイズを分割する。   In the illustrated example, since the video data 11a and the video data 11b are arranged vertically in the vertical direction (vertical direction), the video data 11c has the video data 11a having a size of 640 × 480 pixels within the effective range of the display area of the main display 13. To output to the ASIC 12. The video data 11b having a size of 640 × 350 pixels is output to the ASIC 12 within the blanking period of the main display 13. In general, when the effective range period and the blanking period are compared, the blanking period is short, so that the video data 11b can be output within the blanking period and can be transmitted over a predetermined compression or multiple frames. Divide the data size as follows.

ASIC12は、後述するように、ブランキング期間内に圧縮された映像データ11bを、例えば、GDC11から通知される映像情報の圧縮率に基づいて伸張処理を行い、圧縮前のデータサイズの映像データ11bに復元する。また、ASIC12は、後述するように、複数フレームに跨って分割された映像データを、例えば、GDC11から通知される映像情報の分割前のフレーム位置情報等に基づいて結合し、分割前のデータサイズの映像データ11bに復元する。   As will be described later, the ASIC 12 performs a decompression process on the video data 11b compressed within the blanking period based on, for example, the compression rate of the video information notified from the GDC 11, and the video data 11b having a data size before compression. Restore to. Further, as will be described later, the ASIC 12 combines the video data divided over a plurality of frames based on, for example, frame position information before division of the video information notified from the GDC 11, and the data size before division. The video data 11b is restored.

(3)のケースでは、GDC11は、例えば、クロックレート(クロック周波数)の高い処理クロックで、映像データ11aおよび映像データ11bを包含した1つの映像データ11cを描画・生成する。そして、描画密度を高めた1つの合成映像画像をディスプレイの表示領域の有効範囲内でASIC12に出力する。本ケースについては、詳細な説明を後述する。   In the case (3), for example, the GDC 11 draws and generates one video data 11c including the video data 11a and the video data 11b with a processing clock having a high clock rate (clock frequency). Then, one composite video image with an increased drawing density is output to the ASIC 12 within the effective range of the display area of the display. A detailed description of this case will be described later.

以上の形態でGDC11は、映像データ11aおよび映像データ11bを包含した1つの映像データ11cを、入出力インターフェースを介してASIC12に出力する。   In the above form, the GDC 11 outputs one video data 11c including the video data 11a and the video data 11b to the ASIC 12 via the input / output interface.

本実施形態の映像システム10は、このような合成映像画像を描画生成する処理機能をGDC11に実行させることにより、例えば、メインディスプレイ13およびサブディスプレイ14に表示出力される映像データを並列して処理することができる。但し、GDC11で実行される、合成映像画像を描画・生成する処理機能は図2の処理例に限定される訳ではない。例えば、映像データ11cは、映像データ11aと映像データ11bとが横方向(水平方向)に並列して並ぶとした合成映像画像であってもよい。この場合、合成映像画像である映像データ11cは、少なくとも(640+640)×(480)画素以上の画素サイズとすることができる。複数の映像データを包含する1つの合成映像画像の画素サイズは、車載システムが要求される表示精度、車載システムの規模、映像データを表示出力するディスプレイの有効表示領域等によって適正なものを選択できる。   The video system 10 of the present embodiment processes the video data displayed and output on the main display 13 and the sub display 14 in parallel by causing the GDC 11 to execute a processing function for drawing and generating such a composite video image. can do. However, the processing function executed by the GDC 11 for drawing and generating a composite video image is not limited to the processing example of FIG. For example, the video data 11c may be a composite video image in which the video data 11a and the video data 11b are arranged in parallel in the horizontal direction (horizontal direction). In this case, the video data 11c that is a composite video image can have a pixel size of at least (640 + 640) × (480) pixels or more. The pixel size of one composite video image including a plurality of video data can be selected appropriately depending on the display accuracy required by the in-vehicle system, the scale of the in-vehicle system, the effective display area of the display that displays and outputs the video data, and the like. .

GDC11から出力された合成映像画像は、ASIC12が備える入出力インターフェースを介してASIC12に入力される。ASIC12は、後述するように、入力された合成映像画像を、所定のタイミングでディスプレイごとの映像データに分離し、分離された各映像データをメモリに一時的に格納する。そして、ASIC12は、例えば、各ディスプレイの表示タイミングでメモリに格納された各映像データを読み出し、色補正やガンマ補正といった色調補正等の表示処理を行う。ASIC12で表示処理が施された各映像データは、ディスプレイごとの表示フレームレートで、並列して各ディスプレイに出力される。メモリに格納された各映像データの読み出しと、各映像データを対応するディスプレイに出力する表示フレームレートは、同一周期のクロック信号に基づいて処理されるため、各ディスプレイに応じた最適な表示フレームレートでそれぞれの映像データを分配・出力できる。   The composite video image output from the GDC 11 is input to the ASIC 12 via the input / output interface included in the ASIC 12. As will be described later, the ASIC 12 separates the input composite video image into video data for each display at a predetermined timing, and temporarily stores the separated video data in a memory. For example, the ASIC 12 reads each video data stored in the memory at the display timing of each display, and performs display processing such as color correction such as color correction and gamma correction. Each video data subjected to display processing by the ASIC 12 is output in parallel to each display at a display frame rate for each display. Since the video data stored in the memory is read and the display frame rate for outputting the video data to the corresponding display is processed based on the clock signal with the same period, the optimal display frame rate for each display Can distribute and output each video data.

(1)のケースでは、映像データ11cのフレームを、映像データ11aに属するフレームと映像データ11bに属するフレームに区別・分類することで、メインディスプレイ13へ出力される映像データとサブディスプレイ14へ出力される映像データとを区別できる。   In the case (1), the video data 11c is output to the main display 13 and the sub display 14 by distinguishing and classifying the frames of the video data 11c into frames belonging to the video data 11a and frames belonging to the video data 11b. Can be distinguished from the video data to be recorded.

(2)のケースでは、映像データ11cのフレームは、有効期間+ブランキング期間で出力される。例えば、GDC/ASIC間のデータ受け渡しは、映像データ11aに属するフレームは有効期間内で出力し、映像データ11bに属するフレームはブランキング期間内で出力すると、予め設定すれば、映像データ11cのフレームは区別・分類できる。その結果、メインディスプレイ13へ出力される映像データとサブディスプレイ14へ出力される映像データとを区別できる。   In the case (2), the frame of the video data 11c is output in the effective period + the blanking period. For example, when data is transferred between the GDC / ASIC, a frame belonging to the video data 11a is output within the effective period, and a frame belonging to the video data 11b is output within the blanking period. Can be distinguished and classified. As a result, the video data output to the main display 13 and the video data output to the sub display 14 can be distinguished.

(3)のケースでは、ASIC12は、合成映像画像である映像データ11cの画像フレームを映像データ11aの画像フレームの領域と映像データ11bの画像フレームの領域とに分割する。例えば、合成映像画像である映像データ11cが映像データ11aと映像データ11bとが縦方向(垂直方向)に上下に並ぶ場合では、垂直同期信号に同期したタイミングで合成映像画像の画像フレームを分割することにより、合成映像画像に包含されたディスプレイごとの映像データを分離できる。なお、ASIC12は、GDC11から通知されるタイミング信号や、合成映像画像の画素情報等に基づいて、合成映像画像に包含された各映像データを分離するとしてもよい。   In the case (3), the ASIC 12 divides the image frame of the video data 11c, which is a composite video image, into an image frame area of the video data 11a and an image frame area of the video data 11b. For example, when the video data 11c that is a composite video image is such that the video data 11a and the video data 11b are arranged vertically in the vertical direction (vertical direction), the image frame of the composite video image is divided at a timing synchronized with the vertical synchronization signal. Thus, the video data for each display included in the composite video image can be separated. Note that the ASIC 12 may separate each video data included in the composite video image based on a timing signal notified from the GDC 11, pixel information of the composite video image, and the like.

ASIC12で分離された映像データ11a、映像データ11bは、それぞれに応じたディスプレイに、最適な表示フレームレートで並列して表示出力される。例えば、640×480画素の画像12aは、ナビゲーションといった映像コンテンツの映像データ11aとしてメインディスプレイ13に表示出力される。同様に、640×350画素の画像12bは、例えば、車両状態を示す描画画像といった映像コンテンツの映像データ11bとしてサブディスプレイ14に表示出力される。なお、ASIC12は、各ディスプレイに出力される映像データ間で出力タイミングを同期させるようにしてもよい。   The video data 11a and the video data 11b separated by the ASIC 12 are displayed and output in parallel at an optimum display frame rate on a display corresponding to each. For example, the 640 × 480 pixel image 12 a is displayed and output on the main display 13 as video data 11 a of video content such as navigation. Similarly, the image 12b of 640 × 350 pixels is displayed and output on the sub display 14 as video data 11b of video content such as a drawing image indicating the vehicle state. Note that the ASIC 12 may synchronize the output timing between the video data output to each display.

本実施形態の映像システム10は、このような合成映像画像の分割、画素間の色補間処理といった表示処理をASIC12に機能させることにより、例えば、メインディスプレイ13に表示出力される映像データとサブディスプレイ14に表示出力される映像データとを同期して連動することが可能となる。なお、ASIC12で行われる合成映像画像の分割、表示処理等は、図2の処理例に限定されないことは言うまでもない。例えば、映像データ11aと映像データ11bとが横方向(水平方向)に並列して並ぶ合成映像画像では、水平同期信号に同期したタイミングで合成映像画像の画素フレームを分割するとしてもよい。   The video system 10 according to the present embodiment causes the ASIC 12 to perform display processing such as division of a composite video image and color interpolation processing between pixels so that, for example, video data displayed on the main display 13 and a sub display are displayed. It is possible to synchronize and synchronize with the video data displayed and output at 14. Needless to say, the division, display processing, and the like of the composite video image performed by the ASIC 12 are not limited to the processing example of FIG. For example, in the synthesized video image in which the video data 11a and the video data 11b are arranged in parallel in the horizontal direction (horizontal direction), the pixel frame of the synthesized video image may be divided at a timing synchronized with the horizontal synchronization signal.

図3は、運転席正面のインストルメントパネルに設けられた2つのサブディスプレイ14aに映像データを表示出力する例である。インストルメントパネルのメータフード15内には、速度計16a、回転速度計16bを挟むように2つの4.3インチのサブディスプレイ14aが設けられている。図3の映像システム10には、少なくとも10.2インチのメインディスプレイ13a、2つの4.3インチのサブディスプレイ14aに表示出力可能な映像コンテンツが供給される。なお、メインディスプレイ13aは、ステアリング側方の、センターコンソールといった運転席と助手席とを隔てる部分に配置される。   FIG. 3 is an example in which video data is displayed and output on two sub-displays 14a provided on the instrument panel in front of the driver's seat. In the meter hood 15 of the instrument panel, two 4.3 inch sub-displays 14a are provided so as to sandwich the speedometer 16a and the rotational speedometer 16b. The video system 10 shown in FIG. 3 is supplied with video content that can be displayed and output on at least a 10.2-inch main display 13a and two 4.3-inch sub-displays 14a. In addition, the main display 13a is arrange | positioned in the part which separates the driver's seat and front passenger seat, such as a center console, on the side of a steering.

図例の映像システム10のGDC11は、メインディスプレイ13aへの表示出力系統とASIC12への合成映像画像を出力する系統を備える。GDC11は、2つのサブディスプレイ14aに表示出力される映像データ11dと11eを包含する1つの合成映像画像11fを描画・生成する。合成映像画像11fは、例えば、映像データ11dと映像データ11eを横方向に並列して包含する画素サイズを有する1つの映像データとして、ASIC12に出力される。   The GDC 11 of the illustrated video system 10 includes a display output system for the main display 13 a and a system for outputting a composite video image to the ASIC 12. The GDC 11 draws and generates one composite video image 11f including video data 11d and 11e displayed and output on the two sub-displays 14a. The composite video image 11f is output to the ASIC 12, for example, as one video data having a pixel size including the video data 11d and the video data 11e in parallel in the horizontal direction.

GDC11から出力された合成映像画像11fは、ASIC12によって映像データ11aの画像フレームと映像データ11bの画像フレームとに分離または分割され、ASIC12のメモリにそれぞれ一時的に格納される。ASIC12のメモリに格納された各映像データは、各サブディスプレイ14aの表示タイミングで読み出され、それぞれに表示処理が行われ、各サブディスプレイ14aの表示フレームレートでVRAM(Video RAM
)といったメモリ17に出力される。メモリ17に出力された各映像データは、それぞれのディスプレイ14a上に表示される。ASIC12では、分割処理、表示処理といった各サブディスプレイ14aへの表示出力処理は、同期を取りながら並列して実行できるため、各サブディスプレイ14aの映像データを連動して表示することが可能となる。
The synthesized video image 11 f output from the GDC 11 is separated or divided into an image frame of the video data 11 a and an image frame of the video data 11 b by the ASIC 12, and temporarily stored in the memory of the ASIC 12. Each video data stored in the memory of the ASIC 12 is read at the display timing of each sub-display 14a, subjected to display processing, and VRAM (Video RAM) at the display frame rate of each sub-display 14a.
). Each video data output to the memory 17 is displayed on each display 14a. In the ASIC 12, display output processing to each sub-display 14a such as division processing and display processing can be executed in parallel with synchronization, so that video data on each sub-display 14a can be displayed in conjunction with each other.

図3の映像システム10では、例えば、GDC11からメインディスプレイ13aに表示出力する映像データを、ASIC12を経由して供給するとしてもよい。例えば、ASIC12において、メインディスプレイ13aに表示出力する映像データに、各サブディスプレイ14aの表示出力に係る処理遅延を与え、メインディスプレイ13aに表示出力するとしてもよい。ASIC12を経由してメインディスプレイ13aに表示出力される映像データは、ASIC12内のクロック信号に基づく処理遅延が付加されることで、各サブディスプレイ14aに表示される映像データと同期を取りながら表示出力できる。その結果、例えば、3つのディスプレイ間で表示出力される映像データの連動が可能となる。   In the video system 10 of FIG. 3, for example, video data to be displayed and output from the GDC 11 to the main display 13 a may be supplied via the ASIC 12. For example, in the ASIC 12, a processing delay related to the display output of each sub-display 14a may be given to the video data displayed and output on the main display 13a, and the display output may be performed on the main display 13a. The video data displayed and output on the main display 13a via the ASIC 12 is displayed and output in synchronization with the video data displayed on each sub-display 14a by adding a processing delay based on the clock signal in the ASIC 12. it can. As a result, for example, video data displayed and output among three displays can be linked.

以下、上述した(1)のケースを実施例1とし、(2)のケースを実施例2とし、(3)のケースを実施例3として具体的な処理を説明する。   Hereinafter, specific processing will be described with the case (1) described above as Example 1, the case (2) as Example 2, and the case (3) as Example 3.

<実施例1>
〔処理フロー〕
以下、図4から図8を参照し、本実施形態((1)フレーム別)の映像表示処理について説明する。図4は、映像システム10による映像データの描画、複数の映像データの合成、合成映像画像の分割、分割後の映像データの表示処理といったディスプレイごとの映像表示処理のフローチャートの例示である。映像システム10のGDC11は、例えば、メモリに実行可能に展開された各種プログラムにより映像データの描画処理、複数の映像データの合成等を実行する。なお、図4において、S1−S2の処理はGDC11で実行され、S3−S4の処理はASIC12で実行される。
<Example 1>
[Process flow]
Hereinafter, with reference to FIG. 4 to FIG. 8, the video display processing of the present embodiment ((1) by frame) will be described. FIG. 4 is an example of a flowchart of video display processing for each display such as video data rendering by the video system 10, synthesis of a plurality of video data, division of the synthesized video image, and display processing of the video data after division. The GDC 11 of the video system 10 executes, for example, video data drawing processing, synthesis of a plurality of video data, and the like by various programs that are executable in the memory. In FIG. 4, the process of S1-S2 is executed by the GDC 11, and the process of S3-S4 is executed by the ASIC 12.

図4に例示する映像表示処理のフローチャートにおいて、映像表示処理の“表示開始”は、例えば、車両のイグニッションキーが「ON」または「ACC」位置となり、電力供
給が開始された時が提示できる。
In the flowchart of the video display process illustrated in FIG. 4, “display start” of the video display process can be presented, for example, when the vehicle ignition key is in the “ON” or “ACC” position and power supply is started.

映像システム10のGDC11は、提供された映像コンテンツに基づいて、図3に例示するメインディスプレイ13a、2つのサブディスプレイ14aに応じた映像データの描画・生成を行う。そして、図3の例では、GDC11は、描画・生成された2つのサブディスプレイ14aの映像データ11dおよび映像データ11eから、それぞれの映像データを包含した1つの映像データ11fを描画し生成する(S1)。図3の例では、合成映像画像として、例えば、映像データ11dと映像データ11eとが横方向に並列して包含された画素サイズの1つの映像データ11fを描画する。   The GDC 11 of the video system 10 draws and generates video data according to the main display 13a and the two sub-displays 14a illustrated in FIG. 3 based on the provided video content. In the example of FIG. 3, the GDC 11 draws and generates one video data 11f including each video data from the video data 11d and the video data 11e of the two sub-displays 14a drawn and generated (S1). ). In the example of FIG. 3, for example, one video data 11f having a pixel size in which the video data 11d and the video data 11e are included in parallel in the horizontal direction is drawn as the synthesized video image.

各サブディスプレイ14aの映像データ11dおよび11eは、例えば、640×350画素で構成され、各画素は量子化されたR、G、B、の各8ビットの階調情報で表現される。図3の例では、合成映像画像である映像データ11fは、映像データ11dと映像データ11eとが横方向(水平方向)に並列して並ぶため、少なくとも(640+640)×(350)画素以上の画素サイズであればよい。   The video data 11d and 11e of each sub-display 14a is composed of, for example, 640 × 350 pixels, and each pixel is expressed by quantized R, G, B 8-bit gradation information. In the example of FIG. 3, the video data 11f, which is a composite video image, includes at least (640 + 640) × (350) pixels or more because the video data 11d and the video data 11e are arranged in parallel in the horizontal direction (horizontal direction). Any size is acceptable.

図4に戻り、映像システム10のGDC11は、合成映像画像である映像データ11fをASIC12に出力するとともに、並列して描画生成されたメインディスプレイ13aの映像データを該ディスプレイに表示出力する。GDC11は、合成映像画像の出力にあたり、例えば、映像データ11dと映像データ11eの出力順を決定し、決定した各映像データの出力順を合成映像画像とともにASIC12に出力する(S2)。本実施形態の合成映像画像のASIC12へのデータ出力を説明するにあたり、従来の映像処理経路でのGDC/ASIC間のデータ出力を、図5を用いて説明する。   Returning to FIG. 4, the GDC 11 of the video system 10 outputs the video data 11f, which is a composite video image, to the ASIC 12, and displays the video data of the main display 13a drawn and generated in parallel on the display. For example, the GDC 11 determines the output order of the video data 11d and the video data 11e, and outputs the determined output order of each video data to the ASIC 12 together with the composite video image (S2). In explaining the data output of the composite video image of the present embodiment to the ASIC 12, the data output between the GDC / ASIC in the conventional video processing path will be explained with reference to FIG.

図5に、従来の映像処理経路90による映像データの表示出力の説明図を示す。従来の映像処理経路90は、それぞれGDC91、ASIC92を含み構成されていることは既に図1で説明した。図5のディスプレイ1の映像処理経路90は、図1のメインディスプレイ93の映像処理経路であり、ディスプレイ2の映像処理経路90は、図1のサブディスプレイ94の映像処理経路に対応する。   FIG. 5 is an explanatory view of display output of video data by the conventional video processing path 90. As described above with reference to FIG. 1, the conventional video processing path 90 includes the GDC 91 and the ASIC 92, respectively. The video processing path 90 of the display 1 in FIG. 5 is the video processing path of the main display 93 in FIG. 1, and the video processing path 90 of the display 2 corresponds to the video processing path of the sub display 94 in FIG.

図5において、映像コンテンツに応じた映像データ(映像1、映像2)は、各GDC91で描画・生成され、それぞれ所定の送信フレームレートでASIC92に出力されている。ここで、従来の送信フレームレートは、60fps(フレーム/秒)のフレームレートである。GDC91Aで描画生成された映像データは、例えば、その映像データの画素サイズを60フレームに分割され、各フレームは60fpsの送信フレームレートでASIC92Aに出力される。ASIC92Aに入力された“映像1”の映像データは、色調補正等といった表示処理が施され、メインディスプレイ93の表示画面を更新するフレームレート周期で、ASIC92Aから出力される。同様に、GDC91Bで描画生成された映像データは、例えば、その映像データの画素サイズを60フレームに分割され、各フレームは60fpsの送信フレームレートでASIC92Bに出力される。ASIC92Bに入力された“映像2”の映像データは、色調補正等といった表示処理が施され、サブディスプレイ94の表示画面を更新するフレームレート周期で、ASIC92Bから出力される。   In FIG. 5, video data (video 1 and video 2) corresponding to video content is drawn and generated by each GDC 91 and output to the ASIC 92 at a predetermined transmission frame rate. Here, the conventional transmission frame rate is a frame rate of 60 fps (frames / second). For example, the video data drawn and generated by the GDC 91A is divided into 60 frames with the pixel size of the video data, and each frame is output to the ASIC 92A at a transmission frame rate of 60 fps. The video data of “video 1” input to the ASIC 92A is output from the ASIC 92A at a frame rate cycle in which display processing such as color correction is performed and the display screen of the main display 93 is updated. Similarly, the video data drawn and generated by the GDC 91B is divided into, for example, the frame size of the video data into 60 frames, and each frame is output to the ASIC 92B at a transmission frame rate of 60 fps. The video data of “Video 2” input to the ASIC 92B is subjected to display processing such as color correction and is output from the ASIC 92B at a frame rate cycle for updating the display screen of the sub-display 94.

図6に、本実施形態の映像システム10におけるGDC/ASIC間のデータ出力のタイミングチャートを例示する。図6(a)、(b)は、従来の送信フレームレートで合成映像画像をASIC12へ出力するタイムチャートの例である。図6(a)、(b)において、“ディスプレイ1”および“ディスプレイ2”は、例えば、図3に例示の2つのサブディスプレイ14aに相当する。   FIG. 6 illustrates a timing chart of data output between GDC / ASIC in the video system 10 of the present embodiment. FIGS. 6A and 6B are examples of time charts for outputting a composite video image to the ASIC 12 at a conventional transmission frame rate. 6A and 6B, “Display 1” and “Display 2” correspond to, for example, the two sub-displays 14a illustrated in FIG.

図4に例示するフローチャートのS2において、GDC11は、1つの映像データ11fに包含されるディスプレイごとの映像データの出力順を決定する。図3の例では、GDC11は、2つの映像データ11d、11eを描画・生成し、1つの映像データ11fに包含してASIC12へ出力する。GDC11は、例えば、ASIC12へ出力する奇数フレームでは映像データ11dを、偶数フレームでは映像データ11eを連続して順に出力することを決定する。そして、GDC11は、従来の映像処理経路90と同一の送信フレームレートで映像データ11fをASIC12に出力すると共に、決定された各フレームの映像情報を並列してASIC12に出力する。ここで、GDC11からASIC12に出力される各フレームの映像情報は、例えば、図6に例示する映像選択信号といった形態で出力してもよく、映像データ11fの一部に付加データとして埋め込み、例えば、各映像フレームデータに先行するブランキングのタイミングに合わせて通知するとしてもよい。車載システムが要求される表示精度、車載システムの規模、伝送容量や帯域幅、映像データを表示出力するディスプレイの有効表示領域等によって適正な形態を選択できる。   In S2 of the flowchart illustrated in FIG. 4, the GDC 11 determines the output order of the video data for each display included in one video data 11f. In the example of FIG. 3, the GDC 11 draws / generates two pieces of video data 11d and 11e, includes them in one piece of video data 11f, and outputs them to the ASIC 12. For example, the GDC 11 determines to sequentially output the video data 11d in the odd-numbered frames output to the ASIC 12 and sequentially output the video data 11e in the even-numbered frames. Then, the GDC 11 outputs the video data 11f to the ASIC 12 at the same transmission frame rate as that of the conventional video processing path 90, and outputs the determined video information of each frame in parallel to the ASIC 12. Here, the video information of each frame output from the GDC 11 to the ASIC 12 may be output, for example, in the form of a video selection signal illustrated in FIG. 6, for example, embedded as additional data in a part of the video data 11f, for example, Notification may be made in accordance with the blanking timing preceding each video frame data. An appropriate form can be selected according to the display accuracy required for the in-vehicle system, the scale of the in-vehicle system, the transmission capacity and bandwidth, the effective display area of the display for displaying and outputting video data, and the like.

図6(a)は、奇数フレームにディスプレイ1の映像データ1、偶数フレームにディスプレイ2の映像データ2を包含した1つの映像データをASIC12に出力する例である。図6(a)では、2つの映像データを描画し、フレーム毎に交互してそれぞれの映像データを出力する。各フレームは、60fpsといった従来の映像処理経路と同一周期の送信フレームレートでASIC12に出力される。そして、図例では、各フレームの映像データが映像1であるか映像2であるかを示す映像情報は、1ビットの映像選択信号としてASIC12に並列して出力される。図例の映像選択信号は、出力信号レベルで高/低の2値を取るステータス信号であり、例えば、偶数フレームの期間は出力信号レベルで高ステータス状態となり、奇数フレームの期間は出力信号レベルで低ステータス状態に変化する。   FIG. 6A shows an example in which one piece of video data including video data 1 of the display 1 in odd frames and video data 2 of the display 2 in even frames is output to the ASIC 12. In FIG. 6A, two video data are drawn, and each video data is output alternately for each frame. Each frame is output to the ASIC 12 at the same transmission frame rate as the conventional video processing path such as 60 fps. In the illustrated example, video information indicating whether the video data of each frame is video 1 or video 2 is output in parallel to the ASIC 12 as a 1-bit video selection signal. The video selection signal in the example is a status signal that takes a binary value of high / low at the output signal level. For example, the period of the even frame is in the high status state at the output signal level, and the period of the odd frame is at the output signal level. Change to low status state.

ASIC12では、映像選択信号の各ステータスに応じてフレーム毎に交互して出力される映像1および映像2の映像データを分類し、分離すればよい。   The ASIC 12 may classify and separate the video data of video 1 and video 2 that are alternately output for each frame in accordance with each status of the video selection signal.

図7に、ASIC12の概略ブロック図を例示する。図7に例示のASIC12では、入力処理部12cが、映像選択信号のステータス状態に応じて1つの映像データに包含された映像1、映像2の各映像データをフレームごとに分離する処理部として機能する。入力処理部12cは、例えば、映像選択信号のステータス状態に応じて奇数フレームの映像データを抽出し、ディスプレイA用のメモリ12dに格納する。同様に、入力処理部12cは、映像選択信号のステータス状態に応じて偶数フレームの映像データを抽出し、ディスプレイB用のメモリ12dに格納する。ディスプレイA用のメモリ12dに格納されたフレームごとの映像データは、例えば、ディスプレイAの表示タイミングで読み出され、出力制御部12eで色補正やガンマ補正、コントラスト補正等といった表示処理が施され、ディスプレイAの表示フレームレートでASIC12から出力される。同様に、ディスプレイB用のメモリに12dに格納されたフレームごとの映像データは、例えば、ディスプレイBの表示タイミングで読み出され、出力制御部12eで色補正やガンマ補正、コントラスト補正等といった表示処理が施され、ディスプレイBの表示フレームレートでASIC12から出力される。各ディスプレイに出力される映像データは、並列して出力される。   FIG. 7 illustrates a schematic block diagram of the ASIC 12. In the ASIC 12 illustrated in FIG. 7, the input processing unit 12c functions as a processing unit that separates the video data of video 1 and video 2 included in one video data for each frame according to the status state of the video selection signal. To do. The input processing unit 12c extracts, for example, odd-frame video data according to the status of the video selection signal and stores it in the display A memory 12d. Similarly, the input processing unit 12c extracts video data of even frames according to the status state of the video selection signal, and stores the video data in the display B memory 12d. The video data for each frame stored in the memory 12d for the display A is read at the display timing of the display A, for example, and subjected to display processing such as color correction, gamma correction, and contrast correction in the output control unit 12e. The data is output from the ASIC 12 at the display frame rate of the display A. Similarly, the video data for each frame stored in the display B memory 12d is read at the display timing of the display B, for example, and the output control unit 12e performs display processing such as color correction, gamma correction, and contrast correction. Are output from the ASIC 12 at the display frame rate of the display B. The video data output to each display is output in parallel.

GDC11から、ASIC12に出力される映像選択信号の形態は、図6(a)に限定されない。例えば、出力信号レベルで低から高へ変化する立ち上がり、出力信号レベルで高から低へ変化する立ち下がりといった信号のエッジに基づいて1つの映像データに包含された各映像データのフレームを分離するとしてもよい。また、GDC11は、例えば、奇数フレームごとにパルス信号を出力するとし、ASIC12は、出力されるパルス信号
に同期させた計測信号(例えば、クロック信号)を所定期間にわたりカウントするカウンタ回路を設け、カウントされた計測信号数に応じて各映像データを分離するとしてもよい。
The form of the video selection signal output from the GDC 11 to the ASIC 12 is not limited to FIG. For example, the frames of video data included in one video data are separated based on signal edges such as a rising edge that changes from low to high at the output signal level and a falling edge that changes from high to low at the output signal level. Also good. Further, for example, the GDC 11 outputs a pulse signal every odd number of frames, and the ASIC 12 includes a counter circuit that counts a measurement signal (for example, a clock signal) synchronized with the output pulse signal over a predetermined period. Each video data may be separated according to the number of measured signals.

図4に例示のフローチャートに戻り、S3の映像選択信号から入力映像を分離・抽出しメモリに蓄積する処理が、ASIC12の入力処理部12cおよびメモリ12dによって実行される。そして、例えば、図3のサブディスプレイ14aの表示タイミングでメモリ12dに格納された映像データ(11d、11e)が読み出され、所定の表示処理が出力制御部12eを介して行われ、各ディスプレイに並列して出力される(S4)。なお、ASIC12は、各ディスプレイに出力される映像データ間で出力タイミングを同期させるようにしてもよい。   Returning to the flowchart illustrated in FIG. 4, the process of separating and extracting the input video from the video selection signal in S3 and storing it in the memory is executed by the input processing unit 12c and the memory 12d of the ASIC 12. Then, for example, the video data (11d, 11e) stored in the memory 12d is read at the display timing of the sub-display 14a in FIG. 3, and a predetermined display process is performed via the output control unit 12e. Output in parallel (S4). Note that the ASIC 12 may synchronize the output timing between the video data output to each display.

図6(a)のGDC11は、60fpsといった送信フレームレートで1つの映像データをASIC12に出力する。60fpsで送信される映像データは、奇数フレームに映像1の映像データ、偶数フレームに映像2の映像データを出力する場合、実質的に30fpsの送信フレームレートで個別の映像データをGDC11からASIC12に出力するものと等しい。このため、60fpsの表示フレームレートでASIC12から各ディスプレイに出力される場合、連続した2フレームごとにメモリ12dに格納された映像データが出力される。各ディスプレイに表示出力されるそれぞれの映像は、図例では、60fpsの表示フレームレートで、連続した2フレームごとに更新される映像となる。つまり、ディスプレイ1に表示される映像1は、奇数フレームの映像データが2フレームごとに更新される映像となり、同様に、ディスプレイ2に表示される映像2は、偶数フレームの映像データが2フレームごとに更新される映像となる。   The GDC 11 in FIG. 6A outputs one video data to the ASIC 12 at a transmission frame rate of 60 fps. For video data transmitted at 60 fps, when video data of video 1 is output to odd frames and video data of video 2 is output to even frames, individual video data is output from the GDC 11 to the ASIC 12 at a transmission frame rate of substantially 30 fps. Is equal to Therefore, when data is output from the ASIC 12 to each display at a display frame rate of 60 fps, video data stored in the memory 12d is output every two consecutive frames. In the illustrated example, each video displayed and output on each display is a video that is updated every two consecutive frames at a display frame rate of 60 fps. That is, the video 1 displayed on the display 1 is a video in which the odd-frame video data is updated every two frames. Similarly, the video 2 displayed on the display 2 has the even-frame video data every two frames. The video will be updated.

図6(a)の映像表示処理では、各ディスプレイ上に表示出力される映像は2フレーム分の表示フレームレートで更新されるため、例えば動画といった映像では、動画を構成する各画像間での滑らかさがやや低くなるものの、例えば、エアコンや燃費といった車両状態を描画表示する映像では、状態変化の時間間隔が2フレームごとの更新間隔より長いため、各映像間での滑らかさが問題になることはない。   In the video display process of FIG. 6A, the video displayed and output on each display is updated at a display frame rate of two frames. Therefore, in a video such as a moving image, smoothness between the images constituting the moving image is achieved. Although it is slightly lower, for example, in a video that displays the vehicle status such as air conditioner and fuel consumption, the time interval of the status change is longer than the update interval of every 2 frames, so smoothness between each video may be a problem There is no.

図6(b)は、GDC11/ASIC12間の送信フレームレートを倍速としたタイムチャートの例示である。図6(b)のGDC11は、例えば、描画・生成した1つの映像データを、60fpsの2倍にあたる120fpsでASIC12に出力する。図6(b)に例示するように、送信フレームレートが2倍となるため、60fps周期の1フレーム間に、120fps周期の画像フレームで構成された2つの映像データを連続して包含することができる。   FIG. 6B is an example of a time chart in which the transmission frame rate between the GDC 11 and the ASIC 12 is doubled. The GDC 11 in FIG. 6B outputs, for example, one image data drawn and generated to the ASIC 12 at 120 fps, which is twice 60 fps. As illustrated in FIG. 6B, since the transmission frame rate is doubled, two video data composed of image frames having a 120 fps cycle are continuously included in one frame having a 60 fps cycle. it can.

例えば、図6(b)において、“2frm”といった同一フレーム番号が付与された映像1および映像2の連続したフレームの間隔は、60fps周期の1フレーム間隔に等しい。120fpsの送信フレームレートで出力される各フレーム番号の映像1および映像2は、60fps周期の送信フレームレートで出力される同一のフレームに包含される。つまり、GDC11は、送信フレームレートを倍速とすることにより、60fpsの送信フレームレート内に2つの映像データを出力することが可能となる。なお、図例においては映像選択信号のレートも倍速されてASIC12に出力される。   For example, in FIG. 6B, the interval between consecutive frames of video 1 and video 2 to which the same frame number such as “2frm” is assigned is equal to one frame interval of 60 fps. Video 1 and video 2 of each frame number output at a transmission frame rate of 120 fps are included in the same frame output at a transmission frame rate of 60 fps. That is, the GDC 11 can output two pieces of video data within a transmission frame rate of 60 fps by setting the transmission frame rate to double speed. In the illustrated example, the rate of the video selection signal is also doubled and output to the ASIC 12.

ASIC12では、例えば、倍速の送信フレームレートで出力された映像データを映像選択信号のステータス状態に応じて映像1、映像2のデータフレームに分離すればよい。例えば、図7に例示する入力処理部12cで分離された各映像データは、各ディスプレイ用のメモリdに一時的に格納される。各メモリ12dに格納された映像データは、それぞれのディスプレイの表示タイミングで読み出され、出力制御部12eで表示処理が施され
、該ディスプレイの表示フレームレートでASIC12から並列して出力される。
In the ASIC 12, for example, video data output at a double transmission frame rate may be separated into data frames of video 1 and video 2 according to the status state of the video selection signal. For example, each video data separated by the input processing unit 12c illustrated in FIG. 7 is temporarily stored in the memory d for each display. The video data stored in each memory 12d is read at the display timing of each display, subjected to display processing by the output control unit 12e, and output in parallel from the ASIC 12 at the display frame rate of the display.

図6(b)において、映像1は、60fpsの表示フレームレートでASIC12からディスプレイ1に出力され、映像2は、60fpsの表示フレームレートでASIC12からディスプレイ2に出力される。各映像を構成する画像フレームは、60fpsの表示フレームレートで更新されるため、例えば、動画といった映像であっても、動画を構成する各画素間の滑らかさを低下させることない。   In FIG. 6B, video 1 is output from the ASIC 12 to the display 1 at a display frame rate of 60 fps, and video 2 is output from the ASIC 12 to the display 2 at a display frame rate of 60 fps. Since the image frames constituting each video are updated at a display frame rate of 60 fps, for example, even a video such as a moving image does not reduce the smoothness between the pixels constituting the moving image.

以上のように、本実施形態の映像システム10では、GDC11/ASIC12間のデータ出力は、同一周期の送信フレームで行われる。このため、本実施形態の映像システム10では、異なる映像データ間でクロック周期をディスプレイに応じて調停する調停回路は不要となる。図6(a)に例示する形態では、例えば、エアコンや燃費といった、表示フレームレートの更新間隔より長い時間間隔で状態変化がおこる映像や静止画像では、効果的である。   As described above, in the video system 10 according to the present embodiment, data output between the GDC 11 and the ASIC 12 is performed in transmission frames having the same period. For this reason, in the video system 10 of this embodiment, the arbitration circuit which mediates a clock period between different video data according to a display becomes unnecessary. The form illustrated in FIG. 6A is effective for a video or a still image in which a state change occurs at a time interval longer than the display frame rate update interval, such as an air conditioner or fuel efficiency.

一方、提供される映像コンテンツが、地上デジタルテレビジョン放送や高画質な再生映像であっても、GDC11/ASIC12間の送信フレームレートを高速化して処理することにより、各ディスプレイに要求される映像品質を低下させることはない。この場合であっても、ASIC12/ディスプレイ間のデータ出力は、同一周期の送信フレームで行われるため、異なる映像データ間でクロック周期をディスプレイに応じて調停する調停回路は不要となる。   On the other hand, even if the provided video content is terrestrial digital television broadcast or high-quality playback video, the video quality required for each display can be increased by processing at a higher transmission frame rate between the GDC 11 and the ASIC 12. Will not be reduced. Even in this case, since the data output between the ASIC 12 and the display is performed in the transmission frame of the same cycle, an arbitration circuit that mediates the clock cycle between different video data according to the display becomes unnecessary.

図4に例示するフローチャートに戻り、本実施形態の映像システム10は、例えば、車両のイグニッションキーが「OFF」位置となり、供給した電力が停止する“表示停止”となるまで、S1−S4の処理を繰り返し継続して実行する。   Returning to the flowchart illustrated in FIG. 4, for example, the video system 10 according to the present embodiment performs the processing of S <b> 1 to S <b> 4 until the ignition key of the vehicle is in the “OFF” position and the “supplied power” is stopped. Are repeatedly executed.

本実施形態の映像システム10のGDC11/ASIC12間のデータ出力は、例えば、映像コンテンツに応じて送信フレームレートを設定するとしてもよい。例えば、GDC11は、映像コンテンツごとに対応付けられた送信フレームレートを格納したテーブルを備えることができる。該テーブルには、例えば、「DVD」、「TV」では「40fps」、「静止画」では「20fps」、「ナビゲーション」では「20fps、「カメラ」では「40fps」等のように、各ディスプレイが表示可能なコンテンツごとに対応付けられた送信フレームレートを格納することができる。一例として、図6の映像1が「DVD」、「TV」、「カメラ」といった動画映像であり、映像2が「静止画」といった静止画像の場合では、2つの映像データを包含する1つの映像データを60fpsの送信フレームレートで出力するとする。そして、60fpsの送信フレームレートで出力される映像データには、40fpsのフレーム間隔で映像1を含み、20fpsのフレーム間隔で映像2を含むことができる。このように映像データが動画映像と静止画像の組み合わせの場合では、動画映像の送信フレームレートを静止画像の送信フレームレートより高くすることができる。   For data output between the GDC 11 and the ASIC 12 of the video system 10 of the present embodiment, for example, a transmission frame rate may be set according to video content. For example, the GDC 11 can include a table that stores transmission frame rates associated with each video content. For example, “40 fps” for “DVD” and “TV”, “20 fps” for “still image”, “20 fps for“ navigation ”,“ 40 fps ”for“ camera ”, etc. The transmission frame rate associated with each displayable content can be stored. As an example, in the case where video 1 in FIG. 6 is a moving image such as “DVD”, “TV”, and “camera” and video 2 is a still image such as “still image”, one video including two video data. Assume that data is output at a transmission frame rate of 60 fps. The video data output at a transmission frame rate of 60 fps can include video 1 at a frame interval of 40 fps and video 2 at a frame interval of 20 fps. Thus, when the video data is a combination of a moving image and a still image, the transmission frame rate of the moving image can be made higher than the transmission frame rate of the still image.

また、GDC11で描画・生成される映像データが、エアコンや燃費といった車両状態を描画表示する場合では、GDC11は、車両状態の変化に応じて描画・生成された映像データを、所定周期で送信中の映像データに割り込ませてASIC12に出力することができる。図8に、一方の映像データを出力中に、車両状態の変化といった要因に起因して変化が生じた他方の映像データを割り込ませ、ASIC12に出力するタイミングチャートを例示する。   Further, when the video data drawn / generated by the GDC 11 draws and displays a vehicle state such as an air conditioner or fuel consumption, the GDC 11 is transmitting the video data drawn / generated according to the change of the vehicle state at a predetermined cycle. The video data can be interrupted and output to the ASIC 12. FIG. 8 illustrates a timing chart in which, while outputting one video data, the other video data that has changed due to a change in the vehicle state is interrupted and output to the ASIC 12.

図8の例では、例えば、ディスプレイ1に表示する映像1はカメラ等で撮像された動画像であり、ディスプレイ2に表示する映像2はエアコン等の車両状態に応じて生成された
描画画像であるとする。GDC11は、例えば、ディスプレイ2の表示フレームレートで変化する動画像を映像データとして一定の周期でASIC12に出力する。一方、車両状態に応じて生成される描画画像の場合、車両状態が変化しない期間は画像が変化しない静止画像をASIC12に出力することになる。車両状態が変化する間隔は、少なくともディスプレイ1の更新周期より長大である。このため、GDC11は、動画像である映像1を優先的に一定の周期でASIC12に出力し続け、車両状態に応じて生成される映像2を、車両状態の変化に応じて割り込ませ、ASIC12に出力することができる。
In the example of FIG. 8, for example, the video 1 displayed on the display 1 is a moving image captured by a camera or the like, and the video 2 displayed on the display 2 is a drawn image generated according to the vehicle state of an air conditioner or the like. And The GDC 11 outputs, for example, a moving image that changes at the display frame rate of the display 2 to the ASIC 12 as video data at a certain period. On the other hand, in the case of a drawn image generated according to the vehicle state, a still image whose image does not change is output to the ASIC 12 during a period when the vehicle state does not change. The interval at which the vehicle state changes is at least longer than the update period of the display 1. For this reason, the GDC 11 continues to output the video 1 that is a moving image to the ASIC 12 preferentially at a constant cycle, and causes the ASIC 12 to interrupt the video 2 generated according to the vehicle state according to the change in the vehicle state. Can be output.

図8の例では、“フレーム3”で示される画像フレームが、例えば、車両状態の変化に伴って割り込まれた映像2の映像データを示している。そして、GDC11は、割込みが生じた映像データを識別するために、映像選択信号(割込み信号)といったステータス信号の出力信号レベルを変化させ、ASIC12に出力する。ASIC12では、既に説明したように、図7に例示する入力処理部12cが、映像選択信号のステータス変化に応じて“フレーム3”のタイミングで出力される映像データを所定のメモリ12dに格納する。メモリ12dに格納された“フレーム3”の映像データは、ディスプレイ2の表示タイミングで読み出され、出力制御部12eを介し、ディスプレイ2の表示フレームレートで出力される。   In the example of FIG. 8, the image frame indicated by “frame 3” indicates, for example, video data of video 2 that is interrupted in accordance with a change in the vehicle state. Then, the GDC 11 changes the output signal level of a status signal such as a video selection signal (interrupt signal) in order to identify the video data in which the interrupt has occurred, and outputs it to the ASIC 12. In the ASIC 12, as described above, the input processing unit 12c illustrated in FIG. 7 stores the video data output at the timing of “frame 3” in the predetermined memory 12d in accordance with the status change of the video selection signal. The video data of “Frame 3” stored in the memory 12d is read at the display timing of the display 2, and is output at the display frame rate of the display 2 via the output control unit 12e.

図8において、ASIC12からディスプレイ2に出力される映像データは、割り込まれた“フレーム3”以降のフレームデータ列が“フレーム3”で示されている。ASIC12からディスプレイ2に出力される映像データは、割り込まれた“フレーム3”の読み出しタイミングで“フレーム3”より前に出力された“フレームx”から変化している。ここで“フレームx”は、例えば、“フレーム3”以前に割り込まれた、車両状態の描画画像である。また、ASIC12から並列してディスプレイ1に出力される映像データの“フレーム3”に相当する期間では、割込み以前にGDC11から出力された“フレーム2”のデータが重複して読み出されることとなる。   In FIG. 8, in the video data output from the ASIC 12 to the display 2, the frame data string after the interrupted “frame 3” is indicated by “frame 3”. The video data output from the ASIC 12 to the display 2 changes from “frame x” output before “frame 3” at the read timing of the interrupted “frame 3”. Here, “frame x” is, for example, a drawing image of the vehicle state interrupted before “frame 3”. Further, in a period corresponding to “frame 3” of the video data output to the display 1 in parallel from the ASIC 12, the data of “frame 2” output from the GDC 11 before the interruption is redundantly read.

このように、一方が動画像による映像データ、他方が静止画像による映像データを1つの映像データとしてASIC12に出力する場合では、動画像を所定の周期で送信し、静止画像を、該静止画像が変化した時に動画像の送信フレームに割り込ませて出力することができる。なお、図8の例では、割り込まれた映像データを識別するために1ビットの映像選択信号を用いたが、例えば、割り込まれた映像データのフレーム位置を示す設定情報を、所定の周期で出力する映像データの一部に付加してASIC12に出力するとしてもよい。   In this way, when one side outputs video data based on a moving image and the other side video data based on a still image to the ASIC 12 as one video data, the moving image is transmitted at a predetermined cycle, and the still image When changed, it can be output by interrupting the transmission frame of the moving image. In the example of FIG. 8, a 1-bit video selection signal is used to identify the interrupted video data. For example, setting information indicating the frame position of the interrupted video data is output at a predetermined cycle. It may be added to a part of the video data to be output and output to the ASIC 12.

<実施例2>
次に、図9、図10を参照し、ブランキング期間を使用して複数の映像データをASIC12に出力する(2)のケースについて説明する。実施例2(以下、本実施形態と称す)の映像システム10の映像表示処理は、GDC/ASIC間の映像データの受け渡しについて、一方の映像をディスプレイに表示される映像データの有効範囲内に出力し、他方の映像を有効範囲外であるブランキング期間内に出力する。実施例2の映像システム10の構成は、実施例1と同様に、GDC11、ASIC12で構成される。なお、以下の説明において、映像1はディスプレイ1に表示出力される映像データであり、映像2はディスプレイ2に表示出力される映像データとする。
<Example 2>
Next, a case (2) in which a plurality of video data is output to the ASIC 12 using a blanking period will be described with reference to FIGS. In the video display processing of the video system 10 of Example 2 (hereinafter referred to as the present embodiment), one video is output within the effective range of the video data displayed on the display for the transfer of the video data between the GDC / ASIC. Then, the other video is output within a blanking period that is outside the effective range. The configuration of the video system 10 according to the second embodiment includes the GDC 11 and the ASIC 12 as in the first embodiment. In the following description, video 1 is video data displayed and output on display 1, and video 2 is video data displayed and output on display 2.

図9に、本実施形態の映像表示処理のフローチャートを例示する。図9に例示するフローチャートは、映像1をディスプレイ1の有効範囲内に出力し、映像2をディスプレイ1の有効範囲外であるブランキング期間内に出力するものである。なお、図9において、S5−S6の処理はGDC11で実行され、S7−S8の処理はASIC12で実行される。   FIG. 9 illustrates a flowchart of the video display process of the present embodiment. The flowchart illustrated in FIG. 9 outputs video 1 within the effective range of the display 1 and outputs video 2 within a blanking period that is outside the effective range of the display 1. In FIG. 9, the process of S5-S6 is executed by the GDC 11, and the process of S7-S8 is executed by the ASIC 12.

図9のS5において、GDC11は、提供された映像コンテンツに基づいて、ディスプレイ1、ディスプレイ2に応じた映像データの描画・生成を行う。そして、GDC11は、映像1をディスプレイ1の有効範囲内に出力し、映像2をディスプレイ1の有効範囲外であるブランキング期間内に出力するため、映像2の圧縮率(縮小率)を決定する。映像2を出力するブランキング期間は、ディスプレイ1に映像1を表示するための有効範囲期間と比較して短期間のため、GDC11は映像2を所定の圧縮率で圧縮する。GDC11で決定された圧縮率(縮小率)やブランキング期間内のデータ有効範囲等の映像情報は、ASIC12に通知される。GDC11からASIC12への映像情報の通知は、例えば、図6等に例示されるように、信号レベルの高/低ステータスでブランキング期間内のデータ有効範囲を識別する映像選択信号であってもよく、映像2の一部に付加データとして埋め込んで通知するとしてもよい。また、GDC11からASIC12への映像情報の通知のタイミングは、映像2のデータをGDC11からASIC12へ出力する初回時に通知するとしてもよい。例えば、車両状態に応じて映像2が変化する場合では、映像2の映像画像の変化のタイミングでGDC11からASIC12へ映像情報を通知するとしてもよい。   In S5 of FIG. 9, the GDC 11 draws and generates video data corresponding to the display 1 and the display 2 based on the provided video content. Then, the GDC 11 outputs the video 1 within the effective range of the display 1 and outputs the video 2 within the blanking period that is outside the effective range of the display 1, so that the compression rate (reduction rate) of the video 2 is determined. . Since the blanking period for outputting the video 2 is shorter than the effective range period for displaying the video 1 on the display 1, the GDC 11 compresses the video 2 at a predetermined compression rate. Video information such as the compression rate (reduction rate) determined by the GDC 11 and the data valid range within the blanking period is notified to the ASIC 12. The notification of the video information from the GDC 11 to the ASIC 12 may be a video selection signal that identifies a data valid range within the blanking period with a high / low status of the signal level as exemplified in FIG. In addition, a part of the video 2 may be embedded as additional data and notified. Further, the notification timing of the video information from the GDC 11 to the ASIC 12 may be notified at the first time when the data of the video 2 is output from the GDC 11 to the ASIC 12. For example, when the video 2 changes according to the vehicle state, the video information may be notified from the GDC 11 to the ASIC 12 at the change timing of the video image of the video 2.

GDC11は、映像1と映像2とを包含した合成映像画像を映像情報の通知と共にASIC12に出力する(S6)。なお、GDC11は、図3に例示するメインディスプレイ13aに応じて描画・生成されたナビゲーションといった映像データも並列して該ディスプレイに出力する。   The GDC 11 outputs a composite video image including the video 1 and the video 2 to the ASIC 12 together with the video information notification (S6). Note that the GDC 11 also outputs video data such as navigation drawn / generated in accordance with the main display 13a illustrated in FIG. 3 in parallel to the display.

図10に、本実施形態の映像表示処理のタイムチャートを例示する。図10のタイムチャートにおいて“水平同期”は、例えば、ディスプレイ1の水平方向の表示領域を示す周期的な信号であり、“有効範囲”は、映像1を表示するための有効範囲を示す。図例からも明らかなように、“水平同期”に示された水平同期信号と“有効範囲”で示された映像1を表示するための有効範囲の期間は同期している。   FIG. 10 illustrates a time chart of the video display process of the present embodiment. In the time chart of FIG. 10, “horizontal synchronization” is, for example, a periodic signal indicating a display area in the horizontal direction of the display 1, and “effective range” indicates an effective range for displaying the video 1. As apparent from the figure, the period of the effective range for displaying the video 1 indicated by the “effective range” is synchronized with the horizontal synchronization signal indicated by “horizontal synchronization”.

図10において、従来のGDC11からASIC12への映像データの出力は、“現行”で示されるように、例えば、映像1といったディスプレイ1に表示出力する映像データを有効範囲期間に出力する。ここで、映像1の映像データは、水平同期信号に同期した時系列で出力されるデータフレームを構成し、映像1の各データフレームは、有効範囲期間より短い間隔のブランキング期間を介して連結されている。   In FIG. 10, the video data output from the conventional GDC 11 to the ASIC 12 is, for example, video data to be displayed on the display 1 such as video 1 during the effective range period, as indicated by “current”. Here, the video data of video 1 constitutes a data frame output in time series synchronized with the horizontal synchronization signal, and each data frame of video 1 is connected via a blanking period shorter than the effective range period. Has been.

本実施形態の映像表示処理では、GDC11は、“映像データ”に例示するように、有効範囲期間に映像1のデータフレームをASIC12に出力し、ブランキング期間に映像2のデータフレームをASIC12に出力する。図例では、映像1のデータフレームである“映像1(nフレーム)”出力後に続くブランキング期間に、映像2のデータフレームである“映像2(nフレーム)”が出力される。このようにGDC11から出力される映像1のデータフレームと映像2のデータフレームは、1つの合成映像画像のデータフレームを構成する。   In the video display processing of the present embodiment, the GDC 11 outputs the data frame of video 1 to the ASIC 12 during the effective range period, and outputs the data frame of video 2 to the ASIC 12 during the blanking period, as exemplified in “video data”. To do. In the illustrated example, “video 2 (n frame)” that is a data frame of video 2 is output in a blanking period subsequent to output of “video 1 (n frame)” that is a data frame of video 1. As described above, the data frame of video 1 and the data frame of video 2 output from the GDC 11 constitute a data frame of one composite video image.

図9に例示するフローチャートに戻り、ASIC12は、GDC11から出力された合成映像画像を、各映像に分離し、メモリに一時的に格納する(S6)。図7の例では、例えば、ASIC12の入力処理部12cが、合成映像画像の出力と共に通知される圧縮率(縮小率)やブランキング期間内でのデータ有効範囲等の映像情報に基づき、合成映像画像の分離を行う。分離された映像1および映像2は、それぞれ所定のメモリ12dに格納される。   Returning to the flowchart illustrated in FIG. 9, the ASIC 12 separates the composite video image output from the GDC 11 into each video and temporarily stores it in the memory (S6). In the example of FIG. 7, for example, the input processing unit 12 c of the ASIC 12 generates a composite video based on video information such as a compression rate (reduction rate) and a data valid range within a blanking period notified together with the output of the composite video image. Perform image separation. The separated video 1 and video 2 are respectively stored in a predetermined memory 12d.

メモリ12dに格納された映像1は、ディスプレイ1の表示タイミングで読み出され、
例えば、図7の出力制御部12eといった表示処理を介し、ディスプレイ1の表示フレームレートでASIC12から出力される。一方、メモリ12dに格納された映像2は、ディスプレイ2の表示タイミングで読み出され、GDC11から通知された圧縮率に応じた伸張処理が行われる。このような伸張処理は任意であり、圧縮前の映像2の画素サイズに復元されればよい。例えば、線形補間処理やアンチエイリアシングといった画像の伸張処理に伴う画素間の補間処理が例示できる。映像2の伸張処理は、例えば、図7の出力制御部12eで実行される。出力制御部12eで伸張処理が施された映像2は、ディスプレイ2の表示フレームレートでASIC12から出力される。映像1および映像2は、それぞれのディスプレイに並列して出力される(S7)。
Video 1 stored in the memory 12d is read at the display timing of the display 1,
For example, the data is output from the ASIC 12 at the display frame rate of the display 1 through display processing such as the output control unit 12e in FIG. On the other hand, the video 2 stored in the memory 12d is read at the display timing of the display 2, and decompression processing according to the compression rate notified from the GDC 11 is performed. Such a decompression process is arbitrary, and may be restored to the pixel size of the video 2 before compression. For example, inter-pixel interpolation processing associated with image expansion processing such as linear interpolation processing or anti-aliasing can be exemplified. The expansion process of the video 2 is executed by, for example, the output control unit 12e in FIG. The video 2 that has been decompressed by the output control unit 12e is output from the ASIC 12 at the display frame rate of the display 2. Video 1 and video 2 are output in parallel to the respective displays (S7).

図10において、12fで示される“映像1”のデータが、例えば、入力処理部12cで分離されてメモリ12dに格納された映像1の映像データである。また、12gで示される“映像2”のデータが、同様に、入力処理部12cで分離されてメモリ12dに格納された映像2の映像データである。図例では、“映像データ”で示される有効範囲期間に出力された映像1の各データフレームが、“映像1(1ライン)”から“映像1(480ライン)”まで時系列順に整列している。一方、圧縮された映像2のデータ12gでは、“映像データ”で示されるブランキング期間に出力された映像2の各データフレームが、“映像2(1ライン)”から“映像2(400ライン)”まで時系列順に整列している。   In FIG. 10, “video 1” data indicated by 12 f is, for example, video data of video 1 separated by the input processing unit 12 c and stored in the memory 12 d. Similarly, the data of “video 2” indicated by 12g is video data of video 2 separated by the input processing unit 12c and stored in the memory 12d. In the illustrated example, each data frame of video 1 output in the effective range period indicated by “video data” is arranged in time series from “video 1 (1 line)” to “video 1 (480 lines)”. Yes. On the other hand, in the compressed video 2 data 12g, each data frame of video 2 output during the blanking period indicated by “video data” is changed from “video 2 (1 line)” to “video 2 (400 lines)”. ”In order of time series.

図10において、12hで示される“映像2”のデータは、メモリ12dに格納されたデータフレームごとに伸張処理が施された映像2の映像データであり、圧縮されたデータ12gの各データフレームを圧縮前の映像2の画素サイズに復元したものである。復元後のデータ12hでは、“映像2(1ライン)”から“映像2(480ライン)”まで時系列順に整列されたものとなる。   In FIG. 10, “video 2” data indicated by 12h is video data of video 2 that has been subjected to decompression processing for each data frame stored in the memory 12d, and each data frame of the compressed data 12g is represented by data. This is the one restored to the pixel size of video 2 before compression. In the restored data 12h, “video 2 (1 line)” to “video 2 (480 lines)” are arranged in chronological order.

このように、実施例2の映像表示処理では、ディスプレイ1の有効範囲で映像1を出力し、ブランキング期間を使用して圧縮した映像2を出力することにより、複数の映像データが包含された一つの合成映像画像を出力することができる。実施例2の映像表示処理では、有効範囲期間とブランキング期間とで、複数の映像データが包含された一つの合成映像画像を出力するデータフレームとみなすことができる。   As described above, in the video display process according to the second embodiment, the video 1 is output within the effective range of the display 1, and the video 2 compressed using the blanking period is output, thereby including a plurality of video data. One composite video image can be output. In the video display process according to the second embodiment, it can be regarded as a data frame for outputting one composite video image including a plurality of video data in the effective range period and the blanking period.

本実施形態の映像表示処理において、例えば、有効範囲期間で1つの映像データを出力し、ブランキング期間で圧縮された2つの映像データを出力するとしてもよい。例えば、図3に例示するメインディスプレイ13aに表示出力するナビゲーションの映像データをメインディスプレイ13aの有効期間で出力し、2つのサブディスプレイ14aに表示出力する車両状態を示す映像データをそれぞれ圧縮して、メインディスプレイ13aのブランキング期間に出力するとしてもよい。この場合、ASIC12では、GDC11から通知される映像情報に基づいて、3つの映像データに分離すればよい。分離された各映像データは、それぞれメモリに一時的に格納され、伸張処理を含む所定の表示処理後、各ディスプレイの表示フレームレートでそれぞれのディスプレイに並列して出力される。   In the video display processing of the present embodiment, for example, one video data may be output in the effective range period, and two video data compressed in the blanking period may be output. For example, the navigation video data displayed and output on the main display 13a illustrated in FIG. 3 is output during the effective period of the main display 13a, and the video data indicating the vehicle state displayed and output on the two sub-displays 14a is respectively compressed. It may be output during the blanking period of the main display 13a. In this case, the ASIC 12 may be separated into three pieces of video data based on the video information notified from the GDC 11. Each separated video data is temporarily stored in a memory, and after a predetermined display process including an expansion process, is output in parallel to each display at a display frame rate of each display.

また、ブランキング期間に出力する映像データは、圧縮されたものでなく、映像データを原画像の画素サイズを複数に分割して出力し、ASIC12で分割された映像データを結合し、再構築を図るとしてもよい。つまり、GDC11は、ディスプレイ1の映像データと複数に分割されたディスプレイ2の映像データとを包含する1つの合成映像画像をASIC12に出力する。このような映像表示処理のタイミングチャートを図11に例示する。   Also, the video data output during the blanking period is not compressed, and the video data is divided into a plurality of pixel sizes of the original image and output, and the video data divided by the ASIC 12 is combined for reconstruction. It may be intended. That is, the GDC 11 outputs one composite video image including the video data of the display 1 and the video data of the display 2 divided into a plurality of parts to the ASIC 12. A timing chart of such video display processing is illustrated in FIG.

図11に例示のタイミングチャートでは、“垂直同期(入力)”は、例えば、ディスプレイ1の垂直方向の表示領域を示す周期的な信号であり、“有効範囲”は、ディスプレイ
1の表示領域に映像1を表示するための有効範囲を示す。
In the timing chart illustrated in FIG. 11, “vertical synchronization (input)” is, for example, a periodic signal indicating a vertical display area of the display 1, and “effective range” is an image in the display area of the display 1. The effective range for displaying 1 is shown.

GDC11は、図11の“映像データ(入力)”に例示するように、有効範囲期間に映像1のデータフレームをASIC12に出力し、ブランキング期間に所定数に分割された映像2のデータフレームをASIC12に出力する。図例では、2分割された映像2を“映像2(nフレーム上部)”と“映像2(nフレーム下部)”との2フレームでASIC12に出力する。   As illustrated in “video data (input)” in FIG. 11, the GDC 11 outputs the data frame of video 1 to the ASIC 12 during the effective range period, and the data frame of video 2 divided into a predetermined number during the blanking period. Output to the ASIC 12. In the illustrated example, the video 2 divided into two is output to the ASIC 12 in two frames of “video 2 (upper n frame)” and “video 2 (lower n frame)”.

ASIC12は、例えば、合成映像画像とともに通知される映像2の分割に係る映像情報に基づいて合成映像画像を分離し、対応するメモリに一時的に格納する。図例の“メモリ2”に例示するように、ASIC12は、分離された映像2のデータをメモリに格納する際に、予め分割数に応じて格納領域を設定し、設定された所定領域に連続して分割データを格納すればよい。図例では、“バンク1ライト”のタイミングでブランキング期間に出力された“映像2(nフレーム上部)”がメモリに格納され、続くブランキング期間に出力された“映像2(nフレーム下部)”が“バンク1ライト(続き)”のタイミングでメモリに格納される。   For example, the ASIC 12 separates the composite video image based on the video information related to the division of the video 2 notified together with the composite video image, and temporarily stores it in the corresponding memory. As illustrated in “Memory 2” in the figure, the ASIC 12 sets a storage area according to the number of divisions in advance when storing the data of the separated video 2 in the memory, and continues to the set predetermined area. Then, the divided data may be stored. In the illustrated example, “video 2 (upper n frame)” output during the blanking period at the timing of “bank 1 write” is stored in the memory, and “video 2 (lower n frame)” output during the subsequent blanking period. "Is stored in the memory at the timing of" Bank 1 write (continued) ".

“メモリ2”に格納された映像2の各分割データは、“垂直同期(出力)”で示される表示タイミングに同期して読み出される。“メモリ2”に例示するように、“垂直同期(出力)”に同期した“バンク2リード”のタイミングで、連続する2フレームに跨って読み出される。読み出された各分割データは、例えば、図3に例示する出力制御部12eで結合され、分割前の映像2の画素サイズに再構築される。図11のタイミングチャートでは、“映像1(出力)”および“映像2(出力)”に例示するように、再構築された映像2の映像データは、映像1のフレーム出力と並列し、2フレームに跨ってASIC12からディスプレイ2に出力されることとなる。   Each divided data of the video 2 stored in the “memory 2” is read out in synchronization with a display timing indicated by “vertical synchronization (output)”. As exemplified in “memory 2”, the data is read across two consecutive frames at the timing of “bank 2 read” synchronized with “vertical synchronization (output)”. For example, the read divided data are combined by the output control unit 12e illustrated in FIG. 3 and reconstructed to the pixel size of the video 2 before division. In the timing chart of FIG. 11, as illustrated in “video 1 (output)” and “video 2 (output)”, the reconstructed video data of video 2 is in parallel with the frame output of video 1 in two frames. Is output from the ASIC 12 to the display 2.

なお、ブランキング期間に出力される映像2の分割数は任意に設定できる。例えば、3分割の場合では、3フレームに跨って各分割データを出力すればよく、n分割ではnフレームに跨ってn分割されたデータを出力すればよい。ASIC12では、GDC11から通知される映像情報に基づいて、n分割された各データを結合し、分割前の映像データを再構築すればよい。   Note that the number of divisions of video 2 output during the blanking period can be arbitrarily set. For example, in the case of three divisions, each divided data may be output over three frames, and in the n division, data divided into n over n frames may be output. The ASIC 12 may combine the n-divided data based on the video information notified from the GDC 11 and reconstruct the video data before the division.

<実施例3>
次に、図12から図14を参照し、描画クロックを高速化して複数の映像を生成する(3)のケースについて説明する。図12に、実施例3(以下、本実施形態と称す)の映像表示処理の説明図を例示する。GDC11では、提供された映像コンテンツに基づいて、ディスプレイに表示出力する映像データを描画・生成することは既に説明した通りである。図12の11dに示すように、例えば、GDC11は、所定のクロック信号(図例では、33MHz)で量子化されたR、G、Bの色情報を有する、WVGA(Wide-VGA)といった800×480画素の画面解像度で映像1の映像データを生成する。その結果、映像1の映像データ11dの各画素は、所定のクロック周期で整列する。
<Example 3>
Next, with reference to FIG. 12 to FIG. 14, a case (3) in which a drawing clock is speeded up to generate a plurality of videos will be described. FIG. 12 illustrates an explanatory diagram of a video display process of Example 3 (hereinafter referred to as the present embodiment). As described above, the GDC 11 draws and generates video data to be displayed and output on the display based on the provided video content. As shown in 11d of FIG. 12, for example, the GDC 11 has 800 × WVGA (Wide-VGA) having color information of R, G, and B quantized with a predetermined clock signal (33 MHz in the example). Video data of video 1 is generated with a screen resolution of 480 pixels. As a result, the pixels of the video data 11d of the video 1 are aligned at a predetermined clock cycle.

本実施形態の映像表示処理では、GDC11は、描画・生成時のクロックレートを2倍にして、2つのディスプレイに応じた映像データを描画・生成し、1つの合成映像画像を生成する。図12の例では、合成映像画像11gには、2倍のクロックレートで描画・生成された800×480画素の映像1の映像データ11eと2倍のクロックレートで描画・生成された800×480画素の映像2の映像データ11fが包含される。映像データ11eと映像データ11fは、1つの合成映像画像11gに水平方向(横方向)に並列して合成されている。   In the video display process of the present embodiment, the GDC 11 doubles the clock rate at the time of drawing / generation, draws / generates video data corresponding to two displays, and generates one composite video image. In the example of FIG. 12, the composite video image 11g has 800 × 480 pixel video data 11e drawn and generated at a double clock rate and 800 × 480 drawn and generated at a double clock rate. Image data 11f of pixel image 2 is included. The video data 11e and the video data 11f are synthesized in parallel in the horizontal direction (lateral direction) on one synthesized video image 11g.

このように、本実施形態の映像表示処理では、描画・生成時のクロックレートを高速化することにより、画素密度を高めることが可能となる。GDC11からASIC12に出力される1つの合成映像画像は、画素密度を高めた2つの映像データが整列したものである。図12の10aに例示するように、GDC11で生成された合成映像画像11gは、例えば、60fpsといった送信フレームレートでASIC12に出力される。各フレーム内には、2倍のクロックレートで描画・生成された映像1および映像2のフレームデータが原画像の画素サイズで整列して出力される。本実施形態の映像表示処理では、GDC11/ASIC12間のデータの受け渡しは、例えば、実施例1に示すように送信フレームレートを高速化せずとも、映像1および映像2を包含した1つの映像データを原画像の画素サイズで行える。また、原画像の画素サイズでGDC11/ASIC12間のデータの受け渡しが行えるため、例えば、実施例2に示すように映像データの圧縮・伸張処理を施すこともない。   As described above, in the video display processing of the present embodiment, it is possible to increase the pixel density by increasing the clock rate at the time of drawing and generation. One composite video image output from the GDC 11 to the ASIC 12 is an image in which two video data with increased pixel density are aligned. As illustrated in 10a of FIG. 12, the composite video image 11g generated by the GDC 11 is output to the ASIC 12 at a transmission frame rate of 60 fps, for example. In each frame, the frame data of video 1 and video 2 drawn and generated at a double clock rate are output in alignment with the pixel size of the original image. In the video display processing of the present embodiment, data transfer between the GDC 11 and the ASIC 12 is, for example, one video data including the video 1 and the video 2 without increasing the transmission frame rate as shown in the first embodiment. Can be performed with the pixel size of the original image. Further, since data can be exchanged between the GDC 11 / ASIC 12 with the pixel size of the original image, for example, as shown in the second embodiment, video data compression / decompression processing is not performed.

なお、図12の例では、描画・生成時のGDC11のクロックレートを2倍とし、2倍のクロックレートで2つのディスプレイに表示出力される映像データを生成していた。本実施形態の映像表示処理は、図12の例に限定されない。例えば、3つのディスプレイに映像データを表示出力する場合では、各映像データの描画・生成処理のクロックレートを3倍にすることができる。そして、3倍のクロックレートで描画・生成された3つの映像データを1つの映像データに包含し、60fpsといった送信フレームレートでASIC12に出力すればよい。   In the example of FIG. 12, the clock rate of the GDC 11 at the time of drawing / generation is doubled, and video data to be displayed and output on two displays is generated at a double clock rate. The video display process of this embodiment is not limited to the example of FIG. For example, when video data is displayed and output on three displays, the clock rate of the drawing / generation processing of each video data can be tripled. Then, the three video data drawn and generated at the triple clock rate may be included in one video data and output to the ASIC 12 at a transmission frame rate of 60 fps.

このように、本実施形態では、映像システム10が接続されるディスプレイ数とクロックレートの逓倍数は一致する。つまり、n個のディスプレイに表示出力する映像データは、n倍のクロックレートで描画・生成される。n倍のクロックレートで描画・生成されたn枚の映像データは、少なくともn枚の映像データを包含する1つの映像データとして、所定の送信フレームレートでASIC12に出力される。   As described above, in the present embodiment, the number of displays to which the video system 10 is connected matches the number of multiplications of the clock rate. That is, video data to be displayed and output on n displays is drawn and generated at an n times clock rate. The n pieces of video data drawn and generated at the clock rate of n times are output to the ASIC 12 at a predetermined transmission frame rate as one piece of video data including at least n pieces of video data.

本実施形態では、映像システム10が接続されるディスプレイ数とクロックレートの逓倍数を一致させてGDC/ASIC間のデータの受け渡しを行うことにより、GDC/ASIC間の送信フレームレートは、ディスプレイ数が増加しても変更することがない。つまり、2つのディスプレイを備える場合であってもn個のディスプレイを備える場合であっても、GDC/ASIC間のデータの受け渡しは、共通した送信フレームレートを使用することができる。   In the present embodiment, the number of displays connected to the GDC / ASIC is transferred by transferring the data between the GDC / ASIC by matching the number of displays to which the video system 10 is connected and the multiplication rate of the clock rate. Even if it increases, it does not change. That is, even when two displays or n displays are provided, a common transmission frame rate can be used for data transfer between the GDC / ASIC.

ASIC12では、例えば、合成映像画像とともにGDC11から通知される映像情報に基づいて、合成映像画像に包含される各映像を分離すればよい。分離された映像ごとの映像データは、メモリに一時的に格納され、それぞれのディスプレイに応じた表示タイミングで読み出され、該ディスプレイに出力される。例えば、映像1の映像データはディスプレイ1の表示フレームレートでASIC12から出力される。同様に、映像2の映像データはディスプレイ2の表示フレームレートでASIC12から出力される。各映像データは、図13の10aに例示するように、ASIC12から並列して出力される。   In the ASIC 12, for example, each video included in the composite video image may be separated based on the video information notified from the GDC 11 together with the composite video image. The separated video data for each video is temporarily stored in a memory, read at a display timing corresponding to each display, and output to the display. For example, video data of video 1 is output from the ASIC 12 at the display frame rate of the display 1. Similarly, video data of video 2 is output from the ASIC 12 at the display frame rate of the display 2. Each video data is output in parallel from the ASIC 12 as illustrated in 10a of FIG.

図13に、本実施形態の映像表示処理のフローチャートを例示する。図13において、S9−S10の処理はGDC11で実行され、S11−S12の処理はASIC12で実行される。なお、GDC11は、図3に例示のメインディスプレイ13aに表示出力される、例えば、ナビゲーションといった映像データの描画・生成も行う。   FIG. 13 illustrates a flowchart of the video display process of the present embodiment. In FIG. 13, the processing of S9-S10 is executed by the GDC 11, and the processing of S11-S12 is executed by the ASIC 12. Note that the GDC 11 also draws and generates video data such as navigation that is displayed and output on the main display 13a illustrated in FIG.

図13のS9では、GDC11は、提供された映像コンテンツに基づいて、ディスプレイ1、ディスプレイ2に応じた映像データの描画・生成を行う。GDC11で描画・生成される映像1および映像2のそれぞれの映像データは、上述したように、ディスプレイ数
と一致する逓倍数である2倍のクロックレートで描画・生成された映像データである。GDC11は、映像1および映像2を包含する1つの映像データを生成し、1つの映像データに包含される映像の数を、映像情報としてASIC12に通知する(S9)。なお、映像情報の通知は、例えば、図6等に例示されるように、信号レベルの高/低ステータスで映像データを識別する映像選択信号であってもよく、1つの映像データの一部に付加データとして埋め込んで例えば、ブランキング期間に通知するとしてもよい。また、GDC11からASIC12への映像情報の通知のタイミングは、1つの映像データ(合成映像画像)の初回出力の時に通知するとしてもよい。
In S9 of FIG. 13, the GDC 11 renders and generates video data corresponding to the display 1 and the display 2 based on the provided video content. As described above, the video data of the video 1 and the video 2 drawn / generated by the GDC 11 is video data drawn / generated at a clock rate of twice, which is a multiplication number that matches the number of displays. The GDC 11 generates one video data including the video 1 and the video 2, and notifies the ASIC 12 of the number of videos included in one video data as video information (S9). The notification of the video information may be a video selection signal for identifying video data with a high / low status of the signal level, as exemplified in FIG. 6 and the like, for example, as part of one video data. For example, it may be embedded as additional data and notified during a blanking period. Further, the notification timing of the video information from the GDC 11 to the ASIC 12 may be notified when one video data (composite video image) is output for the first time.

GDC11は、映像情報の通知とともに映像1と映像2とを包含した1つの合成映像画像を所定の送信フレームレートでASIC12に出力する(S10)。なお、GDC11は、図3に例示するメインディスプレイ13aに応じて描画・生成されたナビゲーションといった映像データも並列してディスプレイ13aに出力する。   The GDC 11 outputs one composite video image including the video 1 and the video 2 together with the notification of the video information to the ASIC 12 at a predetermined transmission frame rate (S10). Note that the GDC 11 also outputs video data such as navigation drawn / generated in accordance with the main display 13a illustrated in FIG. 3 to the display 13a in parallel.

図14に、本実施形態の映像表示処理のタイムチャートを例示する。図14のタイムチャートにおいて“水平同期(入力)”は、例えば、ディスプレイ1の水平方向の表示領域を示す周期的な信号であり、“有効範囲”は、ディスプレイ1に映像データを表示するための有効範囲を示す。   FIG. 14 illustrates a time chart of the video display process of the present embodiment. In the time chart of FIG. 14, “horizontal synchronization (input)” is, for example, a periodic signal indicating a horizontal display area of the display 1, and “effective range” is for displaying video data on the display 1. Indicates the effective range.

本実施形態の映像表示処理では、GDC11は、“映像データ(入力)”に例示するように、有効範囲期間に合成映像画像のデータフレームをASIC12に出力する。図例では、“映像1(nライン)”と“映像2(nライン)”とが前後して構成された、合成映像画像のデータフレームが有効範囲期間に同期して出力される。なお、図12に例示するように、各映像データは、2倍のクロックレートで描画・生成された800画素のラインデータである。   In the video display process of the present embodiment, the GDC 11 outputs a data frame of a composite video image to the ASIC 12 during the effective range period, as exemplified by “video data (input)”. In the illustrated example, a data frame of a composite video image composed of “video 1 (n line)” and “video 2 (n line)” is output in synchronization with the effective range period. As illustrated in FIG. 12, each video data is line data of 800 pixels drawn and generated at a double clock rate.

図12に例示するフローチャートに戻り、ASIC12は、GDC11から出力された合成映像画像を、映像ごとに分離し、メモリに一時的に格納する(S11)。合成映像画像の分離は、GDC11から通知された映像情報に基づき、例えば、図7に例示する入力処理部12cで実行される。入力処理部12cで分離された映像1のデータは、図14の“映像1用メモリ”で示される“ラインメモリ1−1”のタイミングでメモリ12dに一時的に格納される。同様に、映像2のデータは、図14の“映像2用メモリ”で示される“ラインメモリ2−1”のタイミングでメモリ12dに一時的に格納される。   Returning to the flowchart illustrated in FIG. 12, the ASIC 12 separates the composite video image output from the GDC 11 for each video and temporarily stores it in the memory (S11). The separation of the composite video image is executed by, for example, the input processing unit 12c illustrated in FIG. 7 based on the video information notified from the GDC 11. The video 1 data separated by the input processing unit 12c is temporarily stored in the memory 12d at the timing of "line memory 1-1" indicated by "video 1 memory" in FIG. Similarly, the video 2 data is temporarily stored in the memory 12d at the timing of the “line memory 2-1” indicated by “video 2 memory” in FIG.

図14のタイムチャートにおいて“水平同期(出力)”は、例えば、ディスプレイ1の水平方向の表示領域を示す周期的な信号であり、ディスプレイ1の表示タイミングである。メモリ12dに格納された映像1は、“映像1用メモリ”で示される“ラインメモリ1−1リード”のタイミングで読み出され、“映像1(出力)”で示される“映像1(nライン)”のタイミングでディスプレイ1に出力される。また、メモリ12dに格納された映像2は、“映像2用メモリ”で示される“ラインメモリ2−1リード”のタイミングで読み出され、“映像2(出力)”で示される“映像2(nライン)”のタイミングでディスプレイ2に出力される。“映像1(nライン)”と“映像2(nライン)”のタイミングは同期する。   In the time chart of FIG. 14, “horizontal synchronization (output)” is a periodic signal indicating the display area in the horizontal direction of the display 1, for example, and the display timing of the display 1. The video 1 stored in the memory 12d is read at the timing of “line memory 1-1 read” indicated by “video 1 memory”, and “video 1 (n lines) indicated by“ video 1 (output) ”. ) "At the timing. The video 2 stored in the memory 12d is read at the timing of “line memory 2-1 read” indicated by “video 2 memory” and “video 2 (output)” indicated by “video 2 (output)”. n line) ”is output to the display 2. The timings of “Video 1 (n line)” and “Video 2 (n line)” are synchronized.

図12のフローチャートに戻り、上述のように、分離されてメモリに格納されたそれぞれの映像データは、各ディスプレイの表示タイミングでメモリから読み出され、各ディスプレイに同じタイミングで出力される(S12)。本実施形態の映像システム10は、例えば、車両のイグニッションキーが「OFF」位置となり、供給した電力が停止する“表示停止”となるまで、S9−S12の処理を繰り返し継続して実行する。   Returning to the flowchart of FIG. 12, as described above, each video data separated and stored in the memory is read from the memory at the display timing of each display, and is output to each display at the same timing (S12). . For example, the video system 10 according to the present embodiment repeatedly executes the processes of S9 to S12 until the ignition key of the vehicle is in the “OFF” position and “suppressed display” in which the supplied power stops.

〔車載機〕
図15に、映像システム10を備えたAVN機1を例示する。図15のAVN機は、車両に搭載可能な情報処理システムを構成する。なお、このような情報処理システムは、例えば、複数のディスプレイを有する携帯電話、スマートフォン、PDA(Personal Digital Assistant)等の情報携帯端末であってもよい。また、複数のディスプレイを有するノートPC(Personal Computer)、タブレットPCといった情報処理装置であってもよい
[In-vehicle machine]
FIG. 15 illustrates an AVN device 1 including the video system 10. 15 constitutes an information processing system that can be mounted on a vehicle. Such an information processing system may be an information portable terminal such as a mobile phone having a plurality of displays, a smartphone, or a PDA (Personal Digital Assistant). Further, it may be an information processing apparatus such as a notebook PC (Personal Computer) or a tablet PC having a plurality of displays.

制御部101は、AVN機1の各部或いは接続された外部機器からの信号、また使用者の操作に基づく各操作部からの操作指示信号等の入力を受け、それら信号に基づきAVN機1の各部、或いは外部機器を統括的に制御する制御部で、例えばマイクロコンピュータ(マイコン)により構成され、ROM等のメモリに記憶されたプログラムに従い動作する。   The control unit 101 receives an input of a signal from each part of the AVN machine 1 or a connected external device, an operation instruction signal from each operation part based on a user's operation, and each part of the AVN machine 1 based on these signals. Alternatively, it is a control unit that comprehensively controls external devices and is configured by, for example, a microcomputer and operates according to a program stored in a memory such as a ROM.

放送受信部102は、アンテナにより受信された放送波から、特定の周波数の放送波を選択受信し、復調して当該放送の音声信号および画像信号を出力する受信部であり、同調回路、復調・復号回路、フレーム管理回路等により構成される。放送受信部102は制御部101からの制御信号により、そのオン/オフ、受信周波数の選択(選局)等の各種動作が制御される。   The broadcast receiving unit 102 is a receiving unit that selectively receives a broadcast wave of a specific frequency from broadcast waves received by an antenna, demodulates and outputs an audio signal and an image signal of the broadcast, and includes a tuning circuit, a demodulator / decoder It comprises a decoding circuit, a frame management circuit, and the like. The broadcast receiving unit 102 is controlled by a control signal from the control unit 101 for various operations such as on / off of the broadcast receiving unit 102 and selection of reception frequency (channel selection).

ディスク再生部103は、CD(Compact Disc)、MD(Mini Disc)、DVD(Digital Versatile Disc)、及びブルーレイディスク(Blu-ray Disc)などのディスクに記録
されているデータをピックアップにより読込み、読み込んだデータに基づく、音声信号、映像信号を分配回路108に出力する。ディスク再生部103は、光学ピックアップ、ピックアップディスク駆動機構、ピックアップディスク駆動機構の制御回路、読取信号の復号回路等を備え、制御部101からの制御信号により、オン/オフ、読み込み位置等の各種動作が制御される。
The disc playback unit 103 reads and reads data recorded on a disc such as a CD (Compact Disc), an MD (Mini Disc), a DVD (Digital Versatile Disc), and a Blu-ray Disc (Blu-ray Disc) with a pickup. An audio signal and a video signal based on the data are output to the distribution circuit 108. The disk reproducing unit 103 includes an optical pickup, a pickup disk driving mechanism, a control circuit for the pickup disk driving mechanism, a decoding circuit for a read signal, and the like, and various operations such as on / off and a reading position are controlled by a control signal from the control unit 101. Is controlled.

HD(ハードディスク)再生部104は、磁気記録媒体であるハードディスクに記録された各種データから所望のデータを読み出し、読み出した画像信号、音声信号又は文字信号等を分配回路108に出力する。ハードディスクには、MP3ファイル等の音楽データやJPEGファイル等の画像データ、ナビゲーション用の地図データ等が記録される。HD再生部104は、読取信号の復号回路等を備え、制御部101からの制御信号によりオン/オフ、読み出すデータ等の各種動作が制御される。   An HD (hard disk) reproduction unit 104 reads desired data from various data recorded on a hard disk, which is a magnetic recording medium, and outputs the read image signal, audio signal, character signal, or the like to the distribution circuit 108. Music data such as MP3 files, image data such as JPEG files, map data for navigation, and the like are recorded on the hard disk. The HD reproduction unit 104 includes a read signal decoding circuit and the like, and various operations such as on / off and read data are controlled by a control signal from the control unit 101.

ナビゲーション部105は、ディスプレイ113に表示された地図上に自車位置や目的地までの経路を表示したり、交差点等で音声等により右左折等の進行方向案内を行ったり、VICS情報受信部106から交通情報を受信して表示したり、GPS情報受信部107から自車位置情報を受信して表示したりして、目的地までの経路案内を行う。ナビゲーション部105は、ナビゲーションの為に利用される地図情報を記録するハードディスク、各種演算処理を行うCPU(Central Processing unit)、各種処理のためにデータを
記憶するRAM(Random Access Memory)等のメモリ115を備える。ナビゲーション部105は、制御部101からの制御信号により、オン/オフ、各種動作が制御される。
The navigation unit 105 displays the position of the host vehicle and the route to the destination on the map displayed on the display 113, provides a direction of travel such as a right or left turn by voice or the like at an intersection, or the like, or the VICS information reception unit 106 The traffic information is received and displayed from the vehicle, or the vehicle position information is received and displayed from the GPS information receiving unit 107 to provide route guidance to the destination. The navigation unit 105 includes a memory 115 such as a hard disk that records map information used for navigation, a CPU (Central Processing Unit) that performs various arithmetic processes, and a RAM (Random Access Memory) that stores data for various processes. Is provided. The navigation unit 105 is controlled to be turned on / off and various operations by a control signal from the control unit 101.

VICS情報受信部106は、交通情報通信システム(VICS(登録商標):Vehicle Information and Communication System)に係る交通情報を受信し、受信した交通情報を出力する。VICS情報受信部106は、交通情報通信システムからのデータを受信する受信機(FM受信機、電波ビーコン受信機、光ビーコン受信機)、受信したデータを復号する復号回路等を備える。GPS情報受信部107は、GPS(登録商標)衛星からのGPS信号に基づき自車位置を検出し、検出した現在位置情報を出力する。GPS情報受
信部107は、GPS信号を受信する受信回路、受信したGPS信号に基づき自車位置を算出する演算回路等を備える。
The VICS information receiving unit 106 receives traffic information related to a traffic information communication system (VICS (registered trademark): Vehicle Information and Communication System), and outputs the received traffic information. The VICS information receiving unit 106 includes a receiver (FM receiver, radio beacon receiver, optical beacon receiver) that receives data from the traffic information communication system, a decoding circuit that decodes the received data, and the like. The GPS information receiving unit 107 detects the vehicle position based on the GPS signal from the GPS (registered trademark) satellite, and outputs the detected current position information. The GPS information receiving unit 107 includes a receiving circuit that receives a GPS signal, an arithmetic circuit that calculates the vehicle position based on the received GPS signal, and the like.

カメラ119は、車両の周囲を撮影し、動画データ(映像情報及び音声情報)を外部音声/映像入力部118を介して入力するカメラである。カメラ119で撮影した映像情報は映像処理が施され、分配回路108、画像調整回路109、映像表示処理部10を介して複数のディスプレイ113に表示され、駐車アシスト等に利用される。また、カメラ119で撮影した動画データは、ドライブレコーダ等のために分配回路108を介してHD再生部104内のHDドライブ或いはメモリ115に記録されても良い。   The camera 119 is a camera that takes an image of the surroundings of the vehicle and inputs moving image data (video information and audio information) via the external audio / video input unit 118. Video information captured by the camera 119 is subjected to video processing, displayed on the plurality of displays 113 via the distribution circuit 108, the image adjustment circuit 109, and the video display processing unit 10, and used for parking assistance and the like. The moving image data shot by the camera 119 may be recorded in the HD drive or the memory 115 in the HD playback unit 104 via the distribution circuit 108 for a drive recorder or the like.

外部音声/映像入力部118は、カメラ119の動画データをディスプレイ113に表示させるための映像信号に変換する等の処理を行う。外部音声/映像入力部118は、制御部101からの制御信号により、オン/オフ、各種動作が制御される。   The external audio / video input unit 118 performs processing such as converting the moving image data of the camera 119 into a video signal to be displayed on the display 113. The external audio / video input unit 118 is controlled to be turned on / off and various operations by a control signal from the control unit 101.

分配回路108は、制御部101の制御信号により、出力することが指定された各種ソース(放送受信部102、ディスク再生部103、HD再生部104、及びナビゲーション部105、外部音声/映像入力部118、図示しない外部記録媒体再生部等)の音声信号と画像信号とを画像調整回路109及び音声調整回路110に出力する。分配回路108は、リレーまたはスイッチングトランジスタ等の電子回路で構成されたスイッチ群を備える。   The distribution circuit 108 includes various sources (broadcast receiving unit 102, disc playback unit 103, HD playback unit 104, navigation unit 105, external audio / video input unit 118) designated to be output by a control signal from the control unit 101. The audio signal and the image signal of an external recording medium reproducing unit (not shown) are output to the image adjustment circuit 109 and the audio adjustment circuit 110. The distribution circuit 108 includes a switch group composed of an electronic circuit such as a relay or a switching transistor.

音声調整回路110は、制御部101の制御信号により、入力された音声信号に対し、音量、音声を調整し、調整した音声信号を出力する。音声調整回路110は、音声データを記憶するメモリ、音声データを演算処理するデジタルシグナルプロセッサ等の演算回路、トランジスタ、抵抗、コイル等により構成される増幅又は減衰回路や共振回路等を備える。スピーカ111は、音声調整回路110から出力された音声信号を音声として出力する。   The sound adjustment circuit 110 adjusts the volume and sound of the input sound signal according to the control signal of the control unit 101, and outputs the adjusted sound signal. The sound adjustment circuit 110 includes a memory for storing sound data, an arithmetic circuit such as a digital signal processor for processing sound data, an amplification or attenuation circuit constituted by a transistor, a resistor, a coil, and the like, a resonance circuit, and the like. The speaker 111 outputs the audio signal output from the audio adjustment circuit 110 as audio.

画像調整回路109は、制御部101の制御信号により、入力された画像信号に対し、輝度や色調、コントラストなどを調整し、調整した各画像信号を出力する。画像調整回路109は、画像データを記憶するメモリ、画像データを演算処理するデジタルシグナリングプロセッサ等の演算回路等を備える。本実施形態においては、画像調整回路109は、映像システム10を構成するGDC11として機能する。   The image adjustment circuit 109 adjusts the brightness, color tone, contrast, and the like of the input image signal according to the control signal of the control unit 101, and outputs each adjusted image signal. The image adjustment circuit 109 includes a memory that stores image data, an arithmetic circuit such as a digital signaling processor that performs arithmetic processing on the image data, and the like. In the present embodiment, the image adjustment circuit 109 functions as the GDC 11 that constitutes the video system 10.

画像出力部112は、画像調整回路109から入力された画像信号と、制御部101からディスプレイ113に表示させる表示画像信号とを入力して画像合成等の処理を施し、当該処理を施した画像信号に基づきディスプレイ113を駆動する。本実施形態においては、画像出力部112は、映像システム10を構成するASIC12として機能する。ASIC12は、複数のディスプレイ(113#1、113#2)に応じた映像データを該ディスプレイに表示出力する。   The image output unit 112 inputs the image signal input from the image adjustment circuit 109 and the display image signal to be displayed on the display 113 from the control unit 101, performs processing such as image composition, and the image signal subjected to the processing The display 113 is driven based on the above. In the present embodiment, the image output unit 112 functions as the ASIC 12 constituting the video system 10. The ASIC 12 displays and outputs video data corresponding to the plurality of displays (113 # 1, 113 # 2).

ディスプレイ113は、画像出力部112(本実施形態ではASIC12)から入力された画像信号に基づき画像を表示する。ディスプレイ113は、例えば、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、冷陰極フラットパネルディスプレイ等である。ディスプレイ113は、バックライト、液晶パネル、タッチパネル等を備える。   The display 113 displays an image based on the image signal input from the image output unit 112 (ASIC 12 in this embodiment). The display 113 is, for example, a liquid crystal display, an organic EL display, a plasma display, a cold cathode flat panel display, or the like. The display 113 includes a backlight, a liquid crystal panel, a touch panel, and the like.

操作部114は、AVN機1に対して使用者が各種操作を行うための入力部であり、例えばタッチパネル、押釦スイッチ、回転操作スイッチ、ジョイスティック等である。操作部114は、AVN機1に対する使用者による各種操作の操作状態を制御部101に出力
する。遠隔操作部116は、例えば、赤外線素子等を備えたリモコンである。遠隔操作部116は、操作部114と同様の機能を有する。
The operation unit 114 is an input unit for the user to perform various operations on the AVN machine 1, and is, for example, a touch panel, a push button switch, a rotation operation switch, a joystick, or the like. The operation unit 114 outputs operation states of various operations by the user to the AVN device 1 to the control unit 101. The remote operation unit 116 is, for example, a remote control provided with an infrared element or the like. The remote operation unit 116 has the same function as the operation unit 114.

ETC車載器120は、ETC(登録商標:Electronic Toll Collection)システムにおいて、ETCレーン側の端末と通信して料金を自動で支払う機能を備えた車載器である。通信ユニット121は、アンテナに接続された、例えば、DSRC(Dedicated Short Range Communication)、赤外線通信、ブルートゥース(登録商標)等の無線通信のため
の通信インターフェースである。
The ETC on-vehicle device 120 is an on-vehicle device having a function of automatically paying a fee by communicating with a terminal on the ETC lane side in an ETC (registered trademark: Electronic Toll Collection) system. The communication unit 121 is a communication interface for wireless communication such as DSRC (Dedicated Short Range Communication), infrared communication, Bluetooth (registered trademark), etc., connected to an antenna.

《コンピュータが読み取り可能な記録媒体》
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。
<Computer-readable recording medium>
A program for causing a computer or other machine or device (hereinafter, a computer or the like) to realize any of the above functions can be recorded on a recording medium that can be read by the computer or the like. The function can be provided by causing a computer or the like to read and execute the program of the recording medium.
Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say. Examples of such a recording medium that can be removed from a computer or the like include a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disk, a DAT, an 8 mm tape, a flash memory, and the like. There are cards. In addition, as a recording medium fixed to a computer or the like, there are a hard disk, a ROM (read only memory), and the like.

1 AVN機
10 映像システム
11、91、91A、91B GDC
12、92、92A、92B ASIC
12c 入力処理部
12d メモリ
12e 出力制御部
13、13a、93 メインディスプレイ
14、14a、94 サブディスプレイ
15 メータフード
16a 速度計
16b 回転速度計
17 メモリ
101 制御部
102 放送受信部
103 ディスク再生部
104 HD再生部
105 ナビゲーション部
106 VICS情報受信部
107 GPS情報受信部
108 分配回路
109 画像調整回路(GDC)
110 音声調整回路
111 スピーカ
112 画像出力部(ASIC)
113 ディスプレイ
114 操作部
115 メモリ
116 遠隔操作部
118 外部音声/映像入力部
119 カメラ
120 ETC車載器
121 通信ユニット

1 AVN machine 10 Video system 11, 91, 91A, 91B GDC
12, 92, 92A, 92B ASIC
12c Input processing unit 12d Memory 12e Output control unit 13, 13a, 93 Main display 14, 14a, 94 Sub display 15 Meter hood 16a Speedometer 16b Tachometer 17 Memory 101 Control unit 102 Broadcast receiving unit 103 Disc playback unit 104 HD playback Unit 105 Navigation unit 106 VICS information receiving unit 107 GPS information receiving unit 108 Distribution circuit 109 Image adjustment circuit (GDC)
110 Audio adjustment circuit 111 Speaker 112 Image output unit (ASIC)
113 Display 114 Operation Unit 115 Memory 116 Remote Operation Unit 118 External Audio / Video Input Unit 119 Camera 120 ETC On-board Unit 121 Communication Unit

Claims (9)

所定のフレーム伝送レートのフレーム列で映像を出力する映像生成装置と、
前記映像生成装置から前記フレーム伝送レートのフレーム列で映像を受信し、前記映像を表示装置に出力する出力制御装置と、
複数の表示装置と、を備え、
前記映像生成装置は、複数の表示装置にそれぞれ出力される複数の映像のフレーム列を組合せた合成映像のフレーム列を出力し、
前記出力制御装置は、前記合成映像のフレーム列からぞれぞれの表示装置に出力される個別映像のフレーム列を抽出する映像システム。
A video generation device that outputs video in a frame sequence of a predetermined frame transmission rate;
An output control device that receives video from the video generation device at a frame sequence of the frame transmission rate and outputs the video to a display device;
A plurality of display devices,
The video generation device outputs a composite video frame sequence combining a plurality of video frame sequences output to a plurality of display devices,
The output control device is a video system that extracts a frame sequence of an individual video output to each display device from the frame sequence of the composite video.
前記映像生成装置は、第1の表示装置に出力される個別映像のフレーム列のフレームと第2の表示装置に出力される個別映像のフレーム列のフレームとを所定の割合で配列して出力することで前記合成映像のフレーム列を出力し、
前記出力制御装置は、前記合成映像のフレーム列からそれぞれの表示装置に出力される個別映像のフレームを前記所定の割合で抽出する請求項1に記載の映像システム。
The video generation device arranges and outputs a frame of an individual video frame sequence output to the first display device and a frame of an individual video frame sequence output to the second display device at a predetermined ratio. To output a frame sequence of the composite video,
The video system according to claim 1, wherein the output control device extracts frames of individual videos output to the respective display devices from the composite video frame sequence at the predetermined ratio.
前記映像生成装置は、合成される映像の数の倍率で前記所定のフレームレートを増倍した増倍フレームレートで前記合成映像のフレーム列を出力する請求項1に記載の映像システム。   2. The video system according to claim 1, wherein the video generation device outputs a frame sequence of the synthesized video at a multiplied frame rate obtained by multiplying the predetermined frame rate by a magnification of the number of videos to be synthesized. 前記映像生成装置は、一の表示装置に出力される個別映像が静止画像であるときに、前記静止画像が変更された画像を、他の表示装置に出力される映像のフレーム列中の一のフレームとして割り込ませて合成映像のフレーム列を出力するとともに、前記割り込ませた一のフレームを特定する特定信号を出力し、
前記出力制御装置は、前記フレームを特定する特定信号にしたがって前記割り込ませた一のフレームを前記合成映像のフレーム列から分離する請求項1の映像システム。
When the individual video output to one display device is a still image, the video generation device displays an image obtained by changing the still image in one of the frame sequences of the video output to another display device. A frame sequence of the composite video is output by interrupting as a frame, and a specific signal for specifying the interrupted one frame is output,
2. The video system according to claim 1, wherein the output control device separates the interrupted frame from the frame sequence of the synthesized video in accordance with a specific signal that specifies the frame.
前記所定のフレーム伝送レートで出力されるフレーム列は、フレームの有効期間とフレーム間のブランキング期間とを有し、
前記映像生成装置は、第1の表示装置に出力される個別映像のフレーム列を前記ブランキング期間に出力し、
前記出力制御装置は、前記有効期間の個別映像のフレーム列を第1の表示装置に出力し、前記ブランキング期間の個別映像のフレーム列を他の表示装置に出力する請求項1に記載の映像システム。
The frame sequence output at the predetermined frame transmission rate has an effective period of frames and a blanking period between frames,
The video generation device outputs a frame sequence of individual video output to the first display device during the blanking period,
2. The video according to claim 1, wherein the output control device outputs a frame sequence of the individual video in the effective period to a first display device, and outputs a frame sequence of the individual video in the blanking period to another display device. system.
前記映像生成装置は、前記ブランキング期間に出力されるフレーム列を前記ブランキング期間の長さに応じて縮小し、
前記出力制御装置は、前記ブランキング期間に取得したフレーム列を前記ブランキング期間の長さに応じて伸張して、個別映像のフレーム列に復元する請求項5に記載の映像システム。
The video generation device reduces the frame sequence output during the blanking period according to the length of the blanking period,
The video system according to claim 5, wherein the output control device decompresses the frame sequence acquired during the blanking period according to the length of the blanking period and restores the frame sequence to an individual video.
前記映像生成装置は、前記ブランキング期間に出力されるフレーム列を前記ブランキング期間の長さに応じて分割して、複数のブランキング期間に出力し、
前記出力制御装置は、前記ブランキング期間に取得したフレーム列を結合して、前記第2の表示装置に出力される個別映像のフレーム列に復元する請求項5に記載の映像システム。
The video generation device divides the frame sequence output during the blanking period according to the length of the blanking period, and outputs the divided frame sequence to a plurality of blanking periods.
The video system according to claim 5, wherein the output control device combines the frame sequences acquired during the blanking period to restore the frame sequence of the individual video output to the second display device.
前記映像生成装置は、フレーム列の各フレームの縦方向または横方向の画素数を合成される個別映像の数で拡大し、前記拡大された各フレームに複数の個別映像の各フレームを
画素の横方向または縦方向に組み込み合せて合成フレームを生成し、各フレーム中の画素の送信レートを前記個別映像の数で増倍させた周波数で出力し、
前記出力制御装置は、前記合成フレームから画素の横方向または縦方向に組み合わせてそれぞれの個別映像のフレームを抽出する請求項1に記載の映像システム。
The video generation device expands the number of pixels in the vertical direction or the horizontal direction of each frame in the frame sequence by the number of individual videos to be combined, and adds each frame of a plurality of individual videos to the horizontal direction of each pixel. A combined frame is generated by combining in the direction or the vertical direction, and the transmission rate of the pixels in each frame is output at a frequency multiplied by the number of the individual images.
The video system according to claim 1, wherein the output control device extracts a frame of each individual video from the combined frame in combination with a horizontal direction or a vertical direction of pixels.
所定のフレーム伝送レートのフレーム列で映像を出力する映像生成装置と、
前記映像を表示装置に出力する出力制御装置と、
複数の表示装置と、を備え、
所定のフレーム伝送レートのフレーム列で映像を出力する映像生成装置が、複数の表示装置にそれぞれ出力される複数のフレーム列を組み合わせた合成映像のフレーム列を出力するステップと、
前記出力制御装置が、
映像生成装置から前記フレーム伝送レートのフレーム列で映像を受信するステップと、
前記合成映像のフレーム列からそれぞれの表示装置に出力される個別映像のフレーム列を抽出するステップと、
前記個別映像のフレーム列をそれぞれの表示装置に出力するステップと、を実行する映像処理方法。
A video generation device that outputs video in a frame sequence of a predetermined frame transmission rate;
An output control device for outputting the video to a display device;
A plurality of display devices,
A video generation device that outputs video at a frame sequence of a predetermined frame transmission rate, a step of outputting a composite video frame sequence obtained by combining a plurality of frame sequences respectively output to a plurality of display devices;
The output control device is
Receiving video from a video generation device in a frame sequence of the frame transmission rate;
Extracting a frame sequence of an individual video output to each display device from the frame sequence of the synthesized video;
Outputting the frame sequence of the individual video to each display device.
JP2012082824A 2012-03-30 2012-03-30 Video system and video processing method Pending JP2013213859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012082824A JP2013213859A (en) 2012-03-30 2012-03-30 Video system and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012082824A JP2013213859A (en) 2012-03-30 2012-03-30 Video system and video processing method

Publications (1)

Publication Number Publication Date
JP2013213859A true JP2013213859A (en) 2013-10-17

Family

ID=49587240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012082824A Pending JP2013213859A (en) 2012-03-30 2012-03-30 Video system and video processing method

Country Status (1)

Country Link
JP (1) JP2013213859A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155566A1 (en) 2018-02-08 2019-08-15 株式会社ソシオネクスト Image processing device, image processing method, and image display system
US10650562B2 (en) 2017-06-08 2020-05-12 Denso Ten Limited Display control device
WO2020246201A1 (en) * 2019-06-04 2020-12-10 株式会社デンソー Control device for vehicles, display system for vehicles, and display control method for vehicles
JP2022125166A (en) * 2018-02-08 2022-08-26 株式会社ソシオネクスト Image processing device, image processing method and image display system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650562B2 (en) 2017-06-08 2020-05-12 Denso Ten Limited Display control device
WO2019155566A1 (en) 2018-02-08 2019-08-15 株式会社ソシオネクスト Image processing device, image processing method, and image display system
US11244647B2 (en) 2018-02-08 2022-02-08 Socionext Inc. Image processing device, image processing method, and image display system
JP2022125166A (en) * 2018-02-08 2022-08-26 株式会社ソシオネクスト Image processing device, image processing method and image display system
JP7294507B2 (en) 2018-02-08 2023-06-20 株式会社ソシオネクスト Image processing device, image processing method and image display system
WO2020246201A1 (en) * 2019-06-04 2020-12-10 株式会社デンソー Control device for vehicles, display system for vehicles, and display control method for vehicles
JP2020197664A (en) * 2019-06-04 2020-12-10 株式会社デンソー Control device for vehicle, display system for vehicle, and display control method for vehicle
JP7070505B2 (en) 2019-06-04 2022-05-18 株式会社デンソー Vehicle control device, vehicle display system, and vehicle display control method
US11922089B2 (en) 2019-06-04 2024-03-05 Denso Corporation Vehicle controller, vehicle display system, and vehicle display control method using a single display processing unit for displaying link images

Similar Documents

Publication Publication Date Title
US8136138B2 (en) Display replication and control of a portable device via a wireless interface in an automobile
CN102369564A (en) Display device and display control device
EP3099081B1 (en) Display apparatus and control method thereof
TWI354981B (en) Method and related device of increasing efficiency
US10412320B1 (en) Method and system for switching display from first video source to second video source
KR20120047055A (en) Display apparatus and method for providing graphic image
JP2013213859A (en) Video system and video processing method
JP2013205738A (en) Video display processor and video display processing method
US7439964B2 (en) Screen display device
CN109496428A (en) Display device and recording medium
TWI245560B (en) Video data processing method and apparatus capable of saving bandwidth
US20060202979A1 (en) Video display control device and video display device
TW201215148A (en) Method for performing video display control within a video display system, and associated video processing circuit and video display system
JP2008099254A (en) Image display device
EP2669886A1 (en) Image processing method and image display system utilizing the same
CN101887702B (en) Vehicle-mounted multimedia double-picture display method based on FPGA (Field Programmable Gate Array)
WO2013139126A1 (en) Display driving method of dual-channel video signals, and device thereof
JP6723095B2 (en) Video processing apparatus and method for changing video resolution
US8456573B2 (en) Apparatus and method for providing digital multimedia broadcast service using an external device and a digital TV
JP2008306660A (en) Video signal processing apparatus
JP5241848B2 (en) Information display device, information display method, information display program, and recording medium
US20090131176A1 (en) Game processing device
KR101265595B1 (en) Method for transmitting and playing broadcast signal and apparatus thereof
JP2005331674A (en) Image display apparatus
US20080211966A1 (en) Image display device