JPH03261992A - Image composition system - Google Patents

Image composition system

Info

Publication number
JPH03261992A
JPH03261992A JP2061602A JP6160290A JPH03261992A JP H03261992 A JPH03261992 A JP H03261992A JP 2061602 A JP2061602 A JP 2061602A JP 6160290 A JP6160290 A JP 6160290A JP H03261992 A JPH03261992 A JP H03261992A
Authority
JP
Japan
Prior art keywords
image data
line
horizontal
memory
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2061602A
Other languages
Japanese (ja)
Inventor
Toshiro Mizoguchi
溝口 俊郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2061602A priority Critical patent/JPH03261992A/en
Publication of JPH03261992A publication Critical patent/JPH03261992A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To compose data of two image data by a line memory and a frame memory and to reduce the memory capacity by writing image data corresponding to the same line and reading data out of the frame memory corresponding to the line. CONSTITUTION:First image data is written in the line memory 111 in synchronism with a 1st horizontal synchronizing signal H1 and 2nd image data is written in the frame memory 121 in synchronism with 2nd horizontal and vertical synchronizing signals H2 and V2. Further, the 1st image data is read out of the line memory 111 in synchronism with the 1st horizontal synchronizing signal H1 and the 2nd image data is read out of the frame memory 121 in synchronism with the 1st horizontal and vertical synchronizing signals H1 and V1 corresponding to the 1st image data. Therefore, the image data are both read out in synchronism with the 1st horizontal and vertical synchronizing signals H1 and V1 and the two synchronizing image data are obtained to compose the image by a composing means 131. Consequently, the memory capacity is reducible.

Description

【発明の詳細な説明】 〔概 要〕 入力された2つのビデオ信号を合成するようにした画像
合成方式に関し、 メモリ容量の削減を目的とし、 第1の水平、垂直同期信号H1、V1に同期した第1の
画像データが入力され、この画像データの1ライン分を
第1の水平同期信号H1に同期して格納すると共に、こ
の格納した画像データを第1の水平同期信号H1に同期
して出力するラインメモリと、第2の水平、垂直同期信
号H2,V2に同期した第2の画像データが入力され、
この画像データの1画面分を第2の水平、垂直同期信号
H2,V2に同期して格納すると共に、この格納した画
像データを第1の水平、垂直同期信号H1゜vlに同期
して出力するフレームメモリと、ラインメモリ及びフレ
ームメモリから出力された第1及び第2の画像データが
入力され、画像データの合成を行う合成手段とを備える
ように構成する。
[Detailed Description of the Invention] [Summary] Regarding an image synthesis method in which two input video signals are synthesized, the purpose of reducing memory capacity is to synchronize with the first horizontal and vertical synchronization signals H1 and V1. One line of this image data is stored in synchronization with the first horizontal synchronization signal H1, and the stored image data is synchronized with the first horizontal synchronization signal H1. The line memory to be output and second image data synchronized with the second horizontal and vertical synchronizing signals H2 and V2 are input,
This image data for one screen is stored in synchronization with the second horizontal and vertical synchronization signals H2 and V2, and the stored image data is output in synchronization with the first horizontal and vertical synchronization signals H1゜vl. The image forming apparatus is configured to include a frame memory and a synthesizing means to which the first and second image data outputted from the line memory and the frame memory are input and which synthesizes the image data.

〔産業上の利用分野〕[Industrial application field]

本発明は、入力された2つのビデオ信号を合成するよう
にした画像合成方式に関するものである。
The present invention relates to an image composition method that combines two input video signals.

〔従来の技術〕[Conventional technology]

近年、パーソナルコンピュータ(以後、「パソコン」と
称する)の用途の多様化に伴い、店頭端末として、ビデ
オテープレコーダ(VTR)やレーザディスク装置等の
画像にパソコンで作成したデータ等のインフォメーシゴ
ンを重ね合わせて表示する技法が汎用されている。
In recent years, with the diversification of uses for personal computers (hereinafter referred to as "personal computers"), information systems such as data created on computers are being superimposed on images of video tape recorders (VTRs), laser disc devices, etc. as in-store terminals. Techniques for displaying them together are widely used.

第6図に、他装置からの画像を合成してパソコンの画面
に表示する場合の概略を示す、同図(a)はシステム構
成を示している0例えば、パソコン611は、接続され
ているVTR621及びレーザディスク装置631から
の動画あるいは静止画を取り込んで、パソコン611自
身のキャラクタやグラフィックス等と合成して表示する
0合成画像の表示画像としては、例えば同図(b)に示
すように、表示画面の異なる領域にVTR621及びレ
ーザディスク装置631のそれぞれから入力された画像
を表示し、更にパソコン611のデータを付は加える場
合や、同図(C)に示すように、VTR621及びレー
ザディスク装置631の何れか一方の画像に他方の画像
を重ねて表示し、更にパソコン611のデータを付は加
える場合などが考えられる。
FIG. 6 shows an outline of the case where images from other devices are synthesized and displayed on the screen of a personal computer. FIG. 6 (a) shows the system configuration. For example, as shown in FIG. 6(b), a display image of a zero composite image that imports a moving image or a still image from the laser disk device 631 and synthesizes it with the personal computer 611's own characters, graphics, etc. and displays it is as shown in FIG. In some cases, images input from the VTR 621 and the laser disc device 631 are displayed in different areas of the display screen, and data from the personal computer 611 is also added, and as shown in FIG. It is conceivable that one of the images of 631 is displayed with the other image superimposed, and data from the personal computer 611 is also added.

ところで、パソコン等に入力された画像とパソコン内部
で作成したデータとを合成して表示する従来方式として
は、入力された画像をフレームメモリに一旦格納してこ
の格納データと内部で作成したデータとを同期をとって
合成する方式が汎用されている。
By the way, the conventional method of combining and displaying an image input to a computer or the like with data created inside the computer is to temporarily store the input image in a frame memory and combine this stored data with the data created internally. A method that synchronizes and synthesizes is widely used.

第7図に、このような従来方式を第6図(a)のシステ
ムに適用した場合のパソコン611の詳細構成を示す。
FIG. 7 shows a detailed configuration of the personal computer 611 when such a conventional method is applied to the system of FIG. 6(a).

ビデオ信号aはVTR621から入力されたものであり
、ビデオ信号すはレーザディスク装置631から入力さ
れたものである。
The video signal a is input from the VTR 621, and the video signal a is input from the laser disc device 631.

第7図に示すように、ビデオ信号aに対応して分離回路
711.PLL721及びRGBの各色に対応した3つ
のフレームメモリ731,733゜735とを有してお
り、ビデオ信号すに対応して分離回路751.PLL7
61及びRGBの各色に対応した3つのフレームメモリ
771,773゜775とを有している。なお、同期信
号発生回路(SYNCGEN)791は、フレームメモ
リ731〜735及び771〜775の読み出しタイミ
ングを一致させるための同期信号を発生するものである
As shown in FIG. 7, separation circuits 711 . It has a PLL 721 and three frame memories 731, 733, 735 corresponding to each color of RGB, and a separation circuit 751.735 corresponding to the video signal. PLL7
61 and three frame memories 771, 773, and 775 corresponding to each color of RGB. Note that the synchronization signal generation circuit (SYNCGEN) 791 generates a synchronization signal for matching the read timings of the frame memories 731 to 735 and 771 to 775.

このようにして、ビデオ信号a、bをそれぞれに対応す
るフレームメモリに格納し、その後同期をとって読み出
すことにより、これらの読み出したRGBデータにパソ
コン611内部で生成したキャラクタ等のデータを同期
させて重ね合わせることが可能になる。
In this way, by storing the video signals a and b in their corresponding frame memories and then reading them out in synchronization, data such as characters generated inside the personal computer 611 can be synchronized with these read RGB data. This makes it possible to superimpose the images.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ところで、上述した従来方式にあっては、入力される2
つのビデオ信号のそれぞれに対応したフレームメモリを
備えており、大きなメモリ容量が必要であるという問題
点があった。
By the way, in the conventional method described above, the input 2
The problem was that it required a large memory capacity since it was equipped with a frame memory corresponding to each of the two video signals.

例えばパソコン611の表示画面を縦400画素、横6
40画素で構成し、各画素をRGB各8ピントで表す場
合には、各フレームメモリは256にバイトすなわち1
つのビデオ信号に対応して256Kx3バイトのメモリ
容量が必要になり、大きなメモリ容量に対応して回路規
模も大きくなって装置コストも上がることになる。また
、近年表示画面の解像度は上がる傾向にあり、高解像度
になるにしたがってメモリ容量も大きくする必要がある
For example, the display screen of PC 611 is 400 pixels vertically and 6 pixels horizontally.
If it is composed of 40 pixels and each pixel is represented by 8 points each for RGB, each frame memory will have 256 bytes, or 1
A memory capacity of 256K x 3 bytes is required to accommodate one video signal, and the circuit scale increases to accommodate the large memory capacity, resulting in an increase in device cost. Furthermore, in recent years, the resolution of display screens has tended to increase, and as the resolution increases, it is necessary to increase the memory capacity.

本発明は、このような点にかんがみて創作されたもので
あり、メモリ容量を削減することができる画像合成方式
を提供することを目的としている。
The present invention was created in view of these points, and an object of the present invention is to provide an image composition method that can reduce memory capacity.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は、本発明の画像合成方式の原理ブロック図であ
る。
FIG. 1 is a principle block diagram of the image synthesis method of the present invention.

図において、ラインメモリ111は、第1の水平、垂直
同期信号H1、V1に同期した第1の画像データが入力
され、この画像データの1ライン分を第1の水平同期信
号H1に同期して格納すると共に、この格納した画像デ
ータを第1の水平同期信号H1に同期して出力する。
In the figure, the line memory 111 receives first image data synchronized with first horizontal and vertical synchronization signals H1 and V1, and synchronizes one line of this image data with the first horizontal synchronization signal H1. At the same time, the stored image data is output in synchronization with the first horizontal synchronization signal H1.

フレームメモリ121は、第2の水平、垂直同期信号H
2,V2に同期した第2の画像データが入力され、この
画像データの1iii面分を第2の水平、垂直同期信号
H2,V2に同期して格納すると共に、この格納した画
像データを第1の水平。
The frame memory 121 receives a second horizontal and vertical synchronizing signal H.
2, the second image data synchronized with V2 is input, 1iii planes of this image data are stored in synchronization with the second horizontal and vertical synchronizing signals H2, V2, and this stored image data is inputted into the first image data. horizontal.

垂直同期信号H1、V1に同期して出力する。Output in synchronization with vertical synchronization signals H1 and V1.

合成手段131は、ラインメモリ111及びフレームメ
モリ121から出力された第1及び第2の画像データが
入力され、画像データの合成を行う。
The synthesizing means 131 receives the first and second image data outputted from the line memory 111 and the frame memory 121, and synthesizes the image data.

従って、全体として、ラインメモリ111の読み書きタ
イミングにあわせてフレームメモリ121からのデータ
の読み出しを行うように構成されている。
Therefore, the overall configuration is such that data is read from the frame memory 121 in accordance with the read/write timing of the line memory 111.

〔作 用〕[For production]

第1の画像データのラインメモリ111への書き込みは
第1の水平同期信号H1に同期して行われ、一方、第2
の画像データのフレームメモリ121への書き込みは第
2の水平、垂直同期信号H2、V2に同期して行われる
Writing of the first image data to the line memory 111 is performed in synchronization with the first horizontal synchronization signal H1, while the second
Writing of the image data into the frame memory 121 is performed in synchronization with the second horizontal and vertical synchronizing signals H2 and V2.

また、第1の画像データのラインメモリ111からの読
み出しは第1の水平同期信号H1に同期して行われ、一
方、第2の画像データのフレームメモリ121からの読
み出しは、第1の画像データに対応する第1の水平、垂
直同期信号H1,V1に同期して行われる。
Further, reading of the first image data from the line memory 111 is performed in synchronization with the first horizontal synchronizing signal H1, while reading of the second image data from the frame memory 121 is performed based on the first image data. This is performed in synchronization with the first horizontal and vertical synchronizing signals H1 and V1 corresponding to the first horizontal and vertical synchronizing signals H1 and V1.

従って、ラインメモリ111及びフレームメモリ121
からの画像データの読み出しは、共に第1の水平、垂直
同期信号H1、V1に同期して行われており、これら読
み出した画像データを合成手段131で合成する。
Therefore, line memory 111 and frame memory 121
The reading of image data from is performed in synchronization with the first horizontal and vertical synchronizing signals H1 and V1, and these read image data are combined by a combining means 131.

本発明にあっては、ラインメモリ111によって同一ラ
インに対応した画像データの書き込み及び読み出しを行
うと共に、このラインに対応したフレームメモリ121
の格納データの読み出しを行うことにより、同期した2
つの画像データを得て合成手段131による合成を行う
ことが可能になる。
In the present invention, the line memory 111 writes and reads image data corresponding to the same line, and the frame memory 121 corresponding to this line writes and reads the image data corresponding to the same line.
By reading the stored data of the two
This makes it possible to obtain two image data and perform synthesis by the synthesis means 131.

〔実施例〕〔Example〕

以下、図面に基づいて本発明の実施例について詳細に説
明する。
Hereinafter, embodiments of the present invention will be described in detail based on the drawings.

第2図は、本発明の画像合成方式を適用した一実施例の
構成を示す。
FIG. 2 shows the configuration of an embodiment to which the image synthesis method of the present invention is applied.

図において、211は合成制御部を、221及び261
は分離回路を、231及び271は位相同期ループ(P
LL)を、241,243及び245はラインメモリを
、281,283及び285はフレームメモリを、29
1は合成部をそれぞれ示している。
In the figure, 211 is a synthesis control section, 221 and 261 are
is a separation circuit, 231 and 271 are phase-locked loops (P
LL), 241, 243 and 245 are line memories, 281, 283 and 285 are frame memories, 29
1 indicates a synthesis section.

分離回路221.PLL231及び3つのラインメモリ
241〜245は、ビデオ信号aを一旦取り込んだ後に
所定のタイミングで出力するためのものである。
Separation circuit 221. The PLL 231 and the three line memories 241 to 245 are for once capturing the video signal a and then outputting it at a predetermined timing.

分離回路221は、入力されるNTSCのコンポジット
・ビデオ信号aからR,G、Bの各色データ(各8ビツ
トとする)を生成・分離すると共に、水平、垂直同期信
号H,Vを抽出するものである。生成したRGBデータ
は3つのラインメモリ241〜245に供給され、同期
信号H,VはPLL231に供給される。
The separation circuit 221 generates and separates R, G, and B color data (8 bits each) from the input NTSC composite video signal a, and extracts horizontal and vertical synchronizing signals H and V. It is. The generated RGB data is supplied to three line memories 241 to 245, and the synchronization signals H and V are supplied to the PLL 231.

PLL231は、入力される同期信号H,Vの位相調整
を行い、調整後の水平、垂直同期信号H+。
The PLL 231 adjusts the phases of the input synchronization signals H and V, and produces adjusted horizontal and vertical synchronization signals H+.

■゛を出力する。この水平同期信号H゛は、ライト信号
及びリード信号としてラインメモリ241〜245のそ
れぞれに供給される。
■ Output ゛. This horizontal synchronizing signal H' is supplied to each of the line memories 241-245 as a write signal and a read signal.

ラインメモリ241は、RGBデータの中ORに対応す
る8ビツトデータを1ライン分格納するためのものであ
り、例えば1024バイトの容量を有する先入れ先出し
メモリ(FIFO)で構成されている、ラインメモリ2
41は、分離回路221で分離したRデータをライト信
号に同期して取り込むと共に、この格納データをリード
信号に同期して出力する。
The line memory 241 is for storing one line of 8-bit data corresponding to the OR of RGB data, and is configured with a first-in first-out memory (FIFO) having a capacity of 1024 bytes, for example.
41 takes in the R data separated by the separation circuit 221 in synchronization with the write signal, and outputs this stored data in synchronization with the read signal.

同様に、ラインメモリ243はFIFOで構成されてお
り、ライト信号に同期してGデータを1ライン分格納す
ると共にリード信号に同期して出力する。ラインメモリ
245はFIFOで構成されており、ライト信号に同期
してbデータを1ライン分格納すると共にリード信号に
同期して出力する。
Similarly, the line memory 243 is configured with a FIFO, and stores one line of G data in synchronization with the write signal, and outputs it in synchronization with the read signal. The line memory 245 is composed of a FIFO, and stores one line of b data in synchronization with the write signal, and outputs it in synchronization with the read signal.

また、分離回路261.PLL271及び3つのフレー
ムメモリ281〜285は、ビデオ信号すを一旦取り込
んだ後に所定のタイミングで出力するためのものである
Also, the separation circuit 261. The PLL 271 and three frame memories 281 to 285 are used to once capture a video signal and then output it at a predetermined timing.

分離回路261は、分離回路221と同様の動作を行う
ものであり、入力されるNTSCのコンポジット・ビデ
オ信号すからR,G、Bの各色データを生成・分離する
と共に、水平、垂直同期信号H,Vを抽出するものであ
る。生成したRGBデータは3つのフレームメモリ28
1〜285に供給され、同期信号H,VはPLL271
に供給される。
The separation circuit 261 performs the same operation as the separation circuit 221, and generates and separates R, G, and B color data from the input NTSC composite video signal, and also generates horizontal and vertical synchronization signals H. , V. The generated RGB data is stored in three frame memories 28.
1 to 285, and synchronizing signals H and V are supplied to PLL271.
is supplied to

PLL271は、PLL231と同様の動作を行うもの
であり、入力される同期信号H,Vの位相調整を行い、
調整後の水平、垂直同期信号H”。
The PLL 271 performs the same operation as the PLL 231, and adjusts the phase of the input synchronization signals H and V.
Horizontal and vertical synchronization signal H” after adjustment.

■”を出力する。この水平、垂直同期信号H”。■" is output. This horizontal and vertical synchronization signal H".

■”はフレームメモリ281〜285のそれぞれに供給
される。
■'' is supplied to each of the frame memories 281-285.

フレームメモリ281は、RGBデータの中ORに対応
する8ビツトデータを1フレーム(画面)分格納するた
めのものであり、例えば256にバイトの容量を有して
いる。フレームメモリ281は、分離回路261で分離
されたRデータを水平。
The frame memory 281 is for storing one frame (screen) of 8-bit data corresponding to the OR of RGB data, and has a capacity of, for example, 256 bytes. The frame memory 281 horizontally stores the R data separated by the separation circuit 261.

垂直同期信号H”、■”に同期して、すなわち画素の表
示位置に対応した格納領域に取り込むと共に、この格納
データをPLL231から出力される水平、垂直同期信
号H” V lに同期して出力する。
In synchronization with the vertical synchronization signals H", ■", that is, take in the storage area corresponding to the display position of the pixel, and output this stored data in synchronization with the horizontal and vertical synchronization signals H"V l output from the PLL 231. do.

合成部291は、ラインメモリ241〜245及びフレ
ームメモリ281〜285から入力される2つのRGB
データを合成するためのものである。ラインメモリ24
1〜245からのRGBデータの読み出し及びフレーム
メモリ281〜285からのRGBデータの読み出しは
共にPLL231から出力される水平、垂直刑期信号H
’ 、V’に同期しているため、同一の画素に対応する
2つのRGBデータが同じタイミングで合成部291に
入力されており、合成部291はこの2つRGBデータ
の何れかを選択することにより画像の合成を行っている
The combining unit 291 receives two RGB signals input from the line memories 241 to 245 and the frame memories 281 to 285.
It is used to synthesize data. line memory 24
Reading of RGB data from 1 to 245 and reading of RGB data from frame memories 281 to 285 are both performed using the horizontal and vertical sentence signals H output from the PLL 231.
', V', two RGB data corresponding to the same pixel are input to the synthesis unit 291 at the same timing, and the synthesis unit 291 can select either of these two RGB data. The images are synthesized by

第3図及び第4図に、上述した各ラインメモリ及び各フ
レームメモリにおけるRGBデータの読み書きのタイミ
ングを示す。
FIGS. 3 and 4 show the timing of reading and writing RGB data in each line memory and each frame memory described above.

第3図(a)はラインメモリ241〜245にビデオ信
号aの先頭ラインが格納される動作タイミングを、第3
図(ロ)はラインメモリ241〜245にビデオ信号a
のにライン目が格納される動作タイミングを示している
。また、図においてrw、p、。
FIG. 3(a) shows the operation timing at which the first line of the video signal a is stored in the line memories 241 to 245.
Figure (b) shows video signal a in line memories 241 to 245.
This shows the operation timing at which the line is stored. Also, rw, p, in the figure.

はライトポインタを、rR,P、Jはリードポインタを
それぞれ示している。W、P、は入力されるビデオ信号
が第何ライン目に対応しているかを指し示しており、R
,P、は読み出すデータが第何ライン目に対応している
かを指し示している。
indicates a write pointer, and rR, P, and J indicate read pointers, respectively. W, P indicate which line the input video signal corresponds to, and R
, P indicates which line the data to be read corresponds to.

ビデオ信号aとビデオ信号すは一般には非同期であるた
め、ビデオ信号aの第Oラインが入力されているときに
ビデオ信号すの第にラインが入力されている。そこで、
この第にラインのビデオ信号すを格納することができる
ようにフレームメモI7281〜285が備わっている
。これらのフレームメモリからのデータの読み出しはラ
インメモリ241〜245と同じタイミングで行われて
おり、従って、第にラインにデータの書き込みが行われ
ているときに第0ラインに対応した格納SINから読み
出しが行われる。
Since video signal a and video signal S are generally asynchronous, when the Oth line of video signal a is being input, the video signal S line is being input. Therefore,
Frame memos I7281-285 are provided so that the video signals of this first line can be stored. Data is read from these frame memories at the same timing as the line memories 241 to 245. Therefore, when data is being written to the 0th line, data is read from the storage SIN corresponding to the 0th line. will be held.

同様に、ビデオ信号aの第nラインが入力されていると
きにビデオ信号すの第(k+n)ラインが入力されてお
り、フレームメモリ281〜285の対応する領域に格
納される。このとき、ラインメモリ241〜245及び
フレームメモリ281〜285のそれぞれからは第nラ
インに対応したデータの読み出しが行われる。
Similarly, when the nth line of video signal a is being input, the (k+n)th line of video signal A is being input, and is stored in the corresponding areas of frame memories 281 to 285. At this time, data corresponding to the nth line is read from each of the line memories 241 to 245 and the frame memories 281 to 285.

また、第4図(a)はラインメモリ241〜245への
データの書き込みタイミングを、同図Φ)はフレームメ
モリ281〜285への書き込みタイミングを、同図(
C)はラインメモリ241〜245からのデータの読み
出しタイミングを、同図(d)はフレームメモリ281
〜285からの読み出しタイミングをそれぞれ示してい
る。また、図中の「m」及び’PJはビデオ信号aある
いはbのフレーム通し番号を示している。
In addition, FIG. 4(a) shows the timing of writing data to the line memories 241 to 245, and Φ) in the same figure shows the timing of writing data to the frame memories 281 to 285.
C) shows the read timing of data from the line memories 241 to 245, and FIG.
The read timings from 285 to 285 are shown respectively. Further, "m" and 'PJ' in the figure indicate the frame serial number of the video signal a or b.

第4図に示すように、ラインメモリ241〜245にビ
デオ信号aの第Oラインが書き込まれているときにフレ
ームメモリ281〜285にはビデオ信号すの第にライ
ンが書き込まれており、このとき1つ前のフレームに対
応したビデオ信号a。
As shown in FIG. 4, when the Oth line of the video signal a is written in the line memories 241 to 245, the Oth line of the video signal a is written in the frame memories 281 to 285, and at this time, Video signal a corresponding to the previous frame.

bの各第Oラインがラインメモリ及びフレームメモリの
それぞれから読み出される。同様に、ラインメモリ24
1〜245にビデオ信号aの第nラインが書き込まれて
いるときにフレームメモリ281〜285にはビデオ信
号すの第(n+k)ラインが書き込まれており、このと
き1つ前のフレームに対応したビデオ信号a、bの各第
nラインがラインメモリ及びフレームメモリのそれぞれ
から読み出される。
Each Oth line of b is read from each of the line memory and frame memory. Similarly, line memory 24
When the nth line of the video signal a is written in frames 1 to 245, the (n+k)th line of the video signal a is written in the frame memories 281 to 285. Each nth line of video signals a and b is read from each of the line memory and frame memory.

このように、一方のビデオ信号aを格納するラインメモ
リ241〜245の読み書きのタイミングに、他方のビ
デオ信号すを格納するフレームメモリ281〜285の
読み出しタイミングを合わせることにより、合成部29
1による画像の合成が可能になる。従って、一方のビデ
オ信号aの格納をラインメモリ241〜245で行って
メモリ全体の容量を削減することが可能になる。
In this way, by matching the reading timing of the line memories 241 to 245 storing one video signal a with the reading timing of the frame memories 281 to 285 storing the other video signal a, the combining unit 29
It becomes possible to synthesize images according to 1. Therefore, it becomes possible to store one video signal a in the line memories 241 to 245, thereby reducing the overall memory capacity.

第5図に、第2図に示した実施例を第6図に示したよう
なパソコンに適用した場合の構成を示す。
FIG. 5 shows a configuration when the embodiment shown in FIG. 2 is applied to a personal computer as shown in FIG.

第5図において、511は表示制御部を、513はキャ
ラクタ生成部を、515はグラフィック生成部を、52
1は表示部をそれぞれ示している。
In FIG. 5, 511 is a display control section, 513 is a character generation section, 515 is a graphic generation section, and 52
1 indicates a display section.

第5図において、第2図と同じ参照番号を付したものは
同一構成要素を示している。
In FIG. 5, the same reference numbers as in FIG. 2 indicate the same components.

表示制御部511は、合成部291.キャラクタ生成部
513及びグラフィック生成部515を含んでおり、表
示部521の表示を制御する。
The display control section 511 controls the composition section 291. It includes a character generation section 513 and a graphic generation section 515, and controls the display on the display section 521.

合成制御部211内のPLL231から出力される水平
、垂直同期信号H” V lが表示制御部511に入力
されており、キャラクタ生成部513及びグラフィック
生成部515はこの水平、垂直同期信号H’ 、V’に
同期したパターンデータ生成動作を行っている。従って
、合成制御部211から出力される2つのRGBデータ
とキャラクタ生成部513.グラフィック生成部515
で生成されるデータの全てが水平、垂直同期信号H′■
”に同期することになり、これらのデータに基づいた画
像の合成を合成部291で行い、合成結果を表示部52
1によって表示する。その結果、第7図に示すような合
成画面の表示が行われる。
Horizontal and vertical synchronization signals H''Vl output from the PLL 231 in the synthesis control section 211 are input to the display control section 511, and the character generation section 513 and the graphic generation section 515 use the horizontal and vertical synchronization signals H', The pattern data generation operation is performed in synchronization with V'. Therefore, the two RGB data output from the composition control section 211, the character generation section 513, and the graphic generation section 515
All data generated by horizontal and vertical synchronization signals H'■
”, the synthesis unit 291 synthesizes images based on these data, and the synthesis result is displayed on the display unit 52.
Displayed by 1. As a result, a composite screen as shown in FIG. 7 is displayed.

なお、上述した本発明実施例では、2つのビデオ信号a
、bが入力された場合を考えたが、3つ以上のビデオ信
号が入力された場合にも本発明を適用することができる
。この場合は、何れかlっのビデオ信号のみをラインメ
モリに格納し、他の2つ以上のビデオ信号はフレームメ
モリに格納すればよい。
In addition, in the embodiment of the present invention described above, two video signals a
, b has been considered, but the present invention can also be applied to a case where three or more video signals are input. In this case, only one video signal may be stored in the line memory, and the other two or more video signals may be stored in the frame memory.

〔発明の効果〕〔Effect of the invention〕

上述したように、本発明によれば、ラインメモリによっ
て同一ラインに対応した画像データの書き込み及び読み
出しを行うと共にこのラインに対応したフレームメモリ
の格納データの読み出しを行うことにより、2つの画像
データの合成をラインメモリとフレームメモリによって
実現してメモリ容量を削減することができるので、実用
的には極めて有用である。
As described above, according to the present invention, by writing and reading image data corresponding to the same line using the line memory and reading data stored in the frame memory corresponding to this line, two pieces of image data can be read. This is extremely useful in practice, since it is possible to reduce memory capacity by realizing synthesis using line memory and frame memory.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の画像合成方式の原理ブロック図、第2
図は本発明の一実施例の構成図、 第3図及び第4図は一実施例の動作タイミングの説明図
、 第5図は一実施例の適用例の構成図、 第6図は画像合成の概略を示す図、 第7図は従来例の構成図である。 図において、 111はラインメモリ、 121はフレームメモリ、 131は合成手段、 211は合成制御部、 221.261は分離回路、 231.271は位相同期ループ(PLL)241.2
43.245はラインメモリ、281.283,285
はフレームメモリ、291は合成部、 511は表示制御部、 513はキャラクタ生成部、 515はグラフィック生成部、 521は表示部である。 Δ≦/S日月句ふ捏ブ尻り図 第1図 ライ/〆乞ν クイ7メモリ フレーム7番ν (aン (b) Tクイミ/り゛の處り明月 3図
Figure 1 is a principle block diagram of the image synthesis method of the present invention, Figure 2
The figure is a block diagram of an embodiment of the present invention, Figures 3 and 4 are explanatory diagrams of the operation timing of the embodiment, Figure 5 is a block diagram of an application example of the embodiment, and Figure 6 is image synthesis. FIG. 7 is a configuration diagram of a conventional example. In the figure, 111 is a line memory, 121 is a frame memory, 131 is a combining means, 211 is a combining control unit, 221.261 is a separation circuit, 231.271 is a phase locked loop (PLL) 241.2
43.245 is line memory, 281.283,285
291 is a frame memory, 291 is a synthesis section, 511 is a display control section, 513 is a character generation section, 515 is a graphic generation section, and 521 is a display section. Δ≦/S Sun/Moon phrase Fabrication diagram Figure 1 Lie/End ν Kui 7 Memory frame No. 7 ν (a an (b)

Claims (1)

【特許請求の範囲】[Claims] (1)第1の水平、垂直同期信号H1、V1に同期した
第1の画像データが入力され、この画像データの1ライ
ン分を前記第1の水平同期信号H1に同期して格納する
と共に、この格納した画像データを前記第1の水平同期
信号H1に同期して出力するラインメモリ(111)と
、 第2の水平、垂直同期信号H2、V2に同期した第2の
画像データが入力され、この画像データの1画面分を前
記第2の水平、垂直同期信号H2、V2に同期して格納
すると共に、この格納した画像データを前記第1の水平
、垂直同期信号H1、V1に同期して出力するフレーム
メモリ(121)と、 前記ラインメモリ(111)及び前記フレームメモリ(
121)から出力された前記第1及び第2の画像データ
が入力され、画像データの合成を行う合成手段(131
)と、 を備えるように構成したことを特徴とする画像合成方式
(1) First image data synchronized with the first horizontal and vertical synchronization signals H1 and V1 is input, and one line of this image data is stored in synchronization with the first horizontal synchronization signal H1, A line memory (111) that outputs the stored image data in synchronization with the first horizontal synchronization signal H1, and second image data synchronized with the second horizontal and vertical synchronization signals H2 and V2 are input, This image data for one screen is stored in synchronization with the second horizontal and vertical synchronization signals H2 and V2, and the stored image data is also stored in synchronization with the first horizontal and vertical synchronization signals H1 and V1. A frame memory (121) to output, the line memory (111) and the frame memory (
The first and second image data outputted from 121) are input to a compositing means (131) for composing the image data.
), and an image composition method characterized by comprising:
JP2061602A 1990-03-13 1990-03-13 Image composition system Pending JPH03261992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2061602A JPH03261992A (en) 1990-03-13 1990-03-13 Image composition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2061602A JPH03261992A (en) 1990-03-13 1990-03-13 Image composition system

Publications (1)

Publication Number Publication Date
JPH03261992A true JPH03261992A (en) 1991-11-21

Family

ID=13175880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2061602A Pending JPH03261992A (en) 1990-03-13 1990-03-13 Image composition system

Country Status (1)

Country Link
JP (1) JPH03261992A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217062A (en) * 2010-03-31 2011-10-27 Sony Corp Camera system, signal delay amount adjusting method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269194A (en) * 1986-05-16 1987-11-21 松下電器産業株式会社 Image display unit
JPH01175374A (en) * 1987-12-29 1989-07-11 Fujitsu Ltd Linkage display system for image information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269194A (en) * 1986-05-16 1987-11-21 松下電器産業株式会社 Image display unit
JPH01175374A (en) * 1987-12-29 1989-07-11 Fujitsu Ltd Linkage display system for image information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217062A (en) * 2010-03-31 2011-10-27 Sony Corp Camera system, signal delay amount adjusting method and program

Similar Documents

Publication Publication Date Title
JPH0934426A (en) Image display method
JPH08241070A (en) Selected information protective device in multimedia workstation
JPS62142476A (en) Television receiver
JPH0191576A (en) Time expanded video signal generator
WO2004090860A1 (en) Video combining circuit
US6552750B1 (en) Apparatus for improving the presentation of graphics data on a television display
US6008854A (en) Reduced video signal processing circuit
JPH03261992A (en) Image composition system
JPH0359696A (en) Composing device for image signal
JPS62208766A (en) Video synthesizer
JP2878400B2 (en) Multi-window display device
JP3295036B2 (en) Multi-screen display device
JPH03286271A (en) Picture display device
JPS62239672A (en) Display method
JP3217820B2 (en) Video synthesizing method and external synchronous display device
JPH0470797A (en) Image signal composition device
JP2989057B2 (en) Character / graphic superimposition video system
JPH01276331A (en) Video synthesizing device
JPS622292A (en) Image display unit
JPH07225562A (en) Scan converter
JPH08317310A (en) Window frame synthesizing circuit
JPH1188826A (en) Picture compositing device
JPH10257450A (en) Method and device for multiplexing video signals
JP2692593B2 (en) Color image signal processor
JP2000250512A (en) Display device and image data composing method