JP2001285749A - Image synthesizer, recording medium and program - Google Patents

Image synthesizer, recording medium and program

Info

Publication number
JP2001285749A
JP2001285749A JP2001016409A JP2001016409A JP2001285749A JP 2001285749 A JP2001285749 A JP 2001285749A JP 2001016409 A JP2001016409 A JP 2001016409A JP 2001016409 A JP2001016409 A JP 2001016409A JP 2001285749 A JP2001285749 A JP 2001285749A
Authority
JP
Japan
Prior art keywords
image
synthesizing
unit
synthesis
frame buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001016409A
Other languages
Japanese (ja)
Inventor
Yasushi Waki
康 脇
Ryuichi Shiomi
隆一 塩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001016409A priority Critical patent/JP2001285749A/en
Publication of JP2001285749A publication Critical patent/JP2001285749A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image synthesizer or the like for synthesizing plural moving images and still images at a high speed. SOLUTION: In this image synthesizer 100 for synthesizing the moving image and the plural still images and generating synthetic images, an EPG generation part 103 acquires synthesis information including an image synthesis order for obtaining the synthesis ratio of the respective images before synthesis to the synthetic image and the plural still images and stores them in an image holding part 104. A first synthesis part 108 generates one synthetic still image by synthesizing the plural still images on the basis of the synthesis information and stores it in an OSD plane 107, and a second synthesis part obtains the synthesis ratio of the moving image to the synthetic image on the basis of the synthesis information. A video reproducing part 105 stores the respective frames of the moving image in a video plane 106 and a third synthesis part 110 synthesizes the synthetic still image and the respective frames of the moving image and outputs them to an output part 111.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の画像を合成
する画像表示装置、記録媒体及びプログラムに関し、特
に動画像と静止画像とを複数枚合成する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device, a recording medium and a program for synthesizing a plurality of images, and more particularly to a technique for synthesizing a plurality of moving images and still images.

【0002】[0002]

【従来の技術】近年、ディジタル放送が開始され、ディ
ジタルテレビにおいては、放送局より放送されるデータ
に基づいて静止画像を生成し、これと放送番組の動画像
とを重ね合わせて表示する技術が実現されている。ディ
ジタルテレビは、この技術を実現する機構としてその内
部に画像合成装置を備える。
2. Description of the Related Art In recent years, digital broadcasting has been started. In digital television, a technology for generating a still image based on data broadcasted from a broadcasting station and superimposing the still image on a moving image of a broadcast program is displayed. Has been realized. The digital television includes an image synthesizing device as a mechanism for realizing this technology.

【0003】画像合成装置は、画像Fと画像Gについて、
画像Fの画素f(x,y)とこの画素に対応する画像G中の画素
g(x,y)とを用いて所定の画素間演算を行って画素h(x,y)
をもつ画像Hを出力する。この画素間演算の手法の1つ
にα合成演算がある。α合成演算は、画素f(x,y)と画素
g(x,y)との加重平均を画素h(x,y)とする演算であり、画
素g(x,y)に対する重み係数をαとするとき、
[0003] The image synthesizing apparatus, for the image F and the image G,
Pixel f (x, y) of image F and corresponding pixel in image G
g (x, y) to perform a predetermined inter-pixel operation using pixel h (x, y)
Output the image H with. One of the methods of this inter-pixel operation is an α-combining operation. The α synthesis operation is performed for the pixel f (x, y) and the pixel
g (x, y) is an operation to calculate the weighted average with the pixel h (x, y), and when the weight coefficient for the pixel g (x, y) is α,

【0004】[0004]

【数1】 (Equation 1)

【0005】と表される。(数1)において‘*’は積
を表す。重み係数αは、α値、透明度、又はブレンディ
ング係数等と呼ばれ、0〜1の値をとる。α値が0のとき
画素g(x,y)は完全に透明になり画素f(x,y)がそのまま合
成結果の画素hとなる。またα値が1のとき画素g(x,y)は
完全に不透明となり、画素g(x,y)がそのまま合成結果の
画素h(x,y)となる。またα値が0.5のとき、画素h(x,y)
は画素g(x,y)と画素f(x,y)とがそれぞれ半分ずつの割合
で混合された値となる。このようにα値の加減により、
画像の重なりを表現することができる。実際のハードウ
ェア構成においては各画素をカラー表示のRGB(赤緑
青)成分で表したものを扱うので、成分毎に上式の演算
を行う。
[0005] In (Equation 1), '*' represents a product. The weighting coefficient α is called an α value, transparency, or a blending coefficient, and takes a value of 0 to 1. When the α value is 0, the pixel g (x, y) becomes completely transparent, and the pixel f (x, y) becomes the pixel h as a synthesis result as it is. When the α value is 1, the pixel g (x, y) becomes completely opaque, and the pixel g (x, y) becomes a pixel h (x, y) as a synthesis result as it is. When the α value is 0.5, the pixel h (x, y)
Is a value obtained by mixing the pixel g (x, y) and the pixel f (x, y) at a ratio of half each. Thus, by adjusting the α value,
The overlapping of images can be expressed. In an actual hardware configuration, each pixel is represented by an RGB (red-green-blue) component for color display, so the above equation is performed for each component.

【0006】画像合成装置は、静止画像と動画像とをリ
アルタイムに合成するために、静止画像を展開するため
のメモリ領域であるOSDプレーンと、動画像をフレーム
単位に展開するためのメモリ領域であるビデオプレーン
とを有し、ビデオプレーンのフレームが更新されるたび
にこれら2つの領域の画像をα合成演算により合成して
出力する。図31(a)は、OSDプレーン2502とビデオプレ
ーン2501の画像が合成されて合成画像2503が出力される
様子を表す概念図である。
The image synthesizing apparatus includes an OSD plane as a memory area for expanding a still image and a memory area for expanding a moving image in units of frames in order to synthesize a still image and a moving image in real time. Each time a frame of the video plane is updated, an image of these two areas is synthesized and output by an α synthesis operation. FIG. 31A is a conceptual diagram illustrating a state in which images of the OSD plane 2502 and the video plane 2501 are combined and a combined image 2503 is output.

【0007】[0007]

【発明が解決しようとする課題】ところで最近のディジ
タル放送においては、例えば図31(b)のように、放送番
組である動画像2512を再生しつつ、その同一画面上で放
送番組のタイトルやテレビ欄等の複数の静止画像2511、
2513、2514、2515を重ね合わせて表示するといった、よ
り多彩な表現が求められている。
In recent digital broadcasting, for example, as shown in FIG. 31 (b), while reproducing a moving image 2512 as a broadcast program, the title of the broadcast program and the television program are displayed on the same screen. A plurality of still images 2511 such as columns,
More diverse expressions are required, such as superimposing and displaying 2513, 2514, and 2515.

【0008】動画像と複数の静止画像を合成するには、
理論上は、下位層から順番に(数1)のα合成演算を行
えばよい。しかし現実には、複数の画像の合成にかかる
α合成演算の演算量は膨大であるので、動画像のフレー
ムが更新されるたびにリアルタイムに合成を行うことは
極めて困難である。各画像に対応するプレーンと、α合
成演算を行う複数のハードウェアを用意することで合成
処理を高速にすることもできるが、ハードウェアのコス
トがかかり、また、画像展開用の多くのプレーンが必要
になるという問題がある。
To combine a moving image and a plurality of still images,
Theoretically, the α-combining operation of (Equation 1) may be performed sequentially from the lower layer. However, in reality, the amount of calculation of the α combining operation for combining a plurality of images is enormous, and it is extremely difficult to perform real-time combining every time a frame of a moving image is updated. By preparing a plane corresponding to each image and a plurality of hardware that performs the α synthesis operation, the synthesis processing can be performed at high speed. However, hardware costs are increased, and many planes for image development are used. There is a problem that it becomes necessary.

【0009】上記目的を達成するため、本発明は、動画
像の再生レートに合わせてリアルタイムに合成する、す
なわち合成処理を高速に行う画像合成装置、記録媒体及
びプログラムを提供することを第1の目的とする。また
本発明は、画像展開用のメモリを少なくした画像合成装
置、記録媒体及びプログラムを提供することを第2の目
的とする。
In order to achieve the above object, the present invention provides an image synthesizing apparatus, a recording medium, and a program for synthesizing in real time in accordance with a reproduction rate of a moving image, that is, for performing a synthesizing process at high speed. Aim. A second object of the present invention is to provide an image synthesizing apparatus, a recording medium, and a program in which the memory for image expansion is reduced.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するた
め、本発明の画像合成装置は、動画像と複数の静止画像
とを合成して合成画像を生成する画像合成装置であっ
て、画像合成順序を含む合成情報であって、前記合成画
像に対する合成前の各画像の合成比率を求めるための前
記合成情報と前記複数の静止画像とを取得する第1取得
手段と、前記合成情報に基づいて前記複数の静止画像を
合成して1つの合成静止画像を生成する第1合成手段
と、前記合成情報に基づいて前記合成画像に対する前記
動画像の合成比率を求める算出手段と、前記動画像を構
成する各フレームを取得する第2取得手段と、前記動画
像の合成比率を用いて前記各フレームと前記合成静止画
像とを合成する第2合成手段とを備えることを特徴とす
る。
In order to achieve the above object, an image synthesizing apparatus according to the present invention is an image synthesizing apparatus for synthesizing a moving image and a plurality of still images to generate a synthetic image. First obtaining means for obtaining the synthesis information and the plurality of still images for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image, the synthesis information including an order, and based on the synthesis information. A first combining unit that combines the plurality of still images to generate one combined still image; a calculating unit that determines a combining ratio of the moving image to the combined image based on the combining information; And a second synthesizing unit for synthesizing each of the frames and the synthesized still image using a synthesizing ratio of the moving image.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を用いて説明する。 <実施形態1> <構成>図1は、本発明の実施形態1に係る画像合成装置
の構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings. First Embodiment <Configuration> FIG. 1 is a block diagram showing a configuration of an image synthesizing apparatus according to a first embodiment of the present invention.

【0012】同図において画像合成装置100は、入力部1
01、制御部102、EPG生成部103、画像保持部104、ビデオ
再生部105、ビデオプレーン106、OSDプレーン107、第1
合成部108、第2合成部109、第3合成部110、出力部111か
ら構成される。入力部101は、リモートコントローラや
フロントパネルボタン等を有し、これらが操作されるこ
とによりユーザからの指示を受付ける。具体的な指示と
しては、画像合成装置100のオン/オフ指示、チャンネ
ル切替え指示、EPG(ElectronicProgram Guide、電子番
組ガイド)表示のオン/オフ指示等がある。ここで画像
合成装置100のオン/オフ指示とは、オンのとき画像合
成装置100の電源投入、オフのとき電源切断を示し、EPG
表示のオン/オフとは、オンのときEPG画面の表示、オ
フのときEPG画面の非表示を示す。
In FIG. 1, an image synthesizing apparatus 100 includes an input unit 1.
01, control unit 102, EPG generation unit 103, image holding unit 104, video playback unit 105, video plane 106, OSD plane 107, first
It comprises a combining unit 108, a second combining unit 109, a third combining unit 110, and an output unit 111. The input unit 101 has a remote controller, front panel buttons, and the like, and receives instructions from the user when these are operated. Specific instructions include an on / off instruction for the image synthesizing apparatus 100, a channel switching instruction, and an on / off instruction for EPG (Electronic Program Guide) display. Here, the on / off instruction of the image synthesizing apparatus 100 indicates that the power of the image synthesizing apparatus 100 is turned on when it is on, and that the power is turned off when it is off.
The display on / off indicates that the EPG screen is displayed when the display is on, and the EPG screen is not displayed when the display is off.

【0013】ここでEPGとは、テレビ画面に放送番組の
番組表や放送番組の内容に関する情報等を表示するシス
テムである。EPG表示とは、番組表等がテレビ画面に表
示されている状態をいう。EPGの応用例として、例えば
ユーザは、EPG表示画面上で番組のジャンルや出演者名
による検索を行ったり、またEPG対応のビデオデッキに
より簡単に録画予約を行うこともできる。
The EPG is a system for displaying a program table of a broadcast program, information on the contents of the broadcast program, and the like on a television screen. The EPG display means a state in which a program guide or the like is displayed on a television screen. As an application example of the EPG, for example, a user can perform a search by a program genre or a performer name on an EPG display screen, or can easily make a recording reservation using a video deck compatible with the EPG.

【0014】画像合成装置100は、EPG表示がオンのと
き、一例として図2(a)に示す合成画像201を表示する。
図2(a)の合成画像201は、図2(b)に示すように、コンポ
ーネント202、203、204から構成される。コンポーネン
ト202は、番組表を表す静止画像であり、コンポーネン
ト203は、1つのチャンネルの放送番組の内容そのもの
を表す動画像であり、コンポーネント204は、コンポー
ネント203の番組名を表す静止画像である。コンポーネ
ント202及び204は、放送局より送信されるEPG情報に基
づいてEPG生成部103により生成される。
When the EPG display is on, the image synthesizing apparatus 100 displays a synthetic image 201 shown in FIG. 2A as an example.
The composite image 201 in FIG. 2A includes components 202, 203, and 204, as shown in FIG. The component 202 is a still image representing a program table, the component 203 is a moving image representing the content itself of a broadcast program of one channel, and the component 204 is a still image representing the program name of the component 203. The components 202 and 204 are generated by the EPG generation unit 103 based on the EPG information transmitted from the broadcasting station.

【0015】このように画像合成装置100は、EPG表示が
オンの間、コンポーネント202を表示し、コンポーネン
ト202の右下の位置にコンポーネント203を数十フレーム
毎秒のレートで表示し、コンポーネント203の左上の位
置にコンポーネント204を表示する。このように本実施
形態の画像合成装置100は、複数の静止画像と1つの動
画像とからなる複数のコンポーネントを組み合わせた合
成画像を生成して表示する機能を持つ。
As described above, the image synthesizing apparatus 100 displays the component 202 while the EPG display is on, displays the component 203 at a lower right position of the component 202 at a rate of several tens of frames per second, and Is displayed at the position of. As described above, the image synthesizing apparatus 100 of the present embodiment has a function of generating and displaying a synthesized image in which a plurality of components including a plurality of still images and one moving image are combined.

【0016】以後、必要に応じて図2(a)(b)を使っ
て説明するものとする。なお、静止画像コンポーネント
及び動画像コンポーネントは、特に区別する必要がない
場合には、単にコンポーネントと呼ぶこととする。制御
部102は、画像合成装置100の構成要素全てを制御する。
より具体的には、画像合成装置100のオンが指示される
と、ビデオ再生部105に放送番組を再生させる。チャン
ネル切替えが指示されると、ビデオ再生部105に現在再
生中のものとは別の放送番組を再生させる。EPG表示の
オンが指示されると、EPG生成部103、ビデオ再生部10
5、第1合成部108、第2合成部109及び第3合成部110等を
制御して合成画像201を生成させる。このEPG表示に関す
る処理については後述する。
Hereinafter, description will be made with reference to FIGS. 2A and 2B as needed. In addition, a still image component and a moving image component will be simply referred to as components unless it is necessary to distinguish them. The control unit 102 controls all the components of the image composition device 100.
More specifically, when the image synthesizing apparatus 100 is instructed to be turned on, the video reproducing unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 105 reproduces a broadcast program different from the one currently being reproduced. When instructed to turn on the EPG display, the EPG generation unit 103 and the video playback unit 10
5. Control the first combining unit 108, the second combining unit 109, the third combining unit 110, and the like to generate the combined image 201. The processing related to the EPG display will be described later.

【0017】EPG生成部103は、放送局より放送されるEP
G情報を取得して保持する。EPG情報は、コンポーネント
の表示サイズ、表示位置、コンポーネントの重ね合わせ
順序等のレイアウト情報及び静止画像コンポーネントの
静止画像情報等を含む。静止画像情報は、静止画像コン
ポーネントの画像内容に相当し、テキストやグラフィッ
クスデータ等を含む。EPG生成部103は、EPG情報に基づ
いて複数の画像ファイルと1つのインデックスファイル
とを生成し、画像保持部104に格納する。さらにEPG生成
部103は、EPG情報からEPG表示画面を構成する動画像の
コンポーネントの表示サイズ及び表示位置を抽出し、ビ
デオ再生部105に出力する。
[0017] The EPG generation unit 103 outputs an EP broadcast from a broadcast station.
Acquire and retain G information. The EPG information includes layout information such as the display size and display position of the component, the order of overlapping the components, and still image information of the still image component. The still image information corresponds to the image content of the still image component, and includes text, graphics data, and the like. The EPG generation unit 103 generates a plurality of image files and one index file based on the EPG information, and stores them in the image holding unit 104. Further, the EPG generation unit 103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs the same to the video reproduction unit 105.

【0018】画像ファイルは、図2(b)のコンポーネント
202、203、204に対応し、コンポーネントの表示サイ
ズ、表示位置及び画像データから構成される。静止画像
コンポーネントの場合、画像データは、静止画像情報に
基づいて生成される。インデックスファイルは、複数の
画像ファイルを管理するためのもので、複数の画像情報
から構成される。1つの画像情報が1つの画像ファイル
に対応している。複数の画像情報は、インデックスファ
イル内において図2(a)のコンポーネントの重ね合わせ順
序と同じ順序に配列される。画像情報は、画像種別と格
納位置とから構成される。画像種別は、画像ファイルの
画像が静止画像であるか動画像であるかを示す。格納位
置は、画像保持部104における画像ファイルの先頭の位
置を示す。
The image file is composed of the components shown in FIG.
It corresponds to 202, 203, and 204, and is composed of the display size, display position, and image data of the component. In the case of a still image component, image data is generated based on still image information. The index file is for managing a plurality of image files and includes a plurality of pieces of image information. One piece of image information corresponds to one image file. The plurality of pieces of image information are arranged in the index file in the same order as the overlapping order of the components in FIG. The image information includes an image type and a storage position. The image type indicates whether the image of the image file is a still image or a moving image. The storage position indicates the position of the head of the image file in the image holding unit 104.

【0019】次に、図3及び図4を用いて画像ファイル及
びインデックスファイルの具体例を示す。図3は、画像
ファイルの構造を説明するための図である。同図の画像
ファイル301は、1行目が表示位置、2行目が表示サイ
ズ、3行目以降が画像データを示す。画像データは、コ
ンポーネントの全ピクセルに対応するピクセルデータの
集合からなり、ピクセルデータは、ピクセルの色を示す
RGB成分及びピクセルの透明度を表すα値から構成され
る。すなわちα値は、最背面の画像から当該画像までの
合成結果に対する当該画像の合成比率を表す。画像ファ
イル301の左側に表記されている格納位置302は、画像フ
ァイル301の先頭位置を「0000」とした場合を基準とす
る各データの格納位置を示す。
Next, specific examples of the image file and the index file will be described with reference to FIGS. FIG. 3 is a diagram for explaining the structure of an image file. In the image file 301 shown in the figure, the first line indicates the display position, the second line indicates the display size, and the third and subsequent lines indicate the image data. The image data is composed of a set of pixel data corresponding to all the pixels of the component, and the pixel data indicates a color of the pixel.
It is composed of an RGB value and an α value representing the transparency of the pixel. That is, the α value indicates a composition ratio of the image to the composition result from the rearmost image to the image. The storage position 302 described on the left side of the image file 301 indicates the storage position of each data based on the case where the start position of the image file 301 is “0000”.

【0020】画像ファイル301において、3行目は座標位
置(0,0)のピクセルに対応するピクセルデータ、4行目は
座標位置(1,0)のピクセルに対応するピクセルデータ、5
行目は座標位置(2,0)のピクセルに対応するピクセルデ
ータである。ここにおいて座標位置(0,0)は、当該コン
ポーネントの左上隅の座標位置を指す。このようにピク
セルデータは、コンポーネントの左から右、上から下の
順にピクセルと対応する。
In the image file 301, the third line is pixel data corresponding to the pixel at the coordinate position (0,0), the fourth line is the pixel data corresponding to the pixel at the coordinate position (1,0),
The row is pixel data corresponding to the pixel at the coordinate position (2,0). Here, the coordinate position (0,0) indicates the coordinate position of the upper left corner of the component. As described above, the pixel data corresponds to pixels in order from left to right and from top to bottom of the component.

【0021】表示位置は、合成画像201上でのコンポー
ネントの座標位置であり、合成画像201の左上隅を原点
として、コンポーネントの左上隅のX,Y座標で表され
る。表示サイズは、コンポーネントの矩形の高さH及び
幅Wとからなり、高さH及び幅Wはピクセル単位で表され
る。RGB成分はそれぞれ0〜255の値をとり、3つの成分が
いずれも0の場合はそのピクセルの色は黒になり、いず
れも255の場合は白になる。
The display position is the coordinate position of the component on the composite image 201, and is represented by the X and Y coordinates of the upper left corner of the component with the origin at the upper left corner of the composite image 201. The display size is made up of the height H and width W of the rectangle of the component, and the height H and width W are expressed in pixel units. Each of the RGB components takes a value from 0 to 255. When all three components are 0, the color of the pixel is black, and when all three are 255, the pixel is white.

【0022】α値は、0〜255の値をとり、そのピクセル
を他のピクセルの上に重ね合わせる場合の透明度、つま
り下位層のピクセルがどのくらいの割合で上位層のピク
セルを透過するかを表す。より具体的には、ピクセルB
に対してピクセルAをα値で合成する場合、合成結果の
ピクセルCは、C=(αA+(255-α)B)/255となる。α値は0
〜255の値をとり、α値が0の場合ピクセルAは透明とな
り、ピクセルBを100%透過する。またα値が255のとき
ピクセルAは不透明となり、ピクセルBを透過せず、ピク
セルAの100%の塗つぶしとなる。またα値が128の場合ピ
クセルAはピクセルBを約50%透過し、すなわちピクセルA
とピクセルBとが約50%ずつ混合された色となる。
The α value takes a value from 0 to 255, and represents the transparency when the pixel is superimposed on another pixel, that is, how much the pixel in the lower layer transmits through the pixel in the upper layer. . More specifically, pixel B
When the pixel A is synthesized with the α value, the pixel C of the synthesis result is C = (αA + (255−α) B) / 255. α value is 0
The value of ~ 255, and if the α value is 0, pixel A is transparent and 100% transparent to pixel B. When the α value is 255, pixel A is opaque, does not transmit pixel B, and is 100% of pixel A. When the α value is 128, pixel A transmits pixel B approximately 50%, that is, pixel A
And the pixel B are mixed by about 50%.

【0023】実際にはピクセルA、B及びCはRGB成分で表
され、成分別に合成結果が算出される。EPG生成部103
は、コンポーネント202、203、204それぞれの画像ファ
イルのα値を次のようにセットするものとする。すなわ
ちEPG生成部103は、コンポーネント202における全ピク
セルのα値を255にセットする。これはコンポーネント2
02が合成画像201において最下位層のコンポーネントだ
からである。またEPG生成部103は、コンポーネント203
における全ピクセルのα値を192にセットする。またコ
ンポーネント204のα値については、文字部分には255を
セットし、それ以外の部分は64にセットする。
In practice, the pixels A, B and C are represented by RGB components, and the composition result is calculated for each component. EPG generator 103
Sets the α value of the image file of each of the components 202, 203, and 204 as follows. That is, the EPG generation unit 103 sets the α values of all pixels in the component 202 to 255. This is component 2
This is because 02 is the lowest layer component in the composite image 201. In addition, the EPG generation unit 103
Is set to 192 for all pixels at. As for the α value of the component 204, 255 is set for the character portion, and 64 for the other portions.

【0024】なお、RGB成分及びα値の値の詳細な決定
方法等については、公知技術であり本発明の特徴部分で
はないので説明を省略する。図3に画像データの内容と
1つのコンポーネントとの対応関係を示す。同図に示す
ように、コンポーネント303の左上を開始点として左か
ら右に、かつ上から下に1ピクセルずつピクセルデータ
と対応する。
The method of determining the RGB component and the value of the α value in detail is a well-known technique and is not a characteristic part of the present invention, so that the description is omitted. FIG. 3 shows the correspondence between the content of the image data and one component. As shown in the drawing, starting from the upper left of the component 303, it corresponds to pixel data from left to right and from top to bottom one pixel at a time.

【0025】EPG生成部103は、以上に示す画像ファイル
を生成する。ただし、動画像のコンポーネントについて
は、全RGB成分に0をセットして画像ファイルを生成す
る。つまりEPG生成部103は、動画像コンポーネントの画
像ファイルについては、表示位置、表示サイズ及びα値
を確定し、RGB成分については未確定のままにした画像
ファイルを生成する。これは動画像のコンポーネント
は、放送番組に相当し、放送局よりリアルタイムに送ら
れてくるものなので、画像ファイル生成時にはRGB成分
が確定しないからである。動画像のコンポーネントに対
する画像ファイルのRGB成分は、後述するビデオ再生部1
05により確定される。
The EPG generator 103 generates the image file described above. However, for the components of the moving image, an image file is generated by setting all RGB components to 0. That is, the EPG generation unit 103 determines the display position, the display size, and the α value for the image file of the moving image component, and generates an image file in which the RGB components are not determined. This is because the components of a moving image correspond to a broadcast program and are transmitted in real time from a broadcasting station, so that the RGB components are not determined when an image file is generated. The RGB components of the image file corresponding to the components of the video are
Determined by 05.

【0026】図4は、インデックスファイルの一例を示
す。同図のインデックスファイル410は、画像情報421、
422及び423から構成され、同順に重ね合わせ順序を表
す。すなわち画像情報421は図2(b)に示す最下位層の
コンポーネント202に対応し、画像情報422はその次の層
のコンポーネント203に対応し、画像情報423は最上位層
のコンポーネント204に対応する。列411側の値は、コン
ポーネントの画像種別を示し、「0」が静止画像、「1」
が動画像を示す。列412側の値は、画像ファイルの格納
位置を示す。
FIG. 4 shows an example of the index file. The index file 410 in FIG.
422 and 423, and represent the overlapping order in the same order. That is, the image information 421 corresponds to the component 202 of the lowest layer shown in FIG. 2B, the image information 422 corresponds to the component 203 of the next layer, and the image information 423 corresponds to the component 204 of the highest layer. . The value in the column 411 indicates the image type of the component, “0” is a still image, “1”
Indicates a moving image. The value in column 412 indicates the storage location of the image file.

【0027】また画像430、440、450は、それぞれコン
ポーネント202、203、204に対応し、それぞれの画像フ
ァイル中の画像データをイメージ的に示したものであ
る。ここにおいて画像440は、コンポーネント203に対応
する画像データの全てのRGB成分が0であることを示して
いる。画像保持部104は、メモリやハードディスク等で
構成され、EPG生成部103が生成した画像ファイル及びイ
ンデックスファイルを保持する。
The images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and represent the image data in the respective image files. Here, the image 440 indicates that all the RGB components of the image data corresponding to the component 203 are 0. The image holding unit 104 includes a memory, a hard disk, and the like, and holds the image file and the index file generated by the EPG generation unit 103.

【0028】ビデオ再生部105は、放送局からの放送番
組を受信して復号等を行って、数十フレーム/秒の動画
像を再生し、その動画像データをビデオプレーン106に
逐次格納する。格納の際、ビデオ再生部105は、EPG再生
部103より入力される表示位置及び表示サイズに基づい
て合成画像201に対する映像のレイアウトを確定し、ビ
デオプレーン106上の当該配置に対応する領域に映像の
R、G、B成分を格納する。
The video reproducing unit 105 receives and decodes a broadcast program from a broadcast station, reproduces a moving image of several tens of frames / second, and sequentially stores the moving image data in the video plane 106. At the time of storage, the video playback unit 105 determines the layout of the video for the composite image 201 based on the display position and the display size input from the EPG playback unit 103, and stores the video in an area on the video plane 106 corresponding to the layout. of
Stores R, G, B components.

【0029】ビデオプレーン106は、メモリ等で構成さ
れ、ビデオ再生部105より格納される動画像データと、
後述の第2合成部109より格納される合成α値とを保持す
る。合成α値は、複数のピクセルどうしを重ね合わせ合
成する場合における、全体のピクセルの中での1つのピ
クセルの透明度を表し、各ピクセルのα値を用いて算出
される。つまり、ビデオ再生部105が保持する合成α値
は、すべてのコンポーネントを重ね合わせ合成する場合
における、重ね合わせる全ピクセルの中での動画像コン
ポーネントのピクセルの透明度を表す。
The video plane 106 is composed of a memory or the like, and includes moving image data stored by the video reproducing unit 105,
It holds the combined α value stored by the second combining unit 109 described later. The composite α value represents the transparency of one pixel among all pixels when a plurality of pixels are overlapped and composited, and is calculated using the α value of each pixel. That is, the composite α value held by the video reproduction unit 105 represents the transparency of the pixels of the moving image component among all the pixels to be superimposed when all the components are superimposed and synthesized.

【0030】図5は、動画像データの構造を示す。同図
に示すように、動画像データ501は、ピクセルデータの
集合であり、ピクセルデータは、RGB成分と合成α値と
からなる。画像502は、ピクセルデータと画面上のピク
セル位置との対応関係を示すための図である。図6は、
動画像データ501のピクセルデータをイメージ的に示
す。同図に示すように動画像データ501に相当する画像6
00は、コンポーネント203に対応する領域601と、それ以
外の領域602とから構成される。画像600は、合成画像20
1と同じ高さ及び幅を持つ。ビデオプレーン106は、領域
601のRGB成分をビデオ再生部105から与えられ、合成α
値を第2合成部109より与えられる。またビデオプレーン
106は、領域602のRGB成分及び合成α値として予め0を保
持する。領域601のRGB成分は、ビデオ再生部105の再生
レートにあわせて数十フレーム/秒で更新される。
FIG. 5 shows the structure of moving image data. As shown in the figure, the moving image data 501 is a set of pixel data, and the pixel data includes an RGB component and a combined α value. An image 502 is a diagram for illustrating a correspondence relationship between pixel data and a pixel position on a screen. FIG.
The pixel data of the moving image data 501 is shown as an image. As shown in the figure, an image 6 corresponding to the moving image data 501
00 includes an area 601 corresponding to the component 203 and an area 602 other than the area 601. Image 600 is composite image 20
Has the same height and width as 1. The video plane 106 is
The RGB component of 601 is given from the video playback unit 105,
The value is given from the second combining unit 109. Also video plane
106 holds 0 in advance as the RGB components and the combined α value of the area 602. The RGB components of the area 601 are updated at several tens of frames / second in accordance with the playback rate of the video playback unit 105.

【0031】OSDプレーン107は、メモリ等で構成され、
第1合成部108により出力される第1合成画像データを保
持する。図7は、第1合成画像データのデータ構造を示
す。第1合成画像データ701は、RGB成分の集合からな
り、コンポーネント202と204とが合成された結果、すな
わち、静止画のコンポーネントどうしが合成された結果
に相当する。合成については後述する。
The OSD plane 107 is composed of a memory or the like,
The first synthesis image data output by the first synthesis unit 108 is held. FIG. 7 shows the data structure of the first combined image data. The first combined image data 701 is composed of a set of RGB components, and corresponds to a result of combining the components 202 and 204, that is, a result of combining still image components. The composition will be described later.

【0032】画像702は、第1合成画像データ701のRGB成
分と、画面上のピクセル位置との対応関係を示す。同図
の通り、第1合成画像データ701のRGB成分は、画像702の
左から右、かつ上から下の方向に順に配列される。画像
702は、合成画像201と同じピクセル単位の高さ及び幅を
持つ。第1合成部108は、画像保持部104に保持されてい
る複数の画像ファイルの画像データを合成して第1合成
画像データを生成しOSDプレーン107に格納する。この処
理を第1合成処理と呼ぶ。
An image 702 shows the correspondence between the RGB components of the first combined image data 701 and the pixel positions on the screen. As shown in the figure, the RGB components of the first combined image data 701 are arranged in order from left to right and from top to bottom of the image 702. image
702 has the same height and width in pixel units as the composite image 201. The first combining unit 108 combines the image data of the plurality of image files held in the image holding unit 104 to generate first combined image data, and stores the first combined image data in the OSD plane 107. This processing is referred to as first synthesis processing.

【0033】図8は、第1合成処理の処理手順を示すフロ
ーチャートである。まず、第1合成部108は、OSDプレー
ン107を初期化する(ステップS800)。具体的には、OSD
プレーン107のRGB成分の領域をすべて0にセットする。
次に、第1合成部108は、ステップS801〜S807の処理を繰
り返して、下位層から上位層のコンポーネントへと順番
に、静止画像のコンポーネントどうしを合成する処理を
行う。
FIG. 8 is a flowchart showing the procedure of the first synthesizing process. First, the first combining unit 108 initializes the OSD plane 107 (Step S800). Specifically, OSD
All the RGB component areas of the plane 107 are set to 0.
Next, the first combining unit 108 repeats the processing of steps S801 to S807, and performs processing of combining the components of the still image in order from the lower layer to the component of the upper layer.

【0034】まず第1合成部108は、画像保持部104のイ
ンデックスファイルから画像情報iを読み出す(ステッ
プS801)。ここでiは、本フローチャートにおいて便宜
的に下位層から上位層のコンポーネントへと順番に0,1,
2,...というように昇順にコンポーネントに割り振った
番号を示す変数であり、コンポーネントiに対応する画
像情報及び画像ファイルをそれぞれ画像情報i及び画像
ファイルiと呼ぶこととする。本フローチャートにおい
てiの初期値は0、増分は1とする。
First, the first synthesizing unit 108 reads out image information i from the index file of the image holding unit 104 (step S801). Here, i is 0, 1, in order from the lower layer to the component of the upper layer for convenience in this flowchart.
Are variables indicating the numbers assigned to the components in ascending order, such as 2,..., And the image information and the image file corresponding to the component i are called image information i and image file i, respectively. In this flowchart, the initial value of i is 0, and the increment is 1.

【0035】次に第1合成部108は、画像情報iに示され
る格納位置に格納された画像ファイルiを画像保持部104
より取り出す(ステップS802)。第1合成部108は、画像
ファイルiの表示サイズ及び表示位置を読み出し、当該
画像ファイルのコンポーネントiの画面上での重ね合わ
せ範囲を設定する(ステップS803)。
Next, the first synthesizing unit 108 stores the image file i stored in the storage position indicated by the image information i in the image holding unit 104
Is taken out (step S802). The first synthesizing unit 108 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S803).

【0036】第1合成部108は、画像情報iに示される画
像種別が動画像であるか静止画像であるかを判別する
(ステップS804)。判別の結果、静止画像である場合、
第1合成部108は、画像ファイルiのRGB成分とOSDプレー
ン107の重ね合わせ範囲のRGB成分とのα合成演算を行う
(ステップS805)。このα合成演算の式を以下に示す。
The first combining unit 108 determines whether the image type indicated by the image information i is a moving image or a still image (step S804). If the result of the determination is that the image is a still image,
The first synthesis unit 108 performs an α synthesis operation on the RGB components of the image file i and the RGB components in the overlapping range of the OSD plane 107 (step S805). The equation for the α synthesis operation is shown below.

【0037】[0037]

【数2】 (Equation 2)

【0038】この式において左辺のR(x,y)、G(x,y)、B
(x,y)は新しく求めるRGB成分であり、Ri(x,y)、Gi(x,
y)、Bi(x,y)及びαi(x,y)は画像ファイルiのRGB成分及
びα値であり、右辺のR(x,y)、G(x,y)、B(x,y)はOSDプ
レーン107の重ね合わせ範囲内に保持されているRGB成分
である。つまり左辺のR(x,y)は、Ri(x,y)をαiで重み付
けした値と、OSDプレーン107に保持されているR(x,y)を
1−αiで重み付けした値とを加算して得られる。G(x,
y)、B(x,y)についても同様である。第1合成部108は、新
たに得られたR(x,y)、G(x,y)、B(x,y)をOSDプレーン107
に格納する。
In this equation, R (x, y), G (x, y), B
(x, y) is a newly obtained RGB component, and R i (x, y) and G i (x, y
y), B i (x, y) and α i (x, y) are the RGB components and α value of the image file i, and R (x, y), G (x, y), B (x , y) are the RGB components held within the overlapping range of the OSD plane 107. That is, R (x, y) on the left side is a value obtained by weighting R i (x, y) with α i and R (x, y) held in the OSD plane 107.
It is obtained by adding a value weighted by 1−α i . G (x,
The same applies to y) and B (x, y). The first synthesis unit 108 converts the newly obtained R (x, y), G (x, y), B (x, y) into the OSD plane 107
To be stored.

【0039】一方、ステップS804において、画像情報i
に示される画像種別が動画像であると判別した場合、第
1合成部108は、画像ファイルiのα値とOSDプレーン107
の重ね合わせ範囲のRGB成分とを用いて以下の演算を行
う(ステップS806)。その式を以下に示す。
On the other hand, in step S804, image information i
If it is determined that the image type shown in
1 The synthesizing unit 108 calculates the α value of the image file i and the OSD plane 107
The following calculation is performed using the RGB components in the overlapping range (step S806). The formula is shown below.

【0040】[0040]

【数3】 (Equation 3)

【0041】この式において左辺のR(x,y)、G(x,y)、B
(x,y)は新しく求めるRGB成分であり、αi(x,y)は画像フ
ァイルiのα値であり、右辺R(x,y)、G(x,y)、B(x,y)はO
SDプレーン107の重ね合わせ範囲内に保持されているRGB
成分である。つまり新しく求めるR(x,y)は、それまでに
求められているR(x,y)を1−αi(x,y)で重み付けること
で得られる。G(x,y)、B(x,y)についても同様である。
In this equation, R (x, y), G (x, y), B
(x, y) is a newly obtained RGB component, α i (x, y) is an α value of the image file i, and the right side R (x, y), G (x, y), B (x, y ) Is O
RGB held within the overlapping range of SD plane 107
Component. That is, R (x, y) newly obtained is obtained by weighting R (x, y) obtained so far by 1−α i (x, y). The same applies to G (x, y) and B (x, y).

【0042】(数3)は(数2)の式の右辺第1項を0と
おいたものと同じである。ステップS805の各式の右辺第
1項は、画像ファイルのRGB成分にαを重み付けするもの
であるから、S806の各式の場合、動画像のRGB成分に対
するαの重み付けを加えないことを意味する。第1合成
部108は、ステップS805またはステップS806で算出したR
(x,y)、G(x,y)、B(x,y)をOSDプレーン107に格納する。
(Equation 3) is the same as (Equation 2) except that the first term on the right side is set to 0. The right side of each expression in step S805
The first term is to weight α to the RGB component of the image file, and in the case of each expression of S806, it means that the weighting of α to the RGB component of the moving image is not added. The first combining unit 108 calculates the R calculated in step S805 or S806.
(x, y), G (x, y), and B (x, y) are stored in the OSD plane 107.

【0043】このようにして、第1合成部108は、すべて
の画像ファイルについて処理を行ったら第1合成処理を
終了する(ステップS807)。以上の処理により、OSDプ
レーン107には静止画像のコンポーネントを合成した結
果が保持されることとなる。第2合成部109は、動画像コ
ンポーネント用の合成α値を算出し、ビデオプレーン10
6に格納する第2合成処理を行う 図9は、第2合成の処理手順を示すフローチャートであ
る。
As described above, the first synthesizing unit 108 ends the first synthesizing process after processing all image files (step S807). By the above processing, the result of synthesizing the components of the still image is stored in the OSD plane 107. The second combining unit 109 calculates a combined α value for the moving image component, and
Performing Second Combining Process Stored in 6 FIG. 9 is a flowchart showing a procedure of the second combining process.

【0044】まず、第2合成部109は、ビデオプレーン10
6の合成α値の領域を初期化する(ステップS900)。具
体的にはビデオプレーン106の全ピクセルの合成α値用
の領域を0にセットする。この合成α値の領域は、図9の
処理の結果、動画像コンポーネント用の合成α値を保持
することとなるものである。次に、第2合成部109は、ス
テップS901からS907の処理を繰り返す。
First, the second synthesizing unit 109 sets the video plane 10
The area of the combined α value of 6 is initialized (step S900). Specifically, the area for the combined α value of all the pixels of the video plane 106 is set to 0. The composite α value area holds the composite α value for the moving image component as a result of the processing in FIG. Next, the second synthesis unit 109 repeats the processing of steps S901 to S907.

【0045】まず第2合成部109は、画像保持部104のイ
ンデックスファイルから画像情報iを読み出す(ステッ
プS901)。ここでiは、本フローチャートにおいて便宜
的に下位層から上位層のコンポーネントへと順番に0,1,
2,...というように昇順にコンポーネントに割り振った
番号を示す変数であり、コンポーネントiに対応する画
像情報及び画像ファイルをそれぞれ画像情報i及び画像
ファイルiと呼ぶこととする。本フローチャートにおい
てiの初期値は0、増分は1とする。
First, the second synthesizing unit 109 reads out image information i from the index file of the image holding unit 104 (step S901). Here, i is 0, 1, in order from the lower layer to the component of the upper layer for convenience in this flowchart.
Are variables indicating the numbers assigned to the components in ascending order, such as 2,..., And the image information and the image file corresponding to the component i are called image information i and image file i, respectively. In this flowchart, the initial value of i is 0, and the increment is 1.

【0046】次に第2合成部109は、画像情報iに示され
る格納位置に格納された画像ファイルを画像保持部104
より取り出す(ステップS902)。第2合成部109は、画像
ファイルiの表示サイズ及び表示位置を読み出し、コン
ポーネントiの画面上での重ね合わせ範囲を設定する
(ステップS903)。第2合成部109は、画像情報iに示さ
れる画像種別が動画像であるか静止画像であるかを判別
する(ステップS904)。
Next, the second synthesizing unit 109 stores the image file stored in the storage position indicated by the image information i in the image holding unit 104
Is taken out (step S902). The second synthesizing unit 109 reads the display size and the display position of the image file i, and sets the overlapping range of the component i on the screen (Step S903). The second synthesizing unit 109 determines whether the image type indicated in the image information i is a moving image or a still image (step S904).

【0047】判別の結果、静止画像である場合、第2合
成部109は、画像ファイルiのαiとビデオプレーン106の
重ね合わせ範囲における合成α値とを用いて新しい合成
α値を算出する(ステップS905)。この式を以下に示す
If the result of the determination is that the image is a still image, the second combining unit 109 calculates a new combined α value using α i of the image file i and the combined α value in the overlapping range of the video plane 106 ( Step S905). This equation is shown below

【0048】[0048]

【数4】 (Equation 4)

【0049】この式において左辺のα(x,y)は新しく求
める合成α値であり、αi(x,y)は画像ファイルiのα値
であり、右辺のα(x,y)は、ビデオプレーン106の重ね合
わせ範囲に保持されている合成α値である。第2合成部1
09は、新たに得られたα(x,y)をビデオプレーン106に格
納する。一方、ステップS904において、画像情報iに示
される画像種別が動画像であると判別と判別した場合、
第2合成部109は、以下の演算を行う(ステップS906)。
In this equation, α (x, y) on the left side is a newly obtained composite α value, α i (x, y) is the α value of the image file i, and α (x, y) on the right side is The composite α value held in the overlapping range of the video plane 106. 2nd synthesis unit 1
09 stores the newly obtained α (x, y) in the video plane 106. On the other hand, in step S904, when it is determined that the image type indicated by the image information i is a moving image,
The second combining unit 109 performs the following calculation (step S906).

【0050】[0050]

【数5】 (Equation 5)

【0051】この式において左辺のα(x,y)は新しく求
める合成α値であり、右辺のαi(x,y)は画像ファイルi
のα値である。つまりαi(x,y)をそのまま、新しく求め
るα(x,y)としている。第2合成部109は、ステップS905
またはステップS906で算出したα(x,y)をビデオプレー
ン106に格納する。
In this equation, α (x, y) on the left side is a newly obtained composite α value, and α i (x, y) on the right side is an image file i
Is the α value of That is, α i (x, y) is directly used as α (x, y) to be newly obtained. The second synthesizing unit 109 determines in step S905
Alternatively, α (x, y) calculated in step S906 is stored in video plane 106.

【0052】このようにして、第2合成部109は、すべて
の画像ファイルについて処理を行ったら第2合成処理を
終了する(ステップS907)。その結果、ビデオプレーン
106には、最終的には動画像コンポーネント用の合成α
値が格納される。第3合成部110は、制御部102から通常
の再生指示を受けるとビデオプレーン106に保持される
R、G、B成分を出力部111に出力する。また第3合成部110
は、制御部102からEPG表示の指示を受けると、ビデオプ
レーン106に記憶される動画像データのR、G、B成分とOS
Dプレーン107に記憶される第1合成画像データのRGB成分
とを合成する第3合成を行って、合成結果の合成画像を
出力部111に出力する。
In this way, the second synthesizing unit 109 finishes the second synthesizing process after processing all image files (step S907). As a result, the video plane
In 106, finally the composite α for the moving image component
The value is stored. The third synthesis unit 110 is held in the video plane 106 upon receiving a normal reproduction instruction from the control unit 102
The R, G, and B components are output to the output unit 111. Also, the third synthesis unit 110
When an EPG display instruction is received from the control unit 102, the R, G, B components of the moving image data stored in the video plane 106 and the OS
A third combination is performed to combine the RGB components of the first combined image data stored in the D plane 107, and the combined image as a combined result is output to the output unit 111.

【0053】第3合成処理は次の式によって表される。The third synthesis processing is represented by the following equation.

【0054】[0054]

【数6】 (Equation 6)

【0055】ここにおいてR(x,y)、G(x,y)、B(x,y)は、
第3合成の結果、出力部111に出力される各ピクセルの
R、G、B成分であり、α(x,y)、Rv(x,y)、Gv(x,y)、B
v(x,y)は、ビデオプレーン106に格納されている動画像
データの合成α値及びR、G、B成分であり、Ro(x,y)、Go
(x,y)、Bo(x,y)は第1合成画像データのR、G、B成分であ
る。
Where R (x, y), G (x, y) and B (x, y) are
As a result of the third synthesis, each pixel output to the output unit 111
R, G, B components, α (x, y), R v (x, y), G v (x, y), B
v (x, y) is a composite α value of moving image data stored in the video plane 106 and R, G, B components, and Ro (x, y), Go
(x, y) and Bo (x, y) are the R, G, B components of the first combined image data.

【0056】つまり第3合成部110は、ビデオプレーン10
6に保持されている動画像データのR、G、B成分に合成α
値をかけた値と、OSDプレーン107に保持されている第1
合成画像データのR、G、B成分とを加算する処理をビデ
オ再生のフレーム毎に行う。出力部111は、CRT等で構成
され、第3合成部110が出力するR、G、B成分を受取って
画面上に表示する。 <動作>以上のように構成された画像合成装置100につ
いて以下にその動作を説明する。
That is, the third synthesizing unit 110 outputs the video plane 10
Combined with R, G, B components of moving image data held in 6
The value multiplied by the value and the first value held in the OSD plane 107
The processing of adding the R, G, and B components of the composite image data is performed for each frame of video reproduction. The output unit 111 includes a CRT or the like, and receives the R, G, and B components output by the third combining unit 110 and displays the components on a screen. <Operation> The operation of the image synthesizing apparatus 100 configured as described above will be described below.

【0057】図10は、本実施形態の画像合成装置100のE
PG表示時における動作の流れを説明する図である。同図
において矩形の内容は各構成部の動作を示し、矢印はデ
ータの流れを示す。入力部101が、EPG表示の指示を受け
付けると(ステップS1001)、制御部102を通じてその指
示が各部に伝えられる。その指示を受けたEPG生成部103
は、放送されてくるEPG情報を基に画像ファイル及びイ
ンデックスファイルを生成して画像保持部104に格納す
る。さらにEPG生成部103は、画像ファイル生成時に取得
した動画像コンポーネントの表示位置及び表示サイズを
ビデオ再生部105に通知する(ステップS1002)。
FIG. 10 shows the E of the image synthesizing apparatus 100 of this embodiment.
FIG. 9 is a diagram for explaining the flow of operation during PG display. In the figure, the contents of the rectangles indicate the operation of each component, and the arrows indicate the flow of data. When the input unit 101 receives an EPG display instruction (step S1001), the instruction is transmitted to each unit through the control unit 102. EPG generation unit 103 receiving the instruction
Generates an image file and an index file based on the broadcasted EPG information, and stores them in the image holding unit 104. Further, the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (Step S1002).

【0058】第1合成部108は、画像保持部104に格納さ
れる静止画像コンポーネントどうしの重ね合わせ範囲内
のRGB成分を合成し、OSDプレーン107に格納する(ステ
ップS1003)。第2合成部109は、画像保持部104に格納さ
れる画像ファイルのα値を基に動画像コンポーネント用
の合成α値を算出しビデオプレーン106に格納する(ス
テップS1004)。
The first synthesizing unit 108 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores them in the OSD plane 107 (step S1003). The second combining unit 109 calculates a combined α value for the moving image component based on the α value of the image file stored in the image holding unit 104, and stores the combined α value in the video plane 106 (step S1004).

【0059】ビデオ再生部105は、動画像を再生し、EPG
生成部103より通知された表示サイズ及び表示位置が示
すレイアウトで動画像データをビデオプレーン106に格
納する(ステップS1005)。第3合成部110は、動画像コ
ンポーネントのRGB成分を合成α値で重み付け、それに
第1合成画像データのRGB成分を加算し、加算後に得られ
る合成画像のRGB成分を出力部111に出力する(ステップS
1006)。
The video reproducing unit 105 reproduces a moving image,
The moving image data is stored in the video plane 106 with the layout indicated by the display size and display position notified from the generation unit 103 (step S1005). The third combining unit 110 weights the RGB components of the moving image component with the combined α value, adds the RGB components of the first combined image data thereto, and outputs the RGB components of the combined image obtained after the addition to the output unit 111 ( Step S
1006).

【0060】出力部111は、第3合成部110からの合成画
像のRGB成分を表示する(ステップS1007) 同図においてステップS1003とステップS1004とステップ
S1005とステップS1006の処理は並行して行われる。また
ステップS1006の処理は、ステップS1005における動画像
の再生と同じレートで行われる。 <捕捉説明>以下に、本発明の特徴部分である動画像と
静止画像の合成について、捕捉説明する。
The output unit 111 displays the RGB components of the composite image from the third compositing unit 110 (step S1007).
Steps S1005 and S1006 are performed in parallel. The processing in step S1006 is performed at the same rate as the reproduction of the moving image in step S1005. <Capture Explanation> The capture of a moving image and a still image, which is a feature of the present invention, will be described below.

【0061】図11は、N+1枚の動画像コンポーネント又
は静止画像コンポーネントからなるコンポーネント群を
示し、各コンポーネントは同図に示すR、G、B成分及び
α値を持つものとする。ただし最下層のコンポーネント
のα値はα0=1.0とする。これらのコンポーネント群
を重ね合わせた結果得られる画像のR、G、B成分は次式
(数7)で与えられる。
FIG. 11 shows a component group consisting of N + 1 moving image components or still image components. Each component has the R, G, B components and α values shown in FIG. However, the α value of the lowermost component is α0 = 1.0. The R, G, and B components of the image obtained as a result of superimposing these component groups are
It is given by (Equation 7).

【0062】[0062]

【数7】 (Equation 7)

【0063】ここにおいてβiは、最終的な合成結果で
ある画像に対するコンポーネントiの合成比率を表し、
貢献度とも呼ぶ。すなわちβiは、合成α値である。本
発明は、これらコンポーネント中の1つが動画像である
場合、動画像のコンポーネント以外の静止画像のコンポ
ーネントどうしをα値を用いて合成し、この結果に動画
像のコンポーネントを加えるという演算を実現してい
る。静止画像コンポーネントは、表示サイズ及び表示位
置をもつ画像ファイルとして存在し、合成する際にOSD
プレーン上で合成するので、OSDプレーン107一枚という
少ないメモリ容量で効率的に静止画コンポーネントを合
成することができる。
Here, β i represents the composition ratio of component i to the image that is the final composition result,
Also called contribution. That is, β i is a combined α value. The present invention realizes an operation in which, when one of these components is a moving image, the components of the still image other than the components of the moving image are combined using the α value, and the component of the moving image is added to the result. ing. The still image component exists as an image file with the display size and display position.
Since synthesis is performed on a plane, a still image component can be efficiently synthesized with a small memory capacity of one OSD plane 107.

【0064】これにより静止画像用のOSDプレーン1枚と
動画像用のビデオプレーン1枚という少ないメモリで効
率的に処理を行うことができる。もしこれらのコンポー
ネントの合成を、動画像も静止画像も含めて重ね合わせ
の順番に順次に行うとすると、全コンポーネントの各ピ
クセルについての合成比率を計算してメモリ上に保持し
ておく必要がある。これは非常に多くのメモリを必要と
し非効率的である。
Thus, the processing can be efficiently performed with a small memory of one OSD plane for a still image and one video plane for a moving image. If the composition of these components is performed sequentially in the order of superimposition including both moving images and still images, it is necessary to calculate the composition ratio for each pixel of all components and store it in the memory. . This requires a lot of memory and is inefficient.

【0065】また合成比率の計算式も、1つずつ独立に
行うと多くの乗算を必要とする。N+1のコンポーネント
では、N*(N-1)/2回の乗算が必要となり、N^2のオーダー
の計算となる。本発明では、これらの問題を解決し、メ
モリを必要としない逐次計算と、乗算の回数をNのオー
ダーで済ませることを実現している。本実施の形態の構
成要素と演算の関係は、第1合成部108が動画像以外のコ
ンポーネントの項の加算を担当し、第2合成部109が動画
像の貢献度の計算を担当し、第3合成部110が最後の動画
像の加算を担当する。
Also, the formula for calculating the synthesis ratio requires a large number of multiplications if performed independently one by one. For N + 1 components, N * (N-1) / 2 multiplications are required, which is a calculation on the order of N ^ 2. The present invention solves these problems and realizes a sequential calculation that does not require a memory and the number of times of multiplication is reduced to the order of N. The relationship between the components and the operation of the present embodiment is that the first combining unit 108 is in charge of adding the terms of the components other than the moving image, the second combining unit 109 is in charge of calculating the contribution of the moving image, 3 The synthesizing unit 110 is responsible for adding the last moving image.

【0066】図12は、本発明の演算をC言語風に記述し
たプログラムである。このプログラムは1つのピクセル
に焦点をあてている。R、G、BはOSDプレーン上の1つの
ピクセルのRGB成分を表し、αはこのピクセルに対応す
る動画像の合成α値を表す。R i、Gi、Bi、αiは、OSDプ
レーンに加算されるi番目のコンポーネントのRGB成分及
びα値である。Rv、Gv、Bvは動画像のRGB成分である。
FIG. 12 shows the operation of the present invention described in C language style.
Program. This program has one pixel
Focus on R, G and B are one on the OSD plane
Represents the RGB component of a pixel, and α corresponds to this pixel
Represents the combined α value of the moving image. R i, Gi, Bi, ΑiOSD
RGB component of i-th component added to lane and
And α value. Rv, Gv, BvIs the RGB component of the moving image.

【0067】1行目から4行目までが初期化処理を示
す。5行目から17行目が静止画像の加算、残りが動画
像の加算である。7、8、9、12、13、14行目が
第1合成部108により行われる演算を示す。ここで、
動画像の合成式は、動画像のRGB成分が0であるとして
計算するのと同等である。10、15行目は第2合成部
109により行われる演算で、動画像の合成α値を計算
している。5、6、11、16、17行目は第1合成部
108と第2合成部109とに共通の処理である。1
8、19、20行目が第3合成部110により行われる
演算である。ここで18、19、20行目は別のスレッ
ドで並行して行われ、永久ループであってもよい。
The first to fourth lines indicate the initialization processing. The 5th to 17th lines are for addition of still images, and the rest are for addition of moving images. The seventh, eighth, ninth, twelfth, thirteenth, and fourteenth rows indicate the operations performed by the first combining unit 108. here,
The formula for synthesizing a moving image is equivalent to calculating assuming that the RGB components of the moving image are 0. The tenth and fifteenth lines are calculations performed by the second synthesizing unit 109 to calculate the synthesized α value of the moving image. The fifth, sixth, eleventh, sixteenth, and seventeenth rows are processes common to the first combining unit 108 and the second combining unit 109. 1
Lines 8, 19, and 20 are operations performed by the third synthesis unit 110. Here, lines 18, 19, and 20 are performed in parallel by another thread, and may be a permanent loop.

【0068】図13は、これを実現したプログラムを表
す。program1とprogram2は、図12のプログラムを分割
し、program2は出力を永久ループにしている。この2つ
のプログラムを並列処理することができる。並列処理し
た場合、重ね合わせの途中の状態、重ね合わせていく過
程を表示させることができる。 <実施形態2> <構成>図14は、本発明の実施形態2に係る画像合成装
置の構成を示すブロック図である。
FIG. 13 shows a program that realizes this. program1 and program2 divide the program of FIG. 12, and program2 makes the output a permanent loop. These two programs can be processed in parallel. In the case of performing the parallel processing, it is possible to display a state in the middle of the superposition and a process of the superposition. <Embodiment 2><Configuration> FIG. 14 is a block diagram showing a configuration of an image synthesizing apparatus according to Embodiment 2 of the present invention.

【0069】同図において画像合成装置200は、入力部1
01、制御部1500、EPG生成部103、画像保持部104、ビデ
オ再生部105、ビデオプレーン106、OSDプレーン1501、
第4合成部1502、第5合成部1503、出力部111から構成さ
れる。これらの構成要素のうち、画像合成装置100と同
じ符号のものは機能が同じであるので説明を省略し、以
下画像合成装置100と異なる符号のものを中心に説明す
る。
In the figure, the image synthesizing device 200 is the input unit 1
01, control unit 1500, EPG generation unit 103, image holding unit 104, video reproduction unit 105, video plane 106, OSD plane 1501,
It comprises a fourth synthesis unit 1502, a fifth synthesis unit 1503, and an output unit 111. Among these constituent elements, those having the same reference numerals as those of the image synthesizing apparatus 100 have the same functions, and therefore the description thereof will be omitted.

【0070】制御部1500は、画像合成装置200の構成要
素全てを制御する。より具体的には、画像合成装置200
のオンが指示されると、ビデオ再生部105に放送番組を
再生させる。チャンネル切替えが指示されると、ビデオ
再生部105に現在再生中のものとは別の放送番組を再生
させる。EPG表示のオンが指示されると、EPG生成部10
3、ビデオ再生部105、第4合成部1502及び第5合成部1503
等を制御して合成画像を生成させる。
The control section 1500 controls all the components of the image synthesizing apparatus 200. More specifically, the image synthesizing device 200
Is turned on, the video playback unit 105 plays back the broadcast program. When the channel switching is instructed, the video reproducing unit 105 reproduces a broadcast program different from the one currently being reproduced. When instructed to turn on the EPG display, the EPG generation unit 10
3.Video playback unit 105, fourth synthesis unit 1502, and fifth synthesis unit 1503
And the like to generate a composite image.

【0071】OSDプレーン1501は、メモリ等で構成さ
れ、第4合成部1502により出力されるRGB成分及びα値を
保持する。OSDプレーン1501は、画面のピクセルに対応
するRGB成分及びα値を保持する。第4合成部1502は、制
御部1500から指示を受けると、画像保持部104に保持さ
れている複数の画像ファイルの画像データを合成し、最
終的には第4合成画像データを生成し、ODSプレーン1501
に格納する。この処理を第4合成処理と呼ぶ。
The OSD plane 1501 is composed of a memory or the like, and holds the RGB components and α values output by the fourth synthesizing unit 1502. The OSD plane 1501 holds RGB components and α values corresponding to pixels on the screen. Upon receiving the instruction from the control unit 1500, the fourth combining unit 1502 combines the image data of the plurality of image files held in the image holding unit 104, and finally generates fourth combined image data, and Plain 1501
To be stored. This processing is called a fourth synthesis processing.

【0072】図15は、第4合成処理の処理手順を示すフ
ローチャートである。まず、第4合成部1502は、OSDプレ
ーン1501のRGB成分の領域すべてに0をセットし、ビデオ
プレーン106の合成α値の領域すべてに0をセットする
(ステップS1600、ステップS1601)。次に、第4合成部1
502は、ステップS1602〜S1612の処理を繰り返して、下
位層から上位層のコンポーネントへと順番に、静止画像
のコンポーネントどうしを合成してOSDプレーン1501に
格納し、また動画像コンポーネント用の合成α値を算出
し、ビデオプレーン106に格納する処理を行う。
FIG. 15 is a flowchart showing the procedure of the fourth synthesizing process. First, the fourth synthesizing unit 1502 sets 0 to all the RGB component areas of the OSD plane 1501 and sets 0 to all of the synthesized α value areas of the video plane 106 (Step S1600, Step S1601). Next, the fourth synthesis unit 1
502 repeats the processing of steps S1602 to S1612, synthesizes the components of the still image in order from the lower layer to the component of the upper layer, stores it in the OSD plane 1501, and also sets the synthesized α value for the moving image component. Is calculated and stored in the video plane 106.

【0073】まず第4合成部1502は、画像保持部104のイ
ンデックスファイルから画像情報iを読み出す(ステッ
プS1602)。ここでiは、本フローチャートにおいて便宜
的に下位層から上位層のコンポーネントへと順番に0,1,
2,...というように昇順にコンポーネントに割り振った
番号を示す変数であり、コンポーネントiに対応する画
像情報及び画像ファイルをそれぞれ画像情報i及び画像
ファイルiと呼ぶこととする。本フローチャートにおい
てiの初期値は0、増分は1とする。
First, the fourth synthesizing unit 1502 reads out image information i from the index file of the image holding unit 104 (step S1602). Here, i is 0, 1, in order from the lower layer to the component of the upper layer for convenience in this flowchart.
Are variables indicating the numbers assigned to the components in ascending order, such as 2,..., And the image information and the image file corresponding to the component i are called image information i and image file i, respectively. In this flowchart, the initial value of i is 0, and the increment is 1.

【0074】そして第4合成部1502は、画像情報iに示さ
れる格納位置に格納された画像ファイルiを画像保持部1
04より取り出す(ステップS1603)。第4合成部1502は、
画像ファイルiの表示サイズ及び表示位置を読み出し、
当該画像ファイルのコンポーネントiの画面上での重ね
合わせ範囲を設定する(ステップS1604)。
The fourth synthesizing unit 1502 stores the image file i stored in the storage location indicated by the image information i in the image holding unit 1
Take it out from 04 (step S1603). The fourth synthesis unit 1502
Read the display size and display position of image file i,
The overlapping range of the component i of the image file on the screen is set (step S1604).

【0075】第4合成部1502は、画像情報iに示される画
像種別が動画像であるか静止画像であるかを判別する
(ステップS1605)。判別の結果、画像情報iに示される
画像種別が動画像であると判別した場合、第4合成部150
2は、画像ファイルiのα値をビデオプレーン106に複写
する(ステップS1611)。
The fourth synthesizing unit 1502 determines whether the image type indicated by the image information i is a moving image or a still image (step S1605). As a result of the determination, when it is determined that the image type indicated by the image information i is a moving image, the fourth combining unit 150
2 copies the α value of the image file i to the video plane 106 (step S1611).

【0076】ステップS1605における判別の結果、画像
情報iに示される画像種別が静止画像であると判別した
場合、第4合成部1502は、ビデオプレーン106に保持され
ている合成α値がすべて0であるか否かを判別する(ス
テップS1606)。すなわちここでは当該静止画像より下
位層に動画像があるか否かによって異なる処理に分岐す
るようにしている。
As a result of the determination in step S1605, if it is determined that the image type indicated by the image information i is a still image, the fourth synthesizing unit 1502 determines that the synthesized α value held in the video plane 106 is all 0 and It is determined whether or not there is (step S1606). That is, here, the processing branches depending on whether or not there is a moving image in a lower layer than the still image.

【0077】ステップS1606における判別の結果、ビデ
オプレーン106に保持されている合成α値がすべて0であ
ると判別した場合、第4合成部1502は、画像ファイルiの
α値をOSDプレーン1501に複写する(ステップS1609)。
ステップS1606における判別の結果、ビデオプレーン106
に保持されている合成α値がすべて0でない場合、すな
わち少なくとも1つは0でない場合、第4合成部1502はビ
デオプレーン106に保持されている合成α値と画像ファ
イルiのα値とを用いて(数8)の計算により新しいα値
を求め、OSDプレーン1501に格納する(ステップS160
7)。
If it is determined in step S1606 that the combined α values held in the video plane 106 are all 0, the fourth combining unit 1502 copies the α value of the image file i to the OSD plane 1501. (Step S1609).
As a result of the determination in step S1606, the video plane 106
If all the combined α values held in the video plane 106 are not 0, that is, at least one is not 0, the fourth combining unit 1502 uses the combined α value held in the video plane 106 and the α value of the image file i. A new α value is obtained by the calculation of (Equation 8) and stored in the OSD plane 1501 (step S160)
7).

【0078】[0078]

【数8】 (Equation 8)

【0079】この式において左辺のαosd(x,y)は新しく
求めるα値であり、右辺αi(x,y)は画像ファイルiのα
値であり、αv(x,y)は、ビデオプレーン106に保持され
ている合成α値である。さらに第4合成部1502は、(数
9)により動画像用の合成α値を算出し、ビデオプレー
ン106の合成α値の領域に格納する(ステップS1608)。
In this equation, αosd (x, y) on the left side is a newly obtained α value, and αi (x, y) on the right side is the α value of the image file i.
Α v (x, y) is the composite α value held in the video plane 106. Further, the fourth synthesis unit 1502 calculates
The composite α value for the moving image is calculated according to 9) and stored in the composite α value area of the video plane 106 (step S1608).

【0080】[0080]

【数9】 [Equation 9]

【0081】この式において左辺のαv(x,y)は新しくビ
デオプレーン106に格納する合成α値であり、右辺のαv
(x,y)は、この格納の前にビデオプレーン106に保持され
ていた合成α値であり、αi(x,y)は画像ファイルiのα
値である。第4合成部1502は、ステップS1607又はステッ
プS1609においてOSDプレーン1501にセットされたα値を
用いて、画像ファイルiのRGB成分とOSDプレーン1501の
重ね合わせ範囲におけるRGB成分とのα合成演算を行
い、結果をOSDプレーン1501に格納する(ステップS161
0)。その演算式を(数10)に示す。
[0081] α v (x, y) of the left side in this equation is a synthetic alpha value to be stored in the new video plane 106, the right side alpha v
(x, y) is the composite α value held in the video plane 106 before this storage, and αi (x, y) is the α of the image file i.
Value. The fourth synthesis unit 1502 performs an α synthesis operation on the RGB components of the image file i and the RGB components in the overlapping range of the OSD plane 1501, using the α value set in the OSD plane 1501 in step S1607 or step S1609. The result is stored in the OSD plane 1501 (step S161
0). The equation is shown in (Equation 10).

【0082】[0082]

【数10】 [Equation 10]

【0083】この式において左辺のR(x,y)、G(x,y)、B
(x,y)は新しく求めるRGB成分であり、右辺のR(x,y)、G
(x,y)、B(x,y)及びαosdはOSDプレーン1501に保持され
ているRGB成分及びα値であり、Ri(x,y)、Gi(x,y)、Bi
(x,y)は画像ファイルiのRGB成分である。このようにし
て第4合成部1502は、すべての画像ファイルに対してス
テップS1602からステップS1612の処理を行って第4合成
処理を終了する(ステップS1612)。第4合成処理の終了
後には、OSDプレーン1501に静止画像のコンポーネント
をすべて合成した結果が保持され、ビデオプレーン106
の合成α値の領域に動画像のコンポーネントの合成α値
が保持されることとなる。
In this equation, R (x, y), G (x, y), B
(x, y) is a newly obtained RGB component, and R (x, y), G on the right side
(x, y), B (x, y) and αosd are the RGB components and α value held in the OSD plane 1501, and Ri (x, y), Gi (x, y), Bi
(x, y) is an RGB component of the image file i. In this way, the fourth synthesis unit 1502 performs the processing from step S1602 to step S1612 on all the image files, and ends the fourth synthesis processing (step S1612). After the end of the fourth synthesis processing, the result obtained by synthesizing all the components of the still image in the OSD plane 1501 is held, and the video plane 106
The composite α value of the component of the moving image is held in the area of the composite α value of.

【0084】第5合成部1503は、制御部1500から通常の
再生指示を受けるとビデオプレーン106に保持されるR、
G、B成分を出力部111に出力する。また第5合成部1503
は、制御部1500からEPG表示の指示を受けると、ビデオ
プレーン106に記憶される動画像データのR、G、B成分及
び合成α値とOSDプレーン1501に記憶される第4合成画像
データのRGB成分とを合成する第5合成を行って、結果の
合成画像を出力部111に出力する。
Upon receiving a normal reproduction instruction from the control unit 1500, the fifth synthesizing unit 1503
The G and B components are output to the output unit 111. Fifth synthesis unit 1503
When an EPG display instruction is received from the control unit 1500, the R, G, B components and the combined α value of the moving image data stored in the video plane 106 and the RGB of the fourth combined image data stored in the OSD plane 1501 A fifth synthesis for synthesizing the components is performed, and the resultant synthesized image is output to the output unit 111.

【0085】第5合成処理は次の式によって表される。The fifth synthesis processing is represented by the following equation.

【0086】[0086]

【数11】 [Equation 11]

【0087】ここにおいてR(x,y)、G(x,y)、B(x,y)は、
第5合成の結果、出力部111に出力される各ピクセルの
R、G、B成分であり、α(x,y)、Rv(x,y)、Gv(x,y)、B
v(x,y)は、ビデオプレーン106に格納されている動画像
データの合成α値及びR、G、B成分であり、Ro(x,y)、Go
(x,y)、Bo(x,y)は第4合成画像データのR、G、B成分であ
る。
Here, R (x, y), G (x, y) and B (x, y) are
As a result of the fifth synthesis, each pixel output to the output unit 111
R, G, B components, α (x, y), R v (x, y), G v (x, y), B
v (x, y) is a composite α value of moving image data stored in the video plane 106 and R, G, B components, and Ro (x, y), Go
(x, y) and Bo (x, y) are the R, G, B components of the fourth combined image data.

【0088】このように第5合成部1503は、フレームが
更新される度に第4合成画像データとの合成を行う。 <動作>以上のように構成された画像合成装置200につ
いて以下にその動作を説明する。
As described above, the fifth synthesizing unit 1503 performs synthesis with the fourth synthesized image data every time a frame is updated. <Operation> The operation of the image synthesizing apparatus 200 configured as described above will be described below.

【0089】図16は、本実施形態の画像合成装置200のE
PG表示時における動作の流れを説明する図である。同図
において矩形の内容は各構成部の動作を示し、矢印はデ
ータの流れを示す。なお、同図において図10と同じステ
ップ番号における動作は、図10のものと同じ動作である
ことを意味する。入力部101が、EPG表示の指示を受け付
けると(ステップS1001)、制御部1500を通じてその指
示が各部に伝えられる。その指示を受けたEPG生成部103
は、放送されてくるEPG情報を基に画像ファイル及びイ
ンデックスファイルを生成して画像保持部104に格納す
る。さらにEPG生成部103は、画像ファイル生成時に取得
した動画像コンポーネントの表示位置及び表示サイズを
ビデオ再生部105に通知する(ステップS1002)。
FIG. 16 shows the E of the image synthesizing apparatus 200 of this embodiment.
FIG. 9 is a diagram for explaining the flow of operation during PG display. In the figure, the contents of the rectangles indicate the operation of each component, and the arrows indicate the flow of data. Note that, in this figure, the operations at the same step numbers as those in FIG. 10 mean the same operations as those in FIG. When the input unit 101 receives an EPG display instruction (step S1001), the instruction is transmitted to each unit through the control unit 1500. EPG generation unit 103 receiving the instruction
Generates an image file and an index file based on the broadcasted EPG information, and stores them in the image holding unit 104. Further, the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (Step S1002).

【0090】第4合成部1502は、画像保持部104に格納さ
れる静止画像コンポーネントどうしの重ね合わせ範囲内
のRGB成分を合成し、OSDプレーン1501に格納する。また
第4合成部1502は、動画像用の合成α値を算出してビデ
オプレーン106に格納する(ステップS1701)。ビデオ再
生部105は、動画像を再生し、EPG生成部103より通知さ
れた表示サイズ及び表示位置が示すレイアウトで動画像
データをビデオプレーン106に格納する(ステップS100
5)。
The fourth synthesizing unit 1502 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores them in the OSD plane 1501. Further, the fourth combining unit 1502 calculates a combined α value for a moving image and stores the combined α value in the video plane 106 (step S1701). The video reproduction unit 105 reproduces the moving image, and stores the moving image data in the video plane 106 in the layout indicated by the display size and the display position notified from the EPG generation unit 103 (Step S100)
Five).

【0091】第5合成部1503は、動画像コンポーネント
のRGB成分を合成α値で重み付け、それに第4合成画像デ
ータのRGB成分を加算し、加算後に得られる合成画像のR
GB成分を出力部111に出力する(ステップS1702)。出力部
111は、第5合成部1503からの合成画像のRGB成分を表示
する(ステップS1007) 同図においてステップS1702の処理は、ステップS1005、
ステップS1701と並行して行われる。 <補足説明>本実施形態で示す合成方法は、図17に示す
ように、隣り合う2枚のコンポーネントの重ね合わせ順
序を入替えて合成する。このとき入替え前の合成結果と
入替え後の合成結果とが同じになるように、入替え後の
2枚のコンポーネントのα値を図15のステップS1607、S
1608に示す式で更新する。
The fifth synthesizing unit 1503 weights the RGB components of the moving image component with the synthesized α value, adds the RGB components of the fourth synthesized image data thereto, and calculates the R of the synthesized image obtained after the addition.
The GB component is output to the output unit 111 (step S1702). Output section
111 displays the RGB components of the composite image from the fifth compositing unit 1503 (step S1007).
This is performed in parallel with step S1701. <Supplementary explanation> As shown in FIG. 17, the synthesizing method according to the present embodiment performs synthesizing by changing the overlapping order of two adjacent components. At this time, the α values of the two components after the replacement are set in steps S1607 and S1607 in FIG. 15 so that the synthesis result before the replacement is the same as the synthesis result after the replacement.
Update with the formula shown in 1608.

【0092】すなわち、入替え後の2枚のコンポーネン
トのうち下位層のコンポーネントiのα値をαi+1'、上
位層のコンポーネントi+1のα値をαi'とすると、それ
ぞれのα値は次式(数12)で表される。
That is, if the α value of the component i in the lower layer of the two components after replacement is αi + 1 ′ and the α value of the component i + 1 in the upper layer is αi ′, the respective α values are as follows: It is represented by the equation (Equation 12).

【0093】[0093]

【数12】 (Equation 12)

【0094】ここで(数12)は以下のようにして求めら
れる。入替え前のコンポーネントi及びコンポーネントi
+1のα値をそれぞれαi、αi+1とすると、最終的な合成
画像に対するコンポーネントi及びコンポーネントi+1そ
れぞれの貢献度βi及びβi+1は(数7)より
Here, (Equation 12) is obtained as follows. Component i and component i before replacement
Assuming that the α value of +1 is αi and αi + 1, respectively, the contributions βi and βi + 1 of component i and component i + 1 to the final composite image are given by (Equation 7).

【0095】[0095]

【数13】 (Equation 13)

【0096】となる。一方、最終的な合成画像に対する
入替え後のコンポーネントi+1及びコンポーネントiそれ
ぞれの貢献度βi+1'及びβi'を(数7)を用いて表すと、
## EQU10 ## On the other hand, when the contributions β i + 1 ′ and β i ′ of the component i + 1 and the component i after the replacement for the final composite image are expressed by using (Equation 7),

【0097】[0097]

【数14】 [Equation 14]

【0098】となる。入替え前と入替え後とで合成結果
が同じになるためには、(数13)と(数14)とにおいてと
、とがそれぞれ同値になればよい。すなわち
Is obtained. In order for the combined result to be the same before and after the replacement, it is only necessary that (Equation 13) and (Equation 14) have the same value. Ie

【0099】[0099]

【数15】 (Equation 15)

【0100】これらの式をαi'、αi+1'について解く
と、(数12)が得られる。この法則を利用し、図18に示
すように動画像のコンポーネントが最上位層にくるよう
に静止画像のコンポーネントと入替えていくことによ
り、静止画像コンポーネントすべてを動画像コンポーネ
ントよりも先に合成し、最後に動画像を合成することを
実現している。
By solving these equations for α i ′ and α i + 1 ′, (Equation 12) is obtained. By utilizing this rule and replacing the components of the moving image with the components of the still image so that the components of the moving image are at the top layer as shown in FIG. 18, all the still image components are synthesized before the moving image components, Finally, it realizes composing a moving image.

【0101】第4合成部1502は、隣り合うコンポーネン
トの入替えに必要なα値の計算とOSDプレーン1501への
合成を図15のフローチャートに示したように、効率的に
行っている。第5合成部1503は、OSDプレーン1501とビデ
オプレーン106との合成を行っている。 <実施形態3> <構成>図19は、本発明の実施形態3に係る画像合成装
置の構成を示すブロック図である。
The fourth synthesizing unit 1502 efficiently calculates the α value required for the replacement of adjacent components and synthesizes it with the OSD plane 1501 as shown in the flowchart of FIG. The fifth synthesizing unit 1503 synthesizes the OSD plane 1501 with the video plane 106. Third Embodiment <Structure> FIG. 19 is a block diagram showing a structure of an image synthesizing apparatus according to a third embodiment of the present invention.

【0102】同図において画像合成装置300は、入力部1
01、制御部2000、EPG生成部2003、画像保持部104、ビデ
オ再生部2001、ビデオプレーン2002、OSDプレーン107、
第6合成部2004、第7合成部2005、第8合成部2006及び出
力部111から構成される。この構成により画像合成装置3
00は、複数の動画像コンポーネントと複数の静止画像コ
ンポーネントとの合成を行う。これらの構成要素のう
ち、画像合成装置100及び画像合成装置200と同じ符号の
ものは機能が同じであるので説明を省略し、異なる符号
のものを中心に説明する。
In the same figure, the image synthesizing device 300 has an input unit 1
01, control unit 2000, EPG generation unit 2003, image holding unit 104, video reproduction unit 2001, video plane 2002, OSD plane 107,
It comprises a sixth synthesis unit 2004, a seventh synthesis unit 2005, an eighth synthesis unit 2006, and an output unit 111. With this configuration, the image synthesizing device 3
00 synthesizes a plurality of moving image components and a plurality of still image components. Among these constituent elements, those having the same reference numerals as those of the image synthesizing apparatus 100 and the image synthesizing apparatus 200 have the same functions, and thus the description thereof will be omitted, and the explanation will be focused on those having different reference numerals.

【0103】制御部2000は、画像合成装置300の構成要
素全てを制御する。より具体的には、画像合成装置300
のオンが指示されると、ビデオ再生部2001に放送番組を
再生させる。チャンネル切替えが指示されると、ビデオ
再生部2001に現在再生中のものとは別の放送番組を再生
させる。EPG表示のオンが指示されると、EPG生成部200
3、ビデオ再生部2001、第6合成部2004、第7合成部2005
及び第8合成部2006等を制御して合成画像を生成させ
る。
The control unit 2000 controls all the components of the image synthesizing apparatus 300. More specifically, the image synthesizing device 300
Is turned on, the video reproducing unit 2001 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 2001 reproduces a broadcast program different from the one currently being reproduced. When instructed to turn on the EPG display, the EPG generation unit 200
3, video playback unit 2001, sixth synthesis unit 2004, seventh synthesis unit 2005
And the eighth combining unit 2006 and the like are controlled to generate a combined image.

【0104】ビデオ再生部2001は、内部に複数の再生
部、すなわち第1再生部、第2再生部、...、第N再生部を
有し、各再生部がそれぞれ放送局からの放送番組を受信
して復号等を行って、数十フレーム/秒の動画像を再生
し、その動画像データをビデオプレーン2002にフレーム
単位で上書き更新しながら格納する。格納の際、ビデオ
再生部2001は、EPG再生部2003より入力される表示位置
及び表示サイズに基づいて最終的な合成画像に対する動
画像のレイアウトを確定し、ビデオプレーン2002上の当
該配置に対応する領域に映像のR、G、B成分を格納す
る。
The video playback unit 2001 has a plurality of playback units, ie, a first playback unit, a second playback unit,..., And an N-th playback unit. And performs decoding and the like, reproduces a moving image of several tens of frames / second, and stores the moving image data in the video plane 2002 while overwriting and updating it in frame units. At the time of storage, the video playback unit 2001 determines the layout of the moving image with respect to the final composite image based on the display position and display size input from the EPG playback unit 2003, and corresponds to the layout on the video plane 2002. The R, G, and B components of the video are stored in the area.

【0105】ビデオプレーン2002は、内部に複数のプレ
ーン、すなわち第1プレーン、第2プレーン、...、第Nプ
レーンを有し、各プレーンはメモリ等から構成され、そ
れぞれがビデオ再生部2001の複数の再生部に対応し、再
生部より格納される動画像データと、第7合成部2005よ
り格納される合成α値とを保持する。EPG生成部2003
は、複数の動画像コンポーネントと静止画像コンポーネ
ントとからなるEPG表示のためのEPG情報を放送局より取
得し、EPG情報に基づいて複数の画像ファイルと1つのイ
ンデックスファイルとを生成し、画像保持部104に格納
する。またEPG情報からEPG表示画面を構成する複数の動
画像コンポーネントの表示サイズ及び表示位置を抽出
し、ビデオ再生部2001に出力する。
The video plane 2002 has a plurality of planes therein, that is, a first plane, a second plane,..., An N-th plane. Each plane is constituted by a memory or the like. The moving image data corresponding to the plurality of playback units and stored by the playback unit and the combined α value stored by the seventh combining unit 2005 are held. EPG generator 2003
Obtains EPG information for EPG display including a plurality of moving image components and still image components from a broadcast station, generates a plurality of image files and one index file based on the EPG information, Store in 104. Further, the display size and display position of a plurality of moving image components constituting the EPG display screen are extracted from the EPG information, and output to the video playback unit 2001.

【0106】EPG生成部2003は、複数の動画像コンポー
ネントに対応していること以外は、EPG生成部103と同様
である。第6合成部2004は、画像保持部104に保持されて
いる複数の画像ファイルの画像データを合成して第6合
成画像データを生成し、OSDプレーン107に格納する。こ
の処理を第6合成処理と呼ぶ。この処理は、実施形態1の
図8に示す第1合成処理とほぼ同様で、ただし、ステップ
S806の処理を複数の動画像に対応して複数回行うところ
が実施形態1とは異なっている。
The EPG generation unit 2003 is the same as the EPG generation unit 103 except that it supports a plurality of moving image components. The sixth combining unit 2004 combines the image data of the plurality of image files held in the image holding unit 104 to generate sixth combined image data, and stores the sixth combined image data in the OSD plane 107. This processing is called a sixth synthesis processing. This processing is almost the same as the first synthesis processing shown in FIG.
The difference from the first embodiment is that the process of S806 is performed a plurality of times corresponding to a plurality of moving images.

【0107】第7合成部2005は、制御部2000から指示を
受けると、複数の動画像コンポーネントそれぞれのため
の合成α値を算出し、ビデオプレーン2002のそれぞれ対
応するプレーンに格納する第7合成処理を行う。図20
は、第7合成の処理手順を示すフローチャートである。
まず、第7合成部2005は、ビデオプレーン2002の合成α
値の領域を初期化する(ステップS2100)。具体的には
ビデオプレーン2002の各プレーンにおける全ピクセルの
合成α値用の領域に0をセットする。この合成α値の領
域は、最終的に合成α値を保持することとなる。
Upon receiving an instruction from the control unit 2000, the seventh combining unit 2005 calculates a combined α value for each of a plurality of moving image components, and stores the combined α value in the corresponding plane of the video plane 2002. I do. Fig. 20
15 is a flowchart showing a seventh synthesis processing procedure.
First, the seventh synthesis unit 2005 generates a synthesis α of the video plane 2002.
The value area is initialized (step S2100). Specifically, 0 is set in the area for the combined α value of all the pixels in each plane of the video plane 2002. This combined α value area finally holds the combined α value.

【0108】次に、第7合成部2005は、ステップS2101か
らS2107の処理を繰り返す。まず第7合成部2005は、画像
保持部104のインデックスファイルから画像情報iを読み
出す(ステップS2101)。ここでiは、本フローチャート
において便宜的に下位層から上位層のコンポーネントへ
と順番に0,1,2,...というように昇順にコンポーネント
に割り振った番号を示す変数であり、コンポーネントi
に対応する画像情報及び画像ファイルをそれぞれ画像情
報i及び画像ファイルiと呼ぶこととする。本フローチャ
ートにおいてiの初期値は0、増分は1とする。
Next, the seventh combining section 2005 repeats the processing from steps S2101 to S2107. First, the seventh combining unit 2005 reads out image information i from the index file of the image holding unit 104 (Step S2101). Here, i is a variable indicating a number assigned to each component in ascending order such as 0, 1, 2, ... in order from the lower layer to the component of the upper layer for convenience in this flowchart.
Are referred to as image information i and image file i, respectively. In this flowchart, the initial value of i is 0, and the increment is 1.

【0109】次に第7合成部2005は、画像情報iに示され
る格納位置に格納された画像ファイルを画像保持部104
より取り出す(ステップS2102)。第7合成部2005は、画
像ファイルiの表示サイズ及び表示位置を読み出し、当
該画像ファイルのコンポーネントiの画面上での重ね合
わせ範囲を設定する(ステップS2103)。
Next, the seventh synthesizing unit 2005 stores the image file stored in the storage position indicated by the image information i in the image holding unit 104
Is taken out (step S2102). The seventh synthesizing unit 2005 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S2103).

【0110】第7合成部2005は、画像情報iに示される画
像種別が動画像であるか静止画像であるかを判別する
(ステップS2104)。判別の結果、動画像である場合、
第7合成部2005は、画像ファイルiのα値をビデオプレー
ン2002の第kプレーンのα値の領域に複写する(ステッ
プS2105)。これを式にすると(数16)となる。
The seventh synthesizing unit 2005 determines whether the image type indicated by the image information i is a moving image or a still image (step S2104). If the result of the determination is a moving image,
The seventh synthesizing unit 2005 copies the α value of the image file i into the area of the α value of the k-th plane of the video plane 2002 (Step S2105). When this is made into an equation, it becomes (Formula 16).

【0111】[0111]

【数16】 (Equation 16)

【0112】(数16)においてβk(x,y)はビデオプレー
ン2002の第kプレーンの合成α値の領域に格納される値
を示し、αi(x,y)は画像ファイルiのα値である。このk
の値は1からNの値をとり、ステップS2105の処理が繰り
返される度に1ずつインクリメントされる。その後、第
7合成部2005は、第kプレーン以外の第mプレーンの合成
α値の領域に対して、
In equation (16), β k (x, y) indicates a value stored in the area of the composite α value of the k-th plane of the video plane 2002, and α i (x, y) indicates α of the image file i. Value. This k
Takes a value from 1 to N, and is incremented by one each time the process of step S2105 is repeated. Then
7 The synthesizing unit 2005 calculates the synthesized α value area of the m-th plane other than the k-th plane.

【0113】[0113]

【数17】 [Equation 17]

【0114】の計算を行ってβm(x,y)の値を更新する。
ここでβm(x,y)は、第mプレーンの合成α値の領域に格
納される値を示し、mはkを除く1からNの値をとる(ステ
ップS2106)。すなわちステップS2105及びステップS210
6の演算は、(数7)のの演算と同等であり、最終的な
合成結果の画像に対する各動画像コンポーネントの合成
比率、すなわち合成α値を算出している。
Is calculated to update the value of β m (x, y).
Here, β m (x, y) indicates a value stored in the composite α value area of the m-th plane, and m takes a value from 1 to N excluding k (step S2106). That is, steps S2105 and S210
The calculation of 6 is equivalent to the calculation of (Equation 7), and calculates the combination ratio of each moving image component to the final combined result image, that is, the combined α value.

【0115】このようにして、第7合成部2005は、すべ
ての画像ファイルについて処理を行ったら第7合成処理
を終了する(ステップS2107)。その結果、ビデオプレ
ーン2002の各プレーンには、それぞれの動画像コンポー
ネント用の合成α値が格納される。第8合成部2006は、
制御部2000からEPG表示の指示を受けると、ビデオプレ
ーン2002の各プレーンとOSDプレーン107との各RGB成分
を合成する第8合成処理を行い、結果の合成画像を出力
部111に出力する。
As described above, the seventh synthesizing unit 2005 ends the seventh synthesizing process when all the image files have been processed (step S2107). As a result, in each plane of the video plane 2002, the composite α value for each moving image component is stored. The eighth synthesis unit 2006
When receiving an EPG display instruction from the control unit 2000, the control unit 2000 performs an eighth synthesis process of synthesizing each RGB component between each plane of the video plane 2002 and the OSD plane 107, and outputs the resultant synthesized image to the output unit 111.

【0116】動画像コンポーネントがN枚ある場合、第8
合成部2006による合成は次式で表される。
If there are N moving image components, the eighth
The synthesis by the synthesis unit 2006 is represented by the following equation.

【0117】[0117]

【数18】 (Equation 18)

【0118】ここにおいてR(x,y)、G(x,y)、B(x,y)は、
出力部111に出力される各ピクセルのR、G、B成分であ
り、β1(x,y)、Rv1(x,y)、Gv1(x,y)、Bv1(x,y)は、ビデ
オプレーン2002の第1プレーンに格納されている動画像
データの合成α値及びRGB成分であり、β2(x,y)、R
v2(x,y)、Gv2(x,y)、Bv2(x,y)は、ビデオプレーン2002
の第2プレーンに格納されている動画像データの合成α
値及びRGB成分であり、βN(x,y)、RvN(x,y)、GvN(x,
y)、BvN(x,y)は、ビデオプレーン2002の第Nプレーンに
格納されている動画像データの合成α値及びRGB成分で
あり、Ro(x,y)、Go(x,y)、B o(x,y)はOSDプレーン107に
格納されているRGB成分である。 <動作>以上のように構成された画像合成装置300は、
図10に示す画像合成装置100の動作の流れとほぼ同じで
ある。
Here, R (x, y), G (x, y) and B (x, y) are
R, G, and B components of each pixel output to the output unit 111.
, Β1(x, y), Rv1(x, y), Gv1(x, y), Bv1(x, y) is the bidet
Moving image stored in the first plane of Oplane 2002
The combined alpha value and RGB component of the data, βTwo(x, y), R
v2(x, y), Gv2(x, y), Bv2(x, y) is video plane 2002
Of moving image data stored in the second plane of
Value and RGB components, βN(x, y), RvN(x, y), GvN(x,
y), BvN(x, y) is the Nth plane of video plane 2002
With the combined alpha value and RGB component of the stored moving image data
Yes, Ro(x, y), Go(x, y), B o(x, y) on OSD plane 107
The stored RGB components. <Operation> The image synthesizing apparatus 300 configured as described above
The operation flow of the image synthesizing apparatus 100 shown in FIG.
is there.

【0119】ただし以下の点で異なっている。すなわち
ステップS1002の処理をEPG生成部2003が行い、EPG生成
部2003は、1つの動画像コンポーネントのではなく複数
の動画像コンポーネントの表示位置及び表示サイズをビ
デオ再生部2001に通知する。またステップS1003の処理
を第6合成部2004が行う。
However, they differ in the following points. That is, the EPG generation unit 2003 performs the process of step S1002, and the EPG generation unit 2003 notifies the video reproduction unit 2001 of the display positions and display sizes of a plurality of moving image components instead of one moving image component. The sixth combining unit 2004 performs the process of step S1003.

【0120】またステップS1004の処理を第7合成部2005
が行い、第7合成部2005は、複数の動画像コンポーネン
トそれぞれに対応する合成α値を算出してビデオプレー
ン2002に格納する。またステップS1005の処理をビデオ
再生部2001が行い、ビデオ再生部2001は、複数の動画像
を再生してビデオプレーン2002に格納する。
Further, the processing in step S1004 is performed by the seventh synthesizing unit 2005.
The seventh combining unit 2005 calculates a combined α value corresponding to each of the plurality of moving image components and stores the combined α value in the video plane 2002. Also, the video playback unit 2001 performs the process of step S1005, and the video playback unit 2001 plays back a plurality of moving images and stores them in the video plane 2002.

【0121】さらにステップS1006の処理を第8合成部20
06が行い、第8合成部2006は、複数の動画像コンポーネ
ントのRGB成分をそれぞれの合成α値で重み付けた値
と、第6合成画像データのRGB成分とを加算し、加算後に
得られる合成画像のRGB成分を出力部111に出力する(ス
テップS1006)。このようにして第8合成部2006は、停止
の指示があるまでビデオプレーン2002の各プレーンとOS
Dプレーン107とを合成して出力しつづけ、ビデオ再生部
2001、第6合成部2004及び第7合成部2005の処理と並行し
て処理を行う。 <実施形態4> <構成>図21は、本発明の実施形態4に係る画像合成装
置の構成を示すブロック図である。
Further, the processing in step S1006 is performed by the eighth synthesizing unit 20.
06, the eighth synthesis unit 2006 adds the RGB components of the sixth synthesized image data and the values obtained by weighting the RGB components of the plurality of moving image components with the respective synthesized α values, and obtains a synthesized image obtained after the addition. Are output to the output unit 111 (step S1006). In this way, the eighth synthesizing unit 2006 checks each plane of the video plane 2002 and the OS until the stop instruction is given.
Continue to synthesize and output with the D plane 107,
The processing is performed in parallel with the processing of 2001, the sixth synthesis unit 2004, and the seventh synthesis unit 2005. Fourth Embodiment <Structure> FIG. 21 is a block diagram showing a structure of an image synthesizing apparatus according to a fourth embodiment of the present invention.

【0122】同図において画像合成装置400は、入力部1
01、制御部4102、EPG生成部4103、画像保持部4104、ビ
デオ再生部105、ビデオプレーン106、OSDプレーン107、
第9合成部4108、第10合成部4109、第3合成部110、出力
部111から構成され、ポーターダフ演算を用いた画像合
成を行う。ポーターダフ演算については、例えば、T.Po
rter および T. Duff 共著の『Compositing Digital Im
ages』(SIGGRAPH 84,253〜259)に記述されている。な
お、本実施形態においても、必要に応じて図2(a)
(b)を使って説明するものとする。
In the same figure, the image synthesizing device 400 includes an input unit 1
01, control unit 4102, EPG generation unit 4103, image holding unit 4104, video reproduction unit 105, video plane 106, OSD plane 107,
It is composed of a ninth combining unit 4108, a tenth combining unit 4109, a third combining unit 110, and an output unit 111, and performs image combining using Porter-Duff operation. For Porter Duff operation, for example, T.Po
rter and T. Duff, Compositing Digital Im
ages "(SIGGRAPH 84, 253-259). In this embodiment, as shown in FIG.
This will be explained using (b).

【0123】ここでポーターダフ演算について簡単に説
明しておく。ポーターダフ演算は、ソースのピクセルと
デスティネーションのピクセルとを結合するための12
種類の演算規則を規定したものである。ソースのピクセ
ルとデスティネーションのピクセルは、RGB成分とα値
とを持つ。ただしこのα値の定義は、実施形態1〜3の
α値とは異なる。実施形態1〜3で使用されるα値は、
2つの画像間に定義されるものであったのに対し、本実
施形態のポーターダフ演算に使用されるα値は、各画像
に対してα値が定義されている。ポーターダフ演算で
は、α値を持つ2つの画像を合成演算した結果の画像も
α値を持つ。この合成結果の画像を、実際に画面に表示
する場合、当該画像のRGB値にα値をかけ合わせた値が
出力される。
Here, the porter-duff operation will be briefly described. The Porter-Duff operation is a 12-bit operation for combining the source and destination pixels.
It defines the types of operation rules. The source pixel and the destination pixel have an RGB component and an α value. However, the definition of the α value is different from the α values of the first to third embodiments. The α value used in the first to third embodiments is
In contrast to the definition between two images, the α value used in the porter-duff operation of the present embodiment is defined for each image. In the Porter-Duff operation, an image obtained as a result of combining two images having an α value also has an α value. When an image resulting from the synthesis is actually displayed on the screen, a value obtained by multiplying the RGB value of the image by the α value is output.

【0124】本実施形態の画像合成装置400は、12種
類の演算規則のうち有用な8種類の演算を用いて画像合
成を行う。8種類の演算規則は、「CLEAR」、「SRC」、
「SRC#OVER」、「DST#OVER」、「SRC#IN」、「DST#I
N」、「SRC#OUT」及び「DST#OUT」である。「CLEAR」
は、デスティネーションのRGB成分及びα値の両方をク
リアする。ソースとデスティネーションのどちらも入力
として使用されない。本実施形態においてはデスティネ
ーションはOSDプレーン107に保持されている画像に相当
し、ソースは画像ファイルiの画像に相当する。
The image synthesizing apparatus 400 of this embodiment performs image synthesizing by using eight types of useful operations out of twelve types of operation rules. The eight calculation rules are "CLEAR", "SRC",
"SRC # OVER", "DST # OVER", "SRC # IN", "DST # I"
N "," SRC # OUT "and" DST # OUT ". "CLEAR"
Clears both the RGB components and the α value of the destination. Neither the source nor the destination is used as input. In the present embodiment, the destination corresponds to the image held in the OSD plane 107, and the source corresponds to the image of the image file i.

【0125】「SRC」は、ソースをデスティネーション
にコピーする。「SRC#OVER」は、ソースをデスティネー
ションの上に重ね合わせる。「DST#OVER」は、デスティ
ネーションをソースの上に重ね合わせ、その結果生成さ
れたRGB成分によりデスティネーションを置き換える。
「SRC#IN」は、デスティネーションと重なり合うソース
部分によりデスティネーションを置き換える。
“SRC” copies a source to a destination. "SRC # OVER" overlays the source on the destination. “DST_OVER” overlays the destination on the source and replaces the destination with the resulting RGB components.
"SRC # IN" replaces the destination by the source part overlapping the destination.

【0126】「DST#IN」は、ソースと重なり合うデステ
ィネーション部分によりデスティネーションを置き換え
る。「SRC#OUT」は、デスティネーションとは重ならな
いソース部分によりデスティネーションを置き換える。
「DST#OUT」は、ソースとは重ならないデスティネーシ
ョン部分によりデスティネーションを置き換える。以
下、他の実施形態とは異なる符号の構成要素について説
明する。
"DST # IN" replaces a destination with a destination portion overlapping with the source. “SRC # OUT” replaces the destination with a source part that does not overlap with the destination.
“DST # OUT” replaces the destination with a destination portion that does not overlap with the source. Hereinafter, components having reference numerals different from those of the other embodiments will be described.

【0127】制御部4102は、画像合成装置400の構成要
素全てを制御する。より具体的には、画像合成装置400
のオンが指示されると、ビデオ再生部105に放送番組を
再生させる。チャンネル切替えが指示されると、ビデオ
再生部105に現在再生中のものとは別の放送番組を再生
させる。EPG表示のオンが指示されると、EPG生成部410
3、ビデオ再生部105、第9合成部4108、第10合成部4109
及び第3合成部110等を制御して合成画像を生成させる。
The control unit 4102 controls all the components of the image synthesizing apparatus 400. More specifically, the image synthesizing device 400
Is turned on, the video playback unit 105 plays back the broadcast program. When the channel switching is instructed, the video reproducing unit 105 reproduces a broadcast program different from the one currently being reproduced. When instructed to turn on the EPG display, the EPG generation unit 410
3, video playback unit 105, ninth combining unit 4108, tenth combining unit 4109
And the third combining unit 110 and the like are controlled to generate a combined image.

【0128】EPG生成部4103は、実施形態1と同様に、放
送局より放送されるEPG情報を取得して保持し、EPG情報
に基づいて複数の画像ファイルと1つのインデックスフ
ァイルとを生成し、画像保持部4104に格納する。さらに
EPG生成部4103は、EPG情報からEPG表示画面を構成する
動画像のコンポーネントの表示サイズ及び表示位置を抽
出し、ビデオ再生部105に出力する。
The EPG generation unit 4103 acquires and holds EPG information broadcasted from a broadcast station, generates a plurality of image files and one index file based on the EPG information, as in the first embodiment. The image is stored in the image holding unit 4104. further
The EPG generation unit 4103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs it to the video reproduction unit 105.

【0129】画像保持部4104は、複数の画像ファイルと
1つのインデックスファイルとを保持する。インデック
スファイルは、複数の画像ファイルを管理するためのも
ので、複数の画像情報から構成される。1つの画像情報
が1つの画像ファイルに対応している。複数の画像情報
は、インデックスファイル内においてコンポーネントの
重ね合わせ順序と同じ順序に配列される。画像情報は、
画像種別と演算種別と格納位置とから構成される。画像
種別は、画像ファイルの画像が静止画像であるか動画像
であるかを示す。演算種別は、ポータダフに規定される
12種類の演算のうち、どの演算を用いるかを表す。格
納位置は、画像保持部4104における画像ファイルの先頭
の位置を示す。
The image holding unit 4104 holds a plurality of image files and one index file. The index file is for managing a plurality of image files and includes a plurality of pieces of image information. One piece of image information corresponds to one image file. The plurality of pieces of image information are arranged in the index file in the same order as the superposition order of the components. Image information is
It is composed of an image type, a calculation type, and a storage position. The image type indicates whether the image of the image file is a still image or a moving image. The calculation type indicates which of the twelve types of calculation specified by Porta Duff is used. The storage position indicates the head position of the image file in the image holding unit 4104.

【0130】図22(a)は、インデックスファイルの一
例を示す。同図のインデックスファイル4410は、画像情
報4421、4422及び4423から構成され、同順にコンポーネ
ントの重ね合わせ順序を表す。すなわち画像情報4421が
最下位層のコンポーネントに対応し、画像情報4422がそ
の次の層のコンポーネントに対応し、画像情報4423が最
上位層のコンポーネントに対応する。列411側の値は、
コンポーネントの画像種別を示し、「0」が静止画像、
「1」が動画像を示す。列413の値は演算種別を示す。列
413に入り得る値と演算種別との関係を図13(b)に示
す。例えば行4422列413に格納されている「3」
は演算「SRC OVER」を、行4423列413、
行4421列413に格納されている「2」は演算「S
RC」を表す。列412側の値は、画像ファイルの格納位
置を示す。
FIG. 22A shows an example of an index file. An index file 4410 shown in FIG. 11 is composed of image information 4421, 4422, and 4423, and indicates the order of superposition of components in the same order. That is, the image information 4421 corresponds to the component of the lowest layer, the image information 4422 corresponds to the component of the next layer, and the image information 4423 corresponds to the component of the highest layer. The value in column 411 is
Indicates the image type of the component, "0" is a still image,
“1” indicates a moving image. The value in column 413 indicates the type of operation. Column
FIG. 13B shows the relationship between the values that can enter 413 and the operation type. For example, “3” stored in row 4422, column 413
Computes the operation "SRC OVER" in row 4423, column 413,
“2” stored in row 4421 and column 413 is the operation “S
RC ". The value in column 412 indicates the storage location of the image file.

【0131】また画像430、440、450は、それぞれコン
ポーネント202、203、204に対応し、それぞれの画像フ
ァイル中の画像データをイメージ的に示したものであ
る。ここにおいて画像440は、コンポーネント203に対応
する画像データの全てのRGB成分が0であることを示して
いる。ポーターダフ演算では、全ての画像に対してα値
がセットされるため、画像430は一番下のコンポーネ
ントであるが、各ピクセルに対して任意のα値がセット
される。
The images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and represent the image data in each image file. Here, the image 440 indicates that all the RGB components of the image data corresponding to the component 203 are 0. In the Porter-Duff operation, since the α value is set for all the images, the image 430 is the lowest component, but an arbitrary α value is set for each pixel.

【0132】画像保持部4104は、複数の画像ファイルと
1つのインデックスファイルとを保持する。第9合成部4
108は、制御部4102から指示を受けると、画像保持部410
4に保持されている複数の画像ファイルの画像データを
合成して第9合成画像データを生成しOSDプレーン107に
格納する。この処理を第9合成処理と呼ぶ。
The image holding unit 4104 holds a plurality of image files and one index file. 9th synthesis section 4
108 receives the instruction from the control unit 4102, the image holding unit 410
The ninth combined image data is generated by combining the image data of the plurality of image files held in 4 and stored in the OSD plane 107. This process is called a ninth combining process.

【0133】図23は、第9合成部4108による合成の手順
を示すフローチャートである。同図において、図8と同
じステップ番号のステップでは同じ処理が行われる。以
下、図8とは異なるステップ番号の処理について説明す
る。 ステップS4802:第9合成部4108は、画像情報iに示され
る格納位置に格納された画像ファイルi及び画像情報iに
示される演算種別を読み出す。
FIG. 23 is a flowchart showing the procedure of combining by the ninth combining section 4108. In the figure, the same processing is performed in steps having the same step numbers as those in FIG. Hereinafter, the processing of the step numbers different from those in FIG. 8 will be described. Step S4802: The ninth combining section 4108 reads the image file i stored in the storage position indicated by the image information i and the operation type indicated by the image information i.

【0134】ステップS4805:ステップS4802で読み出し
た演算種別に応じて、ピクセル単位に図24に示すポータ
ーダフアルファ合成演算を行う。 ステップS4806:動画像のRGB成分を0とおいて、演算種
別に応じて、ピクセル単位に図25に示す演算を行う。 ステップS4807:演算種別に応じて、ピクセル単位に図2
6に示すα値の計算を行う。
Step S4805: The Porter Duff alpha synthesis operation shown in FIG. 24 is performed for each pixel in accordance with the operation type read in step S4802. Step S4806: With the RGB components of the moving image set to 0, the calculation shown in FIG. 25 is performed for each pixel according to the type of calculation. Step S4807: FIG. 2 in pixel units according to the operation type
The α value shown in 6 is calculated.

【0135】なお、図24、図25、図26はポーターダフ演
算の中で意味があるといわれている8演算のみについて
式を示している。第10合成部4109は、制御部4102から指
示を受けると、画像保持部4104に格納されている画像デ
ータからOSDプレーン107に対するビデオプレーン
106のα値を生成し、ビデオプレーン106に格納す
る。
FIGS. 24, 25 and 26 show equations for only eight operations which are said to be significant in the Porter-Duff operation. Upon receiving an instruction from the control unit 4102, the tenth combining unit 4109 generates an α value of the video plane 106 for the OSD plane 107 from the image data stored in the image holding unit 4104, and stores the α value in the video plane 106.

【0136】図27は、第10合成部4109による合成の手順
を示すフローチャートである。同図において、図9と同
じステップ番号のステップでは同じ処理が行われる。よ
って以下、図9とは異なるステップ番号の処理について
説明する。 ステップS1202:第10合成部4109は、画像情報iに示され
る格納位置に格納された画像ファイルi及び画像情報iに
示される演算種別を読み出す。
FIG. 27 is a flowchart showing the procedure of the combining by the tenth combining section 4109. In the figure, the same processing is performed in steps having the same step numbers as those in FIG. Therefore, the process of step numbers different from those in FIG. 9 will be described below. Step S1202: The tenth combining section 4109 reads out the image file i stored in the storage location indicated by the image information i and the operation type indicated by the image information i.

【0137】ステップS4905:第10合成部4109は、演算
種別に応じて、ピクセル単位に図28に示す演算を行う。
基本的に、動画像の上に静止画像が描画されるので、動
画像の成分が弱められる事になる。図28の表中、αはビ
デオプレーン106の各ピクセルの合成α値、αiは、
取り出した画像ファイルのビデオプレーン106上に重
ね合わせられる各ピクセルのα値であり、これらのα値
は理論上0から1の間を取る。実際の実現方法として、
α値が0〜255や0〜15などの値で表現する。
Step S4905: The tenth combining section 4109 performs the calculation shown in FIG. 28 for each pixel in accordance with the type of calculation.
Basically, since a still image is drawn on a moving image, the components of the moving image are weakened. In the table of FIG. 28, α is a composite α value of each pixel of the video plane 106, and α i is
The α value of each pixel superimposed on the video plane 106 of the extracted image file, and these α values theoretically take a value between 0 and 1. As a realization method,
The α value is represented by a value such as 0 to 255 or 0 to 15.

【0138】ステップS4906:第10合成部4109は、演算
種別に応じて、ピクセル単位に図29に示す演算を行う。
なお、第9合成部4108と第10合成部4109は同期して動作
する。ステップS1202、S903、S904、S907はステッ
プS4802、S803、S804、S807の処理結果をそのまま
利用して同期をとってもよい。また、ステップS4905及
びステップS4906は、ステップS807の前に終了しなけ
ればならない。
Step S4906: The tenth combining section 4109 performs the calculation shown in FIG. 29 for each pixel according to the type of calculation.
The ninth combining unit 4108 and the tenth combining unit 4109 operate in synchronization. Steps S1202, S903, S904, and S907 may be synchronized using the processing results of steps S4802, S803, S804, and S807 as they are. Steps S4905 and S4906 must be completed before step S807.

【0139】以上のような構成により画像合成装置400
は、ポーターダフ演算による画像合成を行うことがで
き、実施形態1と同様にメモリを小さくし、乗算回数を
少なくすることができる。図30は、本実施形態の演算を
C言語風に記述したプログラムである。このプログラム
は1つのピクセルだけに焦点をあてている。R,G,
B、αはOSDプレーン上の1つのピクセルのR,G,
B、α値を表し,αvはこのピクセルに対応するビデオ
プレーンの合成α値を表す。
The image synthesizing apparatus 400 having the above configuration
Can perform image synthesis by Porter-Duff operation, and can reduce the memory and the number of times of multiplication as in the first embodiment. FIG. 30 is a program in which the calculation of the present embodiment is described in a C language style. This program focuses on only one pixel. R, G,
B and α are R, G, and R of one pixel on the OSD plane.
B, α value, and α v represents the composite α value of the video plane corresponding to this pixel.

【0140】1行目から5行目までが初期化処理であ
る。8、11、14行目が第9合成部4108が受け持つ演
算である。9、12行目が第10合成部4109が受け持つ演
算で、動画像の貢献度(β値)、すなわち合成α値を計
算している。16,17,18行目が第3合成部110
が受け持つ演算である。ここで16,17,18行目は
別のスレッドで平行して行い、永久ループしていてもよ
い。ここで8行目の具体的な演算は図25で示され、11
行目の具体的な演算は図24で示される。また、9行目の
具体的な演算は図29で示され、12行目の具体的な演算
は図28で示される。ここで図28のαは図30中のαvに相
当する。14行目の具体的な演算は図26で示される。
The first to fifth lines are initialization processing. The eighth, eleventh, and fourteenth rows are calculations performed by the ninth combining unit 4108. The ninth and twelfth lines are calculations performed by the tenth combining unit 4109, and the contribution (β value) of the moving image, that is, the combined α value, is calculated. The 16th, 17th, and 18th rows are the third combining unit 110
Is the operation that is responsible for. Here, the 16th, 17th, and 18th lines may be performed in parallel by another thread, and may be in a permanent loop. Here, the specific calculation on the eighth line is shown in FIG.
The specific calculation in the row is shown in FIG. The specific calculation on the ninth row is shown in FIG. 29, and the specific calculation on the twelfth row is shown in FIG. Here, α in FIG. 28 corresponds to α v in FIG. The specific calculation on the 14th line is shown in FIG.

【0141】以上のように、実施形態4の画像合成装置4
00は、各画像に定められたポーターダフ演算の演算種別
に応じて、複数の静止画像の合成と動画像の合成比率の
算出と行い、その後、演算種別に応じて動画像の各フレ
ームと合成された静止画像との合成を行う。これにより
動画像のフレームが更新される度に、複数の静止画像と
動画像のフレームとの合成を行う必要がなくなり、計算
にかかる負荷が軽くなり、処理速度も速くなる。処理速
度が速くなる結果、動画像の再生レートに合わせてリア
ルタイムに画像を合成して表示することができる。さら
にリアルタイムで合成を行えることにより、フレームバ
ッファに1つのフレームの画像が展開される度に当該フ
レームの画像と合成された静止画像との合成を行うの
で、動画像のフレーム展開用のフレームバッファの容量
を小さくすることができるという効果がある。
As described above, the image synthesizing device 4 of the fourth embodiment
00 performs synthesis of a plurality of still images and calculation of a synthesis ratio of a moving image according to the operation type of the porter duff operation determined for each image, and then synthesizes with each frame of the moving image according to the operation type. Combined with the still image. This eliminates the need to combine a plurality of still images and moving image frames each time a moving image frame is updated, reducing the calculation load and increasing the processing speed. As a result of the higher processing speed, images can be combined and displayed in real time in accordance with the playback rate of the moving image. Further, by performing the synthesis in real time, each time an image of one frame is expanded in the frame buffer, the image of the frame and the synthesized still image are synthesized. There is an effect that the capacity can be reduced.

【0142】以上、本発明の画像合成装置について実施
形態に基づいて説明したが、本発明は上記実施形態に限
らない。すなわち、 (1)実施形態1、2において、動画像コンポーネント
の合成α値は、ビデオプレーン106、1501に保持される
が、動画像コンポーネントが1つの場合、OSDプレーン1
07、1501に保持されるよう構成してもよい。 (2)実施形態1〜4において、メモリ等においてピク
セルデータは、R、G、B、αの順に格納されているが、
この順に限らず、例えばα、R、G、Bの順やα、B、G、R
の順等で格納されてもよい。またピクセル毎ではなく、
R、G、B、αの各成分毎に全ピクセルに対する値が格納
されてもよい。 (3)R、G、B、αのデータ長は各1バイト、つまりR、
G、Bは0から255の256階調であり、合計で約16
70万色を表現できる。しかしR、G、B、αのデータ長
を各4ビットで表現した、いわゆるハイカラーにしても
よい。 (4)実施形態1〜4においてRGB成分のかわりにYUV成
分を用いてもよい。 (5)画像保持部104、4104は、静止画像コンポーネン
トの画像データとして、ピクセルデータを保持するが、
ベクタデータ、すなわち数式や直線、点、円などの図形
要素によって構成されるデータを保持し、第1合成部108
が画像データどうしの合成を行う際にピクセルデータに
展開するよう構成してもよい。この構成により、画像保
持部104、4104のメモリ容量をより小さくすることがで
きる。 (6)画像合成装置100、200、300及び400の各構成要素
の動作手順を、汎用のコンピュータ又はプログラム実行
機能を有する機器等に実行させるためのコンピュータプ
ログラムにしてもよい。
Although the image synthesizing apparatus of the present invention has been described based on the embodiments, the present invention is not limited to the above embodiments. That is, (1) In the first and second embodiments, the composite α value of the moving image component is held in the video planes 106 and 1501, but when there is one moving image component, the OSD plane 1
07, 1501. (2) In the first to fourth embodiments, pixel data is stored in a memory or the like in the order of R, G, B, and α.
Not limited to this order, for example, the order of α, R, G, B or α, B, G, R
May be stored in this order. Also, not pixel by pixel,
A value for all pixels may be stored for each of the R, G, B, and α components. (3) The data length of R, G, B, α is 1 byte each, that is, R,
G and B are 256 gradations from 0 to 255, and a total of about 16
700,000 colors can be expressed. However, the data length of R, G, B, α may be expressed by 4 bits, so-called high color. (4) In the first to fourth embodiments, a YUV component may be used instead of the RGB component. (5) The image holding units 104 and 4104 hold pixel data as image data of a still image component.
Vector data, that is, data composed of mathematical elements and graphic elements such as straight lines, points, and circles,
May be configured to be developed into pixel data when combining image data. With this configuration, the memory capacity of the image holding units 104 and 4104 can be further reduced. (6) The operation procedure of each component of the image synthesizing apparatuses 100, 200, 300, and 400 may be a computer program for causing a general-purpose computer or a device having a program execution function to execute.

【0143】特に実施形態4の画像合成装置400に対応す
るコンピュータプログラムは、ポーターダフの8種類の
演算に対応する8種類の演算器を不要にし、当該コンピ
ュータプログラムを実行する1つのプロセッサに8種類
全ての演算を行わせることができるという効果がある。
またこのコンピュータプログラムを、記録媒体に記録し
又は各種通信路等を介して、流通させ頒布することもで
きる。このような記録媒体にはICカード、光ディスク、
フレキシブルディスク、ROM等がある。 (7)第3合成部110は、ビデオ再生のフレーム毎に上述
の加算処理を行うよう構成されており、すなわちフレー
ムの再生と同期して加算処理を行うよう構成されている
が、同期させる必要はなく、非同期に加算処理を行うよ
う構成されていてもよい。第5合成部1503及び第8合成部
2006についても同様である。
In particular, the computer program corresponding to the image synthesizing apparatus 400 of the fourth embodiment eliminates the need for eight types of arithmetic units corresponding to the eight types of operations of Porter Duff, and all eight types are provided in one processor that executes the computer program. Has the effect that the calculation of (1) can be performed.
The computer program may be recorded on a recording medium or distributed and distributed via various communication paths. Such recording media include IC cards, optical disks,
There are a flexible disk, a ROM, and the like. (7) The third combining unit 110 is configured to perform the above-described addition processing for each frame of video playback, that is, to perform the addition processing in synchronization with the playback of the frame. However, the addition processing may be performed asynchronously. Fifth synthesis unit 1503 and eighth synthesis unit
The same is true for 2006.

【0144】[0144]

【発明の効果】本発明の画像合成装置は、動画像と複数
の静止画像とを合成して合成画像を生成する画像合成装
置であって、画像合成順序を含む合成情報であって、前
記合成画像に対する合成前の各画像の合成比率を求める
ための前記合成情報と前記複数の静止画像とを取得する
第1取得手段と、前記合成情報に基づいて前記複数の静
止画像を合成して1つの合成静止画像を生成する第1合
成手段と、前記合成情報に基づいて前記合成画像に対す
る前記動画像の合成比率を求める算出手段と、前記動画
像を構成する各フレームを取得する第2取得手段と、前
記動画像の合成比率を用いて前記各フレームと前記合成
静止画像とを合成する第2合成手段とを備えることを特
徴とする。
The image synthesizing apparatus according to the present invention is an image synthesizing apparatus for generating a synthesized image by synthesizing a moving image and a plurality of still images, wherein the synthesizing information includes an image synthesizing order. First acquisition means for acquiring the combination information and the plurality of still images for obtaining the combination ratio of each image before combination with the image, and combining the plurality of still images based on the combination information to form one image A first combining unit that generates a combined still image, a calculating unit that calculates a combining ratio of the moving image to the combined image based on the combining information, and a second obtaining unit that acquires each frame that forms the moving image. And a second synthesizing unit for synthesizing each of the frames and the synthesized still image by using the synthesis ratio of the moving image.

【0145】この構成によれば本発明の画像合成装置
は、先に複数の静止画像の合成と動画像の合成比率の算
出を行っておいてから、動画像の各フレームとの合成を
行うので、従来のようにフレーム毎に複数の静止画像と
動画像の合成を毎回行う必要がなく計算にかかる負荷が
軽く処理速度も速くなる。さらに処理速度が速くなる結
果、動画像の再生レートに合わせてリアルタイムで画像
を合成して表示することができる。
According to this configuration, the image synthesizing apparatus according to the present invention first synthesizes a plurality of still images and calculates the synthesizing ratio of the moving image, and then synthesizes the moving image with each frame. In addition, unlike the related art, it is not necessary to combine a plurality of still images and moving images for each frame every time, so that the calculation load is light and the processing speed is high. As a result of the higher processing speed, images can be combined and displayed in real time in accordance with the playback rate of the moving image.

【0146】前記合成情報は、さらに、前記各画像につ
いて、当該画像に対応する係数と当該係数を用いた合成
演算を示す演算情報とを含むことを特徴とする。この構
成によれば、画像合成装置は、上記効果に加えて、係数
と演算情報とが規定された複数の静止画像と動画像とを
合成することができる。前記画像合成装置は、画像を格
納するための第1フレームバッファと、前記動画像を構
成する各フレームを格納するための第2フレームバッフ
ァとを有し、前記第1合成手段は、前記第1取得手段によ
り取得された複数の静止画像を前記画像合成順序に従っ
て読み出し、前記係数と前記演算情報とを用いて前記第
1フレームバッファの記憶内容と読み出された各画像と
の合成を行い、その合成の結果で前記第1フレームバッ
ファの記憶内容を置き換え、前記第2取得手段は、取得
した前記各フレームを前記第2フレームバッファに格納
し、前記第2合成手段は、前記第2フレームバッファに格
納された各フレームと前記第1フレームバッファの記憶
内容とを前記動画像の合成比率を用いて合成し、前記第
2フレームバッファに格納する。
The composition information further includes, for each image, a coefficient corresponding to the image and operation information indicating a composition operation using the coefficient. According to this configuration, the image synthesizing apparatus can synthesize a plurality of still images and moving images in which coefficients and calculation information are defined, in addition to the above-described effects. The image synthesizing device has a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image, wherein the first synthesizing unit includes the first frame buffer. The plurality of still images obtained by the obtaining unit are read out according to the image synthesis order, and the plurality of still images are read out using the coefficient and the calculation information.
The storage contents of the one frame buffer and the read images are combined, and the storage result of the first frame buffer is replaced with the result of the combination.The second acquisition unit replaces each of the acquired frames with the second Stored in a 2 frame buffer, the second combining means combines the respective frames stored in the second frame buffer and the storage contents of the first frame buffer using a combination ratio of the moving image, and
Store in 2 frame buffer.

【0147】この構成によれば、画像合成装置は、第1
フレームバッファと第2フレームバッファという2つの
フレームバッファのみで複数の静止画像及び動画像の合
成を行うことができる。前記第1合成手段は、前記画像
合成順序において前記動画像の1つ前の静止画像の合成
後、かつ動画像の1つ後の静止画像の合成前に、前記動
画像に対応する係数及び演算情報を用いて、前記第1フ
レームバッファに記憶される画像に対する合成演算を行
い、前記合成演算の結果で前記第1フレームバッファの
内容を置き換える。
According to this configuration, the image synthesizing device can
A plurality of still images and moving images can be synthesized using only two frame buffers, the frame buffer and the second frame buffer. The first synthesizing means may include a coefficient and an operation corresponding to the moving image after synthesizing the still image immediately before the moving image in the image synthesizing order and before synthesizing the still image immediately after the moving image. A combining operation is performed on the image stored in the first frame buffer using the information, and the contents of the first frame buffer are replaced with the result of the combining operation.

【0148】この構成によれば、間に動画像が入った複
数の静止画像及び動画像の合成を、正確な合成比率によ
り合成することができる。前記画像合成装置は、画像表
示用の画面を有し、前記第1合成手段による合成、前記
第2取得手段による取得及び前記第2合成手段による合成
は、並行して行われ、前記第2フレームバッファは、前
記第2合成手段による合成結果の格納と同時に前記画面
への出力を行う。
According to this configuration, it is possible to combine a plurality of still images and moving images with moving images between them at an accurate combining ratio. The image synthesizing device has a screen for image display, the synthesis by the first synthesizing unit, the acquisition by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel, and the second frame The buffer outputs the result to the screen at the same time as storing the result of the synthesis by the second synthesis means.

【0149】この構成によれば、合成途中の状態が画面
に表示されるので、合成が終了するまで何も表示されな
いという状態をなくすことができる。前記合成情報は、
さらに、前記複数の画像それぞれについて、当該画像と
当該画像以外の画像との合成結果に対する合成比率を示
す合成係数を含むことを特徴とする。
According to this configuration, a state in the middle of combining is displayed on the screen, so that a state in which nothing is displayed until the combining is completed can be eliminated. The synthesis information includes:
Further, each of the plurality of images includes a synthesis coefficient indicating a synthesis ratio with respect to a synthesis result of the image and an image other than the image.

【0150】この構成によれば、画像合成装置は、複数
の画像それぞれと他の画像との合成比率と、重ね合わせ
順序とが規定された複数の静止画像及び動画像を合成す
ることができる。前記画像合成順序は画像を重ね合わせ
る順序を表し、前記合成係数は、前記複数の画像それぞ
れについて、前記画像合成順序における最背面の画像か
ら当該画像までの合成結果に対する当該画像の合成比率
を表すアルファ値であり、前記算出手段は、前記動画像
と前記動画像より前面に位置する画像全てとに対応する
アルファ値とから、前記合成画像に対する前記動画像の
合成比率を算出する。
According to this configuration, the image synthesizing apparatus can synthesize a plurality of still images and moving images in which the synthesizing ratio of each of the plurality of images and another image and the superposition order are specified. The image synthesis order represents an order in which images are superimposed, and the synthesis coefficient is an alpha that indicates, for each of the plurality of images, a synthesis ratio of the image to a synthesis result from the rearmost image to the image in the image synthesis order. A calculating unit that calculates a combination ratio of the moving image to the synthesized image from the moving image and an alpha value corresponding to all the images positioned in front of the moving image.

【0151】この構成によれば、画像合成装置は、アル
ファ値と重ね合わせ順序とが規定された静止画像及び動
画像を合成することができる。アルファ値が規定された
画像は、全体の画像に対する合成比率が予め規定された
画像と比べると、柔軟にレイアウト変更できるという利
点がある。よってアルファ値を用いた画像合成を行う画
像合成装置は、多様なレイアウトのEPG表示に対応でき
るという効果がある。
According to this configuration, the image synthesizing apparatus can synthesize a still image and a moving image in which the alpha value and the overlapping order are specified. An image in which the alpha value is specified has an advantage that the layout can be flexibly changed as compared with an image in which the composition ratio for the entire image is specified in advance. Therefore, an image synthesizing apparatus that performs image synthesizing using an alpha value has an effect that it can support EPG display of various layouts.

【0152】前記画像合成装置は、さらに、前記重ね合
わせ順序において隣り合う2つの画像の順序を入替える
入替え手段と、入替え後と入替え前とで、合成が行われ
た場合の合成結果が互いに同じになるよう、入替え後の
2つの画像に対応するアルファ値を求めて更新する更新
手段とを備え、前記第1合成手段、前記算出手段及び前
記第2合成手段は、前記入替え手段による入替え後の順
序と前記更新手段による更新後のアルファ値とを用いて
各処理を行う。
The image synthesizing apparatus further includes a swapping means for changing the order of two images adjacent to each other in the superimposing order, and a synthesizing result when the synthesizing is performed before and after the swapping. Updating means for obtaining and updating the alpha value corresponding to the two images after the replacement, wherein the first combining means, the calculating means, and the second combining means are provided after the replacement by the replacing means. , And the respective alpha values after the updating by the updating means.

【0153】この構成によれば複数の画像の順番を入替
えても、正確な合成比率による画像合成が可能となる。
またこの構成を利用して、中間層に位置する動画像を上
位層に位置するよう入替えれば、最下位層から順に複数
の静止画像を先に合成し、最後に動画像を合成するとい
う手順により合成が行えることとなり、計算量が少な
く、負荷が軽くなる。
According to this configuration, even if the order of a plurality of images is changed, it is possible to perform image composition with an accurate composition ratio.
Also, by using this configuration, if the moving image located in the intermediate layer is replaced so as to be located in the upper layer, a plurality of still images are synthesized in order from the lowest layer, and finally the moving image is synthesized. Can be combined, the amount of calculation is small, and the load is light.

【0154】前記画像合成装置は、前記第1取得手段が
取得する前記複数の静止画像を記憶するための記憶部を
有し、前記複数の静止画像それぞれは、前記合成画像と
同じか又は少ない画素数の画像データと、当該画素デー
タの前記合成画像上でのレイアウトを示すレイアウト情
報とからなり、前記第1合成手段、前記算出手段及び前
記第2合成手段は、前記レイアウト情報より定まる前記
各画像どうしの重ね合わせ部分についてそれぞれの処理
を行う。
The image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring means, and each of the plurality of still images has the same or less pixels as the synthesized image. Number of image data and layout information indicating the layout of the pixel data on the composite image, wherein the first synthesizing unit, the calculating unit, and the second synthesizing unit are each of the images determined by the layout information. Each processing is performed for the overlapping portion between the two.

【0155】前記画像合成装置は、前記第1取得手段が
取得する前記複数の静止画像を記憶するための記憶部を
有し、前記複数の静止画像それぞれは、ベクタデータ形
式で表され、前記第1合成手段は、ベクタデータを画素
データに変換してから合成を行う。この構成によれば、
静止画像のデータをピクセルデータよりもデータ量の小
さいベクタデータとするので、メモリ容量がさらに小さ
くなる。
The image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring means, wherein each of the plurality of still images is represented in a vector data format. (1) The synthesizing unit converts the vector data into the pixel data and then synthesizes the pixel data. According to this configuration,
Since the still image data is vector data having a smaller data amount than the pixel data, the memory capacity is further reduced.

【0156】本発明の画像合成装置は、複数の動画像と
複数の静止画像とを合成して合成画像を生成する画像合
成装置であって、画像合成順序を含む合成情報であっ
て、前記合成画像に対する合成前の各画像の合成比率を
求めるための前記合成情報と前記複数の静止画像とを取
得する第1取得手段と、前記合成情報に基づいて前記複
数の静止画像を合成して1つの合成静止画像を生成する
第1合成手段と、前記合成情報に基づいて前記合成画像
に対する前記複数の動画像それぞれの合成比率を求める
算出手段と、前記複数の動画像それぞれを構成する各フ
レームを取得する第2取得手段と、前記複数の動画像そ
れぞれの合成比率を用いて、前記複数の動画像それぞれ
の各フレームと前記合成静止画像とを合成する第2合成
手段とを備える。
An image synthesizing apparatus according to the present invention is an image synthesizing apparatus for synthesizing a plurality of moving images and a plurality of still images to generate a synthesized image, wherein the synthesizing information includes an image synthesizing order. First acquisition means for acquiring the combination information and the plurality of still images for obtaining the combination ratio of each image before combination with the image, and combining the plurality of still images based on the combination information to form one image First combining means for generating a combined still image, calculating means for calculating a combining ratio of each of the plurality of moving images with respect to the combined image based on the combining information, and obtaining each frame constituting each of the plurality of moving images And a second synthesizing unit for synthesizing each frame of each of the plurality of moving images and the synthesized still image using a synthesizing ratio of each of the plurality of moving images.

【0157】この構成によれば、複数の動画像と複数の
静止画像との合成を計算量少なくすることができる。ま
た、本発明の画像合成装置は、動画像と複数の静止画像
とを合成して合成画像を生成する画像合成装置であっ
て、前記複数の静止画像を取得する第1取得手段と、前
記複数の静止画像を合成して1つの合成静止画像を生成
する第1合成手段と、前記動画像を構成する各フレーム
を取得する第2取得手段と、前記動画像を構成する各フ
レームと前記合成静止画像とを合成する第2合成手段と
を備える。
According to this configuration, the amount of calculation of combining a plurality of moving images and a plurality of still images can be reduced. Further, the image synthesizing device of the present invention is an image synthesizing device that synthesizes a moving image and a plurality of still images to generate a synthesized image, wherein a first obtaining unit that obtains the plurality of still images, First synthesizing means for synthesizing the still images of the first and second frames to generate one synthesized still image, second obtaining means for obtaining each frame forming the moving image, and each frame forming the moving image and the synthesized still image. Second combining means for combining the image with the image.

【0158】この構成によれば、表示画面と同じ画素数
に相当する静止画像用のメモリを静止画像の枚数分用意
する必要がないので、メモリ容量を小さくできる。また
この構成によれば、複数の静止画像を先に合成し、後に
動画像を合成するので、動画像のフレーム単位に毎回複
数の静止画像と動画像の合成を行う必要がなく、計算量
が少なくなる。
According to this configuration, it is not necessary to prepare still image memories for the number of still images corresponding to the same number of pixels as the display screen, so that the memory capacity can be reduced. Further, according to this configuration, since a plurality of still images are combined first and a moving image is combined later, it is not necessary to combine a plurality of still images and a moving image every frame unit of the moving image, and the amount of calculation is reduced. Less.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1に係る画像合成装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image composition device according to a first embodiment of the present invention.

【図2】(a)は、合成画像201を示す。(b)は、合成画像20
1を構成するコンポーネントを示す。
FIG. 2A shows a composite image 201. (b) is a composite image 20
Shows the components that make up 1.

【図3】画像ファイルの構造を説明するための図であ
る。
FIG. 3 is a diagram for explaining the structure of an image file.

【図4】インデックスファイルの一例を示す。FIG. 4 shows an example of an index file.

【図5】動画像データの構造を示す。FIG. 5 shows a structure of moving image data.

【図6】動画像データ501のピクセルデータをイメージ的
に示す。
FIG. 6 illustrates pixel data of moving image data 501 in an image.

【図7】第1合成画像データのデータ構造を示す。FIG. 7 shows a data structure of first combined image data.

【図8】第1合成処理の処理手順を示すフローチャートで
ある。
FIG. 8 is a flowchart illustrating a processing procedure of a first combining process.

【図9】第2合成の処理手順を示すフローチャートであ
る。
FIG. 9 is a flowchart illustrating a processing procedure of a second synthesis.

【図10】本実施形態の画像合成装置100のEPG表示時にお
ける動作の流れを説明する図である。
FIG. 10 is a diagram illustrating a flow of an operation of the image synthesizing apparatus 100 according to the present embodiment when displaying an EPG.

【図11】N+1枚の動画像コンポーネント又は静止画像コ
ンポーネントからなるコンポーネント群を示す。
FIG. 11 illustrates a component group including N + 1 moving image components or still image components.

【図12】本発明の演算をC言語風に記述したプログラム
である。
FIG. 12 is a program describing the operation of the present invention in a C language style.

【図13】図12を変形させたプログラムを示す。FIG. 13 shows a program obtained by modifying FIG. 12.

【図14】本発明の実施形態2に係る画像合成装置の構成
を示すブロック図である。
FIG. 14 is a block diagram illustrating a configuration of an image composition device according to Embodiment 2 of the present invention.

【図15】第4合成処理の処理手順を示すフローチャート
である。
FIG. 15 is a flowchart illustrating a processing procedure of a fourth combining process.

【図16】本実施形態の画像合成装置200のEPG表示時にお
ける動作の流れを説明する図である。
FIG. 16 is a diagram illustrating a flow of an operation of the image combining device 200 according to the present embodiment when displaying an EPG.

【図17】隣り合う2枚のコンポーネントの重ね合わせ順
序を入替えを説明する図である。
FIG. 17 is a diagram for explaining replacement of the overlapping order of two adjacent components.

【図18】動画像のコンポーネントが最上位層にくるよう
に静止画像のコンポーネントと入替える様子を示す。
FIG. 18 illustrates a situation in which components of a moving image are replaced with components of a still image so as to be at the highest layer.

【図19】本発明の実施形態3に係る画像合成装置の構成
を示すブロック図である。
FIG. 19 is a block diagram illustrating a configuration of an image composition device according to Embodiment 3 of the present invention.

【図20】第7合成の処理手順を示すフローチャートであ
る。
FIG. 20 is a flowchart illustrating a procedure of a seventh combining process.

【図21】本発明の実施形態4に係る画像合成装置の構成
を示すブロック図である。
FIG. 21 is a block diagram illustrating a configuration of an image composition device according to Embodiment 4 of the present invention.

【図22】(a)は、インデックスファイルの一例を示す(b)
は、演算種別と番号との対応を示す。
FIG. 22 (a) shows an example of an index file (b)
Indicates the correspondence between the operation type and the number.

【図23】第9合成部4108による合成の手順を示すフロー
チャートである。
[Fig. 23] Fig. 23 is a flowchart illustrating a procedure of the combining by a ninth combining unit 4108.

【図24】演算種別に応じたポーターダフα合成演算を示
す。
FIG. 24 illustrates a Porter Duff α synthesis operation according to the operation type.

【図25】演算種別に応じたポーターダフα合成演算を示
す。
FIG. 25 illustrates a Porter Duff α combination operation according to the operation type.

【図26】演算種別に応じたポーターダフα合成演算を示
す。
FIG. 26 illustrates a Porter Duff α combination operation according to the operation type.

【図27】第10合成部4109による合成の手順を示すフロー
チャートである。
[Fig. 27] Fig. 27 is a flowchart illustrating a procedure of combining by a tenth combining unit 4109.

【図28】演算種別に応じたポーターダフα合成演算を示
す。
FIG. 28 illustrates a Porter Duff α combination operation according to the operation type.

【図29】演算種別に応じたポーターダフα合成演算を示
す。
FIG. 29 illustrates a Porter Duff α combination operation according to the operation type.

【図30】本実施形態の演算をC言語風に記述したプログ
ラムである。
FIG. 30 is a program describing the computation of the present embodiment in a C language style.

【図31】(a)は、OSDプレーン2502とビデオプレーン2501
の画像が合成されて合成画像2503が出力される様子を表
す概念図である。(b)は、静止画像及び動画像のコンポ
ーネントが重畳されている様子を示す。
FIG. 31A shows an OSD plane 2502 and a video plane 2501.
FIG. 5 is a conceptual diagram illustrating a state in which the images of FIG. (b) shows a state in which components of a still image and a moving image are superimposed.

【符号の説明】[Explanation of symbols]

100 画像合成装置 101 入力部 102 制御部 103 EPG生成部 104 画像保持部 105 ビデオ再生部 106 ビデオプレーン 107 OSDプレーン 108 第1合成部 109 第2合成部 110 第3合成部 111 出力部 100 Image synthesis device 101 Input unit 102 Control unit 103 EPG generation unit 104 Image holding unit 105 Video playback unit 106 Video plane 107 OSD plane 108 First synthesis unit 109 Second synthesis unit 110 Third synthesis unit 111 Output unit

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 動画像と複数の静止画像とを合成して合
成画像を生成する画像合成装置であって、 画像合成順序を含む合成情報であって、前記合成画像に
対する合成前の各画像の合成比率を求めるための前記合
成情報と前記複数の静止画像とを取得する第1取得手段
と、 前記合成情報に基づいて前記複数の静止画像を合成して
1つの合成静止画像を生成する第1合成手段と、 前記合成情報に基づいて前記合成画像に対する前記動画
像の合成比率を求める算出手段と、 前記動画像を構成する各フレームを取得する第2取得手
段と、 前記動画像の合成比率を用いて前記各フレームと前記合
成静止画像とを合成する第2合成手段とを備えることを
特徴とする画像合成装置。
1. An image synthesizing apparatus for synthesizing a moving image and a plurality of still images to generate a synthetic image, the synthesizing information including an image synthesizing order, and First obtaining means for obtaining the combined information and the plurality of still images for obtaining a combined ratio; and a first obtaining unit for combining the plurality of still images based on the combined information to generate one combined still image Synthesizing means, calculating means for calculating a synthesizing ratio of the moving image to the synthetic image based on the synthesizing information, second obtaining means for obtaining each frame constituting the moving image, and synthesizing ratio of the moving image An image synthesizing apparatus, comprising: second synthesizing means for synthesizing each of the frames and the synthesized still image by using the second synthesizing unit.
【請求項2】 前記合成情報は、さらに、前記各画像に
ついて、当該画像に対応する係数と当該係数を用いた合
成演算を示す演算情報とを含むことを特徴とする請求項
1に記載の画像合成装置。
2. The composite information further includes, for each image, a coefficient corresponding to the image and operation information indicating a synthesis operation using the coefficient.
2. The image synthesizing device according to 1.
【請求項3】 前記画像合成装置は、 画像を格納するための第1フレームバッファと、 前記動画像を構成する各フレームを格納するための第2
フレームバッファとを有し、 前記第1合成手段は、 前記第1取得手段により取得された複数の静止画像を前
記画像合成順序に従って読み出し、前記係数と前記演算
情報とを用いて前記第1フレームバッファの記憶内容と
読み出された各画像との合成を行い、その合成の結果で
前記第1フレームバッファの記憶内容を置き換え、 前記第2取得手段は、取得した前記各フレームを前記第2
フレームバッファに格納し、 前記第2合成手段は、 前記第2フレームバッファに格納された各フレームと前
記第1フレームバッファの記憶内容とを前記動画像の合
成比率を用いて合成し、前記第2フレームバッファに格
納することを特徴とする請求項2に記載の画像合成装
置。
3. The image synthesizing device, comprising: a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image.
A frame buffer, wherein the first synthesizing unit reads the plurality of still images obtained by the first obtaining unit in the image synthesizing order, and uses the coefficient and the calculation information to form the first frame buffer. The storage contents of the first frame buffer are replaced with the storage contents of the first frame buffer with the result of the combination, and the second acquisition unit replaces each of the acquired frames with the second image.
Stored in a frame buffer, the second synthesizing unit synthesizes each of the frames stored in the second frame buffer and the storage content of the first frame buffer using a synthesizing ratio of the moving image, and 3. The image synthesizing device according to claim 2, wherein the image is stored in a frame buffer.
【請求項4】 前記第1合成手段は、前記画像合成順序に
おいて前記動画像の1つ前の静止画像の合成後、かつ動
画像の1つ後の静止画像の合成前に、前記動画像に対応
する係数及び演算情報を用いて、前記第1フレームバッ
ファに記憶される画像に対する合成演算を行い、前記合
成演算の結果で前記第1フレームバッファの内容を置き
換えることを特徴とする請求項3に記載の画像合成装
置。
4. The first synthesizing unit, after synthesizing the still image immediately before the moving image in the image synthesizing order, and before synthesizing the still image immediately after the moving image, Using the corresponding coefficient and operation information, performing a synthesis operation on the image stored in the first frame buffer, replacing the contents of the first frame buffer with the result of the synthesis operation, wherein The image synthesizing device according to the above.
【請求項5】 前記画像合成装置は、画像表示用の画面
を有し、前記第1合成手段による合成、前記第2取得手段
による取得及び前記第2合成手段による合成は、並行し
て行われ、 前記第2フレームバッファは、前記第2合成手段による合
成結果の格納と同時に前記画面への出力を行うことを特
徴とする請求項3に記載の画像合成装置。
5. The image synthesizing apparatus has a screen for displaying an image, and the synthesis by the first synthesis unit, the acquisition by the second acquisition unit, and the synthesis by the second synthesis unit are performed in parallel. 4. The apparatus according to claim 3, wherein the second frame buffer outputs the result of synthesis to the screen at the same time as storing the synthesis result by the second synthesis unit.
【請求項6】 前記合成情報は、さらに、前記複数の画
像それぞれについて、当該画像と当該画像以外の画像と
の合成結果に対する合成比率を示す合成係数を含むこと
を特徴とする請求項1に記載の画像合成装置。
6. The combination information according to claim 1, wherein the combination information further includes, for each of the plurality of images, a combination coefficient indicating a combination ratio of a combination result of the image and an image other than the image. Image synthesis device.
【請求項7】 前記画像合成装置は、 画像を格納するための第1フレームバッファと、 前記動画像を構成する各フレームを格納するための第2
フレームバッファを有し、 前記第1合成手段は、 前記第1取得手段により取得された複数の静止画像を前
記画像合成順序に従って読み出し、前記合成係数を用い
て前記第1フレームバッファの記憶内容と読み出された
各画像との合成を行い、その合成の結果で前記第1フレ
ームバッファの記憶内容を置き換え、 前記第2取得手段は、取得した前記各フレームを前記第2
フレームバッファに格納し、 前記第2合成手段は、 前記第2フレームバッファに格納された各フレームと前
記第1フレームバッファの記憶内容とを前記動画像の合
成比率を用いて合成し、前記第2フレームバッファに格
納することを特徴とする請求項6に記載の画像合成装
置。
7. The image synthesizing device, comprising: a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image.
A frame buffer, the first combining unit reads the plurality of still images acquired by the first acquiring unit in accordance with the image combining order, and reads the stored contents of the first frame buffer using the combination coefficient. Performing composition with each of the output images, replacing the storage content of the first frame buffer with the result of the composition, and the second acquisition unit replaces each of the acquired frames with the second frame.
Stored in a frame buffer, the second synthesizing unit synthesizes each of the frames stored in the second frame buffer and the storage content of the first frame buffer using a synthesizing ratio of the moving image, and 7. The image synthesizing device according to claim 6, wherein the image is stored in a frame buffer.
【請求項8】 前記第1合成手段は、前記画像合成順序に
おいて前記動画像の1つ前の静止画像の合成後、かつ動
画像の1つ後の静止画像の合成前に、前記動画像に対応
する合成係数を用いて、前記第1フレームバッファに記
憶される画像に対する合成演算を行い、前記合成演算の
結果で前記第1フレームバッファの内容を置き換えるこ
とを特徴とする請求項7に記載の画像合成装置。
8. The first synthesizing unit, after synthesizing the still image immediately before the moving image in the image synthesizing order, and before synthesizing the still image immediately after the moving image, The method according to claim 7, wherein a combining operation is performed on an image stored in the first frame buffer using a corresponding combining coefficient, and the content of the first frame buffer is replaced with a result of the combining operation. Image synthesis device.
【請求項9】 前記画像合成装置は、画像表示用の画面
を有し、 前記第1合成手段による合成、前記第2取得手段による取
得及び前記第2合成手段による合成は、並行して行わ
れ、 前記第2フレームバッファは、前記第2合成手段による合
成結果の格納と同時に前記画面への出力を行うことを特
徴とする請求項7に記載の画像合成装置。
9. The image synthesizing device has a screen for displaying an image, and the synthesizing by the first synthesizing unit, the obtaining by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel. 8. The image synthesizing apparatus according to claim 7, wherein the second frame buffer outputs to the screen at the same time as storing the synthesis result by the second synthesizing unit.
【請求項10】 前記画像合成順序は画像を重ね合わせる
順序を表し、前記合成係数は、前記複数の画像それぞれ
について、前記画像合成順序における最背面の画像から
当該画像までの合成結果に対する当該画像の合成比率を
表すアルファ値であり、 前記算出手段は、前記動画像と前記動画像より前面に位
置する画像全てとに対応するアルファ値から、前記合成
画像に対する前記動画像の合成比率を算出することを特
徴とする請求項6に記載の画像合成装置。
10. The image compositing order represents an order in which images are superimposed, and the compositing coefficient is, for each of the plurality of images, the image of the image relative to a composite result from the rearmost image to the image in the image compositing order. An alpha value representing a combination ratio, wherein the calculation unit calculates a combination ratio of the moving image with respect to the combined image from alpha values corresponding to the moving image and all images located in front of the moving image. 7. The image synthesizing device according to claim 6, wherein:
【請求項11】 前記画像合成装置は、 画像を格納するための第1フレームバッファと、 前記動画像を構成する各フレームを格納するための第2
フレームバッファとを有し、 前記第1合成手段は、 前記第1取得手段により取得された複数の静止画像から
前記画像合成順序が示す最背景から最前景の方向へと順
番に1つの静止画像を読み出し、前記アルファ値を用い
て前記第1フレームバッファの記憶内容と読み出された
各画像との合成を行い、その合成の結果で前記第1フレ
ームバッファの記憶内容を置き換え、 前記第2取得手段は、取得した前記各フレームを前記第2
フレームバッファに格納し、 前記第2合成手段は、 前記第2フレームバッファに格納された各フレームと前
記第1フレームバッファの記憶内容とを前記動画像の合
成比率を用いて合成し、前記第2フレームバッファに格
納することを特徴とする請求項10に記載の画像合成装
置。
11. The image synthesizing device, comprising: a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image.
And a frame buffer, wherein the first synthesizing unit sequentially converts one still image from a plurality of still images obtained by the first obtaining unit in a direction from the most background to the foreground indicated by the image synthesis order. Reading, synthesizing the stored contents of the first frame buffer and each read image using the alpha value, replacing the stored contents of the first frame buffer with the result of the synthesis, Replaces each of the acquired frames with the second
Stored in a frame buffer, the second synthesizing unit synthesizes each of the frames stored in the second frame buffer and the storage content of the first frame buffer using a synthesizing ratio of the moving image, and 11. The image synthesizing device according to claim 10, wherein the image synthesizing device is stored in a frame buffer.
【請求項12】 前記第1合成手段は、前記画像合成順序
において前記動画像の1つ前の静止画像の合成後、かつ
動画像の1つ後の静止画像の合成前に、前記動画像のア
ルファ値を用いて、前記第1フレームバッファに記憶さ
れる画像に対する合成演算を行い、前記合成演算の結果
で前記第1フレームバッファの内容を置き換えることを
特徴とする請求項11に記載の画像合成装置。
12. The first synthesizing unit, after synthesizing the still image immediately before the moving image in the image synthesizing order, and before synthesizing the still image immediately after the moving image, The image synthesis method according to claim 11, wherein a synthesis operation is performed on an image stored in the first frame buffer using an alpha value, and the content of the first frame buffer is replaced with a result of the synthesis operation. apparatus.
【請求項13】 前記画像合成装置は、画像表示用の画面
を有し、 前記第1合成手段による合成、前記第2取得手段による取
得及び前記第2合成手段による合成は、並行して行わ
れ、 前記第2フレームバッファは、前記第2合成手段による合
成結果の格納と同時に前記画面への出力を行うことを特
徴とする請求項11に記載の画像合成装置。
13. The image synthesizing device has a screen for displaying an image, and the synthesizing by the first synthesizing unit, the obtaining by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel. 12. The image synthesizing apparatus according to claim 11, wherein the second frame buffer outputs to the screen at the same time as storing the synthesis result by the second synthesizing unit.
【請求項14】 前記画像合成装置は、さらに、 前記重ね合わせ順序において隣り合う2つの画像の順序
を入替える入替え手段と、 入替え後と入替え前とで、合成が行われた場合の合成結
果が互いに同じになるよう、入替え後の2つの画像に対
応するアルファ値を求めて更新する更新手段とを備え、 前記第1合成手段、前記算出手段及び前記第2合成手段
は、前記入替え手段による入替え後の順序と前記更新手
段による更新後のアルファ値とを用いて各処理を行うこ
とを特徴とする請求項10に記載の画像合成装置。
14. The image synthesizing device, further comprising: a swap unit that swaps the order of two images adjacent to each other in the superimposition order; and a synthesis result when the synthesis is performed before and after the swap. Updating means for obtaining and updating an alpha value corresponding to the two images after the replacement so as to be the same as each other, wherein the first combining means, the calculating means, and the second combining means 11. The image synthesizing apparatus according to claim 10, wherein each processing is performed using the order after the replacement and the alpha value updated by the updating unit.
【請求項15】 前記入替え手段は、 アルファ値がα[i]で前記順序が下位から数えてi番目の
画像iと、アルファ値がα[i+1]で前記順序が下位から数
えてi+1番目の画像i+1との順序を入替え、 前記更新手段は、入替え後にi番目となる画像i+1に対す
るアルファ値をα[i]*(1-α[i+1])とし、入替え後にi+1
番目となる画像iに対するアルファ値をα[i+1]/(1-α
[i]*(1-α[i+1]))とすることを特徴とする請求項14に記
載の画像合成装置。
15. The replacement means, wherein an alpha value is α [i] and the order is from the lower order, i-th image i, and an alpha value is α [i + 1] and the order is from the lower order. The order of the i + 1-th image i + 1 is replaced, and the updating unit sets the alpha value for the i-th image i + 1 after the replacement to α [i] * (1-α [i + 1]). , After replacement i + 1
The alpha value for the i-th image i is α [i + 1] / (1-α
15. The image synthesizing device according to claim 14, wherein [i] * (1−α [i + 1])).
【請求項16】 前記画像合成装置は、 前記第1取得手段が取得する前記複数の静止画像を記憶
するための記憶部を有し、 前記複数の静止画像それぞれは、前記合成画像と同じか
又は少ない画素数の画像データと、当該画素データの前
記合成画像上でのレイアウトを示すレイアウト情報とか
らなり、 前記第1合成手段、前記算出手段及び前記第2合成手段
は、前記レイアウト情報より定まる前記各画像どうしの
重ね合わせ部分についてそれぞれの処理を行うことを特
徴とする請求項1に記載の画像合成装置。
16. The image synthesizing device, further comprising: a storage unit for storing the plurality of still images acquired by the first acquiring unit, wherein each of the plurality of still images is the same as the synthesized image or The first combining means, the calculating means, and the second combining means are determined from the layout information, the image data having a small number of pixels, and layout information indicating a layout of the pixel data on the composite image. 2. The image synthesizing apparatus according to claim 1, wherein each processing is performed on a superimposed portion of each image.
【請求項17】 前記画像合成装置は、 前記第1取得手段が取得する前記複数の静止画像を記憶
するための記憶部を有し、 前記複数の静止画像それぞれは、ベクタデータ形式で表
され、 前記第1合成手段は、ベクタデータを画素データに変換
してから合成を行うことを特徴とする請求項1に記載の
画像合成装置。
17. The image synthesizing apparatus, further comprising: a storage unit for storing the plurality of still images acquired by the first acquisition unit, each of the plurality of still images is represented in a vector data format, 2. The image synthesizing apparatus according to claim 1, wherein the first synthesizing unit performs the synthesizing after converting the vector data into pixel data.
【請求項18】 複数の動画像と複数の静止画像とを合成
して合成画像を生成する画像合成装置であって、 画像合成順序を含む合成情報であって、前記合成画像に
対する合成前の各画像の合成比率を求めるための前記合
成情報と前記複数の静止画像とを取得する第1取得手段
と、 前記合成情報に基づいて前記複数の静止画像を合成して
1つの合成静止画像を生成する第1合成手段と、 前記合成情報に基づいて前記合成画像に対する前記複数
の動画像それぞれの合成比率を求める算出手段と、 前記複数の動画像それぞれを構成する各フレームを取得
する第2取得手段と、 前記複数の動画像それぞれの合成比率を用いて、前記複
数の動画像それぞれの各フレームと前記合成静止画像と
を合成する第2合成手段とを備えることを特徴とする画
像合成装置。
18. An image synthesizing apparatus for synthesizing a plurality of moving images and a plurality of still images to generate a synthesized image, the synthesizing information including an image synthesizing order, and A first acquisition unit configured to acquire the combined information and the plurality of still images for obtaining a combined ratio of images, and to combine the plurality of still images based on the combined information to generate one combined still image A first combining unit, a calculating unit that calculates a combining ratio of each of the plurality of moving images with respect to the combined image based on the combining information, and a second acquiring unit that acquires each frame configuring each of the plurality of moving images. An image synthesizing apparatus, comprising: a second synthesizing unit that synthesizes each frame of each of the plurality of moving images and the synthesized still image by using a synthesis ratio of each of the plurality of moving images.
【請求項19】 動画像と複数の静止画像とを合成して合
成画像を生成する画像合成装置であって、 前記複数の静止画像を取得する第1取得手段と、 前記複数の静止画像を合成して1つの合成静止画像を生
成する第1合成手段と、 前記動画像を構成する各フレームを取得する第2取得手
段と、 前記動画像を構成する各フレームと前記合成静止画像と
を合成する第2合成手段とを備えることを特徴とする画
像合成装置。
19. An image synthesizing apparatus for synthesizing a moving image and a plurality of still images to generate a synthesized image, a first obtaining unit obtaining the plurality of still images, and synthesizing the plurality of still images. A first synthesizing unit that generates one synthesized still image, a second obtaining unit that obtains each frame that forms the moving image, and synthesizes each frame that forms the moving image with the synthesized still image An image synthesizing apparatus, comprising: a second synthesizing unit.
【請求項20】 動画像と複数の静止画像とを合成して合
成画像を生成する処理をコンピュータに行わせるための
プログラムを記録したコンピュータ読み取り可能な記録
媒体であって、当該プログラムはコンピュータに、 画像合成順序を含む合成情報であって、前記合成画像に
対する合成前の各画像の合成比率を求めるための前記合
成情報と前記複数の静止画像とを取得する第1取得ステ
ップと、 前記合成情報に基づいて前記複数の静止画像を合成して
1つの合成静止画像を生成する第1合成ステップと、 前記合成情報に基づいて前記合成画像に対する前記動画
像の合成比率を求める算出ステップと、 前記動画像を構成する各フレームを取得する第2取得ス
テップと、 前記動画像の合成比率を用いて前記各フレームと前記合
成静止画像とを合成する第2合成ステップとを実行させ
ることを特徴とする記録媒体。
20. A computer-readable recording medium recording a program for causing a computer to perform a process of generating a composite image by combining a moving image and a plurality of still images, the program including: A first obtaining step of obtaining synthesis information and the plurality of still images for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image, the synthesis information including an image synthesis order; and A first combining step of combining the plurality of still images on the basis of the plurality of still images to generate one combined still image; a calculating step of calculating a combining ratio of the moving image to the combined image based on the combining information; A second obtaining step of obtaining each frame constituting the image, and synthesizing the respective frames and the synthesized still image using a synthesis ratio of the moving image. Recording medium, characterized in that to execute a second synthesis step.
【請求項21】 動画像と複数の静止画像とを合成して合
成画像を生成する処理をコンピュータに実行させるため
のプログラムであって、 画像合成順序を含む合成情報であって、前記合成画像に
対する合成前の各画像の合成比率を求めるための前記合
成情報と前記複数の静止画像とを取得する第1取得ステ
ップと、 前記合成情報に基づいて前記複数の静止画像を合成して
1つの合成静止画像を生成する第1合成ステップと、 前記合成情報に基づいて前記合成画像に対する前記動画
像の合成比率を求める算出ステップと、 前記動画像を構成する各フレームを取得する第2取得ス
テップと、 前記動画像の合成比率を用いて前記各フレームと前記合
成静止画像とを合成する第2合成ステップとからなるプ
ログラム。
21. A program for causing a computer to execute a process of generating a combined image by combining a moving image and a plurality of still images, the combining information including an image combining order, and A first obtaining step of obtaining the synthesis information for obtaining a synthesis ratio of each image before synthesis and the plurality of still images; and synthesizing the plurality of still images based on the synthesis information to form one synthesized still image A first combining step of generating an image; a calculating step of calculating a combining ratio of the moving image to the combined image based on the combining information; a second acquiring step of acquiring each frame constituting the moving image; A second synthesizing step of synthesizing each of the frames and the synthetic still image using a synthesizing ratio of a moving image.
JP2001016409A 2000-01-24 2001-01-24 Image synthesizer, recording medium and program Pending JP2001285749A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001016409A JP2001285749A (en) 2000-01-24 2001-01-24 Image synthesizer, recording medium and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-14493 2000-01-24
JP2000014493 2000-01-24
JP2001016409A JP2001285749A (en) 2000-01-24 2001-01-24 Image synthesizer, recording medium and program

Publications (1)

Publication Number Publication Date
JP2001285749A true JP2001285749A (en) 2001-10-12

Family

ID=26584020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001016409A Pending JP2001285749A (en) 2000-01-24 2001-01-24 Image synthesizer, recording medium and program

Country Status (1)

Country Link
JP (1) JP2001285749A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040025073A (en) * 2002-09-18 2004-03-24 주식회사 알티캐스트 Method for displaying schedule information on television screen with thumbnail channel image on digital broadcasting
JP2005086822A (en) * 2003-09-08 2005-03-31 St Microelectronics Sa Apparatus to process video data and graphic data
WO2006077720A1 (en) * 2005-01-18 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image synthesis device
JP2007066268A (en) * 2005-09-02 2007-03-15 Sony Corp Image processor, method, and program
JP2009540371A (en) * 2006-06-08 2009-11-19 クゥアルコム・インコーポレイテッド Formulating multiple display layers
JP2009290485A (en) * 2008-05-28 2009-12-10 Canon Inc Image processor
JP2010026253A (en) * 2008-07-18 2010-02-04 Toshiba Corp Image display method of self-lighting image display panel
JP2013530413A (en) * 2010-04-20 2013-07-25 エントロピック・コミュニケーションズ・インコーポレイテッド System and method for displaying a user interface on a three-dimensional display
WO2014097482A1 (en) * 2012-12-21 2014-06-26 三菱電機株式会社 Pixel combination apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040025073A (en) * 2002-09-18 2004-03-24 주식회사 알티캐스트 Method for displaying schedule information on television screen with thumbnail channel image on digital broadcasting
JP2005086822A (en) * 2003-09-08 2005-03-31 St Microelectronics Sa Apparatus to process video data and graphic data
WO2006077720A1 (en) * 2005-01-18 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image synthesis device
JP2007066268A (en) * 2005-09-02 2007-03-15 Sony Corp Image processor, method, and program
JP2009540371A (en) * 2006-06-08 2009-11-19 クゥアルコム・インコーポレイテッド Formulating multiple display layers
JP2009290485A (en) * 2008-05-28 2009-12-10 Canon Inc Image processor
US8633941B2 (en) 2008-05-28 2014-01-21 Canon Kabushiki Kaisha Image-processing apparatus, method for controlling thereof, and computer program
JP2010026253A (en) * 2008-07-18 2010-02-04 Toshiba Corp Image display method of self-lighting image display panel
JP2013530413A (en) * 2010-04-20 2013-07-25 エントロピック・コミュニケーションズ・インコーポレイテッド System and method for displaying a user interface on a three-dimensional display
WO2014097482A1 (en) * 2012-12-21 2014-06-26 三菱電機株式会社 Pixel combination apparatus

Similar Documents

Publication Publication Date Title
WO2001054400A1 (en) Image synthesizing device, recorded medium, and program
US8698840B2 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics display planes
US5912710A (en) System and method for controlling a display of graphics data pixels on a video monitor having a different display aspect ratio than the pixel aspect ratio
EP1675395A1 (en) Reproducing device, reproducing method, reproducing program, and recording medium
US7623140B1 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
KR20010015674A (en) Moving picture synthesizer
JP2837339B2 (en) Image generation method
US20090122081A1 (en) Image compositing apparatus and image compositing method
JP2001285749A (en) Image synthesizer, recording medium and program
JP2006222942A (en) Image synthesizer, and method and program for synthesizing image
US6552750B1 (en) Apparatus for improving the presentation of graphics data on a television display
JP4215423B2 (en) Image data output device
US6411338B1 (en) Producing a series of images for display on a display device
US20050088446A1 (en) Graphics layer reduction for video composition
JP3050329B2 (en) Display pattern control device
JP2001053956A (en) Multilayer image synthesizing device
JP5033098B2 (en) Image display device, image display method, and image display program
JP5170472B2 (en) Image processing apparatus and program
JPH08328519A (en) Image output device for multidisplay
JP7083319B2 (en) Image generator and image generation method
JP2715461B2 (en) Multi video system
JP2000082136A (en) Picture data processing device, method therefor and served medium
JP2005196549A (en) Image generation device and method
JPH10124039A (en) Graphic display device
JPH04198987A (en) Image processor