JP2002033904A - Image processor - Google Patents

Image processor

Info

Publication number
JP2002033904A
JP2002033904A JP2000218167A JP2000218167A JP2002033904A JP 2002033904 A JP2002033904 A JP 2002033904A JP 2000218167 A JP2000218167 A JP 2000218167A JP 2000218167 A JP2000218167 A JP 2000218167A JP 2002033904 A JP2002033904 A JP 2002033904A
Authority
JP
Japan
Prior art keywords
image
image data
value
luminance value
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000218167A
Other languages
Japanese (ja)
Inventor
Kazushi Akie
一志 秋江
Junko Nakase
純子 中瀬
Akira Hase
昌 長谷
Takashi Nakamoto
貴士 中本
Hiroki Watanabe
浩己 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000218167A priority Critical patent/JP2002033904A/en
Publication of JP2002033904A publication Critical patent/JP2002033904A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a technique for processing of making transparent, without transmitting control parameters, separate from image data. SOLUTION: A detecting means (31) detects a control parameter embedded in first image data according to a prescribed format, and a compositing means (41) composites image from the first image data with an image from second image data, based on the detected control parameter. In this way, it is possible to detect the control parameter embedded in the image data, and to composite the image from the first image data with the image form the second image data based on the control parameter. Thus, it is possible to processing of making transparent, without transmitting control parameters, separate from the image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理技術に関
し、例えばMPEG4ビデオ・コーデック(符号化/復
号化)LSIに適用して有効な技術に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing technique, and more particularly to a technique effective when applied to an MPEG4 video codec (encoding / decoding) LSI.

【0002】[0002]

【従来の技術】2枚の画像を重ね合わせて1枚の画像に
して表示する方法としては、完全透明化処理と半透明化
処理とがある。
2. Description of the Related Art As a method of superimposing two images to display one image, there are a complete transparency process and a translucent process.

【0003】完全透明化処理について説明する。[0003] The complete transparency process will be described.

【0004】2枚の画像を重ね合わせて表示する際、画
像の重なった領域で表示される側の画像を上側画像、表
示されない側の画像を下側画像とする。通常は画像の重
なった領域では上側画像が表示されるが、上側画像の一
部を透明にして下側画像が透けて見えるようにすること
で完全透明化処理が行われる。
When two images are superimposed and displayed, an image displayed on the side where the images overlap is referred to as an upper image, and an image not displayed is referred to as a lower image. Normally, the upper image is displayed in the area where the images overlap, but a complete transparency process is performed by making a part of the upper image transparent so that the lower image can be seen through.

【0005】半透明化処理について説明する。[0005] The translucent processing will be described.

【0006】半透明化処理としてはαブレンディング方
法が知られている。この方法は、2枚の画像を重ね合わ
せて表示する場合に、上側画像を半透明にして下側画像
を透けさせる効果を出す。例えば0〜1の範囲の値を持
つ不透過度αを用いて上側画像と下側画像の画素値を割
合αで足し合わせることで、表示する画素値を求める。
例えば2枚の画像が重ね合わされている画素において、
上側画像の画素値がa,上側画像の不透過度α、下側画
像の画素値をbとすると、この画素値αのブレンディン
グ用いた合成後の画素値cは、次式によって示される。
[0006] As the translucent treatment, an α blending method is known. This method has an effect of making the upper image semi-transparent and allowing the lower image to be transparent when two images are superimposed and displayed. For example, the pixel value to be displayed is obtained by adding the pixel values of the upper image and the lower image by the ratio α using the opacity α having a value in the range of 0 to 1.
For example, in a pixel where two images are superimposed,
Assuming that the pixel value of the upper image is a, the opacity α of the upper image is b, and the pixel value of the lower image is b, the pixel value c of this pixel value α after blending using blending is represented by the following equation.

【0007】[0007]

【数1】c=a×α+b×(1−α)## EQU1 ## c = a × α + b × (1−α)

【0008】尚、画像合成を行う方法について記載され
た文献の例としては、1998年9月30日に工業調査
会から発行された「MPEG−4のすべて(第60頁
〜)」がある。
[0008] As an example of a document describing a method of performing image synthesis, there is "All of MPEG-4 (pages 60 to 60)" issued by the Industrial Research Council on September 30, 1998.

【0009】[0009]

【発明が解決しようとする課題】完全透明化処理では、
例えば図10に示されるように、マスクパターン(1画
素に対して、0で透明化領域を示し、1で表示領域を示
す)を用いて上側画像の切り抜きたい形状を指定し、そ
のマスクパターンを参照することにより下側画像との合
成画像が生成される。マスクパターンがドーナツ状に指
定されている場合には上側画像は上記ドーナツ状に表示
され、それ以外の領域では下側画像が表示される。
In the complete transparency processing,
For example, as shown in FIG. 10, a shape to be clipped of the upper image is designated using a mask pattern (0 indicates a transparent area and 1 indicates a display area for one pixel), and the mask pattern is designated as By reference, a composite image with the lower image is generated. When the mask pattern is designated as a donut, the upper image is displayed in the above-described donut shape, and in other areas, the lower image is displayed.

【0010】半透明化処理では、例えば図6に示される
ように、不透過度を示すα値は、1枚の画像に対して一
つ設定し、画像全体において一律の割合で半透明化処理
を行うことが考えられる(第1の方式)。この場合、α
値が画面一律であるため、上側画像と下側画像とはどの
画素においても一定の割合でブレンドされて表示手段に
表示される。
In the translucent process, for example, as shown in FIG. 6, one α value indicating the opacity is set for one image, and the translucent process is performed at a uniform rate for the entire image. (First method). In this case, α
Since the values are uniform on the screen, the upper image and the lower image are blended at a fixed ratio in any pixel and displayed on the display means.

【0011】また、図7に示されるように、画像データ
と別に各画素ごとにα値のデータを用意し、これを用い
て画素ごとに独立な割合で半透明化処理を行うことが考
えられる(第2の方式)。この方式によれば、画素ごと
にα値を設定することにより合成画像において、(1)
上側画像のみを表示(α=1の領域)、(2)上側画像
を完全透明化して下側画像のみを表示(α=0の領
域)、(3)上側画像を半透明化して上側画像と下側画
像を合成した画像を表示(0<α<1の領域)の3種類
の画像表示を画素ごとに独立に行うことができる。
As shown in FIG. 7, it is conceivable to prepare α-value data for each pixel separately from the image data, and to use this to perform translucent processing at an independent rate for each pixel. (Second method). According to this method, by setting an α value for each pixel, (1)
Only the upper image is displayed (area of α = 1), (2) the upper image is made completely transparent and only the lower image is displayed (area of α = 0), and (3) the upper image is made semi-transparent and becomes the upper image. Three types of image display of an image obtained by combining the lower image (0 <α <1) can be performed independently for each pixel.

【0012】画像合成を行う場合、上側画像、下側画像
とは別に制御パラメータを取り込んで、合成画像データ
を生成する。ここでいう制御パラメータは、上記完全透
明化処理においてはマスクパターンに相当し、半透明化
処理においてはα値に相当する。
When performing image composition, control parameters are taken in separately from the upper image and the lower image to generate composite image data. The control parameter referred to here corresponds to a mask pattern in the above-described complete transparency processing, and corresponds to an α value in the semi-transparency processing.

【0013】尚、本明細書においては、「完全透明化処
理」及び「半透明化処理」を「透明化処理」と総称す
る。
In the present specification, "completely transparent processing" and "translucent processing" are collectively referred to as "transparency processing".

【0014】上記完全透明化処理を行う場合、画像デー
タの他に0/1のマスクパターンデータを表示部に送る
必要がある。このマスクパターンデータのデータ量は画
像サイズに比例して大きくなる。
When performing the above-mentioned complete transparency processing, it is necessary to send 0/1 mask pattern data to the display unit in addition to the image data. The data amount of the mask pattern data increases in proportion to the image size.

【0015】また、上記半透明化処理を行う場合、上記
第1の方式では、画像の半透明化の度合いが画面一律で
あるため、1枚の画像に対して一つのα値データを表示
部に送るだけであり画像のデータ量はほとんど増加しな
いが、画素ごとの透明化処理を行うことができない。ま
た、上記第2の方式では画素ごとにα値データを持って
いるため、その値を変化させることによりフレキシブル
な画像合成が可能であるが、α値のデータ量が画像サイ
ズに比例して大きくなるため、膨大なα値データを画像
データとは別に送る必要がある。
In the case of performing the translucent processing, in the first method, since the degree of translucency of an image is uniform on a screen, one α value data is displayed for one image on a display unit. , And the data amount of the image hardly increases, but the transparency processing for each pixel cannot be performed. Further, in the second method, since the α value data is provided for each pixel, a flexible image composition can be performed by changing the value, but the data amount of the α value increases in proportion to the image size. Therefore, it is necessary to send a huge amount of α-value data separately from the image data.

【0016】本発明の目的は、画像データとは別に制御
パラメータを伝達することなしに画像の切り抜きなどの
透明化処理を可能とする技術を提供することにある。
It is an object of the present invention to provide a technique which enables a transparent process such as clipping of an image without transmitting a control parameter separately from image data.

【0017】また本発明の別の目的は、画像データとは
別に制御パラメータを伝達することなしに画素毎のαブ
レンディング処理を可能とする技術を提供することにあ
る。
Another object of the present invention is to provide a technique that enables α-blending processing for each pixel without transmitting control parameters separately from image data.

【0018】本発明の前記並びにその他の目的と新規な
特徴は本明細書の記述及び添付図面から明らかになるで
あろう。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0019】[0019]

【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば下記
の通りである。
The following is a brief description of an outline of a typical invention among the inventions disclosed in the present application.

【0020】すなわち、第1画像データによる画像と、
第2画像データによる画像とを合成する画像合成手段を
含んで画像処理装置が構成されるとき、上記画像合成手
段は、所定のフォーマットにより第1画像データに埋め
込まれた制御パラメータを検出する検出手段と、検出さ
れた上記制御パラメータに基づいて上記第1画像データ
による画像と上記第2画像データによる画像とを合成す
る合成手段とを含んで構成することができる。
That is, an image based on the first image data;
When the image processing apparatus includes an image synthesizing unit that synthesizes an image based on the second image data, the image synthesizing unit detects a control parameter embedded in the first image data in a predetermined format. And synthesizing means for synthesizing an image based on the first image data and an image based on the second image data based on the detected control parameter.

【0021】上記の手段によれば、検出手段は所定のフ
ォーマットにより第1画像データに埋め込まれた制御パ
ラメータを検出し、合成手段は、検出された上記制御パ
ラメータに基づいて上記第1画像データによる画像と上
記第2画像データによる画像とを合成する。このように
画像データに埋め込まれた制御パラメータを検出し、そ
れに基づいて上記第1画像データによる画像と上記第2
画像データによる画像とを合成することができ、このこ
とが、画像データとは別に制御パラメータを伝達するこ
となしに画像の切り抜きなどの透明化処理を達成する。
According to the above means, the detecting means detects the control parameter embedded in the first image data in a predetermined format, and the synthesizing means detects the control parameter based on the detected control parameter. The image and the image based on the second image data are combined. Thus, the control parameter embedded in the image data is detected, and based on the control parameter, the image based on the first image data and the second
An image based on image data can be synthesized, which achieves transparency processing such as image clipping without transmitting control parameters separately from the image data.

【0022】このとき、上記第1画像データは、帯域制
限により使用されない画素値の範囲を有し、この画素値
の範囲を使用して上記制御パラメータを上記第1画像デ
ータに埋め込むためのデータ変換手段を設けることがで
きる。
At this time, the first image data has a range of pixel values not used due to band limitation, and data conversion for embedding the control parameters in the first image data using the range of pixel values. Means can be provided.

【0023】また、第1画像データによる画像と、第2
画像データによる画像とを合成する画像合成手段を含ん
で画像処理装置が構成されるとき、上記画像合成手段
は、入力された上記第1画像データの輝度値が所定の範
囲に属するか否かを判別するための輝度値検出手段と、
輝度値が所定の範囲に属さない画素については無変換と
し、輝度値が所定の範囲に属する画素については隣接す
る画素の輝度値に変換する輝度値変換手段と、輝度値が
所定の範囲に属さない画素については不透過度を示すα
値を1とし、輝度値が所定の範囲に属する画素について
は、それに対応するα値を所定のテーブルを参照するこ
とにより求めるα値生成手段と、上記輝度値変換手段の
出力信号と上記α値生成手段の出力値とに基づいて半透
明化処理を行うための合成手段とを含んで構成すること
ができる。
Also, an image based on the first image data and a second
When the image processing apparatus is configured to include an image synthesizing unit that synthesizes an image based on image data, the image synthesizing unit determines whether or not the luminance value of the input first image data belongs to a predetermined range. Brightness value detecting means for determining,
A luminance value conversion means for converting pixels having a luminance value not belonging to a predetermined range into non-conversion, and converting a pixel having a luminance value belonging to a predetermined range to luminance values of adjacent pixels, and a luminance value belonging to a predetermined range. Α indicates opacity for pixels without
For a pixel whose luminance value falls within a predetermined range, an α value generating means for obtaining an α value corresponding to the pixel value by referring to a predetermined table, an output signal of the luminance value converting means and the α value A synthesizing unit for performing a translucent process based on the output value of the generating unit.

【0024】上記の手段によれば、輝度値検出手段は、
入力された上記第1画像データの輝度値が所定の範囲に
属するか否かを判別し、輝度値変換手段は、輝度値が上
記所定の範囲に属さない画素については無変換とし、輝
度値が上記所定の範囲に属する画素については隣接する
画素の輝度値に変換し、α値生成手段は、輝度値が所定
の範囲に属さない画素については不透過度を示すα値を
1とし、輝度値が所定の範囲に属する画素については、
それに対応するα値を所定のテーブルを参照することに
より求め、画像合成手段は、上記輝度値変換手段の出力
信号と上記α値生成手段の出力値とに基づいて半透明化
処理を行う。このように、入力された上記第1画像デー
タの輝度値が所定の範囲に属するか否かを判別し、輝度
値が上記所定の範囲に属さない画素については無変換と
し、輝度値が上記所定の範囲に属する画素については隣
接する画素の輝度値に変換し、輝度値が所定の範囲に属
さない画素については不透過度を示すα値を1とし、輝
度値が所定の範囲に属する画素については、それに対応
するα値を所定のテーブルを参照することにより求め、
上記輝度値変換手段の出力信号と上記α値生成手段の出
力値とに基づいて半透明化処理を行うことができ、この
ことが、画像データとは別に制御パラメータを伝達する
ことなしに画素毎のαブレンディング処理を達成する。
According to the above means, the luminance value detecting means comprises:
It is determined whether or not the luminance value of the input first image data belongs to a predetermined range, and the luminance value conversion means performs no conversion for the pixel whose luminance value does not belong to the predetermined range, and sets the luminance value to The pixels belonging to the predetermined range are converted into luminance values of adjacent pixels, and the α value generating means sets the α value indicating opacity to 1 for pixels whose luminance values do not belong to the predetermined range, and sets the luminance value to 1. For pixels belonging to a predetermined range,
The α value corresponding thereto is obtained by referring to a predetermined table, and the image synthesizing unit performs a translucent process based on the output signal of the luminance value conversion unit and the output value of the α value generation unit. In this way, it is determined whether or not the luminance value of the input first image data belongs to a predetermined range. Pixels whose luminance value does not belong to the predetermined range are not converted, and the luminance value is Pixels belonging to the range are converted to luminance values of adjacent pixels. For pixels whose luminance values do not belong to the predetermined range, the α value indicating opacity is set to 1, and for pixels whose luminance values belong to the predetermined range, Is determined by referring to a predetermined table for the corresponding α value,
Translucent processing can be performed based on the output signal of the luminance value conversion means and the output value of the α value generation means, and this can be performed for each pixel without transmitting a control parameter separately from image data. Α blending process is achieved.

【0025】このとき、不透過度を示すα値を参照して
半透明化処理を行う画素の輝度値を所定のテーブルに従
って求めた値に変換するためのデータ変換手段を設ける
ことができる。
At this time, it is possible to provide a data conversion means for converting the luminance value of the pixel to be subjected to the translucency processing into a value obtained according to a predetermined table with reference to the α value indicating the opacity.

【0026】そして、MPEG4のオブジェクトベース
符号化画像データをデコードして上記データ変換部での
変換対象となるデータを得るための手段を設けることが
できる。
A means for decoding the MPEG4 object-based coded image data to obtain data to be converted by the data converter can be provided.

【0027】[0027]

【発明の実施の形態】図2には、本発明にかかる画像処
理装置の一例であるMPEG4ビデオ・コーデック(符
号化/復号化)LSIが示される。
FIG. 2 shows an MPEG4 video codec (encoding / decoding) LSI which is an example of an image processing apparatus according to the present invention.

【0028】MPEG4ビデオ・コーデック(以下、
「MPEG4コーデック」という)LSI100は、特
に制限されないが、入出力インターフェース部101、
ビデオ信号処理部106、メモリインタフェース11
3、及びフレームメモリ114を含み、それらがバス1
17によって互いに信号のやり取り可能に結合されてい
る。また、このMPEG4コーデックLSI100は、
特に制限されないが、公知の半導体集積回路製造技術に
より、単結晶シリコン基板などの一つの半導体基板に形
成される。MPEG4コーデックLSI100が例えば
携帯情報端末などに適用される場合には、当該MPEG
4コーデックLSI100の外部には、予め定められた
プログラムの実行によりMPEG4コーデックLSI1
00の動作を制御するためのCPU(中央処理装置)1
10、上記CPU110で実行されるプログラムが格納
されるプログラムROM(リード・オンリー・メモリ)
111やプログラムRAM(ランダム・アクセス・メモ
リ)112が結合される。
An MPEG4 video codec (hereinafter, referred to as an MPEG4 video codec)
The LSI 100 (referred to as “MPEG4 codec”) is not particularly limited.
Video signal processing unit 106, memory interface 11
3 and a frame memory 114, which
17 are communicatively coupled to each other. Also, this MPEG4 codec LSI 100
Although not particularly limited, it is formed on one semiconductor substrate such as a single crystal silicon substrate by a known semiconductor integrated circuit manufacturing technique. When the MPEG4 codec LSI 100 is applied to, for example, a personal digital assistant, the MPEG4 codec
The MPEG4 codec LSI 1 is provided outside the 4 codec LSI 100 by executing a predetermined program.
CPU (central processing unit) 1 for controlling the operation of 00
10. Program ROM (Read Only Memory) for storing programs executed by CPU 110
111 and a program RAM (random access memory) 112 are connected.

【0029】上記入出力インタフェース部101は、特
に制限されないが、ビデオ・インタフェース102、オ
ーディオ・インタフェース103、シリアルポート及び
パラレルポート104、及びビデオ・グラフィックス・
プロセッサ105を含む。上記ビデオ・インタフェース
102は、図示されないビデオカメラや液晶ディスプレ
イなどとの間でビデオ信号の入出力を可能とする。つま
り、図示されないビデオカメラでの撮影によるビデオ信
号を、ビデオ・インタフェース102を介して取り込む
ことができ、また、このMPEG4コーデックLSI1
00において処理されたビデオ信号を、ビデオ・インタ
フェース102を介して液晶ディスプレイなどの適宜の
表示手段に出力することができる。また、このビデオ・
インタフェース102では、後に詳述するように、制御
パラメータに基づいて複数画像の合成処理が行われる。
ビデオ・グラフィックス・プロセッサ105は、例えば
背景などの画像データを発生する。ここで発生された画
像データはビデオインタフェース102に伝達され、他
の画像と合成される。オーディオ・インタフェース10
3は、上記ビデオ信号に対応するディジタル・オーディ
オ信号の入出力を可能とする。シリアルポート及びパラ
レルポート104は、シリアル形式やパラレル形式によ
る各種データの入出力を可能とする。
The input / output interface unit 101 is not particularly limited, but includes a video interface 102, an audio interface 103, a serial and parallel port 104, and a video / graphics interface.
And a processor 105. The video interface 102 enables input and output of video signals to and from a video camera, a liquid crystal display, and the like (not shown). That is, a video signal obtained by shooting with a video camera (not shown) can be captured via the video interface 102, and the MPEG4 codec LSI1
The video signal processed in 00 can be output to an appropriate display means such as a liquid crystal display via the video interface 102. Also, this video
In the interface 102, as described later in detail, a process of synthesizing a plurality of images is performed based on the control parameters.
Video graphics processor 105 generates image data, such as a background. The image data generated here is transmitted to the video interface 102 and combined with another image. Audio interface 10
Numeral 3 enables input / output of a digital audio signal corresponding to the video signal. The serial port and the parallel port 104 enable input / output of various data in a serial format or a parallel format.

【0030】上記ビデオ信号処理部106は、特に制限
されないが、コントローラ107、DSP(ディジタル
・シグナル・プロセッサ)108、DCT/逆DCT回
路109、及びデータ変換部119を含む。DSP10
8は1〜4個集積され、SIMD型命令を実行すること
により画像の動き補償を行う。コントローラ107は、
上記DSP108の動作を制御する。DCT/逆DCT
回路109は、例えばシリアルポート及びパラレルポー
ト104を介して画像データを行う際の画像圧縮処理に
おける離散コサイン変換、及び画像伸長処理における逆
離散コサイン変換を行う。データ変換部119は、MP
EG4オブジェクトベース符号化画像をデコードする手
段と、このデコード時に、画像データに形状データを埋
め込むためのデータ変換手段とを含む。データ変換部1
19におけるデータ変換手段は、形状データを参照し、
表示したい物体が存在する領域内の画素の輝度はそのま
まの値とし、透明化を行いたい背景部分の輝度について
は帯域制限外の値である0に置き換えることで制御パラ
メータ埋め込み画像データを形成する。換言すれば、帯
域制限外の値は、画像データとしては意味を持たないた
め、画像合成処理のための制御パラメータ用として積極
的に利用することで、制御パラメータの埋め込みを行う
ことができる。この制御パラメータ埋め込み画像データ
は、上記バス116,117を介してビデオ・インタフ
ェース102へ伝達される。このように、画像合成のた
めの制御パラメータが画像データに埋め込まれて伝達さ
れるため、上記制御パラメータを画像データとは別に伝
達する必要が無くなる。
The video signal processing section 106 includes, but is not limited to, a controller 107, a DSP (digital signal processor) 108, a DCT / inverse DCT circuit 109, and a data conversion section 119. DSP10
8 are integrated, and perform motion compensation of an image by executing a SIMD type instruction. The controller 107
The operation of the DSP 108 is controlled. DCT / Inverse DCT
The circuit 109 performs, for example, discrete cosine transform in image compression processing when performing image data via the serial port and the parallel port 104, and inverse discrete cosine transform in image decompression processing. The data conversion unit 119 uses the MP
It includes means for decoding the EG4 object-based coded image, and data conversion means for embedding shape data in the image data at the time of decoding. Data conversion unit 1
The data conversion means in 19 refers to the shape data,
The brightness of the pixels in the region where the object to be displayed is present is kept as it is, and the brightness of the background portion to be made transparent is replaced with 0 which is a value outside the band limit to form control parameter embedded image data. In other words, since the value outside the band limit has no meaning as image data, the control parameter can be embedded by actively using it as a control parameter for image synthesis processing. The control parameter embedded image data is transmitted to the video interface 102 via the buses 116 and 117. As described above, since the control parameters for image synthesis are embedded in the image data and transmitted, it is not necessary to transmit the control parameters separately from the image data.

【0031】フレームメモリ114は、特に制限されな
いが、ダイナミック・ランダム・アクセス・メモリ(D
RAM)であり、画像データをフレーム単位で記憶する
ことができる。メモリインタフェース113は、上記フ
レームメモリ114とバス117との間で画像データの
入出力を可能にする。
The frame memory 114 is not particularly limited, but may be a dynamic random access memory (D
RAM), and can store image data in frame units. The memory interface 113 enables input and output of image data between the frame memory 114 and the bus 117.

【0032】図3には上記ビデオインタフェース102
の構成例が示される。
FIG. 3 shows the video interface 102.
Is shown.

【0033】図3に示されるようにこのビデオインタフ
ェース102は、特に制限されないが、フォーマット変
換回路201、合成処理回路202、同期化回路20
3、及び同期信号発生回路204を含んで成る。フォー
マット変換回路201は、フレームメモリ114から読
み出された画像データのフォーマット変換を行う。フォ
ーマット変換された画像データは合成処理回路202に
入力される。合成処理回路202では、上記フォーマッ
ト変換回路201や、このMPEG4コーデックLSI
100の外部に配置されたビデオカメラ、さらにはビデ
オ・グラフィック・プロセッサ101などから入力され
た画像を合成する。合成された画像データは同期化回路
203へ伝達される。同期化回路203では、同期信号
発生回路204から出力された同期信号に基づいて、合
成処理回路201からの出力信号を同期化する。そして
その出力信号は、画像表示のために液晶ディスプレイな
どの適宜の表示手段に伝達される。
As shown in FIG. 3, the video interface 102 includes, but is not limited to, a format conversion circuit 201, a synthesis processing circuit 202, and a synchronization circuit 20.
3 and a synchronization signal generation circuit 204. The format conversion circuit 201 converts the format of the image data read from the frame memory 114. The format-converted image data is input to the synthesis processing circuit 202. In the synthesis processing circuit 202, the format conversion circuit 201 and the MPEG4 codec LSI
An image input from a video camera disposed outside the video camera 100 and a video graphic processor 101 is synthesized. The synthesized image data is transmitted to the synchronization circuit 203. The synchronization circuit 203 synchronizes the output signal from the synthesis processing circuit 201 based on the synchronization signal output from the synchronization signal generation circuit 204. The output signal is transmitted to appropriate display means such as a liquid crystal display for displaying an image.

【0034】図1には上記合成処理回路202の構成例
が示される。
FIG. 1 shows a configuration example of the synthesis processing circuit 202.

【0035】尚、説明の便宜上、画像フォーマットはI
TU−R勧告BT.601(以下BT.601)である
とし、BT.601の帯域制限により使用されない画素
値(輝度:0〜15,236〜255、色差:0〜1
5,241〜255)が透明化の制御パラメータとして
用いられる。
For convenience of explanation, the image format is I
TU-R Recommendation BT. 601 (hereinafter referred to as BT.601). Pixel values not used due to band limitation of 601 (luminance: 0 to 15, 236 to 255, color difference: 0 to 1)
5, 241-255) are used as control parameters for the transparency.

【0036】図1に示されるように合成処理回路202
は、上記データ変換部119から伝達された画像データ
から輝度値を検出するための輝度値検出部31と、この
輝度値検出結果に応じて画像合成処理を行うための画像
合成部41とを含んで成る。上記画像合成部202は、
特に制限されないが、マルチプレクサとされ、このマル
チプレクサは、上記輝度値検出部31の輝度値検出結果
に基づいて、上記データ変換部119から伝達された制
御パラメータが埋め込み画像データと、上記ビデオ・グ
ラフィックス・プロセッサ105から伝達された下側画
像データとの選択を行う。つまり、データ変換部119
においては、BT.601の帯域制限により、輝度示す
ものとして使用されない画素値(例えば0)を利用する
ことにより、透明化を行いたい背景部分の輝度について
は0に置き換えることで制御パラメータの埋め込みが行
われている。輝度値検出部31において、入力された制
御パラメータ埋め込み画像データから輝度値が0である
画素の検出を行うことで、上記制御パラメータを検出す
ることができ、これに基づいて、画像合成部41で画像
合成処理が行われる。つまり、上記輝度値検出部31に
おいて輝度値0が検出されなかった画素においては上側
画像データの画素が選択され、上記輝度値検出部31に
おいて輝度値0が検出された場合には下側画像データの
画素が選択される。これにより上側画像中の物体を切り
出して、下側画像を背景として重ね合わせた一枚の合成
画像を得ることができる。この画像データは、同期化回
路203を介して図示されない表示手段に表示される。
As shown in FIG. 1, the synthesis processing circuit 202
Includes a brightness value detection unit 31 for detecting a brightness value from the image data transmitted from the data conversion unit 119, and an image synthesis unit 41 for performing an image synthesis process according to the brightness value detection result. Consists of The image synthesizing unit 202 includes:
Although not particularly limited, the multiplexer is a multiplexer, which controls the control parameters transmitted from the data converter 119 based on the luminance value detection result of the luminance value detector 31 to embed the embedded image data and the video / graphics data. Select the lower image data transmitted from the processor 105. That is, the data conversion unit 119
In BT. By using a pixel value (for example, 0) that is not used as a luminance indicator due to the band limitation of 601, the control parameter is embedded by replacing the luminance of the background portion to be made transparent with 0. In the luminance value detection unit 31, the control parameter can be detected by detecting a pixel having a luminance value of 0 from the input control parameter embedded image data, and based on this, the image synthesis unit 41 Image synthesis processing is performed. That is, the pixels of the upper image data are selected for the pixels for which the luminance value detection unit 31 has not detected the luminance value 0, and the pixels of the lower image data are selected for the pixels where the luminance value detection unit 31 has detected the luminance value 0. Of pixels are selected. As a result, the object in the upper image is cut out, and one composite image in which the lower image is superimposed on the background can be obtained. This image data is displayed on display means (not shown) via the synchronization circuit 203.

【0037】上記の例によれば、以下の作用効果を得る
ことができる。
According to the above example, the following functions and effects can be obtained.

【0038】データ変換部119においては、BT.6
01の帯域制限により、輝度を示すものとして使用され
ない画素値(例えば0)を利用することにより、透明化
を行いたい背景部分の輝度については0に置き換えるこ
とで制御パラメータの埋め込みが行われ、輝度値検出部
31において、入力された制御パラメータ埋め込み画像
データから輝度値が0である画素の検出を行うことで、
上記制御パラメータを検出することができ、これに基づ
いて、画像合成部41で画像合成処理が行われる。上記
輝度値検出部31において輝度値0が検出されなかった
画素においては上側画像データの画素が選択され、上記
輝度値検出部31において輝度値0が検出された場合に
は下側画像データの画素が選択される。これにより上側
画像中の物体を切り出して、下側画像を背景として重ね
合わせた一枚の合成画像を得ることができる。
In the data converter 119, the BT. 6
By using a pixel value (for example, 0) that is not used as an indicator of luminance due to the band limitation of 01, the control parameter is embedded by replacing the luminance of the background portion to be transparentized with 0 with the luminance. The value detection unit 31 detects a pixel having a luminance value of 0 from the input control parameter embedded image data,
The control parameters can be detected, and based on the detected control parameters, the image composition processing is performed by the image composition unit 41. The pixels of the upper image data are selected for the pixels for which the luminance value detection unit 31 has not detected a luminance value of 0, and the pixels of the lower image data are selected for the pixels for which the luminance value detection unit 31 has detected the luminance value of 0. Is selected. As a result, the object in the upper image is cut out, and one composite image in which the lower image is superimposed on the background can be obtained.

【0039】図4には、上記合成処理回路202の別の
構成例が示される。
FIG. 4 shows another example of the configuration of the synthesis processing circuit 202.

【0040】特に制限されないが、図4に示される合成
処理回路202は、輝度値検出部32、輝度値変換部5
2、α値生成部62、及び画像合成部42とを含んで成
る。
Although not particularly limited, the synthesis processing circuit 202 shown in FIG.
2, an α value generating unit 62 and an image synthesizing unit 42.

【0041】このとき、データ変換部119では次のよ
うに制御パラメータ埋め込み画像データが生成される。
α値データを参照し、半透明化を行なわない画素の輝度
Yに対しては変換後の輝度Y’をそのままの値Yとし、
不透過度αで半透明化を行ないたい画素の輝度値に対し
ては、図8に示されるテーブルにおけるαに対応する
Y’に置き換えて、制御パラメータ埋め込み画像データ
を出力する。ただし合成時に画像データを元に戻すとき
のため、完全透明化以外のαの設定は水平方向に1画素
おきに行う。
At this time, the data conversion section 119 generates control parameter embedded image data as follows.
With reference to the α value data, the luminance Y ′ after conversion is set to the value Y as it is with respect to the luminance Y of the pixel that is not translucent,
The luminance value of the pixel to be made translucent with the opacity α is replaced with Y ′ corresponding to α in the table shown in FIG. 8, and the control parameter embedded image data is output. However, in order to restore the image data at the time of synthesis, α other than complete transparency is set every other pixel in the horizontal direction.

【0042】合成処理回路202には、上側画像データ
としてこの制御パラメータ埋め込み画像データが入力さ
れる。輝度値検出部32において、入力された上側画像
から輝度値Y’が0〜15の範囲に属する画素、及び1
〜15の範囲に属する画素の検出を行う。輝度値変換部
52において、上記輝度値検出部32において輝度値
Y’が1〜15の範囲内であることが検出されなかった
画素は、変換後の輝度値Y”=Y’とされ、輝度値Y’
が1〜15の範囲内であることが検出された画素に対し
ては変換後の輝度値Y”を、水平方向に隣接し、且つ輝
度値が16〜235の範囲である画素の輝度値に置き換
える。
The control parameter embedded image data is input to the synthesis processing circuit 202 as upper image data. In the brightness value detection unit 32, pixels whose brightness value Y ′ belongs to the range of 0 to 15 from the input upper image, and 1
Pixels belonging to the range of ~ 15 are detected. Pixels for which the luminance value conversion unit 52 does not detect that the luminance value Y ′ is in the range of 1 to 15 in the luminance value detection unit 32 are converted into luminance values Y ″ = Y ′, Value Y '
Is converted to the luminance value of a pixel that is adjacent in the horizontal direction and has a luminance value in the range of 16 to 235 for a pixel in which is detected that is in the range of 1 to 15. replace.

【0043】また、α値生成部62において、上記輝度
検出部32において輝度Y’が0〜15の範囲内である
ことが検出されなかった画素においては不透過度α=1
とされ、輝度値Y’が0〜15の範囲内であることが検
出された画素に対しては図8のテーブルを用いて不透過
度αを設定する。画像合成部42では上記輝度値変換部
52及び上記α値生成部62から入力された画像データ
及びα値データを用いて上側画像と下側画像のαブレン
ディングを行う。これにより上側画像中の所定の物体を
切り出して、下側画像に重ね合わせて表示することが可
能であるだけでなく、さらに上側画像の輪郭を下側画像
に対し16段階でブレンドすることができる。
In the .alpha.-value generating section 62, the opacity .alpha. = 1 is set for pixels for which the luminance Y 'is not detected by the luminance detecting section 32 to be within the range of 0 to 15.
The opacity α is set for the pixel for which the luminance value Y ′ is detected to be in the range of 0 to 15 using the table of FIG. The image synthesizing unit 42 performs the α blending of the upper image and the lower image using the image data and the α value data input from the luminance value converting unit 52 and the α value generating unit 62. This allows not only a predetermined object in the upper image to be cut out and displayed superimposed on the lower image, but also the outline of the upper image to be blended with the lower image in 16 steps. .

【0044】そして、図4に示される構成の変形例とし
て、輝度Y’の変換テーブルとして図9に示されるよう
に、帯域制限外の値Y’に対し任意の輝度Y及び任意の
不透過度αをセットで対応させたテーブルを用い、デー
タ変換部及び輝度値生成部、α値生成部で用いるという
ことも可能である。この場合、αの値を自由に設定で
き、また画像データ中の任意の画素に対してαブレンデ
ィングを行うことができる。
As a modification of the configuration shown in FIG. 4, as shown in FIG. 9 as a conversion table of the luminance Y ', an arbitrary luminance Y and an arbitrary opacity It is also possible to use a table corresponding to α as a set and use it in the data conversion unit, the luminance value generation unit, and the α value generation unit. In this case, the value of α can be set freely, and α blending can be performed on any pixel in the image data.

【0045】以上本発明者によってなされた発明を具体
的に説明したが、本発明はそれに限定されるものではな
く、その要旨を逸脱しない範囲で種々変更可能であるこ
とはいうまでもない。
Although the invention made by the present inventor has been specifically described above, the present invention is not limited to this, and it goes without saying that various modifications can be made without departing from the gist of the invention.

【0046】例えば上記の例では、輝度値を帯域制限外
の値に設定する方法を用いたが、色差など他の帯域制限
を持つ画素値に対しても適用することができる。また、
入力画像データはMPEG復号後の画像データに限ら
ず、ディジタル画像データ一般に対して適用することが
できる。
For example, in the above example, the method of setting the luminance value to a value outside the band limit is used, but the present invention can be applied to a pixel value having another band limit such as a color difference. Also,
The input image data is not limited to image data after MPEG decoding, but can be applied to digital image data in general.

【0047】上記の例では、合成処理回路202を専用
のハードウェアを用いて実現した場合について説明した
が、本発明はそれに限定されるものではなく、ソフトウ
ェアを用いて実現することも可能である。
In the above example, the case has been described where the synthesis processing circuit 202 is realized using dedicated hardware. However, the present invention is not limited to this, and can be realized using software. .

【0048】例えば、CPU110において所定のプロ
グラムが実行されることにより、以下の処理を実現す
る。
For example, by executing a predetermined program in the CPU 110, the following processing is realized.

【0049】図5に示されるように、入力された画像デ
ータの輝度値が0に等しいか否かの判別を行い(ステッ
プS121)、この判別において画像データの輝度値が
0に等しい(YES)と判断された場合には下側画像デ
ータを表示手段に出力するようにし(ステップS12
2)、画像データの輝度値が0ではない(NO)と判断
された場合には、上側画像データを表示手段に出力する
ようにする(ステップS123)。このようにしても、
画像合成することができるので、上記の例と同様の作用
効果を得ることができる。
As shown in FIG. 5, it is determined whether or not the luminance value of the input image data is equal to 0 (step S121). In this determination, the luminance value of the image data is equal to 0 (YES). Is determined, the lower image data is output to the display means (step S12).
2) If it is determined that the luminance value of the image data is not 0 (NO), the upper image data is output to the display means (step S123). Even if you do this,
Since images can be synthesized, the same operation and effect as in the above example can be obtained.

【0050】また、図11に示される手順で処理するこ
ともできる。
The processing can be performed according to the procedure shown in FIG.

【0051】先ず、入力された上側画像から輝度値Y’
が1〜15の範囲内であるか否かの判別が行われる(ス
テップS111)。入力された上側画像から輝度値Y’
が1〜15の範囲内である画素の検出を行う(ステップ
S111)。この判別において、輝度値Y’が1〜15
の範囲内ではない(NO)と判断された画素は、変換後
の輝度値Y”=Y’とし(ステップS112)、輝度値
Y’が1〜15の範囲内である(YES)と判断された
画素は、変換後の輝度値Y”を、水平に隣接し輝度値が
16〜235の範囲である画素の輝度値に置き換える
(ステップS113)。次に、輝度Y’が0〜15の範
囲内か否かのい判別が行われる。
First, the luminance value Y ′ is calculated from the input upper image.
Is within the range of 1 to 15 (step S111). From the input upper image, the luminance value Y ′
Are detected in a range of 1 to 15 (step S111). In this determination, the luminance value Y ′ is 1 to 15
Are determined to be out of the range (NO), the converted luminance value Y ″ = Y ′ (step S112), and the luminance value Y ′ is determined to be in the range of 1 to 15 (YES). The pixel replaces the converted luminance value Y ″ with the luminance value of a pixel that is horizontally adjacent and has a luminance value in the range of 16 to 235 (step S113). Next, it is determined whether or not the luminance Y 'is in the range of 0 to 15.

【0052】輝度Y’が0〜15の範囲内ではない(N
O)と判断された場合には、不透過度α=1とし(ステ
ップS115)、輝度Y’が0〜15の範囲内である
(YES)と判断された場合には、図7のテーブルを用
いて不透過度αを設定する(ステップS116)。この
ように不透過度αが得られた後に、それに基づいて画像
合成処理が行われる(ステップS117)。
The luminance Y 'is not in the range of 0 to 15 (N
O), the opacity α = 1 is set (step S115), and if it is determined that the luminance Y ′ is within the range of 0 to 15 (YES), the table of FIG. Is used to set the opacity α (step S116). After the opacity α is obtained as described above, an image combining process is performed based on the opacity α (step S117).

【0053】以上の説明では主として本発明者によって
なされた発明をその背景となった利用分野であるMPE
G4コーデックLSIに適用した場合について説明した
が、本発明はそれに限定されるものではなく、画像処理
装置に広く適用することができる。
In the above description, the invention made mainly by the present inventor has been described by using the MPE which is the application field in which the background was made.
The case where the present invention is applied to a G4 codec LSI has been described, but the present invention is not limited to this, and can be widely applied to image processing apparatuses.

【0054】本発明は、少なくとも画像を合成する画像
合成手段を含むことを条件に適用することができる。
The present invention can be applied on condition that at least an image synthesizing means for synthesizing an image is included.

【0055】[0055]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば下記
の通りである。
The effects obtained by typical ones of the inventions disclosed in the present application will be briefly described as follows.

【0056】すなわち、画像データに埋め込まれた制御
パラメータを検出し、それに基づいて上記第1画像デー
タによる画像と上記第2画像データによる画像とを合成
することができるので、画像データとは別に制御パラメ
ータを伝達することなしに、画像の切り抜きなどの透明
化処理を行うことができる。
That is, since the control parameter embedded in the image data is detected and the image based on the first image data and the image based on the second image data can be synthesized based on the detected control parameter, the control is performed separately from the image data. Transparency processing such as clipping of an image can be performed without transmitting parameters.

【0057】また、入力された上記第1画像データの輝
度値が所定の範囲に属するか否かを判別し、輝度値が上
記所定の範囲に属さない画素については無変換とし、輝
度値が上記所定の範囲に属する画素については隣接する
画素の輝度値に変換し、輝度値が上記所定の範囲に属さ
ない画素については不透過度を示すα値を1とし、輝度
値が上記所定の範囲に属する画素については、それに対
応するα値を所定のテーブルを参照することにより求
め、上記輝度値変換手段の出力信号と上記α値生成手段
の出力値とに基づいて半透明化処理を行うことができる
ので、画像データとは別に制御パラメータを伝達するこ
となしに画素毎のαブレンディング処理を行うことがで
きる。
Further, it is determined whether or not the luminance value of the input first image data belongs to a predetermined range. Pixels having a luminance value not belonging to the predetermined range are not converted, and the luminance value is not converted. Pixels belonging to a predetermined range are converted to luminance values of adjacent pixels, and for pixels whose luminance values do not belong to the predetermined range, the α value indicating opacity is set to 1, and the luminance value falls within the predetermined range. For the pixel to which the pixel belongs, an α value corresponding to the pixel is obtained by referring to a predetermined table, and a translucent process can be performed based on the output signal of the luminance value conversion unit and the output value of the α value generation unit. Therefore, the α blending process for each pixel can be performed without transmitting a control parameter separately from the image data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明にかかる画像処理装置の一例であるMP
EG4コーデックLSIに含まれる合成処理回路の構成
例ブロック図である。
FIG. 1 is an example of an image processing apparatus according to the present invention;
FIG. 3 is a block diagram illustrating a configuration example of a synthesis processing circuit included in an EG4 codec LSI.

【図2】上記MPEG4コーデックLSIの全体的な構
成例が示されるブロック図である。
FIG. 2 is a block diagram showing an overall configuration example of the MPEG4 codec LSI.

【図3】上記MPEG4コーデックLSIにおけるビデ
オ・インタフェースの構成例ブロック図である。
FIG. 3 is a block diagram illustrating a configuration example of a video interface in the MPEG4 codec LSI.

【図4】上記MPEG4コーデックLSIに含まれる合
成処理回路の別の構成例ブロック図である。
FIG. 4 is a block diagram illustrating another configuration example of a synthesis processing circuit included in the MPEG4 codec LSI.

【図5】上記合成処理回路をソフトウェアで実現する場
合の処理を示すフローチャートである。
FIG. 5 is a flowchart illustrating processing when the above-described synthesis processing circuit is implemented by software.

【図6】画像合成処理の説明図である。FIG. 6 is an explanatory diagram of an image synthesis process.

【図7】画像合成処理の説明図である。FIG. 7 is an explanatory diagram of an image synthesis process.

【図8】上記合成処理回路での制御パラメータ埋め込み
において参照される変換テーブルの説明図である。
FIG. 8 is an explanatory diagram of a conversion table referred to in embedding control parameters in the synthesis processing circuit.

【図9】上記合成処理回路での制御パラメータ埋め込み
において参照される変換テーブルの説明図である。
FIG. 9 is an explanatory diagram of a conversion table referred to in embedding control parameters in the synthesis processing circuit.

【図10】マスクパターンによる画像合成の説明図であ
る。
FIG. 10 is an explanatory diagram of image synthesis using a mask pattern.

【図11】上記合成処理回路をソフトウェアで実現する
場合の処理を示すフローチャートである。
FIG. 11 is a flowchart showing processing when the above-described synthesis processing circuit is realized by software.

【符号の説明】[Explanation of symbols]

31 輝度値検出部 32 輝度値検出部 41 画像合成部 42 画像合成部 52 輝度値変換部 62 α値生成部 100 MPEG4コーデックLSI 101 入出力インタフェース部 102 ビデオ・インタフェース 103 オーディオ・インタフェース 104 シリアルポート及びパラレルポート 105 ビデオ・グラフィックス・プロセッサ 106 ビデオ信号処理部 107 コントローラ 108 DSP 109 DCT/逆DCT回路 110 CPU 111 プログラムROM 112 プログラムRAM 113 メモリインタフェース 114 フレームメモリ 119 データ変換部 201 フォーマット変換回路 202 合成処理回路 203 同期化回路 204 同期信号発生回路 31 luminance value detection unit 32 luminance value detection unit 41 image synthesis unit 42 image synthesis unit 52 luminance value conversion unit 62 α value generation unit 100 MPEG4 codec LSI 101 input / output interface unit 102 video interface 103 audio interface 104 serial port and parallel Port 105 Video / Graphics Processor 106 Video Signal Processing Unit 107 Controller 108 DSP 109 DCT / Inverse DCT Circuit 110 CPU 111 Program ROM 112 Program RAM 113 Memory Interface 114 Frame Memory 119 Data Conversion Unit 201 Format Conversion Circuit 202 Synthesis Processing Circuit 203 Synchronization circuit 204 Synchronization signal generation circuit

フロントページの続き (72)発明者 長谷 昌 東京都小平市上水本町五丁目20番1号 株 式会社日立製作所システムLSI開発セン タ内 (72)発明者 中本 貴士 東京都小平市上水本町五丁目20番1号 株 式会社日立製作所システムLSI開発セン タ内 (72)発明者 渡辺 浩己 東京都小平市上水本町五丁目20番1号 株 式会社日立製作所システムLSI開発セン タ内 Fターム(参考) 5B057 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE08 CE11 5C023 AA16 BA11 CA03 DA02 DA04 EA03 EA06 5C076 AA14 AA19 AA40 BA06 BA09 5C082 AA01 AA02 BA12 BB22 BB26 CA54 CA56 CB05 DA63 DA86 MM02 Continued on the front page (72) Inventor Masaru Hase 5-2-1, Josuihoncho, Kodaira-shi, Tokyo Inside System LSI Development Center, Hitachi, Ltd. (72) Inventor Takashi Nakamoto Josuihoncho, Kodaira-shi, Tokyo Go-Chome No. 20-1, Hitachi Ltd. System LSI Development Center (72) Inventor Hiroki Watanabe 5--20-1, Kamimizu Honmachi, Kodaira-shi, Tokyo F-term Hitachi System LSI Development Center Inc. (Reference) 5B057 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CC01 CE08 CE11 5C023 AA16 BA11 CA03 DA02 DA04 EA03 EA06 5C076 AA14 AA19 AA40 BA06 BA09 5C082 AA01 AA02 BA12 BB22 BB26 CA54 CA56 CB05 DA63 DA86 MM

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 第1画像データによる画像と、第2画像
データによる画像とを合成する画像合成手段を含む画像
処理装置であって、 上記画像合成手段は、 所定のフォーマットにより第1画像データに埋め込まれ
た制御パラメータを検出する検出手段と、 検出された上記制御パラメータに基づいて上記第1画像
データによる画像と上記第2画像データによる画像とを
合成する合成手段と、を含んで成ることを特徴とする画
像処理装置。
1. An image processing apparatus comprising an image synthesizing unit for synthesizing an image based on first image data and an image based on second image data, wherein the image synthesizing unit converts the image into first image data in a predetermined format. Detecting means for detecting an embedded control parameter; and synthesizing means for synthesizing an image based on the first image data and an image based on the second image data based on the detected control parameter. Characteristic image processing device.
【請求項2】 上記第1画像データは、帯域制限により
使用されない画素値の範囲を有し、この画素値の範囲を
使用して上記制御パラメータを上記第1画像データに埋
め込むためのデータ変換手段を含む請求項1記載の画像
処理装置。
2. The data conversion means for embedding the control parameter in the first image data using a range of pixel values not used due to band limitation, and using the range of pixel values. The image processing apparatus according to claim 1, further comprising:
【請求項3】 第1画像データによる画像と、第2画像
データによる画像とを合成する画像合成手段を含む画像
処理装置であって、 上記画像合成手段は、 入力された上記第1画像データの輝度値が所定の範囲に
属するか否かを判別するための輝度値検出手段と、 上記輝度値検出手段の検出結果に基づいて、輝度値が上
記所定の範囲に属さない画素については無変換とし、輝
度値が所定の範囲に属する画素については隣接する画素
の輝度値に変換する輝度値変換手段と、 上記輝度値検出手段の検出結果に基づいて、輝度値が所
定の範囲に属さない画素については不透過度を示すα値
を1とし、輝度値が所定の範囲に属する画素について
は、それに対応するα値を所定のテーブルを参照するこ
とにより求めるα値生成手段と、 上記輝度値変換手段の出力信号と上記α値生成手段の出
力値とに基づいて半透明化処理を行うための合成手段
と、を含んで成ることを特徴とする画像処理装置。
3. An image processing apparatus including an image synthesizing unit for synthesizing an image based on first image data and an image based on second image data, wherein the image synthesizing unit is configured to output the first image data. A luminance value detecting means for determining whether or not the luminance value belongs to a predetermined range; and, based on a detection result of the luminance value detecting means, a pixel whose luminance value does not belong to the predetermined range is not converted. A pixel whose luminance value does not belong to a predetermined range, based on a detection result of the luminance value detecting means, for a pixel whose luminance value belongs to a predetermined range; Is an α value indicating an opacity, and for a pixel whose luminance value belongs to a predetermined range, an α value generation means for obtaining an α value corresponding to the pixel by referring to a predetermined table; The image processing apparatus characterized by comprising a synthesizing means for performing semi-transparent processing on the basis of the output value of the output signal and the α value generation means.
【請求項4】 不透過度を示すα値を参照して半透明化
処理を行う画素の輝度値を所定のテーブルに従って求め
た値に変換するためのデータ変換手段を含む請求項3記
載の画像処理装置。
4. The image according to claim 3, further comprising data conversion means for converting a luminance value of a pixel to be subjected to a translucent process to a value obtained according to a predetermined table with reference to an α value indicating opacity. Processing equipment.
【請求項5】 MPEG4のオブジェクトベース符号化
画像データをデコードして上記データ変換部での変換対
象となるデータを得るための手段を含む請求項2又は4
記載の画像処理装置。
5. The image processing apparatus according to claim 2, further comprising means for decoding MPEG4 object-based encoded image data to obtain data to be converted by said data conversion unit.
The image processing apparatus according to any one of the preceding claims.
JP2000218167A 2000-07-19 2000-07-19 Image processor Withdrawn JP2002033904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000218167A JP2002033904A (en) 2000-07-19 2000-07-19 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000218167A JP2002033904A (en) 2000-07-19 2000-07-19 Image processor

Publications (1)

Publication Number Publication Date
JP2002033904A true JP2002033904A (en) 2002-01-31

Family

ID=18713153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000218167A Withdrawn JP2002033904A (en) 2000-07-19 2000-07-19 Image processor

Country Status (1)

Country Link
JP (1) JP2002033904A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093043A1 (en) * 2003-04-15 2004-10-28 Fujitsu Limited Drawing device and display controller
JP2007259352A (en) * 2006-03-24 2007-10-04 Brother Ind Ltd Printing or displaying apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093043A1 (en) * 2003-04-15 2004-10-28 Fujitsu Limited Drawing device and display controller
US7554554B2 (en) 2003-04-15 2009-06-30 Fujitsu Microelectronics Limited Rendering apparatus
JP2007259352A (en) * 2006-03-24 2007-10-04 Brother Ind Ltd Printing or displaying apparatus
US8134739B2 (en) 2006-03-24 2012-03-13 Brother Kogyo Kabushiki Kaisha Information processing device for outputting reduced-size pages

Similar Documents

Publication Publication Date Title
CN100371955C (en) Method and apparatus for representing image granularity by one or more parameters
US8619085B2 (en) Method and system for compressing tile lists used for 3D rendering
CN102714723B (en) Film grain is used to cover compression artefacts
EP1339224B1 (en) Method and apparatus for improving picture sharpness
US6876367B2 (en) Dynamic image processing method, dynamic image processor and dynamic image display device
JP5948508B2 (en) Video processor and method of operating video processor
CN114040246A (en) Image format conversion method, device, equipment and storage medium of graphic processor
JP2002033904A (en) Image processor
JP5520302B2 (en) Video terminal and display image forming method
JP2002534919A (en) Method and apparatus for performing motion compensation in a texture mapping engine
JP4144258B2 (en) Image output apparatus and image output method
JP4633595B2 (en) Movie generation device, movie generation method, and program
JP2002199277A (en) Image data output device
JP2023550764A (en) Methods, devices, smart terminals and media for creating panoramic images based on large displays
JP2003283925A (en) Image compositing device and method therefor
JP2005513842A (en) Shape-assisted padding for object-based coding
JP2005348439A (en) Image processor
JPH05120417A (en) Color adjusting and picture synthesizing method and device for color picture
JP5641237B2 (en) Noise addition circuit, noise addition method
JP2004023332A (en) Image data processing circuit and digital broadcast receiving system
CN117411978B (en) MVPS (mechanical vapor compression system) series video processing system and method
JP6048046B2 (en) Image composition apparatus and image composition method
JP4633594B2 (en) Movie generation device, movie generation method, and program
JP3642952B2 (en) Image composition method and apparatus, and information processing system
JP2756047B2 (en) Color image color adjustment method and apparatus, and image synthesis method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071002