JPH02226486A - Picture encoding/synthesizing system - Google Patents

Picture encoding/synthesizing system

Info

Publication number
JPH02226486A
JPH02226486A JP4709689A JP4709689A JPH02226486A JP H02226486 A JPH02226486 A JP H02226486A JP 4709689 A JP4709689 A JP 4709689A JP 4709689 A JP4709689 A JP 4709689A JP H02226486 A JPH02226486 A JP H02226486A
Authority
JP
Japan
Prior art keywords
image
information
component
color
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4709689A
Other languages
Japanese (ja)
Other versions
JPH07104919B2 (en
Inventor
Tomoko Aono
友子 青野
Masaki Takakura
正樹 高倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP1047096A priority Critical patent/JPH07104919B2/en
Publication of JPH02226486A publication Critical patent/JPH02226486A/en
Priority to US07/994,601 priority patent/US5267333A/en
Publication of JPH07104919B2 publication Critical patent/JPH07104919B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To prevent an objective picture from being hidden by a background picture when the pictures are synthesized by segmenting the objective picture from the component picture, and discriminating the objective picture from the background picture in the component picture. CONSTITUTION:In three component pictures P1, P2 and P3 surrounded by dot lines, respective hatched portions are objective pictures O1, O2 and O3, and the other parts are background pictures b1, b2 and b3. In the component pictures P1 to P3, m-bit codes are allocated to respective picture elements as area information to discriminate the backgrounds b1 to b3 from the objects O1 to O3, and by compressing only the part indicated to be the object by the area information, an information quantity and a calculating time can be reduced. Further the area information can discriminate the objective pictures O1 to O3 in the component pictures P1 to P3 from the background picture parts b1 to b3. Thus even when the background pictures of the other component picture are overlapped on the objective pictures O1 to O3 of the component pictures P1 to P3, the data of the objective pictures O1 to O3 can be prevented from being erased.

Description

【発明の詳細な説明】 〈産業上のfll用分野〉 本発明は部品画像と全体背景画像を符号化して保存し、
合成する画像符号化合成方式に関する。
[Detailed Description of the Invention] <Industrial FLL Field> The present invention encodes and saves a component image and an entire background image,
This invention relates to an image encoding and combining method for combining images.

〈従来の技術〉 従来より、画像合成は次のようにして行なわれている。<Conventional technology> Conventionally, image synthesis has been performed as follows.

すなわち、第11図(a)に示す全体背景画像Bに第1
1図(b)に示す矩形の部品画像PI。
That is, the entire background image B shown in FIG.
A rectangular component image PI shown in FIG. 1(b).

P、、P、lを第11図(c)に示すように重ね合わせ
て、合成画像Aを得ている。
A composite image A is obtained by superimposing P, , P, and l as shown in FIG. 11(c).

そして、この合成画像Aを符号化して保存し、復元する
方法としては次のものがある。
The following methods are available for encoding, storing, and restoring this composite image A.

■ 第12図(a)に示すように、合成画像A全体を一
つの画像とみなして圧縮処理を施して、符号化データを
記録保存し、この符号化データを復元して表示する方式
(2) As shown in FIG. 12(a), a method in which the entire composite image A is regarded as one image, compression processing is performed, encoded data is recorded and saved, and this encoded data is restored and displayed.

■ 第12図(b)に示すように、全体背景画像Bの他
に、部品画像P2.Pt、Ps毎に圧縮処理を施して、
符号化データを記録し、画像を合成する際に、その符号
化データを復元して、各部品画像P=、P2.P3のデ
ータで全体背景画像Bの所定位置のデータを置換して表
示する方式。
■ As shown in FIG. 12(b), in addition to the entire background image B, the component image P2. Perform compression processing for each Pt and Ps,
When recording encoded data and composing images, the encoded data is restored and each component image P=, P2 . A method of replacing data at a predetermined position of the entire background image B with the data of P3 and displaying it.

〈発明が解決しようとする課題〉 しかしながら、上記従来の画像符号化合成方式では、次
のような問題がある。
<Problems to be Solved by the Invention> However, the above-mentioned conventional image coding and synthesis method has the following problems.

すなわち、■の方式では、合成画像全体Aを保存するた
め、全体背景画像Bのデータ共有化、および部品画像P
1.P!、P3のデータを共有化することができず、全
体合成画像A毎に保存しなければならず、保存すべきデ
ータ量が膨大になるという欠点がある。また、部品画像
P、、P、、P3を個別に扱って自由に移動することが
できないという問題がある。
That is, in the method (■), in order to save the entire composite image A, data sharing of the entire background image B and component image P are performed.
1. P! , P3 cannot be shared and must be saved for each overall composite image A, resulting in a disadvantage that the amount of data to be saved becomes enormous. Another problem is that the component images P, , P, , P3 cannot be handled individually and moved freely.

また、■、■の方式とも第13図に示すように部品画像
P、A部品画像Ptを重ね合わせて表示したときに、部
品画像P+、Pz中の植木およびいすからなる対象画像
0..0.と部品画像P、、Pr中の背景画像b=、b
tとの区別がつかないため、背景画像btの下になった
対象画aO1が隠されて、見えない部分が生じるという
問題が生じる。あるいは第14図に示すように、対象画
像O2の内部に穴H+、Htがおいている場合、合成し
た際に本来、全体背景画像Bが見えるべき所)r 、 
、 H、が、部品画像P、の背景画像す、によって隠さ
れて、全体背景画像Bが見えなくなる場合があった。さ
らに第12図(b)において、■の方式で画像データを
圧縮符号化して保存しても、部品画像P 1.P t、
P 3には植木、額、いすからなる対象画像0..0.
.0゜以外に背景画像す、、b、、b9を含むため、圧
縮しても無駄な情報が多く、計算時間ら長いという問題
がある。
In addition, in both methods ■ and ■, when the part images P and A part images Pt are displayed in a superimposed manner as shown in FIG. 13, the target images 0. .. 0. and the background image b=,b in the part images P, ,Pr
Since the object image aO1 cannot be distinguished from the background image bt, a problem arises in that the target image aO1, which is below the background image bt, is hidden, resulting in an invisible portion. Alternatively, as shown in FIG. 14, if there are holes H+ and Ht inside the target image O2, the entire background image B should originally be visible when combined)r,
, H, were sometimes hidden by the background image S of the component image P, and the entire background image B could no longer be seen. Furthermore, in FIG. 12(b), even if the image data is compressed and encoded using the method (3) and stored, the component image P1. Pt,
P3 has target image 0. consisting of a plant, a frame, and a chair. .. 0.
.. Since the background images S, b, and b9 are included in addition to 0°, there is a problem that there is a lot of useless information even if it is compressed, and the calculation time is long.

そこで、この発明の目的は全体背景画像と部品画像とを
、あるいは部品画像と部品画像とを、部品画像中の対象
画像が背景画像に隠されないように、かつ部品画像中の
穴の部分に全体背景画像が表わされるように、画像合成
を行なうことができ、かつ、部品画像毎の取り扱いがで
き、位置ずれ、画質の劣化がなく、しかも圧縮符号化す
べきデータ量および計算量を少なくすることができる画
像符号化合成方式を提供することにある。
Therefore, an object of the present invention is to separate the entire background image and the part image, or between the part images and the part image, so that the target image in the part image is not hidden by the background image, and the hole part in the part image is completely covered. It is possible to perform image synthesis so that the background image is represented, it is possible to handle each part image separately, there is no positional shift or deterioration of image quality, and it is possible to reduce the amount of data to be compressed and encoded and the amount of calculation. The purpose of this invention is to provide an image encoding and synthesis method that can perform the following steps.

〈課題を解決するための手段〉 上記目的を達成するため、この発明の画像符号化合成方
式は、部品画像中から対象画像を切り出して、上記部品
画像における各画素が対象画像に 。
<Means for Solving the Problems> In order to achieve the above object, the image encoding synthesis method of the present invention cuts out a target image from a component image, and converts each pixel in the component image into the target image.

含まれるか部品画像中の背景画像に含まれるかを判別す
るための領域情報を作成し、上記全体背景画像の各画素
の色情報および上記部品画像中の対象画像の各画素の色
情報を非可逆圧縮して保存する一方、上記部品画像の各
画素の領域情報を可逆圧縮して保存し、上記非可逆圧縮
された色情報を復号すると共に、上記可逆圧縮された領
域情報を復号して、上記部品画像中の対象画像の各画素
の色情報および上記領域情報と全体背景画像の各画素の
色情報とに基づいて上記部品画像中の対象画像と全体背
景画像とを合成することを特徴としている。
Create region information to determine whether the image is included in the background image of the component image, and the color information of each pixel of the entire background image and the color information of each pixel of the target image in the component image are created. While reversibly compressing and storing, the region information of each pixel of the component image is reversibly compressed and stored, the irreversibly compressed color information is decoded, and the reversibly compressed region information is decoded, The target image in the component image and the entire background image are synthesized based on the color information of each pixel of the target image in the component image, the area information, and the color information of each pixel of the entire background image. There is.

また、上記領域情報には、部品画像中における対象画像
と背景画像との境界部を示すエツジ情報を含ませ、上記
エツジ情報に基づいて、上記境界部の色情報を作成する
ようにするのが望ましい。
Further, it is preferable that the area information includes edge information indicating a boundary between the target image and the background image in the component image, and color information of the boundary is created based on the edge information. desirable.

また、上記境界部の画素の色情報を、その境界部近くの
対象画像の画素の色情報と上記境界部近くの全体背景画
像の画素の色情報とから、エツジ情報に基づいて補間に
より作成するようにするのが望ましい。
Furthermore, the color information of the pixels in the boundary is created by interpolation based on the edge information from the color information of the pixels of the target image near the boundary and the color information of the pixels of the entire background image near the boundary. It is desirable to do so.

く作用〉 この発明によれば、部品画像は背景を対象と区別するた
めの領域情報として各画素毎にmビットの符号をわりあ
て、領域情報が対象であると示している部分のみを圧縮
することによって情?!量や計算時間を少なくすること
ができる。また、領域情報によって部品画像中の対象画
像の部分とそうでない背景画像の部分か区別できるため
、ある部品画像の対象画像の上に別の部品画像の背景画
像が重ねられても対象画像のデータが消えるのを防止で
きる。また、対象画像中の穴の部分に全体背景画像を表
示できる。領域情報の圧縮は、人間の視覚特性が高い空
間分解能をもっており、位置のずれに対してはたいへん
敏感であることから、可逆な圧縮方式が用いられる。一
方、色情報は、それに対して視覚がそれ程鋭敏でないこ
とから、非可逆の圧縮が行われる。さらに、2枚以上の
画像を合成することによって部分画像中の対象画像と全
体背景画像との間の色の不整合が第15図に示すように
生じるのを防ぐために、領域情報に対象画像のエツジの
情報を追加して、エツジの部分には全体背景画像の色情
報と部品画像の対象画像の色情報をまぜあわせた色をね
りあてることによって、境界の不整合が目立たないよう
にされる。
According to the present invention, an m-bit code is assigned to each pixel of a component image as area information for distinguishing the background from the target, and only the part where the area information indicates that it is the target is compressed. By love? ! The amount and calculation time can be reduced. In addition, since it is possible to distinguish between the target image part of a part image and the non-target image part of the part image based on the area information, even if the background image of another part image is superimposed on the target image of one part image, the data of the target image can be prevented from disappearing. Additionally, the entire background image can be displayed in the hole portion of the target image. To compress region information, a reversible compression method is used because the visual characteristics of humans have high spatial resolution and are extremely sensitive to positional shifts. On the other hand, color information is irreversibly compressed because the visual sense is not so sensitive. Furthermore, in order to prevent a color mismatch between the target image in the partial image and the entire background image from occurring as shown in Figure 15 by compositing two or more images, the region information is added to the target image. By adding edge information and applying a color to the edges that is a combination of the color information of the entire background image and the color information of the target image of the component image, inconsistencies at the boundaries are made less noticeable. .

このように、上記画像符号化合成方式によって作られた
合成画像は保存する時の情報量、符号化・復号化の計算
時間が少なく、また、部品画像毎の重ね合わせが的確か
つ自由にできる。また部品画像の対象画像と全体背景画
像との境界部の不整合がないため見ばえのよい合成画像
が得られる。
In this way, the synthesized image created by the above-mentioned image encoding synthesis method has a small amount of information when stored and a small amount of calculation time for encoding and decoding, and can be accurately and freely superimposed on each component image. Furthermore, since there is no mismatch at the boundary between the target image of the component image and the entire background image, a good-looking composite image can be obtained.

〈実施例〉 第1図に本発明を実現するためのシステム構成の概略図
を示す。1.2はこれから処理を行う原稿、絵画、写真
等の画像データである。3は画像データ1.2を取り込
むカラースキャナ等の画像入力装置である。4は部品画
像を入力した場合に背景画像と対象画像を区別する処理
を行なって領域情報を作成する切り出し処理部である。
<Embodiment> FIG. 1 shows a schematic diagram of a system configuration for realizing the present invention. 1.2 is image data such as a manuscript, painting, photograph, etc. that will be processed from now on. 3 is an image input device such as a color scanner that takes in the image data 1.2. Reference numeral 4 denotes a cutout processing unit that creates area information by performing processing to distinguish between a background image and a target image when a component image is input.

5はカラー全体背景画像及び部品画像中の対象画像の色
情報の圧縮処理を行う非可逆圧縮部、6は部品画像の領
域情報の圧縮処理を行う可逆圧縮部である。
Reference numeral 5 denotes an irreversible compression unit that performs compression processing of color information of the target image in the entire color background image and component images, and numeral 6 represents a reversible compression unit that performs compression processing of area information of the component image.

7は圧縮処理を終えたデータを記録・保存するハードデ
ィスク(HD)、フロッピーディスク(FD)。
7 is a hard disk (HD) and a floppy disk (FD) for recording and saving data that has been compressed.

マグネティックテープ(MT)等の画像の記録再生装置
である。以上が符号化処理部である。以下に復号化処理
部について述べる。8は記録再生装置7から読み出した
データのうちカラー全体背景画像及び部品画像中の対象
画像の色情報を復元する非可逆復号化処理部、9は部品
画像の領域情報を復元する可逆復号化処理部、10はカ
ラー全体背景画像と部品画像の合成を行う合成処理部、
11は合成処理部lOで合成された画像を表示する画像
表示装置である。
This is an image recording and reproducing device such as magnetic tape (MT). The above is the encoding processing section. The decoding processing section will be described below. Reference numeral 8 denotes an irreversible decoding processing unit that restores the color information of the entire color background image and the target image in the component image out of the data read out from the recording/reproducing device 7, and 9 a reversible decoding processing unit that restores the area information of the component image. 10 is a synthesis processing unit that synthesizes the entire color background image and the component image;
Reference numeral 11 denotes an image display device that displays images synthesized by the synthesis processing section IO.

次に各部の処理について詳しく述べることにする。Next, the processing of each part will be described in detail.

人力画像が部品画像であると指定されているときは、切
り出し処理部4で対象画像と背景画像の領域を区別を行
なう。第2図に示すように点線で囲まれた3つの部品画
像P 1. P t 、 P 3について各々斜線部が
対象画像0..0!、03、それ以外が背景画像b+、
bt、b3である。以後植木の処理過程について述べる
ことにする。このとき第3図に示されるように領域情報
としては背景画像の部分には0、対象画像の部分には1
を割り当てる。この処理はユーザが対話的に0と1を決
めることによって行われ、第4図に示すように、領域情
報は画像データの下位mビットに蓄えられる。従って画
像データがQビット/画素であれば残りの(σ−m)ビ
ットが色情報を蓄えるのに使用される。そのため画像デ
ータの下位mビットの情報は画像人力装置3から読みこ
んだものを失うことになる。しかし−船釣に人間の視覚
はR,G、B各8ビット/画素の下位2〜3ビツトの情
報の消失であれば劣化をほとんど感じないため、mの値
が小さければ視覚に及ぼす影響はほとんどない。切り出
し処理部4で作られた領域情報は可逆圧縮部6に送られ
る。人間の視覚特性は空間分解能が高いため、線9面の
位置(つまりエツジ)ずれ等には非常に敏感であること
から、領域情報は高い精度で復元されねばならない。
When the human image is designated as a component image, the cutout processing unit 4 distinguishes the target image and background image areas. Three parts images P surrounded by dotted lines as shown in FIG. 2 1. The shaded areas for P t and P 3 are target images 0. .. 0! , 03, the others are background images b+,
bt, b3. From now on, I will talk about the process of treating the plants. At this time, as shown in Figure 3, the area information is 0 for the background image and 1 for the target image.
Assign. This processing is performed by the user interactively determining 0 and 1, and as shown in FIG. 4, area information is stored in the lower m bits of the image data. Therefore, if the image data is Q bits/pixel, the remaining (σ-m) bits are used to store color information. Therefore, the information of the lower m bits of the image data read from the image human input device 3 will be lost. However, when fishing on a boat, human vision hardly feels any deterioration if the information in the lower 2 to 3 bits of each 8-bit R, G, and B pixel disappears, so if the value of m is small, the effect on vision is small. rare. The region information created by the cutout processing section 4 is sent to the reversible compression section 6. Since human visual characteristics have a high spatial resolution, they are very sensitive to deviations in the position (that is, edges) of the line 9 plane, and therefore, the region information must be restored with high accuracy.

そのため領域情報の圧縮は例えばランレノゲス符号化の
ような可逆方式が用いられる。部品画像中の対象画像や
カラー全体背景画像などの色情報は非可逆圧縮部5に送
られる。人間の視覚特性は色情報に対してはさほど敏感
ではないので、色情報については例えばG B T C
(Generalized BlockTruncat
ion Coding)、A D CT (Adapt
ive Discrete Co51ne Trans
form)、P CS (ProgressiveCo
ding Scheme)などの非可逆方式が用いられ
る。
Therefore, a reversible method such as run-renoguess coding is used to compress the region information. Color information such as the target image and the entire color background image in the component image is sent to the irreversible compression unit 5. Human visual characteristics are not very sensitive to color information, so for example, G B T C
(Generalized Block Trunk
ion Coding), AD CT (Adapt
ive Discrete Co51ne Trans
form), PCS (ProgressiveCo
An irreversible method such as ding Scheme) is used.

非可逆圧縮部5および可逆圧縮部6で圧縮されたデータ
は記録再生装置7に書き込まれ、保存される。
The data compressed by the irreversible compression section 5 and the reversible compression section 6 is written to the recording/reproducing device 7 and stored.

次に復号化について述べる。記録再生装置7から読み出
された画像データは非可逆復号化部8で色情報が復号化
され、可逆復号化部9で部品画像の領域情報が復号化さ
れる。復号化されたカラー全体背景画像と部品画像は合
成処理部10で合成される。ここでは部品画像の領域情
報を参照して、0(背景)のところはカラー全体背景画
像の色情報を合成処理部IOの画像メモリに蓄える。一
方、領域情報が1(対象画像)のところは部品画像の色
情報を画像メモリに蓄える。この画像メモリに蓄えられ
た色情報を第5図に示すように画像表示装置11に表示
することで画像合成が完了する。領域情報がOの場合に
はカラー全体背景画像をそのまま表示するので、部品画
像が重なった場合や、部品画像の中に穴がある場合に対
しても見た目に自然な画像を出力することが可能である
Next, we will discuss decoding. The color information of the image data read from the recording/reproducing device 7 is decoded by the irreversible decoding section 8, and the area information of the component image is decoded by the reversible decoding section 9. The decoded entire color background image and component image are combined in a combination processing section 10. Here, the area information of the component image is referred to, and in the case of 0 (background), the color information of the entire color background image is stored in the image memory of the composition processing unit IO. On the other hand, when the area information is 1 (target image), the color information of the component image is stored in the image memory. The image synthesis is completed by displaying the color information stored in the image memory on the image display device 11 as shown in FIG. If the area information is O, the entire color background image is displayed as is, so it is possible to output a natural-looking image even when part images overlap or there are holes in the part image. It is.

しかしながら、領域情報に背景(0)と対象(1)の2
つの区別しかないために、この2つの領域の境界部では
第15図に示すように色の不整合が生しることが多い。
However, in the area information, there are two background (0) and target (1)
Since there is only one distinction, color mismatch often occurs at the boundary between these two areas, as shown in FIG.

そこで領域情報にエツジ部をさらに設けて、この境界部
では背景と対象の中間色を補間によって得ることによっ
てエツジの不整合を抑える。例えば領域情報を背景(0
)、エツジ(12)、対象(3)の4つに分ける。エツ
ジ(1,2)の違いは背景に近い中間色(1)と対象に
近い中間色(2)である。
Therefore, an edge portion is further provided in the region information, and in this boundary portion, a neutral color between the background and the object is obtained by interpolation, thereby suppressing edge mismatch. For example, the area information is the background (0
), edge (12), and target (3). The difference between edges (1, 2) is that the intermediate color (1) is close to the background and the intermediate color (2) is close to the object.

これを以下にもう少し具体的な例で説明する。This will be explained below using a more specific example.

カラー全体背景画像データ(第11図(a))、部品画
像データ(第1I図(b))としては色の3成分R,G
、Bの値Cr、Cg、Cbを画像人力装置から取り込む
。C1(i=r、g、b)は8ビツトで0〜2’−1の
値をとるものとする。部品画像は切り出し処理部では以
下の処理を受ける。ユーザが対話的に切り出し処理を行
って、第6図に示すように、背景画像とみなしたところ
は領域情報は0、対象画像とみなしたところは領域情報
は3、エツジとみなしたところは場所によって領域情報
!または2と区別され、領域情報A 1(i= O〜3
、Aiは2ビツト)が作られる。次に画像データC1(
i= r、g、b)の下位2ビツトを領域情報Aiでお
きかえ、色情報Ci°は上位6ビツトとする。つまり部
品画像データX i(X i: 8ビツト)は次式で表
わされる。
The three color components R and G are used as the entire color background image data (Figure 11(a)) and the component image data (Figure 1I(b)).
, B values Cr, Cg, and Cb are taken in from the image human input device. C1 (i=r, g, b) is 8 bits and takes a value from 0 to 2'-1. The component image undergoes the following processing in the cutout processing section. When the user performs the cutting process interactively, as shown in Figure 6, the region information is set to 0 for the background image, the region information is 3 for the target image, and the location for the edges. Area information by! or 2, and area information A 1 (i = O ~ 3
, Ai is 2 bits) are created. Next, image data C1 (
The lower two bits of i=r, g, b) are replaced with area information Ai, and the upper six bits are used as color information Ci°. In other words, the component image data X i (X i: 8 bits) is expressed by the following equation.

Ci’ −〇 i& F C(IIXc i’は部品画
像の色情報、(H)は16進数を表す。) Xi=C4’+Ai   (Aiは領域情報)カラー全
体背景画像データは通常の非可逆符号化(例えばGBT
C,ADCT、VQ、PO2等)の圧縮処理を行い、記
録再生装置7゛に書き込む。但し、このとき、この画像
がカラー全体背景画像であるか、部品画像であるかを示
す判別フラグを立てておく必要がある。部品画像Xiは
上位6ヒツ1−Ci’と下位2ビツトAIに分離し、色
情報Ciは非可逆圧縮部5に送り、領域情報が3(対象
画像)の画素のみ符号化処理を行う。つまり背景及びエ
ツジに対しては符号化処理を全く行わない。
Ci' -〇 i & F C (IIXc i' is the color information of the component image, (H) is a hexadecimal number.) Xi = C4' + Ai (Ai is area information) The entire color background image data is a normal irreversible code (e.g. GBT
C, ADCT, VQ, PO2, etc.) and is written to the recording/reproducing device 7'. However, at this time, it is necessary to set a discrimination flag indicating whether this image is an entire color background image or a component image. The component image Xi is separated into the upper 6 bits 1-Ci' and the lower 2 bits AI, the color information Ci is sent to the irreversible compression section 5, and only the pixels whose area information is 3 (target image) are encoded. In other words, no encoding processing is performed on the background and edges.

領域情報が3の画素の色情報CI’は6ビノトであるか
ら2ピツト左シフトして8ヒツトCi”にし、カラー全
体背景画像データと同様の非可逆圧縮の符号化処理を行
う。
Since the color information CI' of the pixel whose area information is 3 is 6 bits, it is shifted to the left by 2 bits to become 8 bits Ci'', and subjected to the same irreversible compression encoding process as the entire color background image data.

Ci”=Ci°×22 部品画像の領域情報Aiは可逆圧縮部6で可逆符号化を
行う。以下に一例を示す。第6図(a)のデータの符号
化は0及び3の部分はO及び3という2ビツトの符号の
後に同じ符号が続く長さが付加される。符号の長さnは
部品画像の横がN画素であれば n= [logtN + 1 ]−[1og29 + 
1 ]= 4で与えられる固定長符号である。なお、[
]はガウス記号である。またエツジ(1,2)は(1,
2)の符号を2ビツトで1または2が続く限り送る。第
7図は第6図の領域情報を符号化した結果である。
Ci”=Ci°×22 The area information Ai of the component image is reversibly encoded in the reversible compression unit 6. An example is shown below. The data in FIG. and 3, followed by the same code.The code length n is n = [logtN + 1] - [1og29 + if the width of the part image is N pixels.
1]=4. In addition,[
] is a Gaussian symbol. Also, the edge (1, 2) is (1,
2) The code of 2 bits is sent as long as 1 or 2 continues. FIG. 7 shows the result of encoding the area information in FIG. 6.

以上の符号化データを記録再生装置7に書込む。The above encoded data is written to the recording/reproducing device 7.

以後このカラー全体背景画像と部品画像はこの2枚の組
合わせに限らず、今までに記録再生装置7に蓄えられた
別のデータと乙組み合わせて表示することが可能になる
。カラー全体背景画像の復号化処理は記録再生装置7か
らカラー背景画像のフラグの立っているデータを読み出
し、非可逆復号化処理部8に送る。ここで符号化データ
からカラー全体背景画像データが再生される。この画像
データは一時合成部10の画像メモリに蓄えられる。
From now on, this entire color background image and component image can be displayed not only in combination with these two images, but also in combination with other data previously stored in the recording/reproducing device 7. In the decoding process of the entire color background image, the flagged data of the color background image is read out from the recording/reproducing device 7 and sent to the irreversible decoding processing section 8 . Here, the entire color background image data is reproduced from the encoded data. This image data is stored in the image memory of the temporary combining section 10.

部品画像の復号化処理は記録再生装置7から部品画像の
フラグの立ったデータを続出し、可逆復号化処理部9で
第6図(a)の領域情報を復号化する。
In the component image decoding process, the recording/reproducing device 7 successively outputs flagged component image data, and the reversible decoding processing section 9 decodes the area information shown in FIG. 6(a).

この領域情報を参照しながら非可逆復号化部8で部品画
像の対象画像の色情報を復号化する。このように、部品
画像の色情報の復号化は領域情報が3(対象画像)の画
素のみについて行われ、その結果は第8図(a)のよう
になる。これをカラー全体背景画像を蓄える画像メモリ
とは別の画像メモリに記憶する。この2枚の画像の合成
をする際、ユーザが部品画像の始点(XO、yo) (
第8図(a))をカラー全体背景画像の任意の位置(X
S、ys)(第8図(b))に指定したとする。合成処
理部10では部品画像の領域情報3(対象画像)に対応
するカラー全体背景画像の画素Ciを部品画像の色情報
Siでおきかえるという処理を行う。領域情報がθ〜2
のときは処理を行わない。以上の処理を行ったときの第
8図(b)の拡大図を第9図(a)に示す。次にエツジ
の処理を行う。部品画像の領域情報がl及び2の画素(
第6図(a)参照)に対応するカラー全体背景画像の画
素(第9図(b))を見つけ、その画素に最も近い領域
情報が0である全体背景画像の画素および部品画像の対
象画像中の画素を見つけ、それらの色情報の値を背景及
び対象の代表値Hi、Tiとする。注目画素に最ら近い
画素が複数個ある場合は各々平均値を代表値とする。こ
の代表値Hi。
While referring to this area information, the irreversible decoding unit 8 decodes the color information of the target image of the component image. In this way, the color information of the component image is decoded only for pixels whose area information is 3 (target image), and the result is as shown in FIG. 8(a). This is stored in an image memory separate from the image memory that stores the entire color background image. When compositing these two images, the user selects the starting point (XO, yo) of the part image (
Figure 8(a)) can be placed at any position (X
S, ys) (FIG. 8(b)). The composition processing unit 10 performs a process of replacing the pixels Ci of the entire color background image corresponding to the area information 3 (target image) of the component image with the color information Si of the component image. Area information is θ~2
No processing is performed when . FIG. 9(a) shows an enlarged view of FIG. 8(b) when the above processing is performed. Next, process the edges. The area information of the part image is for pixels l and 2 (
Find the pixel of the color entire background image (see FIG. 9(b)) that corresponds to the pixel (see FIG. 6(a)), and find the target image of the pixel of the entire background image and the part image whose area information closest to that pixel is 0. The pixels inside are found and their color information values are set as representative values Hi and Ti of the background and object. If there are a plurality of pixels closest to the pixel of interest, the average value of each pixel is taken as the representative value. This representative value Hi.

Tiから以下の式でエツジの画素値Eiを求める。The edge pixel value Ei is determined from Ti using the following formula.

ここでZはエツジの領域情報(lまたは2)である。Here, Z is edge area information (l or 2).

m−1 例として第9図(b)のエツジAの値は次のようにして
求める。Aに最も近い背景の画素はCだから、H八−2
0,Aに最も近い対象の画素はDだから、TA= I 
OO1従って となる。こうして求めた結果を第1O図に示す。
m-1 As an example, the value of edge A in FIG. 9(b) is determined as follows. Since the background pixel closest to A is C, H8-2
Since the target pixel closest to 0 and A is D, TA=I
OO1 therefore becomes. The results thus obtained are shown in FIG. 1O.

この処理によりエツジの部分で対象と背景の間の色の不
整合の発生を抑えることが可能になり、見ばえのする画
像を画像表示装置11に表示することができる。
This processing makes it possible to suppress the occurrence of color mismatch between the object and the background at the edges, and it is possible to display an attractive image on the image display device 11.

〈発明の効果〉 以上より明らかなように、本発明によれば、部品画像中
から対象画像を切り出して、部品画像中において対象画
像と背景画像とを区別するので、画像を合成した際に対
象画像が背景画像に隠されたりすることがなく、また、
対象画像中の穴の部分に全体背景画像を表示することが
できる。
<Effects of the Invention> As is clear from the above, according to the present invention, the target image is cut out from the part image and the target image and the background image are distinguished in the part image. Images are not hidden behind background images, and
The entire background image can be displayed in the hole part in the target image.

また、本発明によれば、全体背景画像の各画素の色情報
および部品画像中の対象画像の各画素の色情報を非可逆
圧縮して保存する一方、上記部品画像の各画素の領域情
報を可逆圧縮して保存するので、圧縮符号化および復号
化すべきデータmおよび計算量を少なくでき、かつ位置
ずれおよび画質の劣化の殆んどない高品質の画像合成を
行なうことができる。
Further, according to the present invention, the color information of each pixel of the entire background image and the color information of each pixel of the target image in the component image are irreversibly compressed and stored, while the area information of each pixel of the component image is stored. Since the data is reversibly compressed and stored, the amount of data m and calculations to be compressed and encoded and decoded can be reduced, and high-quality image synthesis can be performed with almost no positional shift or deterioration in image quality.

また、本発明によれば、上記領域情報に部品画像中にお
ける対象画像と背景画像との境界部を示すエツジ情報を
含ませ、上記境界部の画素の色情報を、その境界部近く
の対象画像の画素の色情報と上記境界部近くの全体背景
画像の画素の色情報とから、エツジ情報に基づいて補間
により作成するので、境界部に色の不整合が生じること
がない。
Further, according to the present invention, the area information includes edge information indicating the boundary between the target image and the background image in the component image, and the color information of the pixels at the boundary is applied to the target image near the boundary. Since the color information is created by interpolation based on the edge information from the color information of the pixels in the border and the color information of the pixels of the entire background image near the border, there will be no color mismatch at the border.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明のシステム構成の概略図、第2図は部品
画像の一例を示す図、第3図(a) 、 (b)は原画
と領域情報を示す図、第4図は画像データの構成を示す
図、第5図は画像合成の一例を示す図、第6図(a) 
、 (b)は部品画像の領域情報を説明する図、第7図
は部品画像の符号化データを説明する図、第8図(a)
 、 (b)は画像の符号化データを説明する図、第9
図(a) 、 (b)はエツジ処理を説明するための図
、第1θ図は復元画像のデータを説明する図、第11図
(a) 、 (b) 、 (c)は従来の画像合成を説
明する図、第12図(a) 、 (b)は従来の部品画
像の圧縮方法を説明する図、第13図、第14図は従来
の画像合成の問題点を説明する図、第15図は画像合成
した際の境界部の不整合を説明する図である。 !・・カラー全体背景画像データ、 2・・・部品画像データ、3・・画像入力装置、4・・
・切り出し処理部、5・非可逆圧縮部、6・・・可逆圧
縮部、7・・・記録再生装置、8・・非可逆復号化部、
9・・・可逆復号化部、10・・・合成処理部、11・
・・画像表示装置。 ((++源画 第3図 (bl傾絨端轢 第4図 特 許 出 願 人  シャープ株式会社代 理 人 
弁理士  前出 葆 ほか1名(G) 6図 (b) 第8図 ち3 品 画イ象中の文才裾球−シイ1に9図 (a )@乃(々ユ 1里 (エ ツ 己ソ処玉里 M
)(b)合成ヌル1里(二・・ル°り几王里)第14図 第13 画像の 重加 第15図
Figure 1 is a schematic diagram of the system configuration of the present invention, Figure 2 is a diagram showing an example of a component image, Figures 3 (a) and (b) are diagrams showing the original image and area information, and Figure 4 is the image data. Fig. 5 is a diagram showing an example of image synthesis, Fig. 6(a)
, (b) is a diagram explaining area information of a component image, FIG. 7 is a diagram explaining encoded data of a component image, and FIG. 8(a)
, (b) is a diagram explaining encoded data of an image, No. 9
Figures (a) and (b) are diagrams for explaining edge processing, Figure 1θ is a diagram for explaining restored image data, and Figures 11 (a), (b), and (c) are diagrams for explaining conventional image synthesis. Figures 12(a) and 12(b) are diagrams explaining the conventional compression method for component images. Figures 13 and 14 are diagrams explaining the problems of conventional image synthesis. The figure is a diagram illustrating misalignment at boundaries when images are combined. ! ...Color entire background image data, 2.. Part image data, 3.. Image input device, 4..
- Extraction processing section, 5. Irreversible compression section, 6.. Reversible compression section, 7.. Recording and reproducing device, 8.. Irreversible decoding section,
9... Reversible decoding unit, 10... Combination processing unit, 11.
...Image display device. ((++Original drawing 3rd figure (bl inclined carpet edge 4th figure Patent applicant Sharp Co., Ltd. agent)
Patent attorney, above, and 1 other person (G) Figure 6 (b) Figure 8 Chi 3 Items Literary talent in the image - Figures 1 and 9 (a) @No (Yu 1ri) Sodokoro Tamari M
) (b) Synthesis of null 1ri (2...ruri) Fig. 14 Fig. 13 Image weighting Fig. 15

Claims (3)

【特許請求の範囲】[Claims] (1)部品画像と全体背景画像を符号化して保存し、合
成する画像符号化合成方式において、上記部品画像中か
ら対象画像を切り出して、上記部品画像における各画素
が対象画像に含まれるか部品画像中の背景画像に含まれ
るかを判別するための領域情報を作成し、 上記全体背景画像の各画素の色情報および上記部品画像
中の対象画像の各画素の色情報を非可逆圧縮して保存す
る一方、上記部品画像の各画素の領域情報を可逆圧縮し
て保存し、上記非可逆圧縮された色情報を復号すると共
に、上記可逆圧縮された領域情報を復号して、上記部品
画像中の対象画像の各画素の色情報および上記領域情報
と全体背景画像の各画素の色情報とに基づいて上記部品
画像中の対象画像と全体背景画像とを合成することを特
徴とする画像符号化合成方式。
(1) In an image encoding and synthesis method that encodes and saves a component image and the entire background image and synthesizes them, a target image is cut out from the component image and whether each pixel in the component image is included in the target image is determined. Create area information to determine whether the image is included in the background image, and irreversibly compress the color information of each pixel of the entire background image and the color information of each pixel of the target image in the component image. At the same time, the region information of each pixel of the component image is reversibly compressed and stored, and the irreversibly compressed color information is decoded, and the reversibly compressed region information is decoded to create the region information in the component image. Image encoding characterized in that the target image in the component image and the entire background image are combined based on the color information of each pixel of the target image, the area information, and the color information of each pixel of the entire background image. Synthesis method.
(2)請求項1に記載の画像符号化合成方式において、 上記領域情報には、部品画像中における対象画像と背景
画像との境界部を示すエッジ情報を含んでおり、上記エ
ッジ情報に基づいて、上記境界部の色情報を作成するこ
とを特徴とする画像符号化合成方式。
(2) In the image encoding and synthesis method according to claim 1, the area information includes edge information indicating a boundary between the target image and the background image in the component image, and based on the edge information, , an image encoding and synthesis method characterized in that color information of the boundary portion is created.
(3)請求項2に記載の画像符号化合成方式において、 上記境界部の画素の色情報を、その境界部近くの対象画
像の画素の色情報と上記境界部近くの全体背景画像の画
素の色情報とから、エッジ情報に基づいて補間により作
成することを特徴とする画像符号化合成方式。
(3) In the image encoding/synthesizing method according to claim 2, the color information of the pixels in the boundary is combined with the color information of the pixels of the target image near the boundary and the pixels of the entire background image near the boundary. An image coding and synthesis method characterized by creating an image by interpolation based on edge information from color information.
JP1047096A 1989-02-28 1989-02-28 Image coding / synthesizing device Expired - Fee Related JPH07104919B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1047096A JPH07104919B2 (en) 1989-02-28 1989-02-28 Image coding / synthesizing device
US07/994,601 US5267333A (en) 1989-02-28 1992-12-21 Image compressing apparatus and image coding synthesizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1047096A JPH07104919B2 (en) 1989-02-28 1989-02-28 Image coding / synthesizing device

Publications (2)

Publication Number Publication Date
JPH02226486A true JPH02226486A (en) 1990-09-10
JPH07104919B2 JPH07104919B2 (en) 1995-11-13

Family

ID=12765657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1047096A Expired - Fee Related JPH07104919B2 (en) 1989-02-28 1989-02-28 Image coding / synthesizing device

Country Status (1)

Country Link
JP (1) JPH07104919B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546161A (en) * 1991-08-12 1993-02-26 Casio Comput Co Ltd Virtual reality display device
JP2000350236A (en) * 2000-01-01 2000-12-15 Casio Comput Co Ltd Image display device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6148073A (en) * 1984-08-10 1986-03-08 エヌ・ベー・フイリツプス・フルーイランペンフアブリケン Generation and alteration of synthetic image
JPS61175863A (en) * 1985-01-31 1986-08-07 Fujitsu Ltd Picture composing system
JPS62126473A (en) * 1985-11-28 1987-06-08 Canon Inc Image synthesizer
JPS62197874A (en) * 1986-02-25 1987-09-01 Photo Composing Mach Mfg Co Ltd Image processor
JPS62222373A (en) * 1986-03-24 1987-09-30 Sharp Corp Image processor
JPS6385984A (en) * 1986-09-30 1988-04-16 Canon Inc Picture processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6148073A (en) * 1984-08-10 1986-03-08 エヌ・ベー・フイリツプス・フルーイランペンフアブリケン Generation and alteration of synthetic image
JPS61175863A (en) * 1985-01-31 1986-08-07 Fujitsu Ltd Picture composing system
JPS62126473A (en) * 1985-11-28 1987-06-08 Canon Inc Image synthesizer
JPS62197874A (en) * 1986-02-25 1987-09-01 Photo Composing Mach Mfg Co Ltd Image processor
JPS62222373A (en) * 1986-03-24 1987-09-30 Sharp Corp Image processor
JPS6385984A (en) * 1986-09-30 1988-04-16 Canon Inc Picture processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546161A (en) * 1991-08-12 1993-02-26 Casio Comput Co Ltd Virtual reality display device
JP2000350236A (en) * 2000-01-01 2000-12-15 Casio Comput Co Ltd Image display device

Also Published As

Publication number Publication date
JPH07104919B2 (en) 1995-11-13

Similar Documents

Publication Publication Date Title
US5267333A (en) Image compressing apparatus and image coding synthesizing method
JP3177221B2 (en) Method and apparatus for displaying an image of an interesting scene
US7876378B1 (en) Method and apparatus for filtering video data using a programmable graphics processor
CA2559131C (en) Stereoscopic parameter embedding apparatus and stereoscopic image reproducer
EP1794714B1 (en) Magnification and pinching of two-dimensional images
CN1745589B (en) Video filtering for stereo images
EP0358498B1 (en) Method and apparatus for generating animated images
EP0377725B1 (en) A method and apparatus for manipulating video image signals
US20060152596A1 (en) Noise cleaning sparsely populated color digital images
CA1254996A (en) Interpolator for television special effects system
US20030067560A1 (en) Method for coding data of special effect
WO1999065224A3 (en) Creating animation from a video
CN113011432A (en) Two-dimensional code layered display and identification method and device
JPH02226486A (en) Picture encoding/synthesizing system
Leung et al. Realistic video avatar
CN114549270A (en) Anti-shooting monitoring video watermarking method combining depth robust watermarking and template synchronization
US6181350B1 (en) Apparatus for, and method of, interpolating between graphics and video pixels in an expanded image
JP3533754B2 (en) Image synthesis device
JPH07134769A (en) Anti-aliasing processing method for image synthesis
JP3247893B2 (en) Image encoding device and image decoding device
JP3062507B2 (en) Image encoding device and image decoding device
JPH01288087A (en) Limited color picture processor
JP3461807B2 (en) Video decoding method
JPH0319584B2 (en)
EP1639825A2 (en) Method and decoder for composing a scene

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees