JP3526258B2 - Image encoding device and image decoding device - Google Patents

Image encoding device and image decoding device

Info

Publication number
JP3526258B2
JP3526258B2 JP2000187116A JP2000187116A JP3526258B2 JP 3526258 B2 JP3526258 B2 JP 3526258B2 JP 2000187116 A JP2000187116 A JP 2000187116A JP 2000187116 A JP2000187116 A JP 2000187116A JP 3526258 B2 JP3526258 B2 JP 3526258B2
Authority
JP
Japan
Prior art keywords
area
image
information
area information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000187116A
Other languages
Japanese (ja)
Other versions
JP2001036914A (en
Inventor
裕之 堅田
寛 草尾
典男 伊藤
敏男 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP27550195A external-priority patent/JP3101195B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000187116A priority Critical patent/JP3526258B2/en
Publication of JP2001036914A publication Critical patent/JP2001036914A/en
Application granted granted Critical
Publication of JP3526258B2 publication Critical patent/JP3526258B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ディジタル画像処
理の分野に属し、画像データを高能率に符号化する画像
符号化装置及びこの画像符号化装置で作成された符号化
データを復号する画像復号装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the field of digital image processing, and is an image coding apparatus for coding image data with high efficiency and an image decoding apparatus for decoding coded data created by this image coding apparatus. It relates to the device.

【0002】[0002]

【従来の技術】画像符号化において、異なる動画像シー
ケンスを合成する方式が検討されている。文献「階層表
現と多重テンプレートを用いた画像符号化」(信学技報
IE94-159,pp99-106 (1995))では、背景となる動画像シ
ーケンスと前景となる部品動画像の動画像シーケンス
(例えばクロマキー技術によって切り出された人物画像
や魚の映像など)を合成して新たなシーケンスを作成す
る手法が述べられている。
2. Description of the Related Art In image coding, a method of synthesizing different moving image sequences has been studied. Document "Image Coding Using Hierarchical Representation and Multiple Templates"
In IE94-159, pp99-106 (1995)), a new moving image sequence that is the background and a moving image sequence of the component moving image that is the foreground (for example, a person image or a video of a fish cut out by chroma key technology) is synthesized and added. Techniques for creating simple sequences are described.

【0003】また、文献「画像内容に基づく時間階層符
号化」("Temporal Scalability based on image conte
nt", ISO/IEC/ JTC1/SC29/WG11 MPEG95/211(1995))で
は、フレームレートの低い動画像シーケンスにフレーム
レートの高い部品動画像の動画像シーケンスを合成して
新たなシーケンスを作成する手法が述べられている。
In addition, the document "Temporal Scalability based on image conte"
nt ", ISO / IEC / JTC1 / SC29 / WG11 MPEG95 / 211 (1995)) creates a new sequence by synthesizing a moving image sequence with a high frame rate and a moving image sequence with a high frame rate. The method is described.

【0004】この方式では、図16に示すように、下位
レイヤでは低いフレームレートで予測符号化が行われ、
上位レイヤでは選択領域(斜線部)についてのみ高いフ
レームレートで予測符号化が行われる。ただし、下位レ
イヤで符号化したフレームは上位レイヤでは符号化せ
ず、下位レイヤの復号画像をそのままコピーして用い
る。また、選択領域としては、例えば人物部分など視聴
者の注目が集まる部分が選ばれているものとする。
In this system, as shown in FIG. 16, predictive coding is performed in a lower layer at a low frame rate.
In the upper layer, predictive coding is performed at a high frame rate only for the selected area (hatched portion). However, the frame encoded in the lower layer is not encoded in the upper layer, and the decoded image of the lower layer is directly copied and used. Further, it is assumed that a portion such as a person portion where the viewer's attention is focused is selected as the selection area.

【0005】図8に従来手法のブロック図を示す。ま
ず、従来手法の符号化側では、入力動画像は第1の駒落
し部801及び第2の駒落し部802によってフレーム
間引きされ、入力画像のフレームレート以下とされた
後、それぞれ上位レイヤ符号化部803及び下位レイヤ
符号化部804に入力される。ここで、上位レイヤのフ
レームレートは下位レイヤのフレームレート以上であ
る。
FIG. 8 shows a block diagram of a conventional method. First, on the encoding side of the conventional method, the input moving image is frame-decimated by the first frame dropping unit 801 and the second frame dropping unit 802 so that the frame rate is equal to or lower than the frame rate of the input image, and then the upper layer encoding is performed. It is input to the unit 803 and the lower layer encoding unit 804. Here, the frame rate of the upper layer is equal to or higher than the frame rate of the lower layer.

【0006】下位レイヤ符号化部804では、入力され
た動画像全体が符号化される。符号化方式としては、例
えばMPEGやH.261などの動画像符号化国際標準化方式が
用いられる。また、下位レイヤ符号化部804では、下
位レイヤの復号画像が作成され、予測符号化に利用され
ると同時に、合成部805に入力される。
In the lower layer encoding unit 804, the entire input moving image is encoded. As a coding method, for example, a moving picture coding international standardization method such as MPEG or H.261 is used. Further, in the lower layer encoding unit 804, a decoded image of the lower layer is created and used for predictive encoding, and at the same time, input to the combining unit 805.

【0007】図9は従来の符号化装置における符号量制
御部を示すブロック図である。図9において、符号化部
902は、動き補償予測、直交変換、量子化、可変長符
号化などを用いて動画像符号化を行う。
FIG. 9 is a block diagram showing a code amount control unit in a conventional coding apparatus. In FIG. 9, the encoding unit 902 performs moving image encoding using motion compensation prediction, orthogonal transformation, quantization, variable length encoding, or the like.

【0008】また、量子化幅算出部901は、符号化部
902で用いる量子化幅を算出し、発生符号量算出部9
03は、符号化データの累積を計算する。一般に発生符
号量が大きくなるとこれを抑えるために量子化幅を大き
く、逆に発生符号量が小さくなると量子化幅を小さく制
御する。
The quantization width calculation unit 901 calculates the quantization width used by the encoding unit 902, and the generated code amount calculation unit 9
03 calculates the accumulation of encoded data. Generally, when the generated code amount becomes large, the quantization width is increased to suppress it, and conversely, when the generated code amount becomes small, the quantization width is controlled to be small.

【0009】図8の上位レイヤ符号化部803では、入
力された動画像の選択領域のみが符号化される。ここで
も、MPEGやH.261などの動画像符号化国際標準化方式が
用いられるが、領域情報に基づいて選択領域のみを符号
化する。ただし、下位レイヤで符号化されたフレームは
上位レイヤでは符号化されない。
In the upper layer coding unit 803 of FIG. 8, only the selected area of the input moving image is coded. Also in this case, the international standardization method of moving picture coding such as MPEG or H.261 is used, but only the selected area is coded based on the area information. However, the frame encoded in the lower layer is not encoded in the upper layer.

【0010】領域情報は、人物部などの選択領域を示す
情報であり、例えば選択領域の位置で値1、それ以外の
位置で値0をとる2値画像である。また、上位レイヤ符
号化部803では、動画像の選択領域のみが復号され、
合成部805に入力される。
The area information is information indicating a selected area such as a person portion, and is, for example, a binary image having a value of 1 at the position of the selected area and a value of 0 at other positions. Further, in the upper layer encoding unit 803, only the selected area of the moving image is decoded,
It is input to the synthesis unit 805.

【0011】領域情報符号化部806では、領域情報が
8方向量子化符号を利用して符号化される。8方向量子
化符号は、図17に示すように、次の点への方向を数値
で示したもので、デジタル図形を表現する際に一般的に
使用されるものである。
In the area information coding unit 806, the area information is coded using an eight-direction quantized code. As shown in FIG. 17, the 8-direction quantized code is a numerical value indicating the direction to the next point, and is generally used when expressing a digital figure.

【0012】合成部805は、合成対象フレームで下位
レイヤフレームが符号化されている場合、下位レイヤの
復号画像を出力する。合成対象フレームで下位レイヤフ
レームが符号化されていない場合は、合成対象フレーム
の前後2枚の符号化された下位レイヤの復号画像と1枚
の上位レイヤ復号画像とを用いて動画像を出力する。
The synthesizing unit 805 outputs the decoded image of the lower layer when the lower layer frame is encoded in the synthesizing target frame. When the lower layer frame is not encoded in the synthesis target frame, a moving image is output using the decoded images of the two encoded lower layers before and after the synthesis target frame and one upper layer decoded image. .

【0013】ここで、下位レイヤの2枚の画像のフレー
ムは、上位レイヤのフレームの前及び後である。また、
合成部805で作成された動画像は上位レイヤ符号化部
803に入力され、予測符号化に利用される。合成部8
05における画像作成方法は以下の通りである。
Here, the frames of the two images of the lower layer are before and after the frame of the upper layer. Also,
The moving image created by the combining unit 805 is input to the upper layer encoding unit 803 and used for predictive encoding. Synthesis part 8
The image creating method in 05 is as follows.

【0014】まず、2枚の下位レイヤの補間画像が作成
される。時間tにおける下位レイヤの復号画像をB(x, y,
t)(ただし、x, yは空間内の画素位置を表す座標であ
る)とし、2枚の下位レイヤの時間をそれぞれt1, t2、
上位レイヤの時間をt3(ただし、t1<t3<t2である)と
すると、時間t3における補間画像I(x, y, t3)は、I(x,
y, t3) = [ (t2-t3)B(x, y, t1) + (t3-t1)B(x, y, t2)
]/(t2-t1) (1)によって計算される。
First, two lower layer interpolated images are created. The decoded image of the lower layer at time t is B (x, y,
t) (where x and y are coordinates representing the pixel position in space), and the times of the two lower layers are t1, t2, and
When the time of the upper layer is t3 (where t1 <t3 <t2 ), the interpolated image I (x, y, t3) at time t3 is I (x, y, t3).
y, t3) = [(t2-t3) B (x, y, t1) + (t3-t1) B (x, y, t2)
] / (t2-t1) Calculated by (1).

【0015】次に、上記で求めた補間画像Iに上位レイ
ヤの復号画像Eを合成する。このために、領域情報M(x,
y, t)から合成のための重み情報W(x, y, t)を作成し、
次式によって合成画像Sを得る。 S(x, y, t) = [1-W(x, y, t)]I(x, y, t) + E(x, y, t)W(x, y, t) (2) 領域情報M(x, y, t)は選択領域内で1、選択領域外で0
の値をとる2値画像であり、この画像に低域通過フィル
タを複数回施すことによって、重み情報W(x, y,t)を得
ることができる。
Next, the interpolated image I obtained above is combined with the decoded image E of the upper layer. For this, the region information M (x,
Create weight information W (x, y, t) for composition from y, t),
The synthetic image S is obtained by the following equation. S (x, y, t) = [1-W (x, y, t)] I (x, y, t) + E (x, y, t) W (x, y, t) (2) domain Information M (x, y, t) is 1 inside the selected area and 0 outside the selected area
Is a binary image having a value of, and weight information W (x, y, t) can be obtained by applying a low-pass filter to this image a plurality of times.

【0016】すなわち、重み情報W(x, y, t)は選択領域
内で1、選択領域外で0、選択領域の境界部で0〜1の
値をとる。以上が、合成部805における画像作成方法
の説明である。
That is, the weight information W (x, y, t) takes a value of 1 inside the selected area, 0 outside the selected area, and 0 to 1 at the boundary of the selected area. The above is the description of the image creating method in the combining unit 805.

【0017】下位レイヤ符号化部804、上位レイヤ符
号化部803、領域情報符号化部806で符号化された
符号化データは、図示しない符号化データ統合部で統合
され、伝送あるいは蓄積される。
The coded data coded by the lower layer coding section 804, the upper layer coding section 803, and the area information coding section 806 are integrated by a coded data integration section (not shown) and transmitted or stored.

【0018】次に、従来手法の復号側では、符号化デー
タが図示しない符号化データ分解部により、下位レイヤ
の符号化データ、上位レイヤの符号化データ、領域情報
の符号化データに分解される。これらの符号化データ
は、図8に示すように、下位レイヤ復号部808、上位
レイヤ復号部807及び領域情報復号部809によって
復号される。
Next, on the decoding side of the conventional method, the coded data is decomposed by a coded data decomposing unit (not shown) into coded data of the lower layer, coded data of the upper layer, and coded data of the area information. . As shown in FIG. 8, these encoded data are decoded by the lower layer decoding unit 808, the upper layer decoding unit 807 and the area information decoding unit 809.

【0019】復号側の合成部810は、符号化側の合成
部805と同一の装置からなり、下位レイヤ復号画像と
上位レイヤ復号画像とを用い、符号化側の説明で述べた
ものと同一の方法によって画像が合成される。ここで合
成された動画像は、ディスプレイに表示されると共に、
上位レイヤ復号部807に入力され、上位レイヤの予測
に利用される。
The decoding side synthesizing unit 810 is composed of the same device as the coding side synthesizing unit 805, uses the lower layer decoded image and the upper layer decoded image, and is the same as that described in the explanation of the coding side. The method synthesizes the images. The moving image combined here is displayed on the display,
It is input to the upper layer decoding unit 807 and used for prediction of the upper layer.

【0020】ここでは、下位レイヤと上位レイヤとの両
方を復号する復号装置について述べたが、下位レイヤの
復号部のみを備えた復号装置ならば、上位レイヤ符号化
部807、合成部810が不要であり、少ないハードウ
エア規模で符号化データの一部を再生することができ
る。
Here, the decoding apparatus for decoding both the lower layer and the upper layer has been described. However, if the decoding apparatus includes only the decoding section for the lower layer, the upper layer coding section 807 and the synthesizing section 810 are unnecessary. Therefore, a part of encoded data can be reproduced with a small hardware scale.

【0021】[0021]

【発明が解決しようとする課題】(1)従来の技術にお
いては、上記(1)式のように、2枚の下位レイヤ復号画
像と1枚の上位レイヤ復号画像とから出力画像を得る
際、2枚の下位レイヤの補間を行っているため、選択領
域の位置が時間的に変化する場合には、選択領域周辺に
大きな歪みが発生し、画質を大きく劣化させるという問
題がある。
(1) In the prior art, when an output image is obtained from two lower layer decoded images and one upper layer decoded image as in the above equation (1), Since the two lower layers are interpolated, when the position of the selected area changes with time, there is a problem that a large distortion occurs around the selected area and the image quality is greatly deteriorated.

【0022】図18はこの問題を説明するものである。
図18(a)において、画像A、Cは下位レイヤの2枚の
復号画像、画像Bは上位レイヤの復号画像であり、表示
時間順はA、B、Cの順である。ただし、選択領域を斜線
で示している。また、上位レイヤでは選択領域のみが符
号化されるため、選択領域外を破線で示している。
FIG. 18 illustrates this problem.
In FIG. 18A, images A and C are two decoded images of the lower layer, image B is a decoded image of the upper layer, and the display time order is A, B, and C. However, the selected area is indicated by diagonal lines. Further, since only the selected area is encoded in the upper layer, the area outside the selected area is indicated by a broken line.

【0023】選択領域が動いているため、画像Aと画像C
とから求めた補間画像は、図18(b)における網点部
のように、2つの選択領域が重複したものになる。さら
に、画像Bを重み情報を用いて合成すると、出力画像は
図18(c)に示すように、3つの選択領域が重複した
画像となる。
Since the selected area is moving, image A and image C
The interpolated image obtained from the above is such that two selected areas overlap, like the halftone dot portion in FIG. Furthermore, when the image B is combined using the weight information, the output image becomes an image in which three selected areas overlap, as shown in FIG.

【0024】特に、上位レイヤの選択領域周辺(外側)
に下位レイヤの選択領域が残像のように現れ、画質が大
きく劣化する。動画像全体としては、下位レイヤのみが
表示されている時には、上記の歪みがなく、上位レイヤ
と下位レイヤとの合成画像が表示されている時には、上
記の歪みが現われるため、フリッカ的歪みが発生し、非
常に大きな画質劣化となる。
In particular, around the selected area of the upper layer (outside)
The selected area of the lower layer appears as an afterimage in the image, and the image quality is greatly deteriorated. The entire moving image does not have the above distortion when only the lower layer is displayed, and the above distortion appears when the composite image of the upper layer and the lower layer is displayed, which causes flicker distortion. However, the image quality is extremely deteriorated.

【0025】(2)従来の技術においては、領域情報の
符号化に8方向量子化符号(図17)を用いているが、
低ビットレートに応用する場合や領域の形状が複雑にな
る場合などに、領域情報のデータ量の全符号化データ量
に占める割合が大きくなるため、画質劣化の要因となる
問題がある。
(2) In the conventional technique, the eight-direction quantization code (FIG. 17) is used to encode the area information.
When applied to a low bit rate or when the shape of a region becomes complicated, the ratio of the data amount of the region information to the total encoded data amount becomes large, which causes a problem of image quality deterioration.

【0026】(3)従来の技術においては、領域情報に
低域通過フィルタを複数回施すことによって、重み情報
を得ているが、フィルタ操作を複数回行うため、処理量
が増大するという問題がある。
(3) In the prior art, the weight information is obtained by applying the low-pass filter to the area information a plurality of times. However, since the filter operation is performed a plurality of times, there is a problem that the processing amount increases. is there.

【0027】(4)従来の技術においては、予測符号化
を用いているが、下位レイヤでシーンチェンジがある場
合にも予測符号化を用いることがあり、大きな歪みが発
生する。下位レイヤでの歪みは、上位レイヤにも波及す
るため、長時間に渡って歪みが持続するという問題があ
る。
(4) In the conventional technique, the predictive coding is used, but the predictive coding may be used even when there is a scene change in the lower layer, which causes a large distortion. Since the distortion in the lower layer spreads to the upper layer, there is a problem that the distortion is sustained for a long time.

【0028】(5)従来の技術においては、下位レイヤ
でMPEGやH.261などの動画像符号化国際標準化方式が用
いられるため、選択領域とそれ以外の領域の間で画質の
差があまりない。これに対し、上位レイヤでは選択領域
だけが高画質で符号化されるため選択領域での画質が時
間的に変化し、これがフリッカ的な歪みとなって検知さ
れるという問題がある。
(5) In the prior art, since the moving image coding international standardization method such as MPEG or H.261 is used in the lower layer, there is not much difference in image quality between the selected area and other areas. . On the other hand, in the upper layer, only the selected area is coded with high image quality, so that the image quality in the selected area changes with time, which is detected as flicker distortion.

【0029】本発明の目的は、これらの問題を解決し、
符号化後のデータ量を削減する一方復号画像の品質を劣
化させないような画像符号化装置及び画像復号装置を提
供することにある。
The object of the present invention is to solve these problems,
An object of the present invention is to provide an image encoding device and an image decoding device that reduce the amount of data after encoding and do not deteriorate the quality of a decoded image.

【0030】[0030]

【課題を解決するための手段】本願請求項1に記載の発
明に係る画像符号化装置は、動画像シーケンス内の特定
部品領域を階層的に符号化し下位レイヤ及び上位レイヤ
の符号化データを生成する動画像符号化手段と、前記特
定部品領域の領域形状を表す領域情報を符号化する領域
情報符号化手段とを備えた画像符号化装置であって、前
記領域情報符号化手段は、領域情報を近似する領域情報
近似手段と、近似された領域情報のフレーム間差分を求
めるフレーム間差分データ算出手段と、前記差分データ
に基づいて、近似された領域形状の変化の有無を示す変
化情報を符号化する変化情報符号化手段と、出力データ
を選択する選択手段を有し、近似しない領域情報の符号
化データと近似された領域情報の符号化データを選択的
に出力することを特徴とする。
An image coding apparatus according to the invention described in claim 1 of the present application hierarchically codes a specific component area in a moving image sequence to form a lower layer and an upper layer.
An image coding apparatus including moving image coding means for generating coded data of 1. and area information coding means for coding area information indicating the area shape of the specific component area, wherein the area information code Region information that approximates the region information
Approximation means, inter-frame difference data calculation means for obtaining an inter-frame difference of the approximated area information, and change information code for encoding change information indicating whether the approximated area shape has changed based on the difference data. Means and output data
Have a selection means for selecting the sign of the area information is not approximate
The encoded data of the region information approximated with the encoded data
It is characterized by outputting to.

【0031】本願請求項2に記載の発明に係る画像復号
装置は、動画像シーケンス内の特定部品領域を階層的に
符号化した下位レイヤ及び上位レイヤの符号化データを
復号する動画像復号手段と、前記特定部品領域の領域形
状を表す領域情報を符号化した符号化データを復号する
領域情報復号手段とを備えた画像復号装置であって、前
記領域情報復号手段は、近似しない領域情報の符号化デ
ータと近似された領域情報の符号化データを選択的に切
り替えて入力する選択手段と、近似された領域形状のフ
レーム間の変化の有無を示す変化情報を復号する変化情
報復号手段を有し、前記変化情報が近似された領域形状
のフレーム間の変化が無いことを示す場合には、近似さ
れた領域情報として前フレームの領域情報を用いること
を特徴とする。
The image decoding apparatus according to the second aspect of the present invention is a moving image for decoding encoded data of a lower layer and an upper layer in which a specific component area in a moving image sequence is hierarchically encoded. An image decoding device comprising image decoding means and area information decoding means for decoding coded data obtained by coding area information indicating the area shape of the specific component area, wherein the area information decoding means does not approximate. Area information encoding data
Data, the encoded data of the region information approximated to
A change means for inputting by replacement and a change information decoding means for decoding change information indicating presence / absence of a change between frames of the approximated area shape, the change information being changed between frames of the approximated area shape. the, it is approximate to indicate that there is no
The area information of the previous frame is used as the area information.

【0032】[0032]

【発明の実施の形態】先ず、図8における合成部805
で発生する問題を解決する第1の画像合成装置の例につ
いて説明する。すなわち、2枚の下位レイヤ復号画像か
ら画像を合成する際、上位レイヤの選択領域の周辺に残
像のような歪みを発生させない画像合成装置に関するも
のである。図1は第1の画像合成装置を示すブロック図
である。
BEST MODE FOR CARRYING OUT THE INVENTION First , a synthesis section 805 in FIG.
An example of the first image synthesizer that solves the problem that occurs in
Stomach you described. That is, the present invention relates to an image synthesizing apparatus that does not cause distortion such as an afterimage in the periphery of a selected region of an upper layer when synthesizing an image from two lower layer decoded images. Figure 1 is a block diagram showing the first images synthesizer.

【0033】図1において、第1の領域抽出部101
は、下位レイヤの第1の領域情報及び下位レイヤの第2
の領域情報から、第1の領域であり且つ第2の領域でな
い領域を抽出する。図10(a)において、第1の領域
情報を点線で(点線内部が値0、点線外部が値1を持つ
ものとする)表し、同様に、第2の領域情報を破線で表
すとすると、第1の領域抽出部101で抽出される領域
は、図10(a)における斜線部となる。
In FIG. 1, the first area extraction unit 101
Is the first area information of the lower layer and the second area of the lower layer.
A region that is the first region and is not the second region is extracted from the region information of. In FIG. 10A, if the first area information is represented by a dotted line (the inside of the dotted line has a value of 0 and the outside of the dotted line has a value of 1), and similarly, the second area information is represented by a broken line, The area extracted by the first area extracting unit 101 is a shaded area in FIG.

【0034】第2の領域抽出部102は、下位レイヤの
第1の領域情報及び下位レイヤの第2の領域情報から、
第2の領域領域であり且つ第1の領域でない領域を抽出
する。図10(a)の場合、網点部が抽出される。
The second area extracting unit 102 extracts the first area information of the lower layer and the second area information of the lower layer from the first area information of the lower layer.
A region that is the second region and not the first region is extracted. In the case of FIG. 10A, the halftone dot portion is extracted.

【0035】コントローラ103は、第1の領域抽出部
101及び第2の領域抽出部102の出力により、スイ
ッチ104を制御する部分である。すなわち、注目画素
位置が第1の領域のみの場合には、スイッチ104を第
2の復号画像側に接続し、注目画素位置が第2の領域の
みの場合には、スイッチ104を第1の復号側に接続
し、それ以外の場合には、スイッチ104を補間画像作
成部105からの出力に接続する。
The controller 103 is a part for controlling the switch 104 by the outputs of the first area extracting unit 101 and the second area extracting unit 102. That is, when the target pixel position is only in the first area, the switch 104 is connected to the second decoded image side, and when the target pixel position is only in the second area, the switch 104 is connected to the first decoded image. Otherwise, the switch 104 is connected to the output from the interpolation image creating unit 105 in all other cases.

【0036】補間画像作成部105は、下位レイヤの第
1の復号画像と下位レイヤの第2の復号画像との補間画
像を、上記従来技術として説明した式(1)に従って計算
する。ただし、式(1)でB(x, y, t1)は第1の復号画像、
B(x, y, t2)は第2の復号画像、I(x, y, t3)は補間画像
であり、t1, t2, t3はそれぞれ第1の復号画像、第2の
復号画像及び補間画像の時間である。
The interpolated image generation unit 105 calculates an interpolated image of the first decoded image of the lower layer and the second decoded image of the lower layer according to the equation (1) described as the above prior art. However, in equation (1), B (x, y, t1) is the first decoded image,
B (x, y, t2) is the second decoded image, I (x, y, t3) is the interpolated image, and t1, t2, t3 are the first decoded image, the second decoded image and the interpolated image, respectively. It's time.

【0037】以上のようにして、画像を作成するので、
例えば図10(a)の場合、斜線部では第2の復号画像
が使用されるため、選択領域外部の背景画素が現れ、網
点部では第1の復号画像が使用されるため、選択領域外
部の背景画素が現れ、それ以外の部分では第1の復号画
像と第2の復号画像の補間画像が現れる。
Since the image is created as described above,
For example, in the case of FIG. 10A, since the second decoded image is used in the shaded area, background pixels outside the selected area appear, and the first decoded image is used in the halftone area, and thus outside the selected area. Background pixel appears, and in other portions, an interpolated image of the first decoded image and the second decoded image appears.

【0038】このようにして作成された画像の上に、図
1の加重平均部106によって上位レイヤの復号画像を
重ねるため、合成された画像は図10(b)に示すよう
に、選択領域(斜線部分)周辺に残像がなく、歪みの少
ない画像が得られる。図1の加重平均部106は、上記
の補間画像と上位レイヤの復号画像とを加重平均によっ
て合成する。合成方法については、上記従来技術で述べ
たので、ここでは説明を省略する。
Since the weighted averaging unit 106 of FIG. 1 superimposes the decoded image of the upper layer on the image created in this way, the combined image has the selected region (as shown in FIG. 10B). There is no afterimage around the shaded area, and an image with less distortion can be obtained. The weighted average unit 106 in FIG. 1 synthesizes the interpolated image and the decoded image of the upper layer by weighted average. Since the synthesizing method has been described in the above-mentioned conventional technique, the description thereof is omitted here.

【0039】上述の第1の画像合成装置においては、図
1に示す補間画像作成部105を設けたが、そのかわり
に第1の復号画像B(x, y, t1)と第2の復号画像B(x, y,
t2)のうち、上位レイヤの時間であるt3に時間的に近い
復号画像の画素値を用いるようにしても良い。
In the first image synthesizing apparatus described above, the interpolated image creating unit 105 shown in FIG. 1 is provided. Instead, however, the first decoded image B (x, y, t1) and the second decoded image B B (x, y,
Of t2), the pixel value of the decoded image that is temporally close to t3, which is the time of the upper layer, may be used.

【0040】その場合は、各画像のフレーム番号を用い
て、t3-t1 < t1-t2の時は、 I(x, y, t3) = B(x, y, t1) とし、それ以外の時は、 I(x, y, t3) = B(x, y, t2) とする。
In that case, using the frame number of each image, when t3-t1 <t1-t2, I (x, y, t3) = B (x, y, t1), and otherwise. Is I (x, y, t3) = B (x, y, t2).

【0041】ただし、t1, t2, t3は、それぞれ第1の復
号画像、第2の復号画像及び上位レイヤの復号画像の時
間である。
However, t1, t2, and t3 are times of the first decoded image, the second decoded image, and the decoded image of the upper layer, respectively.

【0042】次に、第2の画像合成装置の例を説明す
る。本例は、第1の画像合成装置において、下位レイヤ
の復号画像の動き情報を考慮して、より正確に画像を合
成する画像合成装置に関するものである。図2は動きパ
ラメータを推定し、2枚の復号画像とそれらに対応する
2枚の領域情報とを変形する装置を示すブロック図であ
る。
Next , an example of the second image synthesizing device will be described. This example, in the first images synthesizer, taking into account the motion information of the decoded image of the lower layer, and an image synthesizing apparatus for synthesizing a more accurate image. FIG. 2 is a block diagram showing an apparatus for estimating motion parameters and transforming two decoded images and two pieces of area information corresponding to them.

【0043】図2において、動きパラメータ推定部20
1では、下位レイヤにおける第1の復号画像から第2の
復号画像への動き情報を推定する。例えば、ブロック単
位の動ベクトルを求めたり、画像全体の動き(並行移
動、回転、拡大縮小など)を求め、動きパラメータとす
る。
In FIG. 2, the motion parameter estimation unit 20
In 1, the motion information from the first decoded image to the second decoded image in the lower layer is estimated. For example, a motion vector in block units is calculated, or motion of the entire image (parallel movement, rotation, enlargement / reduction, etc.) is calculated and used as a motion parameter.

【0044】変形部202では、第1の復号画像、第2
の復号画像、第1の領域情報、第2の領域情報を、それ
ぞれ推定された動きパラメータによって、合成対象フレ
ームの時間的位置に基づき変形する。例えば、動きパラ
メータとして第1の復号画像から第2の復号画像への動
ベクトル(MVx, MVy)が求められているとする。ここで、
MVxは動ベクトルの水平成分、MVyは動ベクトルの垂直成
分である。
In the transformation unit 202, the first decoded image and the second decoded image
The decoded image, the first area information, and the second area information are transformed by the estimated motion parameters based on the temporal position of the synthesis target frame. For example, it is assumed that a motion vector (MVx, MVy) from the first decoded image to the second decoded image is obtained as a motion parameter. here,
MVx is the horizontal component of the motion vector, and MVy is the vertical component of the motion vector.

【0045】このとき、第1の復号画像から補間画像へ
の動ベクトルを、 (t3-t1)/(t2-t1)(MVx, MVy) によって計算し、第1の復号画像をこの動ベクトルにて
シフトする。動きパラメータとして回転、拡大縮小など
を用いる場合は、単なるシフトではなく変形を伴う。
At this time, the motion vector from the first decoded image to the interpolated image is calculated by (t3-t1) / (t2-t1) (MVx, MVy), and the first decoded image is converted to this motion vector. Shift. When rotation, enlargement / reduction, or the like is used as a motion parameter, deformation is involved rather than simple shift.

【0046】図2においては、変形されたデータをそれ
ぞれa, b, c, dで表しているが、aは図1における第1
の復号画像、bは図1における第2の復号画像、cは図1
における第1の領域情報、dにおける図1の第2の領域
情報として、図1に示した画像合成装置に入力され、合
成画像が作成される。
In FIG. 2, the transformed data are represented by a, b, c and d, respectively, where a is the first in FIG.
Image, b is the second decoded image in FIG. 1, c is FIG.
1 is input as the first area information in FIG. 1 and the second area information in FIG. 1 in d is input to the image combining apparatus illustrated in FIG. 1 to create a combined image.

【0047】第2の画像合成装置では、2枚の復号画像
から動きパラメータを推定するようにしたが、予測符号
化の際には画像の各ブロックの動ベクトルが符号化デー
タに含まれているのが一般的であるので、これらの動ベ
クトルを利用しても良い。
In the second image synthesizing device , the motion parameter is estimated from the two decoded images, but in the predictive coding, the motion vector of each block of the image is included in the coded data. Since these are general, these motion vectors may be used.

【0048】例えば、復号された動ベクトルの平均値
を、第1の復号画像から第2の復号画像への画像全体の
動ベクトルとしたり、或いは、復号された動ベクトルの
頻度分布を求め、最も頻度の高いベクトルを第1の復号
画像から第2の復号画像への画像全体の動ベクトルとし
ても良い。上記の処理は、水平方向・垂直方向で独立し
て行われる。
For example, the average value of the decoded motion vectors is set as the motion vector of the entire image from the first decoded image to the second decoded image, or the frequency distribution of the decoded motion vectors is obtained, A vector with high frequency may be used as a motion vector of the entire image from the first decoded image to the second decoded image. The above process is performed independently in the horizontal and vertical directions.

【0049】次に、本発明の実施例を説明する。実施
例は、領域情報を効率良く符号化する領域情報符号化装
置に関するものである。図3及び図4は本実施例のブロ
ック図であり、図3は符号化側、図4は復号側を示すも
のである。
[0049] Next, a description will be given of the actual施例of the present invention. The present embodiment relates to an area information encoding device that efficiently encodes area information. 3 and 4 are block diagrams of this embodiment. FIG. 3 shows the encoding side and FIG. 4 shows the decoding side.

【0050】図3における領域情報近似部301は、領
域情報を複数の図形で近似する。図11に近似の例を示
す。この例では、図形として矩形が用いられ、人物の領
域情報(斜線部)が2個の矩形で近似されている。矩形
1は人物の頭部を、矩形2は人物の胸部を表している。
The area information approximation unit 301 in FIG. 3 approximates the area information with a plurality of figures. FIG. 11 shows an example of approximation. In this example, a rectangle is used as the figure, and the region information (hatched portion) of the person is approximated by two rectangles. A rectangle 1 represents a person's head, and a rectangle 2 represents a person's chest.

【0051】領域近似情報符号化部302は、上記の近
似された領域情報を符号化する部分である。図11に示
すように、矩形で近似された場合には、各矩形の左上の
座標値と矩形の大きさとを固定長で符号化すれば良い。
或いは、楕円で近似された場合には、楕円の中心点の座
標、長軸の長さ及び短軸の長さを固定長で符号化すれば
良い。近似された領域情報と符号化されたデータとは、
選択部304に送られる。
The area approximation information coding section 302 is a section for coding the above-mentioned approximated area information. As shown in FIG. 11, in the case of approximation with a rectangle, the upper left coordinate value of each rectangle and the size of the rectangle may be encoded with a fixed length.
Alternatively, when approximation is performed with an ellipse, the coordinates of the center point of the ellipse, the length of the long axis, and the length of the short axis may be encoded with a fixed length. The approximated area information and encoded data are
It is sent to the selection unit 304.

【0052】領域情報符号化部303は、上記従来技術
で述べた領域情報符号化部806と同様に、領域情報を
近似せず、8方向量子化符号を用いて符号化する。領域
情報と符号化されたデータとは、選択部304に送られ
る。
The area information coding unit 303, similar to the area information coding unit 806 described in the above-mentioned prior art, codes the area information using the 8-direction quantization code without approximating. The area information and the encoded data are sent to the selection unit 304.

【0053】選択部304は、領域近似情報符号化部3
02の出力か、領域情報符号化部303の出力のいずれ
かを選択する。領域近似情報符号化部302の出力が選
択された時は、領域近似情報の符号化データを1ビット
の選択情報(例えば0)と共に、図示しない符号化デー
タ統合部に送り、領域近似情報を図示しない合成部に送
る。
The selecting unit 304 is a region approximation information coding unit 3
02 or the output of the area information coding unit 303 is selected. When the output of the region approximation information coding unit 302 is selected, the coded data of the region approximation information is sent together with 1-bit selection information (for example, 0) to a coded data integration unit (not shown) to display the region approximation information. No Send to the synthesizer.

【0054】また、領域情報符号化部303の出力が選
択された時は、近似しない領域情報の符号化データを1
ビットの選択情報(例えば1)と共に、図示しない符号
化データ統合部に送り、近似しない領域情報を画像合成
部に送る。画像合成部は、上記第1の画像合成装置及び
第2の画像合成装置の各例で説明したものである。
When the output of the area information encoding unit 303 is selected, the encoded data of the area information that is not approximated is set to 1
Along with the bit selection information (for example, 1), it is sent to a coded data integration unit (not shown), and non-approximate area information is sent to the image synthesis unit. Image combining unit are those described in each example above the first image synthesizing device and the second image synthesizer.

【0055】選択部304における選択手法としては、
例えば符号化データ量の小さい方を選択する手法、或い
は近似しない領域情報の符号化データ量がある閾値以内
の時は領域情報符号化部303の出力を選び、閾値を越
える時には領域近似情報符号化部302の出力を選ぶよ
うにする。このような選択を行うことにより、領域情報
の符号化歪みを抑えながら、符号化データ量を削減する
ことができる。
As the selection method in the selection unit 304,
For example, a method of selecting a smaller encoded data amount, or an output of the region information encoding unit 303 when the encoded data amount of non-approximated region information is within a certain threshold, and an area approximate information encoding when the amount of encoded data exceeds the threshold The output of the unit 302 is selected. By making such a selection, it is possible to reduce the amount of encoded data while suppressing the encoding distortion of the area information.

【0056】次に、本発明の実施例の復号側(図4)に
ついて説明する。図4において、選択部401は、符号
化データに含まれる1ビットの選択情報をもとに、符号
化データが領域近似情報のものであるか、領域情報のも
のであるかを選択する。
Next, a description will be given decoding side real施例of the present invention (FIG. 4). In FIG. 4, the selection unit 401 selects whether the encoded data is the area approximation information or the area information, based on the 1-bit selection information included in the encoded data.

【0057】領域近似情報復号部402は、領域近似情
報を復号する。領域情報復号部403は、近似していな
い領域情報を復号する。スイッチ404は、選択部40
1からの信号によってコントロールされ、合成部への出
力として、領域近似情報或いは近似していない領域情報
を選択する。
The area approximation information decoding unit 402 decodes the area approximation information. The area information decoding unit 403 decodes area information that is not approximate. The switch 404 is the selection unit 40.
The region approximation information or the region information that is not approximated is selected as the output to the synthesis unit, which is controlled by the signal from 1.

【0058】以上のようにして、領域近似情報と近似し
ないもとの領域情報とを適応的に選択して符号化/復号
するので、領域情報が複雑で膨大なデータ量となる場合
には、領域近似情報の符号化が選択され、少ない情報量
で領域情報を符号化することができる。
As described above, since the region approximation information and the original region information that is not approximated are adaptively selected and encoded / decoded, when the region information is complicated and has a huge amount of data, The coding of the region approximation information is selected, and the region information can be coded with a small amount of information.

【0059】上記の例では、近似しない領域情報は、8
方向量子化符号によって符号化したが、さらに予測符号
化を組み合わせて効率良く符号化しても良い。8方向量
子化符号は、図17に示すように、0〜7の値を持つ
が、予測符号化によって差分をとると、−7〜7となっ
てしまう。
In the above example, the area information that does not approximate is 8
Although the coding is performed by the direction quantization code, the prediction coding may be further combined for efficient coding. The eight-direction quantized code has values of 0 to 7 as shown in FIG. 17, but if the difference is obtained by predictive coding, it becomes -7 to 7.

【0060】しかし、差分値が−4以下の時は8を加
え、差分値が4より大きい時は8を引くことにより、差
分値を−3〜4に抑えることができる。復号時には、前
値に差分値を加え、その結果が負の場合には8を加え、
7を越える場合には8を引くことにより、もとの8方向
量子化値を得ることができる。
However, the difference value can be suppressed to -3 to 4 by adding 8 when the difference value is -4 or less and subtracting 8 when the difference value is larger than 4. When decoding, add the difference value to the previous value, add 8 if the result is negative,
If it exceeds 7, the original 8-direction quantized value can be obtained by subtracting 8.

【0061】以下にその例を示す。 8方向量子化値 1, 6, 2, 1, 3, ... 差分値 5, -4, -1, -2, ... 変換値 -3, 4, -1, 2, ... 復号値 1, 6, 2, 1, 3, ... 例えば、値6の前値との差分は5であるが、これから8
を引くことで−3となり、復号時には、前値1に復号値
−3に加えることで−2が得られるが、値が負であるた
め、これに8を加え、復号値6を得る。このような予測
符号化は、8方向量子化符号が巡回しているという性質
を利用したものである。
An example is shown below. 8-direction quantized value 1, 6, 2, 1, 3, ... Difference value 5, -4, -1, -2, ... Transformed value -3, 4, -1, 2, ... Decoding Value 1, 6, 2, 1, 3, ... For example, the difference between the value 6 and the previous value is 5, but from now on it is 8
Becomes −3 by subtracting, and −2 is obtained by adding the previous value 1 to the decoded value −3 at the time of decoding, but since the value is negative, 8 is added to this and a decoded value 6 is obtained. Such predictive coding utilizes the property that the 8-direction quantized code is cyclic.

【0062】実施例においては、近似された領域情報
の符号化は、各画像で独立に行われているが、一般に動
画像はフレーム間の相関が高いため、前回の符号化結果
を利用して符号化効率を高めるようにしても良い。
In the present embodiment, the coding of the approximated area information is carried out independently for each image. However, in general, since moving images have a high correlation between frames, the previous coding result is used. The coding efficiency may be increased by using the above method.

【0063】すなわち、近似された領域情報の符号化が
フレーム間で連続する場合、領域近似情報の差分のみを
符号化するようにする。例えば、領域が矩形で近似さ
れ、前フレームの矩形が左上の点:(10, 20)、大きさ:
(100, 150)で表され、現フレームの矩形が左上の点:(1
3, 18)、大きさ:(100, 152)で表れる場合は、現フレー
ムでは左上の差分値:(3, 2)、大きさの差分値:(0, 2)
を符号化する。
That is, when the coding of the approximated area information is continuous between frames, only the difference of the approximated area information is coded. For example, the region is approximated by a rectangle, and the rectangle of the previous frame is the upper left point: (10, 20), size:
Represented by (100, 150), the rectangle of the current frame is the upper left point: (1
3, 18) and size: (100, 152), the upper left difference value in the current frame: (3, 2), size difference value: (0, 2)
Is encoded.

【0064】領域の形状変化が小さい場合には、差分値
はいずれも0付近に集中するため、ハフマン符号化など
のエントロピー符号化を用いれば、領域情報の符号量が
大幅に削減できる。さらに、矩形が変化しない場合が多
い時には、現フレームにおいて1ビットの情報を矩形の
変化情報として符号化すれば良い。
When the shape change of the area is small, all the difference values are concentrated in the vicinity of 0. Therefore, if entropy coding such as Huffman coding is used, the code amount of the area information can be greatly reduced. Furthermore, when the rectangle does not change in many cases, 1-bit information in the current frame may be encoded as the rectangle change information.

【0065】すなわち、矩形が変化しない時には、これ
を表す1ビットの情報(例えば0)のみを符号化し、矩
形が変化する時には、1ビットの情報(例えば1)と上
記の差分情報とを符号化する。
That is, when the rectangle does not change, only 1-bit information (for example, 0) representing this is encoded, and when the rectangle changes, 1-bit information (for example, 1) and the difference information are encoded. To do.

【0066】次に、第4の画像合成装置の例を説明す
る。第4の画像合成装置は、領域情報から多値の重み情
報を作成する重み情報作成装置に関するものである。図
5は第4の画像合成装置のブロック図である。
Next , an example of the fourth image synthesizing device will be described. The fourth image synthesizing apparatus relates to a weight information creating apparatus that creates multivalued weight information from area information. FIG. 5 is a block diagram of the fourth image synthesizing device .

【0067】図5において、水平方向重み作成部501
は、領域情報を水平方向に走査して領域情報が1の部分
を求め、それに対応した重み関数を求める。具体的に
は、領域の左端の点の座標x0と領域の水平方向の長さN
とを求め、図12(a)に示すような水平方向重み関数
を計算する。
Referring to FIG. 5, a horizontal weight creating section 501 is provided.
Scans the area information in the horizontal direction to obtain a portion where the area information is 1, and obtains a weighting function corresponding thereto. Specifically, the coordinate x0 of the leftmost point of the area and the horizontal length N of the area
And the horizontal weighting function as shown in FIG. 12A is calculated.

【0068】重み関数は直線を組み合わせて作成しても
良いし、直線と三角関数を組み合わせて作成しても良
い。後者の例として、三角関数部分の幅をWとする時、
N > 2Wならば、 0≦x<W の時 sin[(x+1/2)π/(2W)]*sin[(x+1/2)π/(2W)] W≦x<N-W の時 1 N-W≦x<N の時 sin[(x-N+2W+1/2)π/(2W)]*sin[(x-N+2W+1/2)π/(2W)] N ≦ 2Wならば、 sin2[(x+1/2)π/N]*sin[(x+1/2)π/N] を用いることができる。ただし、領域の左端の点x0は0
としている。
The weighting function may be created by combining straight lines, or may be created by combining straight lines and trigonometric functions. As an example of the latter, when the width of the trigonometric function part is W,
If N > 2W, then when 0 ≦ x <W sin [(x + 1/2) π / (2W)] * sin [(x + 1/2) π / (2W)] W ≦ x <NW When 1 NW ≦ x <N sin [(x-N + 2W + 1/2) π / (2W)] * sin [(x-N + 2W + 1/2) π / (2W)] N ≦ For 2W, sin2 [(x + 1/2) π / N] * sin [(x + 1/2) π / N] can be used. However, the point x0 at the left end of the area is 0
I am trying.

【0069】垂直方向重み作成部502は、領域情報を
垂直方向に走査して領域情報が1の部分を求め、それに
対応した垂直方向重み関数を求める。具体的には、領域
の上端の点の座標y0と領域の垂直方向の長さMとを求
め、図12(b)に示すような垂直方向重み関数を計算
する。
The vertical weight creating unit 502 scans the area information in the vertical direction to obtain a portion where the area information is 1, and obtains a vertical weight function corresponding to the portion. Specifically, the coordinate y0 of the point at the upper end of the area and the vertical length M of the area are obtained, and the vertical weighting function as shown in FIG. 12B is calculated.

【0070】乗算器503は、水平方向重み作成部50
1と垂直方向重み作成部502との出力を画素位置毎に
掛け合わせ、重み情報を作成する。このようにして重み
情報を作成すれば、領域情報の形に合わせた重み情報を
少ない演算量で求めることができる。
The multiplier 503 is a horizontal weighting unit 50.
1 and the output of the vertical weight generation unit 502 are multiplied for each pixel position to generate weight information. If the weight information is created in this way, the weight information that matches the shape of the area information can be obtained with a small amount of calculation.

【0071】次に、第5の画像合成装置の例を説明す
る。第5の画像合成装置は、下位レイヤ或いは上位レイ
ヤの予測符号化において、フレーム内符号化とフレーム
間予測符号化とを適応的に切替えるモード切替え方法に
関するものである。図6は第5の画像合成装置のブロッ
ク図である。
Next , an example of the fifth image synthesizing device will be described. The fifth image synthesizing apparatus relates to a mode switching method for adaptively switching between intraframe coding and interframe predictive coding in predictive coding of a lower layer or an upper layer. FIG. 6 is a block diagram of the fifth image synthesizing device .

【0072】図6において、平均値計算部601は、原
画像と領域情報とを入力とし、領域内部の画素値につい
て、画素値の平均を計算する。平均値は差分器603と
記憶部602とに入力される。差分器603は、記憶部
602に記憶された前回の平均値と平均値計算部601
から出力された今回の平均値との差を計算する。
In FIG. 6, the average value calculation unit 601 receives the original image and the area information and calculates the average of the pixel values of the pixel values inside the area. The average value is input to the differentiator 603 and the storage unit 602. The differentiator 603 includes a previous average value stored in the storage unit 602 and an average value calculation unit 601.
Calculate the difference from the current average value output from.

【0073】判定部604は、差分器603で計算され
た差分値の絶対値を、予め定められた閾値と比較し、モ
ード切替え情報を出力する。差分値の絶対値が閾値より
も大きい場合は、選択領域においてシーンチェンジがあ
ると判定し、常にフレーム内符号化を行うようにモード
切替え情報を発生する。
Judging section 604 compares the absolute value of the difference value calculated by differentiator 603 with a predetermined threshold value and outputs the mode switching information. When the absolute value of the difference value is larger than the threshold value, it is determined that there is a scene change in the selected area, and mode switching information is generated so that intraframe coding is always performed.

【0074】このように、選択領域のシーンチェンジを
判定しながらモード切替えを行うことにより、例えば人
物が物影から現れたり、物体の表裏が反転したりする場
合にも、良好な符号化画像を得ることができる。
As described above, by performing the mode switching while judging the scene change of the selected area, a good encoded image can be obtained even when a person appears from a shadow or the front and back of an object are reversed. Obtainable.

【0075】この第5の画像合成装置は、下位レイヤの
符号化において、選択領域とそれ以外の領域とを分離し
て符号化する方式に応用することができる。その場合
は、領域情報を下位レイヤに入力するようにする。さら
に、第5の画像合成装置は、上位レイヤの選択領域のみ
の符号化に応用することもできる。
The fifth image synthesizing apparatus can be applied to a method of separately coding a selected area and other areas in the coding of the lower layer. In that case, the area information is input to the lower layer. Furthermore, the fifth image synthesizing apparatus can also be applied to the encoding of only the selected region of the upper layer.

【0076】次に、第6の画像合成装置の例を説明す
る。第6の画像合成装置は、下位レイヤの符号化におい
て、選択領域とそれ以外の領域とを分離して符号化する
場合のデータ量制御に関するものである。図7は第6の
画像合成装置のブロック図である。
Next , an example of the sixth image synthesizing device will be described. The sixth image synthesizing device relates to data amount control when a selected region and a region other than the selected region are separately encoded in encoding of a lower layer. FIG. 7 shows the sixth
It is a block diagram of an image synthesizing device .

【0077】図7において、符号化部703は、選択領
域とそれ以外の領域とを分離して符号化する。領域判定
部701には、領域情報が入力され、符号化している領
域が選択領域内であるか選択領域外であるかを判定す
る。発生符号量算出部705では、この判定結果に基づ
き、各領域での発生符号量を算出する。
In FIG. 7, the coding section 703 separates the selected area and the other area and codes them. Area information is input to the area determination unit 701, and it is determined whether the encoded area is inside or outside the selected area. The generated code amount calculation unit 705 calculates the generated code amount in each area based on this determination result.

【0078】目標符号量配分比算出部704では、各領
域に割り当てるフレーム単位の目標符号量の配分比を決
定する。配分比の決定方法については後述する。量子化
幅算出部702では、目標符号量に応じて量子化幅を決
定するが、この決定方法についは、従来法と同様であ
る。
The target code amount distribution ratio calculation unit 704 determines the distribution ratio of the target code amount to be assigned to each area in frame units. The method of determining the distribution ratio will be described later. The quantization width calculating unit 702 determines the quantization width according to the target code amount, and this determination method is the same as the conventional method.

【0079】ここで、目標符号量配分比算出部704に
おける配分比決定方法について、説明する。まず、該当
フレームの目標符号量Biは次式を用いて計算される。Bi
=(使用可能符号量-前フレームまでの使用符号量)/残り
フレーム数この目標符号量Biをある比率で選択領域内と
選択領域外とに割り当てるのであるが、ここでは適当な
固定比R0と前フレーム複雑度比率Rpとを用いて、その比
率を決定する。
Here, a method of determining the distribution ratio in the target code amount distribution ratio calculation unit 704 will be described. First, the target code amount Bi of the corresponding frame is calculated using the following equation. Bi
= (Usable code amount-use code amount up to the previous frame) / number of remaining frames This target code amount Bi is assigned to the inside and outside of the selected area at a certain ratio, but here, an appropriate fixed ratio R0 and The ratio is determined using the previous frame complexity ratio Rp.

【0080】前フレーム複雑度比率Rpは、次式で決定さ
れる。 Rp=(gen#bitF*avg#qF)/(gen#bitF*avg#qF+gen#bitB*avg
#qB) ここで、 gen#bitF:前フレーム選択領域内発生符号量 gen#bitB:前フレーム選択領域外発生符号量 avg#qF:前フレームの選択領域内平均量子化幅 avg#qB:前フレームの選択領域外平均量子化幅 である。
The previous frame complexity ratio Rp is determined by the following equation. Rp = (gen # bitF * avg # qF) / (gen # bitF * avg # qF + gen # bitB * avg
#qB) where gen # bitF: Code amount generated in the previous frame selected area gen # bitB: Code amount generated outside the previous frame selected area avg # qF: Average quantization width in the selected area of the previous frame avg # qB: Previous frame This is the average quantization width outside the selected area.

【0081】選択領域を高画質にするには、量子化幅を
制御し、選択領域内の平均量子化幅が選択領域外の平均
量子化幅よりもある程度小さな状態を保ち、しかも動画
像シーケンス内での画像の変化にも追随することが望ま
しい。
In order to improve the quality of the selected area, the quantization width is controlled so that the average quantization width within the selected area is kept to some extent smaller than the average quantization width outside the selected area, and within the moving image sequence. It is desirable to follow changes in the image at.

【0082】一般に、固定比R0による配分は、選択領域
内と選択領域外との平均量子化幅の関係をほぼ一定に保
つのに適し、前フレーム複雑度比率Rpによる配分は、動
画像シーケンス内での画像の変化に追随させるのに適す
る。
Generally, the allocation by the fixed ratio R0 is suitable for keeping the relationship of the average quantization widths inside and outside the selected area substantially constant, and the allocation by the previous frame complexity ratio Rp is within the moving image sequence. Suitable for following changes in images.

【0083】そこで、目標符号量配分比Raを固定比R0と
前フレーム複雑度比率Rpとの平均とし、両者の長所を兼
ね備えた制御を行なう。すなわち、Ra=(R0+Rp)/2であ
る。
[0083] Therefore, the goal bit allocation ratio Ra is a fixed ratio R0 and the average of the previous frame complexity ratio Rp, performs control that combines the advantages of both. That is, Ra = (R0 + Rp) / 2.

【0084】例えば、選択領域における固定比R0と前フ
レーム複雑度比率Rpとが、動画像シーケンス全体におい
て、図13における点線のようになったとする。このと
き、目標符号量配分比Raは、図13における実線のよう
になり、固定比R0からあまり離れず、しかもある程度画
像の変化を反映することがわかる。
For example, it is assumed that the fixed ratio R0 and the previous frame complexity ratio Rp in the selected area are as shown by the dotted lines in FIG. 13 in the entire moving image sequence. At this time, the target code amount distribution ratio Ra becomes as shown by the solid line in FIG. 13, and it is understood that the target code amount distribution ratio Ra does not deviate from the fixed ratio R0 so much and the image change is reflected to some extent.

【0085】このとき、選択領域外の固定比を(1-R0)、
前フレーム複雑度比率を(1-Rp)とすると、両者の平均で
ある目標符号量配分比(1-Ra)は、図14における実線に
示すようになり、選択領域内と選択領域外との目標符号
量配分比を加えたものは1となる。
At this time, the fixed ratio outside the selected area is (1-R0),
If the previous frame complexity ratio is (1-Rp), the target code amount distribution ratio (1-Ra), which is the average of both, becomes as shown by the solid line in FIG. The value obtained by adding the target code amount allocation ratio is 1.

【0086】このようにして、量子化幅を適切に制御す
ることができるが、フレームによっては発生符号量が目
標符号量Biを越える場合があるため、シーケンス全体の
ビットレートが所定のビットレートに収まらないことが
起こりうる。そのような場合には、次に述べるような方
法をとることができる。
In this way, the quantization width can be controlled appropriately, but since the generated code amount may exceed the target code amount Bi depending on the frame, the bit rate of the entire sequence becomes a predetermined bit rate. It may happen that it does not fit. In such a case, the following method can be adopted.

【0087】選択領域内の目標符号量配分比Raは、上述
したとおり、固定比R0と前フレーム複雑度比率Rpとの平
均とする。一方、選択領域外の目標符号量配分比は、選
択領域外の固定比(1-R0)と前フレーム複雑度比率(1-Rp)
との最小値Rmとする。
The target code amount distribution ratio Ra in the selected area is the average of the fixed ratio R0 and the previous frame complexity ratio Rp, as described above. On the other hand, the target code amount allocation ratio outside the selected area is the fixed ratio outside the selected area (1-R0) and the previous frame complexity ratio (1-Rp).
And the minimum value of Rm.

【0088】このようにすると、選択領域外の目標符号
量配分比Rmの変化は、例えば図15における実線に示す
ようになる。このとき、Ra+Rm≦1となることから、該当
フレームの目標符号量を小さくすることができる。すな
わち、背景領域の目標符号量を抑えることにより、動画
像シーケンス全体のビットレートを所定のビットレート
に収めることができる。
In this way, the change in the target code amount distribution ratio Rm outside the selected area becomes as shown by the solid line in FIG. 15, for example. At this time, since Ra + Rm ≦ 1, the target code amount of the corresponding frame can be reduced. That is, by suppressing the target code amount of the background area, the bit rate of the entire moving image sequence can be kept within a predetermined bit rate.

【0089】[0089]

【発明の効果】本発明の画像符号化装置及び画像復号装
置によれば、領域情報のフレーム間差分に基づき、領域
形状の変化の有無を示す情報を付加することによって、
領域形状を効率良く可逆符号化/復号することができ
る。
According to the image coding apparatus and the image decoding apparatus of the present invention, by adding the information indicating the presence or absence of the change of the area shape based on the inter-frame difference of the area information,
The region shape can be efficiently lossless-encoded / decoded.

【図面の簡単な説明】[Brief description of drawings]

【図1】1の画像合成装置を説明するブロック図であ
る。
1 is a block diagram illustrating a first image synthesizing apparatus.

【図2】2の画像合成装置を説明するブロック図であ
る。
2 is a block diagram illustrating a second image synthesizing apparatus.

【図3】本発明の実施例の符号化側を説明するブロック
図である。
3 is a block diagram illustrating an encoding side of the real施例of the present invention.

【図4】本発明の実施例の復号側を説明するブロック図
である。
4 is a block diagram illustrating a decoding side of the actual施例of the present invention.

【図5】4の画像合成装置を説明するブロック図であ
る。
5 is a block diagram illustrating a fourth image synthesizing apparatus.

【図6】5の画像合成装置を説明するブロック図であ
る。
6 is a block diagram illustrating the fifth image synthesizing apparatus.

【図7】6の画像合成装置を説明するブロック図であ
る。
7 is a block diagram illustrating an image composition apparatus according to a sixth.

【図8】従来の符号化装置及び復号装置を説明するブロ
ック図である。
FIG. 8 is a block diagram illustrating a conventional encoding device and decoding device.

【図9】従来の符号量制御部を説明するブロック図であ
る。
FIG. 9 is a block diagram illustrating a conventional code amount control unit.

【図10】1の画像合成装置の効果を説明する図であ
る。
FIG. 10 is a diagram illustrating an effect of the first image synthesizing device .

【図11】本発明の実施例における領域情報を近似する
例を示す説明図である。
11 is an explanatory diagram showing an example of approximating the region information in the real施例of the present invention.

【図12】4の画像合成装置における重み情報の作成
方法例を示す説明図である。
FIG. 12 is an explanatory diagram showing an example of a method of creating weight information in the fourth image synthesizing device .

【図13】6の画像合成装置における符号量制御方法
による選択領域の目標符号量比率を説明する図である。
FIG. 13 is a diagram illustrating a target code amount ratio of a selected area by a code amount control method in the sixth image synthesizing device .

【図14】6の画像合成装置における符号量制御方法
による選択領域外の目標符号量比率を説明する図であ
る。
FIG. 14 is a diagram illustrating a target code amount ratio outside a selected area by the code amount control method in the sixth image synthesizing apparatus .

【図15】6の画像合成装置の例における他の符号量
制御方法による選択領域外の目標符号量比率を説明する
図である。
FIG. 15 is a diagram illustrating a target code amount ratio outside a selected area by another code amount control method in the example of the sixth image synthesizing device .

【図16】従来の動画像階層符号化の概念を説明する図
である。
[Fig. 16] Fig. 16 is a diagram for describing the concept of conventional moving image hierarchical encoding.

【図17】8方向量子化符号を説明する図である。FIG. 17 is a diagram illustrating an eight-direction quantized code.

【図18】従来の動画像階層符号化の問題点を説明する
図である。
[Fig. 18] Fig. 18 is a diagram for describing a problem of conventional moving image hierarchical encoding.

【符号の説明】[Explanation of symbols]

101 第1の領域抽出部 102 第2の領域抽出部 103 コントローラ 104 スイッチ 105 補間画像作成部 106 加重平均部 301 領域情報近似部 302 領域近似情報符号化部 303 領域情報符号化部 304 選択部 401 選択部 402 領域近似情報復号部 403 領域情報復号部 101 First Area Extraction Unit 102 second region extraction unit 103 controller 104 switch 105 Interpolation image creation unit 106 Weighted average part 301 Area information approximation unit 302 area approximation information coding unit 303 area information coding unit 304 Selector 401 Selector 402 area approximation information decoding unit 403 Area information decoding unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 野村 敏男 大阪府大阪市阿倍野区長池町22番22号 シャープ株式会社内 (56)参考文献 特開 平8−116542(JP,A) 角野、津田、ブン、栄藤,透明度情報 を領域表現に用いた動画像符号化,情報 処理学会研究報告 オーディオビジュア ル複合情報処理 95−AVM−9,日 本,1995年 7月14日,Vol.95,N o.64,p.1−8 栄藤、ブン、角野,階層表現と多重テ ンプレートを用いた画像符号化,電子情 報通信学会技術研究報告,日本,1995年 3月17日,Vol.94,No.549, p.99−106 (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 G06T 9/20 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshio Nomura 22-22 Nagaike-cho, Abeno-ku, Osaka City, Osaka Prefecture Sharp Corporation (56) Reference JP-A-8-116542 (JP, A) Kakuno, Tsuda, Bun , Eito, Video Coding Using Transparency Information for Region Representation, Research Report of Information Processing Society of Japan Audio-Visual Complex Information Processing 95-AVM-9, Nihon, July 14, 1995, Vol. 95, No. 64, p. 1-8 Eito, Bun, Kakuno, Image Coding Using Hierarchical Representation and Multiple Templates, IEICE Technical Report, Japan, March 17, 1995, Vol. 94, No. 549, p. 99-106 (58) Fields surveyed (Int.Cl. 7 , DB name) H04N 7 /24-7/68 G06T 9/20 JISST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 動画像シーケンス内の特定部品領域を
層的に符号化し下位レイヤ及び上位レイヤの符号化デー
タを生成する動画像符号化手段と、前記特定部品領域の
領域形状を表す領域情報を符号化する領域情報符号化手
段とを備えた画像符号化装置であって、前記領域情報符
号化手段は、領域情報を近似する領域情報近似手段と、
近似された領域情報のフレーム間差分を求めるフレーム
間差分データ算出手段と、前記差分データに基づいて、
近似された領域形状の変化の有無を示す変化情報を符号
化する変化情報符号化手段と、出力データを選択する選
択手段を有し、近似しない領域情報の符号化データと近
似された領域情報の符号化データを選択的に出力するこ
とを特徴とする画像符号化装置。
1. A specific part area in a moving image sequence is defined as a floor.
Layer- encoded lower layer and upper layer encoded data
An image encoding device comprising moving image encoding means for generating a data and area information encoding means for encoding area information indicating an area shape of the specific component area, wherein the area information encoding means is , Area information approximating means for approximating area information,
Based on the difference data, an inter-frame difference data calculating unit that obtains an inter-frame difference of the approximated area information,
Change information coding means for coding change information indicating whether or not there is a change in the approximated area shape, and a selection for selecting output data.
Have a-option unit, encoded data and the near region information not approximate
An image coding apparatus characterized by selectively outputting coded data of similar area information .
【請求項2】 動画像シーケンス内の特定部品領域を
層的に符号化した下位レイヤ及び上位レイヤの符号化デ
ータを復号する動画像復号手段と、前記特定部品領域の
領域形状を表す領域情報を符号化した符号化データを復
号する領域情報復号手段とを備えた画像復号装置であっ
て、前記領域情報復号手段は、近似しない領域情報の符
号化データと近似された領域情報の符号化データを選択
的に切り替えて入力する選択手段と、近似された領域形
状のフレーム間の変化の有無を示す変化情報を復号する
変化情報復号手段を有し、前記変化情報が近似された
域形状のフレーム間の変化が無いことを示す場合には、
近似された領域情報として前フレームの領域情報を用い
ることを特徴とする画像復号装置。
2. A specific part area in a moving image sequence is a floor.
A video decoding means for decoding a layer to the lower layer and the upper layer obtained by encoding the encoded data, and the area information decoding means the area information indicating the area shape of the specific part region decoding coded encoded data In the image decoding device having the above, the area information decoding means is a code of the area information that is not approximated.
Select the encoded data of the area information that is approximated to the encoded data
And a change information decoding unit that decodes change information indicating whether or not there is a change between frames of the approximated region shape, and a region where the change information is approximated. To indicate that there is no change in shape between frames,
An image decoding device characterized by using area information of a previous frame as the approximated area information.
JP2000187116A 1995-10-24 2000-06-22 Image encoding device and image decoding device Expired - Fee Related JP3526258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000187116A JP3526258B2 (en) 1995-10-24 2000-06-22 Image encoding device and image decoding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP27550195A JP3101195B2 (en) 1995-10-24 1995-10-24 Image encoding device and image decoding device
JP2000187116A JP3526258B2 (en) 1995-10-24 2000-06-22 Image encoding device and image decoding device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP7703699A Division JP3101262B2 (en) 1999-03-23 1999-03-23 Image encoding device and image decoding device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001180950A Division JP2002051336A (en) 2001-06-15 2001-06-15 Image-coding apparatus and image-decoding apparatus

Publications (2)

Publication Number Publication Date
JP2001036914A JP2001036914A (en) 2001-02-09
JP3526258B2 true JP3526258B2 (en) 2004-05-10

Family

ID=32472343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000187116A Expired - Fee Related JP3526258B2 (en) 1995-10-24 2000-06-22 Image encoding device and image decoding device

Country Status (1)

Country Link
JP (1) JP3526258B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4490351B2 (en) * 2005-08-29 2010-06-23 日本電信電話株式会社 Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
栄藤、ブン、角野,階層表現と多重テンプレートを用いた画像符号化,電子情報通信学会技術研究報告,日本,1995年 3月17日,Vol.94,No.549,p.99−106
角野、津田、ブン、栄藤,透明度情報を領域表現に用いた動画像符号化,情報処理学会研究報告 オーディオビジュアル複合情報処理 95−AVM−9,日本,1995年 7月14日,Vol.95,No.64,p.1−8

Also Published As

Publication number Publication date
JP2001036914A (en) 2001-02-09

Similar Documents

Publication Publication Date Title
JP4326743B2 (en) Transcoding method and transcoder for transcoding predictive-encoded object-based image signal to predictive-encoded block-based image signal
US6088061A (en) Video coding device and video decoding device
EP1274254B1 (en) Video coding device and video decoding device with a motion compensated interframe prediction
US6324215B1 (en) Motion picture coding and decoding apparatus
JP3224514B2 (en) Video encoding device and video decoding device
JPH1070728A (en) Present frame prediction device
JP2002051336A (en) Image-coding apparatus and image-decoding apparatus
JP3526258B2 (en) Image encoding device and image decoding device
JP3746708B2 (en) Video encoding device
JP3101195B2 (en) Image encoding device and image decoding device
JP3148734B2 (en) Image encoding device and image decoding device
JP3101262B2 (en) Image encoding device and image decoding device
JP3866946B2 (en) Video encoding device
JP3277116B2 (en) Video encoding device and video decoding device
JP3148751B2 (en) Video encoding device and video decoding device
JP3148752B2 (en) Video encoding device
JPH10150665A (en) Method for generating predictive image, and method and device for image encoding
JP4134078B2 (en) Video decoding device
JP2008005546A (en) Method for producing predictive image, and method and device for image encoding
JPH07250329A (en) Image composite coding method and image composite device
JPH0846972A (en) Picture encoding device and picture decoding device
JPH06121298A (en) Dynamic image compressor
JP2006094539A (en) Method for generating predictive image, and method and device for image encoding

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040212

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080227

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110227

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees