JPH09307906A - Image coder and image decoder - Google Patents

Image coder and image decoder

Info

Publication number
JPH09307906A
JPH09307906A JP12175296A JP12175296A JPH09307906A JP H09307906 A JPH09307906 A JP H09307906A JP 12175296 A JP12175296 A JP 12175296A JP 12175296 A JP12175296 A JP 12175296A JP H09307906 A JPH09307906 A JP H09307906A
Authority
JP
Japan
Prior art keywords
lower layer
area
shape
moving picture
upper layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP12175296A
Other languages
Japanese (ja)
Other versions
JP3247836B2 (en
Inventor
Hiroyuki Katada
裕之 堅田
Norio Ito
典男 伊藤
Tomoko Aono
友子 青野
Hiroshi Kusao
寛 草尾
Shuichi Watabe
秀一 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP12175296A priority Critical patent/JP3247836B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to EP97902581A priority patent/EP0880286B1/en
Priority to PCT/JP1997/000276 priority patent/WO1997029595A1/en
Priority to EP20030003822 priority patent/EP1343328A3/en
Priority to DE69733007T priority patent/DE69733007T2/en
Priority to US09/117,501 priority patent/US6148030A/en
Priority to ES97902581T priority patent/ES2241034T3/en
Publication of JPH09307906A publication Critical patent/JPH09307906A/en
Priority to US09/663,352 priority patent/US6324215B1/en
Priority to US09/859,421 priority patent/US6466622B2/en
Application granted granted Critical
Publication of JP3247836B2 publication Critical patent/JP3247836B2/en
Priority to US10/232,404 priority patent/US6678326B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent distortion in a superimposed image even when an area shape is temporally changed by coding an compositing frames of a 1st area of a subordinate layer at a preceding time and a 2nd area of the subordinate layer at a succeeding time on a higher-order layer. SOLUTION: A controller 111 uses a switch 112 based on area information extracted by 1st and 2nd area extract sections 109, 110. That is, when a position of a pixel in question is in the 1st area, the switch 112 is thrown to a position of a decoder decoding an image at a frame time (t+a), when the position of a pixel in question is in the 2nd area, the switch 112 is thrown to a position of a decoder decoding an image at a frame time (t-a), and in other cases, the switch 112 is thrown to the position of an output of an interpolation image generating section 113. The changeover of the switch 112 allows composition of frames of subordinate layers and a weight mean section 114 applies weighted means to an interpolation image and a decoded image of a high-order layer to superimpose the images. Thus, no after-image is in existence around the selected area in the superimposed image and the image with less distortion is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はディジタル画像処理
の分野に属し、画像データを高能率に符号化する動画像
符号化及びこの動画像符号化装置で作成された符号化デ
ータを復号する動画像復号装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the field of digital image processing, and is a moving picture coding method for coding image data with high efficiency and a moving picture decoding method for decoding coded data created by this moving picture coding apparatus. The present invention relates to a decoding device.

【0002】[0002]

【従来の技術】画像符号化において、異なる動画像シー
ケンスを重畳する方式が検討されている。
2. Description of the Related Art In image coding, a method of superimposing different moving image sequences has been studied.

【0003】例えば、文献「階層表現と多重テンプレー
トを用いた画像符号化」(信学技報IE94−159,
pp99−106 (1995))では、背景となる動
画像シーケンスと前景となる部品動画像の動画像シーケ
ンス(例えばクロマキー技術によって切り出された人物
画像や魚の映像など)を重畳して新たなシーケンスを作
成する手法が述べられている。
For example, the document "Image Coding Using Hierarchical Representation and Multiple Templates" (Technical Report IE94-159,
pp99-106 (1995)), a new moving image sequence is created by superimposing a moving image sequence that is a background and a moving image sequence of a component moving image that is a foreground (for example, a human image or a video of a fish cut out by chroma key technology). The method to do is described.

【0004】また文献「画像内容に基づく時間階層符号
化」(”Temporal Scalability
based on image content”,
ISO/IEC/ JTC1/SC29/WG11 M
PEG95/211(1995))では、フレームレー
トの低い動画像シーケンスにフレームレートの高い部品
動画像の動画像シーケンスを重畳して新たなシーケンス
を作成する手法が述べられている。
[0004] In addition, the document "Time hierarchical coding based on image contents"("TemporalScalability")
based on image content ”,
ISO / IEC / JTC1 / SC29 / WG11 M
PEG95 / 211 (1995)) describes a method of creating a new sequence by superimposing a moving image sequence of a component moving image having a high frame rate on a moving image sequence having a low frame rate.

【0005】この方式では図10に示すように下位レイ
ヤでは低いフレームレートで予測符号化が行われ、上位
レイヤでは選択領域(斜線部)についてのみ高いフレー
ムレートで予測符号化が行われる。ただし、下位レイヤ
で符号化したフレームは上位レイヤでは符号化せず、下
位レイヤの復号画像をそのままコピーして用いる。ま
た、選択領域としては例えば人物部分など視聴者の注目
が集まる部分が選ばれているものとする。
In this system, as shown in FIG. 10, the predictive coding is performed at a low frame rate in the lower layer, and the predictive coding is performed at a high frame rate only in the selected region (hatched portion) in the upper layer. However, the frame encoded in the lower layer is not encoded in the upper layer, and the decoded image of the lower layer is directly copied and used. Also, it is assumed that a part that attracts the viewer's attention, such as a person part, is selected as the selected area.

【0006】図8に従来手法のブロック図を示す。まず
従来手法の符号化側では、入力動画像は第1の駒落し部
801及び第2の駒落し部802によってフレーム間引
きされ、入力画像のフレームレート以下とされた後それ
ぞれ上位レイヤ符号化部803及び下位レイヤ符号化部
804に入力される。ここで上位レイヤのフレームレー
トは下位レイヤのフレームレート以上であるとする。
FIG. 8 shows a block diagram of a conventional method. First, on the encoding side of the conventional method, the input moving image is frame-decimated by the first frame dropping unit 801 and the second frame dropping unit 802, and is set to be equal to or lower than the frame rate of the input image. And to the lower layer encoding unit 804. Here, it is assumed that the frame rate of the upper layer is equal to or higher than the frame rate of the lower layer.

【0007】下位レイヤ符号化部804では入力された
動画像全体が符号化される。符号化方式としては例えば
MPEGやH.261などの動画像符号化国際標準化方
式が用いられる。下位レイヤ符号化部804ではまた、
下位レイヤの復号画像が作成され、予測符号化に利用さ
れると同時に重畳部805に入力される。
The lower layer encoding unit 804 encodes the entire input moving image. Examples of the encoding method include MPEG and H.264. H.261 or the like is used. In the lower layer encoding unit 804,
The decoded image of the lower layer is created and used for predictive coding, and at the same time, input to the superimposing unit 805.

【0008】図8の上位レイヤ符号化部803では入力
された動画像の選択領域のみが符号化される。ここでも
MPEGやH.261などの動画像符号化国際標準化方
式が用いられるが、領域形状情報に基づいて選択領域の
みを符号化する。ただし下位レイヤで符号化されたフレ
ームは上位レイヤでは符号化されない。領域形状情報は
人物部などの選択領域の形状を示す情報であり、例えば
選択領域の位置で値1、それ以外の位置で値0をとる2
値画像である。上位レイヤ符号化部803ではまた、動
画像の選択領域のみが復号され、重畳部805に入力さ
れる。
In the upper layer coding unit 803 of FIG. 8, only the selected area of the input moving image is coded. Again, MPEG and H.264. An international standardization method such as H.261 is used, but only selected areas are coded based on area shape information. However, frames encoded in the lower layer are not encoded in the upper layer. The area shape information is information indicating the shape of a selected area such as a human part, and takes a value of 1 at the position of the selected area and a value of 0 at other positions, for example.
It is a value image. The upper layer encoding unit 803 also decodes only the selected region of the moving image and inputs the decoded region to the superimposing unit 805.

【0009】領域形状符号化部806では領域形状が8
方向量子化符号を利用して符号化される。8方向量子化
符号は図11のように、次の点への方向を数値で示した
もので、デジタル図形を表現する際に一般的に使用され
るものである。
In the area shape encoding unit 806, the area shape is 8
It is encoded using a direction quantization code. As shown in FIG. 11, the 8-direction quantized code is a numerical value indicating the direction to the next point, and is generally used when expressing a digital figure.

【0010】重畳部805は下位レイヤフレームが符号
化されているフレーム位置では下位レイヤの復号画像を
出力する。下位レイヤフレームが符号化されていないフ
レーム位置では、対象フレームの前後2枚の符号化され
た下位レイヤの復号画像と対象フレームと同時刻の1枚
の上位レイヤ復号画像を用いて画像を作成し出力する。
ここで作成された画像は上位レイヤ符号化部803に入
力され、予測符号化に利用される。重畳部805におけ
る画像作成方法は以下の通りである。
The superimposing section 805 outputs the decoded image of the lower layer at the frame position where the lower layer frame is encoded. At a frame position where the lower layer frame is not encoded, an image is created by using two encoded lower layer decoded images before and after the target frame and one upper layer decoded image at the same time as the target frame. Output.
The image created here is input to the upper layer encoding unit 803 and used for predictive encoding. The image creating method in the superimposing unit 805 is as follows.

【0011】まず、2枚の下位レイヤの補間画像が作成
される。時間tにおける下位レイヤの復号画像をB
(x,y,t)(ただし、x,yは空間内の画素位置を
表す座標である)とし、2枚の下位レイヤの時間をそれ
ぞれt1,t2、上位レイヤの時間をt3(ただし、t
1<t3<t2である)とすると時間t3における補間
画像I(x,y,t3)は I(x,y,t3)=[(t2-t3)B(x,y,t1)+(t3-t1)B(x,y,t2)]/(t2-t1) (1) によって計算される。
First, two lower layer interpolated images are created. The decoded image of the lower layer at time t is B
(X, y, t) (where x and y are coordinates representing pixel positions in space), the times of the two lower layers are t1 and t2, respectively, and the times of the upper layers are t3 (where t is t).
1 <t3 <t2), the interpolated image I (x, y, t3) at time t3 is I (x, y, t3) = [(t2-t3) B (x, y, t1) + (t3 -t1) B (x, y, t2)] / (t2-t1) (1).

【0012】次に上で求めた補間画像Iに上位レイヤの
復号画像Eを重畳する。このために、領域形状情報M
(x,y,t)から重畳のための重み情報W(x,y,
t)を作成し、次式によって重畳画像Sを得る。
Next, the decoded image E of the upper layer is superimposed on the interpolated image I obtained above. For this reason, the area shape information M
Weight information W (x, y, t) for superimposing from (x, y, t)
t) is created, and the superimposed image S is obtained by the following equation.

【0013】 S(x,y,t)=[1-W(x, y, t)]I(x, y, t)+E(x, y, t)W(x, y, t) (2) 領域形状情報M(x,y,t)は選択領域内で1、選択
領域外で0の値をとる2値画像であり、この画像に低域
通過フィルタを複数回施す事によって重み情報W(x,
y,t)を得る事ができる。
S (x, y, t) = [1-W (x, y, t)] I (x, y, t) + E (x, y, t) W (x, y, t) (2 The area shape information M (x, y, t) is a binary image having a value of 1 inside the selected area and 0 outside the selected area, and the weight information W is obtained by applying a low pass filter to this image a plurality of times. (X,
y, t) can be obtained.

【0014】すなわち重み情報W(x,y,t)は選択
領域内で1、選択領域外で0、選択領域の境界部で0〜
1の値をとる。以上が重畳部805における画像作成方
法の説明である。
That is, the weight information W (x, y, t) is 1 inside the selected area, 0 outside the selected area, and 0 at the boundary of the selected area.
Takes a value of 1. The above is the description of the image creating method in the superimposing unit 805.

【0015】下位レイヤ符号化部804、上位レイヤ符
号化部803、領域形状符号化部806で符号化された
符号化データは、図示しない符号化データ統合部で統合
され、伝送あるいは蓄積される。
The coded data coded by the lower layer coding unit 804, the upper layer coding unit 803, and the area shape coding unit 806 are integrated by a coded data unifying unit (not shown) and transmitted or stored.

【0016】次に従来手法の復号側では、符号化データ
が図示しない符号化データ分解部にて下位レイヤの符号
化データ、上位レイヤの符号化データ、領域形状の符号
化データに分解される。これらの符号化データは図8に
示すように下位レイヤ復号部808、上位レイヤ復号部
807及び領域形状復号部809によって復号される。
復号側の重畳部810は符号化側の重畳部805と同
一の装置からなり、下位レイヤ復号画像と上位レイヤ復
号画像を用い、符号化側の説明で述べたものと同一の方
法によって画像が重畳される。ここで重畳された動画像
はディスプレイに表示されると共に上位レイヤ復号部8
07に入力され、上位レイヤの予測に利用される。
Next, on the decoding side of the conventional method, the coded data is decomposed into a coded data of a lower layer, a coded data of an upper layer and a coded data of a region shape by a coded data decomposing unit (not shown). These encoded data are decoded by the lower layer decoding unit 808, the upper layer decoding unit 807 and the area shape decoding unit 809 as shown in FIG.
The decoding-side superimposing unit 810 is composed of the same device as the encoding-side superimposing unit 805, and uses the lower layer decoded image and the upper layer decoded image to superimpose the images by the same method as described in the description of the encoding side. To be done. The moving image superimposed here is displayed on the display and the upper layer decoding unit 8
It is input to 07 and used for prediction of the upper layer.

【0017】ここでは下位レイヤと上位レイヤの両方を
復号する復号装置について述べたが、下位レイヤの復号
部のみを備えた復号装置ならば、上位レイヤ復号部80
7、重畳部810が不要であり、少ないハードウエア規
模で符号化データの一部を再生する事ができる。
Although the decoding device for decoding both the lower layer and the upper layer has been described here, if the decoding device includes only the decoding unit for the lower layer, the upper layer decoding unit 80.
7. The superimposing unit 810 is unnecessary, and a part of encoded data can be reproduced with a small hardware scale.

【0018】[0018]

【発明が解決しようとする課題】従来の技術においては
(1)式のように2枚の下位レイヤ復号画像と1枚の上
位レイヤ復号画像から出力画像を得る際に2枚の下位レ
イヤの補間を行っているため、選択領域の位置が時間的
に変化する場合に選択領域周辺に大きな歪みが発生し、
画質を大きく劣化させるという問題がある。
In the prior art, when the output image is obtained from the two lower layer decoded images and the one upper layer decoded image as in the equation (1), the interpolation of the two lower layers is performed. Therefore, when the position of the selection area changes with time, a large distortion occurs around the selection area,
There is a problem that the image quality is greatly deteriorated.

【0019】図12はこの問題を説明するものである。
図12(a)で画像A、Cは下位レイヤの2枚の復号画
像、画像Bは上位レイヤの復号画像であり、表示時間順
はA、B、Cの順である。ただし、選択領域を斜線で示
している。また、上位レイヤでは選択領域のみが符号化
されるため選択領域外を破線で示している。選択領域が
動いているため、画像Aと画像Cから求めた補間画像は
図12(b)の網点部のように2つの選択領域が重複し
たものになる。
FIG. 12 illustrates this problem.
In FIG. 12A, images A and C are two decoded images of the lower layer, image B is a decoded image of the upper layer, and the display time order is A, B, and C. However, the selected area is indicated by oblique lines. Further, in the upper layer, only the selected area is encoded, so that the area outside the selected area is indicated by a broken line. Since the selected area is moving, the interpolated image obtained from the image A and the image C has two selected areas that overlap, as in the halftone dot portion of FIG.

【0020】さらに画像Bを重み情報を用いて重畳する
と、出力画像は図12(c)に示すように3つの選択領
域が重複した画像となる。特に上位レイヤの選択領域周
辺(外側)に下位レイヤの選択領域が残像のようにあら
われ、画質が大きく劣化する。動画像全体としては下位
レイヤのみが表示されている時には上記の歪みがなく、
上位レイヤと下位レイヤの重畳画像が表示されている時
には上記の歪みが現われるため、フリッカ的歪みが発生
し非常に大きな画質劣化となる。
Further, when the image B is superposed using the weight information, the output image becomes an image in which three selected areas overlap as shown in FIG. 12 (c). In particular, the selected area of the lower layer appears around the selected area of the upper layer (outside) like an afterimage, and the image quality is greatly deteriorated. When only the lower layer is displayed as the whole moving image, the above distortion does not occur,
When the superimposed image of the upper layer and the lower layer is displayed, the above-mentioned distortion appears, so that flicker-like distortion occurs and the image quality deteriorates significantly.

【0021】本発明の目的はこれらの問題を解決し、符
号化後のデータ量を削減する一方復号画像の品質を劣化
させないような符号化装置、及び復号装置を提供するこ
とにある。
An object of the present invention is to solve these problems and to provide an encoding device and a decoding device which reduce the amount of data after encoding and do not deteriorate the quality of a decoded image.

【0022】[0022]

【課題を解決するための手段】本発明は、上記目的を達
成するために(1)動画像シーケンスを低いフレームレ
ートで符号化する下位レイヤ符号化と、前記動画像シー
ケンスの一つ以上の特定領域もしくは全領域を高いフレ
ームレートで符号化する上位レイヤ符号化を行ない、下
位レイヤの復号は低いフレームレートの下位レイヤのみ
を復号し、上位レイヤまでの復号は下位レイヤと、より
高いフレームレートの上位レイヤを復号して下位レイヤ
と上位レイヤを重畳する階層符号化装置及び復号装置で
あって、復号の際に上位レイヤと同じフレーム位置に対
応する下位レイヤフレームが存在しない場合に、前後に
存在する下位レイヤを用いて前記存在しない下位レイヤ
フレームの合成を行い、前記合成に当たっては時間的に
前に存在する下位レイヤの第1領域形状と、時間的に後
に存在する下位レイヤの第2領域形状を上位レイヤにお
いて符号化し、前記第1領域形状と前記第2領域形状を
用いて前記合成を行なうこと、さらには(2)前記
(1)の動画像符号化装置及び動画像復号装置におい
て、復号の際に上位レイヤと同じフレーム位置に対応す
る下位レイヤフレームが存在しない場合に、時間的に前
に存在する下位レイヤの第1領域形状と、時間的に後に
存在する下位レイヤの第2領域形状の前記符号化を行な
わず、前記第1領域形状と前記第2領域形状を下位レイ
ヤと上位レイヤの一方もしくは両方の復号データから抽
出すること、さらには(3)前記(1)及び(2)の上
位レイヤ符号化時に、上位レイヤの画素情報を符号化す
るか否かを示す第1のフラグを設け、上位レイヤで領域
形状のみが符号化された場合と、領域形状と画素情報の
両方が符号化された場合を復号装置にて前記第1のフラ
グによって判断すること、さらには(4)前記(2)に
おいて、上位レイヤと同じフレーム位置に対応する下位
レイヤフレームが存在しない場合に時間的に前後に存在
する下位レイヤの領域形状を抽出する際に、下位レイヤ
の復号画像を領域分割し、領域分割結果を利用して前記
領域形状を抽出すること、さらには(5)前記(2)に
おいて、上位レイヤと同じフレーム位置に対応する下位
レイヤフレームが存在しない場合に時間的に前後に存在
する下位レイヤの領域形状を抽出する際に、上位レイヤ
復号時に得られた領域形状を用いて前記領域形状を推定
して抽出すること、さらには(6)前記(1)〜(5)
において、復号の際に上位レイヤのフレーム位置に対応
する下位レイヤフレームが存在しない場合には、前後に
存在する下位レイヤを用いて前記存在しない下位レイヤ
フレームの合成を行うか否かを示す第2のフラグを設
け、前または後に存在する下位レイヤフレームを合成さ
れた下位レイヤフレームとして用いること、さらには
(7)前記(6)において、下位レイヤフレームの合成
を行なう場合には時間的に前に存在する下位レイヤの第
1領域形状を符号化するか否かを示す第3のフラグと時
間的に後に存在する下位レイヤの第2領域形状を符号化
するか否かを示す第4のフラグを設け、前記第1の領域
形状と第2の領域形状を共に符号化しない場合には前回
合成に用いられた領域形状をそれぞれ今回合成に用いる
領域形状とし、第2の領域形状だけを符号化する場合に
は前回合成に用いられた第2の領域形状を今回合成に用
いる第1の領域形状とし、第1の領域形状だけを符号化
する場合を設けないことを特徴としたものである。
In order to achieve the above object, the present invention provides (1) lower layer coding for coding a moving picture sequence at a low frame rate, and specifying one or more of the moving picture sequences. Performs upper layer encoding that encodes a region or the entire region at a high frame rate, decodes the lower layer by decoding only the lower layer with a lower frame rate, and decodes up to the upper layer with the lower layer and the higher frame rate. A hierarchical encoding device and a decoding device that decodes an upper layer and superimposes a lower layer and an upper layer, and exists before and after a lower layer frame corresponding to the same frame position as the upper layer does not exist at the time of decoding. The non-existing lower layer frame is synthesized by using the lower layer, and the lower layer which is present in time before the synthesis is performed. Encoding the first area shape of the ear and the second area shape of the lower layer that exists temporally later in the upper layer, and performing the combining using the first area shape and the second area shape, and (2) In the moving picture coding apparatus and the moving picture decoding apparatus according to (1), when a lower layer frame corresponding to the same frame position as the upper layer does not exist at the time of decoding, the lower layer that exists temporally earlier The first region shape of the layer and the second region shape of the lower layer that exists later in time are not encoded, and the first region shape and the second region shape are used as one or both of the lower layer and the upper layer. From the decoded data of (3), and further, (3) at the time of encoding the upper layer of (1) and (2), a first flag indicating whether or not to encode the pixel information of the upper layer is provided, In the decoding device, the first flag is used to judge whether only the area shape is coded by the ear, or when both the area shape and the pixel information are coded. Further, (4) and (2) In, when there is no lower layer frame corresponding to the same frame position as the upper layer, the decoded image of the lower layer is divided into regions when the region shape of the lower layer that exists temporally before and after is extracted. Is used to extract the region shape, and (5) In (2) above, when there is no lower layer frame corresponding to the same frame position as the upper layer, the lower layer that exists temporally before and after the lower layer frame When extracting the area shape, estimating and extracting the area shape by using the area shape obtained at the time of decoding the upper layer, and (6) above (1) to (5)
In the above, when there is no lower layer frame corresponding to the frame position of the upper layer at the time of decoding, it is indicated whether or not the lower layer existing before and after is combined with the lower layer frame which does not exist. Flag is used, and the lower layer frame existing before or after is used as the combined lower layer frame. Further, (7) In (6), when the lower layer frame is combined, it is preceded in time. A third flag indicating whether to encode the existing first layer shape of the lower layer and a fourth flag indicating whether to encode the second area shape of the lower layer that exists temporally later are set. If both the first area shape and the second area shape are not coded, the area shapes used in the previous composition are set as the area shapes used in the current composition, and In the case of encoding only the region shape, the second region shape used in the previous synthesis is set as the first region shape used in the current synthesis, and there is no case where only the first region shape is encoded. It is what

【0023】[0023]

【発明の実施の形態】図1、図14及び図15は第1の
実施の形態を示すブロック図である。図14で上位レイ
ヤ符号化部1403、重畳部1405、上位レイヤ復号
部1406、重畳部1408以外の各部は図8と同様の
働きをする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIGS. 1, 14 and 15 are block diagrams showing a first embodiment. In FIG. 14, each unit other than the upper layer encoding unit 1403, the superimposing unit 1405, the upper layer decoding unit 1406, and the superimposing unit 1408 has the same function as in FIG.

【0024】図1のスイッチ101、画素データ符号化
部102、領域形状符号化部103、画素データ復号部
104、領域情報復号部105及び多重化部106は、
図14の上位レイヤ符号化部1403を構成する。ま
た、図1の第1の遅延部107、第2の遅延部108、
第1の領域抽出部109、第2の領域抽出部110、コ
ントローラ111、スイッチ112、補間画像作成部1
13、加重平均部114、第3の遅延部115及び第4
の遅延部116は、図14の重畳部1405あるいは重
畳部1408を構成する。なお、重畳部1408は重畳
部1405と同一の働きをする。
The switch 101, the pixel data coding unit 102, the region shape coding unit 103, the pixel data decoding unit 104, the region information decoding unit 105 and the multiplexing unit 106 shown in FIG.
The upper layer coding unit 1403 of FIG. 14 is configured. In addition, the first delay unit 107, the second delay unit 108 of FIG.
First area extraction unit 109, second area extraction unit 110, controller 111, switch 112, interpolation image creation unit 1
13, the weighted average unit 114, the third delay unit 115, and the fourth
The delay unit 116 of the above constitutes the superimposing unit 1405 or the superimposing unit 1408 of FIG. The superimposing unit 1408 has the same function as the superimposing unit 1405.

【0025】以下、図1に従って第1の実施の形態を詳
細に説明する。
The first embodiment will be described in detail below with reference to FIG.

【0026】スイッチ101は図示しないコントローラ
によって上位レイヤの画素値を符号化するモードと符号
化しないモードを切替える。すなわち、上位レイヤと同
じフレーム位置に対応する下位レイヤフレームが符号化
されている場合にはスイッチをオフに制御し、上位レイ
ヤの画素値を符号化しない。一方、上位レイヤと同じフ
レーム位置に対応する下位レイヤフレームが符号化され
ていない場合にはスイッチをオンに制御し、上位レイヤ
の画素値を符号化する。
The switch 101 switches between a mode in which the pixel values of the upper layer are encoded and a mode in which they are not encoded by a controller (not shown). That is, when the lower layer frame corresponding to the same frame position as the upper layer is encoded, the switch is controlled to be off, and the pixel value of the upper layer is not encoded. On the other hand, when the lower layer frame corresponding to the same frame position as the upper layer is not encoded, the switch is controlled to be turned on and the pixel value of the upper layer is encoded.

【0027】画素データ符号化部102はスイッチ10
1がオンの場合に、上位レイヤの画素データを符号化す
る。符号化方式としては、MPEGやH.261などの
国際標準化方式が用いられる。ただし、符号化の際には
領域形状が領域形状復号部105から図示しない信号線
を介して入力され、領域内の画素データのみが符号化さ
れる。
The pixel data encoding unit 102 includes a switch 10
When 1 is on, the pixel data of the upper layer is encoded. The encoding method is MPEG or H.264. An international standardization method such as 261 is used. However, at the time of encoding, the area shape is input from the area shape decoding unit 105 via a signal line (not shown), and only the pixel data in the area is encoded.

【0028】領域形状符号化部103は、[従来の技
術]で述べた図8の領域形状符号化部806と同様の働
きによって領域形状を符号化する。
The area shape encoding unit 103 encodes the area shape in the same manner as the area shape encoding unit 806 of FIG. 8 described in [Prior Art].

【0029】画素データ復号部104は、画素データ符
号化部102で符号化された画素データを復号する。こ
こでも領域形状が領域形状復号部105から図示しない
信号線を介して入力され、復号に利用される。また、復
号された画素データは第3の遅延部115に入力される
と共に、図示しない信号線を介して画素データ符号化部
にフィードバックされ、予測に利用される。
The pixel data decoding unit 104 decodes the pixel data coded by the pixel data coding unit 102. Here again, the area shape is input from the area shape decoding unit 105 via a signal line (not shown) and used for decoding. The decoded pixel data is input to the third delay unit 115, fed back to the pixel data coding unit via a signal line (not shown), and used for prediction.

【0030】領域形状復号部105は、領域形状符号化
部103にて符号化された領域形状データを復号し、復
号データを第1の遅延部107に出力する。
The area shape decoding unit 105 decodes the area shape data encoded by the area shape encoding unit 103, and outputs the decoded data to the first delay unit 107.

【0031】以上のように、本実施の形態の上位レイヤ
符号化部ではスイッチ101によって上位レイヤを符号
化する場合としない場合が制御される。次に本実施の形
態の重畳部を説明する。
As described above, in the upper layer encoding unit of this embodiment, the switch 101 controls whether the upper layer is encoded or not. Next, the superposition unit of the present embodiment will be described.

【0032】第1の遅延部107は領域形状データをa
フレームだけ遅延させる。遅延された領域形状データは
加重平均部114に入力される。第2の遅延部108は
領域形状データをさらにbフレームだけ遅延させる。遅
延された領域形状データは第1の領域抽出部109と第
2の領域抽出部110に入力される。これらの回路では
遅延をうけていない領域形状データも同時に入力されて
いる。ここで、信号線上の記号t+a,t,t−bは各
フレームの時刻を表している。また、t,a,bは整数
である。
The first delay unit 107 converts the area shape data into a
Delay only the frame. The delayed region shape data is input to the weighted average unit 114. The second delay unit 108 further delays the area shape data by b frames. The delayed area shape data is input to the first area extracting unit 109 and the second area extracting unit 110. In these circuits, the area shape data that has not been delayed is also input at the same time. Here, the symbols t + a, t, t-b on the signal line represent the time of each frame. Moreover, t, a, and b are integers.

【0033】第1の領域抽出部109は、第1の領域情
報及び第2の領域情報から第2の領域でありかつ第1の
領域でない領域を抽出する。図9(a)の場合、網点部
が抽出される。
The first area extraction unit 109 extracts an area which is the second area and is not the first area from the first area information and the second area information. In the case of FIG. 9A, the halftone dot portion is extracted.

【0034】第1の領域抽出部110は、第1の領域情
報及び第2の領域情報から第1の領域でありかつ第2の
領域でない領域を抽出する。図9(a)の場合、斜線部
が抽出される。
The first area extracting section 110 extracts an area that is the first area and is not the second area from the first area information and the second area information. In the case of FIG. 9A, the shaded area is extracted.

【0035】コントローラ111は、第1の領域抽出部
109及び第2の領域抽出部110の出力によりスイッ
チ112を制御する部分である。すなわち、注目画素位
置が第1の領域のみの場合にはスイッチ112をフレー
ム時刻(t+a)の復号画像側に接続し、注目画素位置
が第2の領域のみの場合にはスイッチ112をフレーム
時刻(t−b)の復号側に接続し、それ以外の場合には
スイッチ112を補間画像作成部113からの出力に接
続する。
The controller 111 is a part for controlling the switch 112 by the outputs of the first area extracting unit 109 and the second area extracting unit 110. That is, when the target pixel position is only the first area, the switch 112 is connected to the decoded image side at the frame time (t + a), and when the target pixel position is only the second area, the switch 112 is connected to the frame time ( tb) is connected to the decoding side, and in other cases, the switch 112 is connected to the output from the interpolation image creating unit 113.

【0036】第3の遅延部115は上位レイヤの復号画
像データをaフレームだけ遅延させ、時刻tの復号画像
データを加重平均部114に入力する。第4の遅延部1
16は下位レイヤの復号画像データを(a+b)フレー
ムだけ遅延させ、時刻(t−b)の復号画像を補間画像
作成部113に入力する。
The third delay unit 115 delays the decoded image data of the upper layer by a frame, and inputs the decoded image data at time t to the weighted average unit 114. Fourth delay unit 1
Reference numeral 16 delays the decoded image data of the lower layer by (a + b) frames and inputs the decoded image at time (t−b) to the interpolation image creating unit 113.

【0037】補間画像作成部113は、下位レイヤのフ
レーム時刻(t−b)の復号画像と下位レイヤの時刻
(t+a)の復号画像との補間画像を[従来の技術]で
述べた式(1)に従って計算する。ただし式(1)でB
(x,y,t1)は第1の復号画像、B(x,y,t
2)は第2の復号画像、I(x,y,t3)は補間画像
であり、t1,t2,t3はそれぞれ第1の復号画像、
第2の復号画像及び補間画像の時間である。従って図1
の記号を用いれば、t1=t−b,t2=t+a,t3
=tとなる。
The interpolated image forming unit 113 interpolates the decoded image at the frame time (t-b) of the lower layer and the decoded image at the time (t + a) of the lower layer into the equation (1) described in [Prior Art]. ). However, in equation (1), B
(X, y, t1) is the first decoded image, B (x, y, t1)
2) is the second decoded image, I (x, y, t3) is the interpolated image, t1, t2 and t3 are the first decoded image, respectively.
It is the time of the second decoded image and the interpolated image. Therefore, FIG.
If the symbol is used, t1 = t−b, t2 = t + a, t3
= T.

【0038】以上のようにスイッチ112の切替を用い
て下位レイヤ合成を行なうので、例えば図9(a)の場
合、斜線部では第2の復号画像(フレーム時刻t+a)
が使用されるため選択領域外部の背景画素があらわれ、
網点部では第1の復号画像(フレーム時刻t−b)が使
用されるため選択領域外部の背景画素があらわれ、それ
以外の部分では第1の復号画像と第2の復号画像の補間
画像があらわれる。このようにして合成された下位レイ
ヤの上に図1の加重平均部114によって上位レイヤの
復号画像を重ねるため、重畳された画像は図9(b)の
ように選択領域(斜線部分)周辺に残像がなく、歪みの
少ない画像が得られる。図1の加重平均部114は、上
記の補間画像と上位レイヤの復号画像を加重平均によっ
て重畳する。重畳方法については[従来の技術]で述べ
たのでここでは説明を省略する。
As described above, since the lower layer composition is performed by using the switching of the switch 112, for example, in the case of FIG. 9A, the second decoded image (frame time t + a) is shown in the shaded area.
, The background pixels outside the selected area appear,
Since the first decoded image (frame time t-b) is used in the halftone dot portion, background pixels outside the selected area appear, and in other parts, the interpolated image of the first decoded image and the second decoded image is displayed. Appears. Since the decoded image of the upper layer is superimposed on the lower layer thus synthesized by the weighted average unit 114 of FIG. 1, the superimposed image is displayed around the selected area (hatched portion) as shown in FIG. 9B. An image with no afterimage and little distortion can be obtained. The weighted average unit 114 of FIG. 1 superimposes the above-described interpolated image and the decoded image of the upper layer by weighted average. The superposition method has been described in [Prior Art], and therefore the description thereof is omitted here.

【0039】図15は、図14の復号装置中の上位レイ
ヤ復号部1406を構成するブロック図である。分流部
1501は上位レイヤ符号化データを画素データの符号
化データと領域形状の符号化データに分流する部分であ
る。スイッチ1504は下位レイヤが符号化されている
フレーム位置でオフとなり、上位レイヤだけが符号化さ
れているフレーム位置でオンとなる。画素データ復号部
1502は上位レイヤの画素データを復号し、復号画素
を重畳部1408に出力し、領域形状復号部1503は
領域形状符号化データを復号し、復号画素を重畳部14
08に出力する部分である。重畳部1408は重畳部1
405と同様の働きにより、本発明の手法によって下位
レイヤに上位レイヤを重畳する。
FIG. 15 is a block diagram of the upper layer decoding unit 1406 in the decoding device of FIG. The diversion unit 1501 is a part that diverts the upper layer encoded data into the encoded data of the pixel data and the encoded data of the area shape. The switch 1504 is turned off at a frame position where the lower layer is encoded, and is turned on at a frame position where only the upper layer is encoded. The pixel data decoding unit 1502 decodes the pixel data of the upper layer, outputs the decoded pixels to the superimposing unit 1408, the area shape decoding unit 1503 decodes the area shape coded data, and the decoded pixels are superimposed on the superimposing unit 14.
It is a part to output to 08. The superposition unit 1408 is the superposition unit 1
By the same operation as 405, the upper layer is superimposed on the lower layer by the method of the present invention.

【0040】次に本発明の第2の実施の形態について述
べる。この実施の形態は上位レイヤ符号化装置で領域形
状を符号化しないモードを設け、符号化ビット数を削減
するものである。領域形状が時間的にほとんどあるいは
全く変化しない場合に、本実施の形態の手法を用いれば
ビット数を大幅に削減できる。
Next, a second embodiment of the present invention will be described. In this embodiment, the upper layer coding apparatus is provided with a mode in which the area shape is not coded to reduce the number of coding bits. When the area shape changes little or not at all with time, the number of bits can be significantly reduced by using the method of the present embodiment.

【0041】本実施の形態は図2、図14及び図16に
よってあらわされる。図14は第1の実施の形態の説明
に用いた図であるが、第2の実施の形態の説明にも用い
る。ただし、図14の上位レイヤ符号化部1403、上
位レイヤ復号部1406、重畳部1405及び重畳部1
408の働きは第1の実施の形態とは異なる。これら働
きの異なる部分について以下に説明する。
This embodiment is represented by FIGS. 2, 14 and 16. Although FIG. 14 is a diagram used for explaining the first embodiment, it is also used for explaining the second embodiment. However, upper layer encoding section 1403, upper layer decoding section 1406, superimposing section 1405 and superimposing section 1 in FIG.
The function of 408 is different from that of the first embodiment. These different parts will be described below.

【0042】図2は、第2の実施の形態における上位レ
イヤ符号化部と重畳部のブロック図である。スイッチ2
01、画素データ符号化部203、領域形状符号化部2
04、画素データ復号部205、領域形状復号部206
及び多重化部207については図1にてすでに述べたも
のと同様の働きをするので説明を省略する。
FIG. 2 is a block diagram of the upper layer coding unit and the superimposing unit in the second embodiment. Switch 2
01, pixel data encoding unit 203, area shape encoding unit 2
04, pixel data decoding unit 205, region shape decoding unit 206
The description of the multiplexing unit 207 and the multiplexing unit 207 will be omitted because it has the same function as that described in FIG.

【0043】スイッチ202とスイッチ208は図示し
ない制御部にて同時にオン又はオフするよう制御され
る。上位レイヤと同じフレーム位置に対応する下位レイ
ヤフレームが符号化されている場合にはスイッチをオン
に制御し、上位レイヤの領域形状を符号化する。一方、
上位レイヤと同じフレーム位置に対応する下位レイヤフ
レームが符号化されていない場合にはスイッチをオフに
制御し、上位レイヤの領域形状を符号化しない。
The switch 202 and the switch 208 are controlled by a control unit (not shown) so as to be turned on or off at the same time. When the lower layer frame corresponding to the same frame position as the upper layer is coded, the switch is controlled to be turned on and the region shape of the upper layer is coded. on the other hand,
When the lower layer frame corresponding to the same frame position as the upper layer is not encoded, the switch is controlled to be off, and the region shape of the upper layer is not encoded.

【0044】第1の領域形状抽出部209では、復号装
置で得られるデータをもとに第1の領域形状を抽出す
る。同様に、第2の領域形状抽出部210では、復号装
置で得られるデータをもとに第2の領域形状を抽出す
る。復号装置で得られるデータとしては、下位レイヤの
復号画像、領域形状符号化モードがオン(スイッチ20
2、スイッチ208がオン)の時の上位レイヤの領域形
状などがある。図2では明示していないが、これらのデ
ータが各々の領域形状抽出部に入力され、領域形状の抽
出に利用される。
The first area shape extraction unit 209 extracts the first area shape based on the data obtained by the decoding device. Similarly, the second area shape extraction unit 210 extracts the second area shape based on the data obtained by the decoding device. As the data obtained by the decoding device, the decoded image of the lower layer and the region shape coding mode are turned on (switch 20
2. Area shape of the upper layer when the switch 208 is on). Although not shown in FIG. 2, these data are input to each area shape extraction unit and used for extraction of the area shape.

【0045】第1の領域抽出部211、第2の領域抽出
部212、コントローラ213、スイッチ214、補間
画像作成部215及び加重平均部216は図1にてすで
に述べたものと同様の働きをするので説明を省略する。
また、遅延部217は図1の第4の遅延部116と同様
の働きをする。
The first area extracting unit 211, the second area extracting unit 212, the controller 213, the switch 214, the interpolation image creating unit 215 and the weighted average unit 216 have the same functions as those already described in FIG. Therefore, the description is omitted.
In addition, the delay unit 217 functions similarly to the fourth delay unit 116 in FIG.

【0046】図16は第2の実施の形態における上位レ
イヤ復号部のブロック図である。この図において、16
01は分流部、1602は画素データ復号部、1603
は領域形状復号部、1604はスイッチ、1605はス
イッチである。
FIG. 16 is a block diagram of the upper layer decoding unit in the second embodiment. In this figure, 16
01 is a shunt unit, 1602 is a pixel data decoding unit, 1603
Is a region shape decoding unit, 1604 is a switch, and 1605 is a switch.

【0047】この図と図15との違いは、図16ではス
イッチ1605を設けている点である。スイッチ160
5は、上位レイヤ復号時に同じフレーム位置に対応する
下位レイヤフレームの符号化データが存在しない時オフ
となる。また、上位レイヤで画素データがを符号化する
フレーム位置でオンとなる。
The difference between this figure and FIG. 15 is that a switch 1605 is provided in FIG. Switch 160
5 is turned off when there is no coded data of the lower layer frame corresponding to the same frame position at the time of decoding the upper layer. It is turned on at the frame position where the pixel data is encoded in the upper layer.

【0048】以上のように第2の実施の形態では、上位
レイヤ符号化部にて上位レイヤと同じフレーム位置に対
応する下位レイヤフレームが符号化されていない場合に
はスイッチ202及びスイッチ208をオフに制御し、
上位レイヤの領域形状を符号化しないため、符号量を削
減することが可能となる。
As described above, in the second embodiment, the switch 202 and the switch 208 are turned off when the lower layer frame corresponding to the same frame position as the upper layer is not encoded by the upper layer encoding unit. Control to
Since the area shape of the upper layer is not coded, the code amount can be reduced.

【0049】上述の第1の実施の形態及び第2の実施の
形態ではスイッチ101あるいはスイッチ201によっ
て画素データの符号化のオン/オフを切替えている。こ
の切替えは図1や図2に示していない制御部にて上位レ
イヤと同じフレーム位置に対応する下位レイヤフレーム
が符号化されているかどうかを判断して行なわれる。こ
の判断は符号化装置と復号装置で同様に行なうことがで
きる。しかしながら、少なくとも復号装置ではこのよう
な判断を行なう制御部を用いずに上記スイッチの切替え
を行なうことも可能である。そのためには図3に示すよ
うな第1のフラグ発生部301と第1のフラグ符号化部
302を符号化装置に設け、フラグによって上位レイヤ
符号化部303中のスイッチを切替えれば良い。ただ
し、図3は符号化装置と復号装置の一部を示したブロッ
ク図である。
In the above-described first and second embodiments, the switch 101 or the switch 201 is used to switch on / off the encoding of the pixel data. This switching is performed by a control unit (not shown in FIGS. 1 and 2) by determining whether or not the lower layer frame corresponding to the same frame position as the upper layer is encoded. This determination can be made similarly by the encoding device and the decoding device. However, at least in the decoding device, it is possible to switch the switches without using the control unit for making such a determination. For that purpose, the first flag generator 301 and the first flag encoder 302 as shown in FIG. 3 may be provided in the encoder, and the switch in the upper layer encoder 303 may be switched according to the flag. However, FIG. 3 is a block diagram showing a part of the encoding device and the decoding device.

【0050】フラグ発生部301は上位レイヤと同じフ
レーム位置に対応する下位レイヤフレームが符号化され
ているかどうかを判断してフラグを発生する。第1のフ
ラグ符号化部302は第1のフラグを符号化し、符号化
データは図示しない多重化部にて符号化データに多重化
して伝送あるいは蓄積される。フラグの符号化方法とし
ては固定長符号化や、可変長符号化などが用いられる。
The flag generator 301 determines whether or not the lower layer frame corresponding to the same frame position as the upper layer is coded and generates a flag. The first flag encoding unit 302 encodes the first flag, and the encoded data is multiplexed with the encoded data by a multiplexing unit (not shown) and transmitted or stored. Fixed-length coding, variable-length coding, or the like is used as a flag coding method.

【0051】復号装置における第1のフラグ復号部30
4は符号化データから第1のフラグを復号し上位レイヤ
復号部305に出力する。上位レイヤ復号部に含まれる
スイッチ1504あるいはスイッチ1604の切替えに
際しては、上述した切替え判断を行なうことなく、復号
された第1のフラッグにしたがって切替が行なわれる。
First flag decoding unit 30 in the decoding device
4 decodes the first flag from the encoded data and outputs it to the upper layer decoding unit 305. When the switch 1504 or the switch 1604 included in the upper layer decoding unit is switched, the switching is performed according to the decoded first flag without performing the above-described switching determination.

【0052】次に、第2の実施の形態における領域形状
抽出部について説明する。ここでは復号装置で得られる
データをもとに第2の領域形状を抽出するが、復号装置
で得られるデータとして、下位レイヤの復号データや上
位レイヤの復号領域形状などを用いればよい。
Next, the area shape extraction unit in the second embodiment will be described. Here, the second region shape is extracted based on the data obtained by the decoding device, but the decoded data of the lower layer, the decoding region shape of the upper layer, or the like may be used as the data obtained by the decoding device.

【0053】図4は、下位レイヤの復号データを用いて
領域形状を抽出する場合の重畳部のブロック図である。
第1の領域形状抽出部402には遅延部401にて遅延
された下位レイヤの第1の復号画像が入力され、第2の
領域形状抽出部403には下位レイヤの復号画像が遅延
なしに入力される。各領域形状抽出部は選択領域を抜き
出すように入力された復号画像を領域分割し、領域形状
を抽出する。領域分割の手法としては、微分演算を用い
たエッジ検出手法やモルフォロジカルセグメンテーショ
ンなどが用いられる。図4の他の部分は図2と同様の働
きをするので、ここでは説明を省略する。
FIG. 4 is a block diagram of the superimposing unit in the case of extracting the area shape using the decoded data of the lower layer.
The first decoded image of the lower layer delayed by the delay unit 401 is input to the first area shape extraction unit 402, and the decoded image of the lower layer is input to the second area shape extraction unit 403 without delay. To be done. Each area shape extraction unit divides the input decoded image so as to extract the selected area, and extracts the area shape. As a method of region division, an edge detection method using a differential operation, morphological segmentation, or the like is used. Since the other parts of FIG. 4 have the same functions as those of FIG. 2, the description thereof is omitted here.

【0054】図5は、復号装置で得られるデータとして
上位レイヤの復号領域形状を用いる場合のブロック図で
ある。この図において、501は遅延部、502は第1
の領域形状抽出部、503は第2の領域形状抽出部、5
04は第1の領域抽出部、505は第2の領域抽出部、
506はコントローラ、507はスイッチ、508は補
間画像作成部、509は加重平均部である。
FIG. 5 is a block diagram when a decoding area shape of an upper layer is used as data obtained by the decoding device. In this figure, 501 is a delay unit and 502 is a first unit.
Region shape extraction unit, 503 is a second region shape extraction unit, 5
04 is a first area extraction unit, 505 is a second area extraction unit,
Reference numeral 506 is a controller, 507 is a switch, 508 is an interpolation image creating unit, and 509 is a weighted average unit.

【0055】図5で、上位レイヤの領域形状が符号化さ
れた場合に、その復号データが第1の領域形状抽出部5
02と第2の領域形状抽出部503に入力される。各領
域形状抽出部では復号された領域形状を記憶しておき、
下位レイヤフレームに対応する領域形状を抽出する。例
えば図13に示すように、下位レイヤフレームの前後の
上位レイヤの復号領域形状1及び2から並行移動、回
転、拡大縮小などを表現するアフィン変換によって下位
レイヤフレーム位置での領域形状を抽出する方法が考え
られる。
In FIG. 5, when the region shape of the upper layer is encoded, the decoded data is the first region shape extraction unit 5
02 and the second area shape extraction unit 503. Each area shape extraction unit stores the decoded area shape,
The area shape corresponding to the lower layer frame is extracted. For example, as shown in FIG. 13, a method of extracting the region shape at the lower layer frame position by affine transformation expressing parallel movement, rotation, scaling, etc. from the decoding region shapes 1 and 2 of the upper layer before and after the lower layer frame. Can be considered.

【0056】そのために、まず領域形状1から領域形状
2へのアフィン変換を求める。すなわち、領域形状1を
変換することによって領域形状2を近似するようなアフ
ィン変換パラメータを求める。次に領域形状1から下位
レイヤフレーム上へのアフィン変換を、変換係数を線形
内挿することによって求める。このアフィン変換を用い
て下位レイヤフレーム上での領域形状を求めることがで
きる。アフィン変換のかわりに、領域形状1から領域形
状2への予測をブロックマッチングにて行ない、その結
果を線形内挿することで下位レイヤフレーム上での領域
形状を求めてもよい。あるいは領域形状1又は2をその
まま下位レイヤフレーム上での領域形状として用いるこ
とも可能である。
For that purpose, first, the affine transformation from the area shape 1 to the area shape 2 is obtained. That is, the affine transformation parameter that approximates the area shape 2 is obtained by converting the area shape 1. Next, the affine transformation from the region shape 1 to the lower layer frame is obtained by linearly interpolating the transformation coefficient. The area shape on the lower layer frame can be obtained by using this affine transformation. Instead of the affine transformation, prediction from the area shape 1 to the area shape 2 may be performed by block matching, and the result may be linearly interpolated to obtain the area shape on the lower layer frame. Alternatively, the area shape 1 or 2 can be used as it is as the area shape on the lower layer frame.

【0057】第2の実施の形態では下位レイヤが符号化
されないフレームで図2のスイッチ202をオフ、上位
レイヤの画素データを符号化するフレーム位置でスイッ
チ202をオンとしたが、これとは異なるコントロール
を行なってもよい。例えば領域形状の時間的変化を調
べ、ほとんど変化しない場合にはスイッチ202をオ
フ、それ以外ではオンとし、オフの場合の復号領域形状
データとしては直前に符号化・復号された領域形状デー
タのコピーを使用するという方法を用いてもよい。
In the second embodiment, the switch 202 of FIG. 2 is turned off in the frame in which the lower layer is not encoded, and the switch 202 is turned on in the frame position in which the pixel data of the upper layer is encoded, but this is different. You may control. For example, when the temporal change of the area shape is examined, the switch 202 is turned off when it hardly changes, and turned on otherwise, and as the decoded area shape data when it is off, a copy of the area shape data coded / decoded immediately before is made. May be used.

【0058】次に第3の実施の形態について説明する。
本実施の形態は、上位レイヤ復号時に上位レイヤのフレ
ーム位置に対応する下位レイヤの符号化データが存在し
ない場合に、第1及び第2の実施の形態で述べた下位レ
イヤフレームの合成を行なわないモードを設けることを
目的としている。例えば、領域形状が時間的にあまり変
化していない場合は[発明が解決しようとする課題]で
述べた問題点が無視できるため、下位レイヤフレームの
合成を行なう必要がない。領域形状が大きく変化する場
合でも、符号化装置及び復号装置にて処理量を増加させ
ないために下位レイヤフレームの合成を行なわないモー
ドを選択可能とする。このような目的のために、図6に
示すように符号化装置に第2のフラグ発生部601と第
2のフラグ符号化部602を設け、復号装置に第2のフ
ラグ復号部604を設ける。ただし、図6は符号化装置
と復号装置の一部を示したブロック図である。
Next, a third embodiment will be described.
The present embodiment does not combine the lower layer frames described in the first and second embodiments when the lower layer encoded data corresponding to the frame position of the upper layer does not exist at the time of decoding the upper layer. The purpose is to provide a mode. For example, when the region shape does not change much over time, the problem described in [Problems to be Solved by the Invention] can be ignored, and therefore it is not necessary to combine lower layer frames. Even if the region shape changes significantly, it is possible to select a mode in which lower layer frame synthesis is not performed in order to prevent the encoding device and the decoding device from increasing the processing amount. For this purpose, a second flag generation unit 601 and a second flag coding unit 602 are provided in the coding device and a second flag decoding unit 604 is provided in the decoding device, as shown in FIG. However, FIG. 6 is a block diagram showing a part of the encoding device and the decoding device.

【0059】図6の第2のフラグ発生部601は下位レ
イヤフレームの合成を行なうかどうかを示すフラグを発
生する。重畳部603では第2のフラグに従って下位レ
イヤフレームの合成を行なう場合と行なわない場合を切
替える。第2のフラグ符号化部602は第2のフラグを
符号化し、符号化データは図示しない多重化部にて符号
化データに多重化して伝送あるいは蓄積される。フラグ
の符号化方法としては固定長符号化や、可変長符号化な
どが用いられる。
The second flag generator 601 in FIG. 6 generates a flag indicating whether or not to combine lower layer frames. The superimposing unit 603 switches between combining and not combining the lower layer frame according to the second flag. The second flag encoding unit 602 encodes the second flag, and the encoded data is multiplexed with the encoded data by a multiplexing unit (not shown) and transmitted or stored. Fixed-length coding, variable-length coding, or the like is used as a flag coding method.

【0060】復号装置における第2のフラグ復号部60
4は符号化データから第2のフラグを復号し重畳部60
5に出力する。重畳部605では復号された第2のフラ
グにしたがって下位レイヤを合成するか否かの切替が行
なわれる。
Second flag decoding unit 60 in the decoding device
4 decodes the second flag from the encoded data and superimposes it on the superposition unit 60.
5 is output. The superimposing unit 605 switches whether or not to combine the lower layer according to the decoded second flag.

【0061】第3の実施の形態において下位レイヤの合
成を行なわない場合には、下位レイヤにて符号化され、
復号された前後の下位レイヤフレームのうちいずれかを
合成された下位レイヤフレームのかわりに用いる。この
場合の回路構成を図7に示す。この図において、701
はスイッチ、702はスイッチ、703は画素データ符
号化部、704は領域形状符号化部、705は画素デー
タ復号部、706は領域形状復号部、707は多重化
部、708はスイッチ、709は下位レイヤ合成部、7
10はスイッチ、711は加重平均部である。
When the lower layer is not combined in the third embodiment, it is encoded in the lower layer,
Any one of the decoded lower layer frames before and after is used instead of the combined lower layer frame. The circuit configuration in this case is shown in FIG. In this figure, 701
Is a switch, 702 is a switch, 703 is a pixel data coding unit, 704 is a region shape coding unit, 705 is a pixel data decoding unit, 706 is a region shape decoding unit, 707 is a multiplexing unit, 708 is a switch, and 709 is a lower order. Layer composition section, 7
Reference numeral 10 is a switch, and 711 is a weighted average unit.

【0062】次に、図7の回路の動作について説明す
る。まず、下位レイヤの復号画像と、下位レイヤ合成部
709で合成された下位レイヤフレームがスイッチ71
0にて切替えられ、加重平均部711に入力される。図
7の下位レイヤ合成部709では、第1、第2の実施の
形態で述べた方法に従って下位レイヤフレームが合成さ
れる。スイッチ710は図6で説明した第2のフラグに
従い、下位レイヤ合成がオンの時は下側に、オフの時は
上側に切替えられる。
Next, the operation of the circuit of FIG. 7 will be described. First, the decoded image of the lower layer and the lower layer frame combined by the lower layer combining unit 709 are switched by the switch 71.
It is switched at 0 and input to the weighted average unit 711. The lower layer synthesizing unit 709 in FIG. 7 synthesizes the lower layer frames according to the methods described in the first and second embodiments. The switch 710 is switched to the lower side when the lower layer composition is on and to the upper side when the lower layer composition is off according to the second flag described in FIG.

【0063】第3の実施の形態において下位レイヤの合
成に用いる領域形状の符号化方法としては、以下に述べ
るようなものを用いても良い。すなわち、下位レイヤ合
成を行なう上位レイヤのフレーム位置で、その前後のフ
レーム位置の下位レイヤにおける領域形状を、現在のフ
レーム位置で符号化する。この方法を用いた上位レイヤ
符号化部を図17に、上位レイヤ復号部を図18に示
す。
The following method may be used as the area shape encoding method used for combining the lower layers in the third embodiment. That is, at the frame position of the upper layer where the lower layer composition is performed, the region shape in the lower layer before and after the frame position is encoded at the current frame position. An upper layer encoding unit and an upper layer decoding unit using this method are shown in FIG. 17 and FIG. 18, respectively.

【0064】図17において、1701は画素データ符
号化部、1702は画素データ復号部、1703は第1
の遅延部、1704第2の遅延部、1705はスイッ
チ、1706はスイッチ、1707は領域形状符号化
部、1708は領域形状復号部、1709は第3のフラ
グ発生部、1710は第4のフラグ発生部、1711は
第3のフラグ符号化部、1712は第4のフラグ符号化
部、1713はコントローラ、1714は多重化部であ
る。
In FIG. 17, reference numeral 1701 is a pixel data encoding unit, 1702 is a pixel data decoding unit, and 1703 is a first pixel data decoding unit.
Delay unit, 1704 second delay unit, 1705 switch, 1706 switch, 1707 region shape encoding unit, 1708 region shape decoding unit, 1709 third flag generating unit, 1710 fourth flag generating unit. 1711 is a third flag coding unit, 1712 is a fourth flag coding unit, 1713 is a controller, and 1714 is a multiplexing unit.

【0065】図17で画素データ符号化部1701及び
画素データ復号部1702は、図1の説明で述べたもの
と同様の働きをするのでこれらについての説明を省略す
る。図17で領域形状は第1の遅延部1703でaフレ
ーム遅延され、さらに第2の遅延部1704でbフレー
ム遅延される。
In FIG. 17, the pixel data coding unit 1701 and the pixel data decoding unit 1702 have the same functions as those described in the description of FIG. 1, and therefore their description will be omitted. In FIG. 17, the area shape is delayed by a frame by the first delay unit 1703 and further delayed by b frame by the second delay unit 1704.

【0066】第3のフラグ発生部1709、第4のフラ
グ発生部1710はそれぞれ第3のフラグ、第4のフラ
グを発生させる。第3のフラグはフレーム時刻t+aに
おける領域形状(以後、領域形状2とする)を符号化す
るか否かを表し、第4のフラグはフレーム時刻t−bに
おける領域形状(以後、領域形状1とする)を符号化す
るか否かを表す。コントローラ1713は、第3のフラ
グ及び第4のフラグの入力によってスイッチ1705及
びスイッチ1706を制御する。
The third flag generating section 1709 and the fourth flag generating section 1710 generate a third flag and a fourth flag, respectively. The third flag indicates whether to encode the area shape at the frame time t + a (hereinafter referred to as area shape 2), and the fourth flag indicates the area shape at the frame time t-b (hereinafter, area shape 1). Yes) is encoded or not. The controller 1713 controls the switch 1705 and the switch 1706 by inputting the third flag and the fourth flag.

【0067】すなわち、第3のフラグが領域形状を符号
化することを表す場合にはスイッチ1705をオンと
し、そうでない場合にはスイッチ1705をオフとす
る。また、第4のフラグが領域形状を符号化することを
表す場合にはスイッチ1706をオンとし、そうでない
場合にはスイッチ1706をオフとする。第3のフラグ
符号化部及び第4のフラグ符号化部はそれぞれ第3のフ
ラグ及び第4のフラグの符号化を行なう。フラグの符号
化方法としては固定長符号化や、可変長符号化などが用
いられる。
That is, the switch 1705 is turned on when the third flag indicates that the area shape is to be encoded, and the switch 1705 is turned off otherwise. If the fourth flag indicates that the region shape is to be coded, the switch 1706 is turned on, and if not, the switch 1706 is turned off. The third flag coding section and the fourth flag coding section respectively code the third flag and the fourth flag. Fixed-length coding, variable-length coding, or the like is used as a flag coding method.

【0068】領域形状符号化部1707は、領域形状が
入力されたフレーム時刻にその領域形状を符号化し、符
号化データを出力する。領域形状復号部1708は領域
形状の符号化データを復号し、復号された領域形状を重
畳部に送る。ここで重畳部としては図1に示したような
装置を用いるが、図1の第1の遅延部107及び第2の
遅延部108は使用しない。領域形状1の復号データは
重畳部の第1の領域抽出部109及び第2の領域抽出部
110に入力され、同様に領域形状2の復号データも第
1の領域抽出部109及び第2の領域抽出部110に入
力される。これに対し、フレーム時刻tに対応する領域
形状の復号データは加重平均部114に入力される。
The area shape coding unit 1707 codes the area shape at the frame time when the area shape is input and outputs the coded data. The area shape decoding unit 1708 decodes the encoded data of the area shape, and sends the decoded area shape to the superimposing unit. Here, the device as shown in FIG. 1 is used as the superimposing unit, but the first delay unit 107 and the second delay unit 108 of FIG. 1 are not used. The decoded data of the area shape 1 is input to the first area extraction unit 109 and the second area extraction unit 110 of the superposition unit, and similarly, the decoded data of the area shape 2 is also the first area extraction unit 109 and the second area. It is input to the extraction unit 110. On the other hand, the decoded data of the area shape corresponding to the frame time t is input to the weighted average unit 114.

【0069】スイッチ1705とスイッチ1706のオ
ン・オフの組合せは次の3通りに制御される。すなわち
両スイッチが共にオン、両スイッチが共にオフ、スイッ
チ1705がオンかつスイッチ1706がオフの3通り
である。下位レイヤの合成を初めておこなう場合には両
スイッチが共にオンに制御され、前後のフレーム位置の
領域形状、つま領域形状1及び領域形状2が符号化・復
号され、復号された領域形状が第1の領域抽出部109
及び第2の領域抽出部110に入力される。領域形状1
と領域形状2として前回の下位レイヤ合成時と同じ領域
形状を用いる場合には両スイッチが共にオフに制御され
る。この場合は第1の領域抽出部109及び第2の領域
抽出部110に、図示しないメモリより前回の下位レイ
ヤ合成時に使用した領域形状1と領域形状2が入力され
る。
The on / off combinations of the switches 1705 and 1706 are controlled in the following three ways. That is, both switches are on, both switches are off, switch 1705 is on, and switch 1706 is off. When synthesizing the lower layer for the first time, both switches are both controlled to be turned on, the region shape at the front and rear frame positions, the toe region shape 1 and the region shape 2 are encoded / decoded, and the decoded region shape is the first Region extraction unit 109
And the second area extraction unit 110. Area shape 1
When the same area shape as that used at the previous lower layer composition is used as the area shape 2, both switches are controlled to be off. In this case, the area shape 1 and the area shape 2 used at the time of the previous lower layer composition are input to the first area extracting unit 109 and the second area extracting unit 110 from a memory (not shown).

【0070】また、前回の下位レイヤ合成時に使用した
領域形状2を、今回の下位レイヤ合成時に領域形状1と
して用い、今回合成時の領域形状2としては新たな領域
形状を用いる場合にはスイッチ1705をオンかつスイ
ッチ1706をオフと制御する。この場合は第1の領域
抽出部109及び第2の領域抽出部110に、図示しな
いメモリより前回の下位レイヤ合成時に使用した領域形
状2を今回合成時の領域形状1として入力する。また、
今回新たに符号化・復号された領域形状2を第1の領域
抽出部109及び第2の領域抽出部110に入力する。
When the area shape 2 used at the previous lower layer composition is used as the area shape 1 at the current lower layer composition, and the new area shape is used as the area shape 2 at the current composition, the switch 1705 is used. Is turned on and the switch 1706 is turned off. In this case, the area shape 2 used at the time of the previous lower layer composition is input as the area shape 1 at this time composition from the memory (not shown) to the first area extraction unit 109 and the second area extraction unit 110. Also,
The newly-encoded / decoded region shape 2 is input to the first region extraction unit 109 and the second region extraction unit 110.

【0071】図17の画素データ復号部1702で復号
されたフレーム時刻t+aの画素データは、図1の重畳
部中の第3の遅延部115でaフレーム遅延された後、
加重平均部114に入力される。図17の多重化部17
08は画素データ、領域形状、第3のフラグ及び第4の
フラグの各々の符号化データを多重化し、上位レイヤの
符号化データとして出力する。
The pixel data at the frame time t + a decoded by the pixel data decoding unit 1702 of FIG. 17 is delayed by a frame by the third delay unit 115 in the superposition unit of FIG.
It is input to the weighted average unit 114. The multiplexing unit 17 of FIG.
Reference numeral 08 multiplexes the pixel data, the region shape, the coded data of each of the third flag and the fourth flag, and outputs the coded data of the upper layer.

【0072】次に、上述した上位レイヤ符号化データを
復号する上位レイヤ復号部を図18を用いて説明する。
この図において、1801は分流部、1802は画素デ
ータ復号部、1803は領域形状復号部、1804は第
3のフラグ復号部、1805は第4のフラグ復号部、1
806は第1の遅延部、1807は第2の遅延部、18
08はスイッチ、1809はスイッチ、1810はコン
トローラである。
Next, the upper layer decoding unit for decoding the above-mentioned upper layer encoded data will be described with reference to FIG.
In this figure, 1801 is a shunting unit, 1802 is a pixel data decoding unit, 1803 is a region shape decoding unit, 1804 is a third flag decoding unit, 1805 is a fourth flag decoding unit, 1
806 is a first delay unit, 1807 is a second delay unit, 18
Reference numeral 08 is a switch, 1809 is a switch, and 1810 is a controller.

【0073】図18で、分流部1801は上位レイヤ符
号化データを、画素データ、領域形状、第3のフラグ及
び第4のフラグの各々の符号化データに分離する部分で
ある。画素データ復号部1802、領域形状復号部18
03、第1の遅延部1806、第2の遅延部1807、
スイッチ1808及びスイッチ1809は、図17と同
様の働きをするので説明を省略する。
In FIG. 18, the diversion unit 1801 is a part for separating the upper layer encoded data into each encoded data of the pixel data, the region shape, the third flag and the fourth flag. Pixel data decoding unit 1802, area shape decoding unit 18
03, the first delay unit 1806, the second delay unit 1807,
The switches 1808 and 1809 have the same functions as those in FIG.

【0074】図18の第3のフラグ復号部及び第4のフ
ラグ復号部は、第3のフラグ及び第4のフラグをそれぞ
れ復号し、コントローラ1810に供給する。コントロ
ーラ1810は図17のコントローラ1713と同様に
2つのスイッチを制御するが、これと同時に分流部18
01で領域形状の符号化データを取り出す制御も行な
う。すなわち第3のフラグが領域形状1が符号化された
ことを示している時は、上位レイヤ符号化データから領
域形状1のデータを分離し、そうでない場合は領域形状
1のデータは存在しないので上位レイヤ符号化データか
らこれを分離しないように制御する。
The third flag decoding unit and the fourth flag decoding unit in FIG. 18 decode the third flag and the fourth flag, respectively, and supply them to the controller 1810. The controller 1810 controls two switches similarly to the controller 1713 of FIG.
At 01, control for extracting the coded data of the area shape is also performed. That is, when the third flag indicates that the area shape 1 has been encoded, the area shape 1 data is separated from the upper layer encoded data, and otherwise the area shape 1 data does not exist. It is controlled not to be separated from the upper layer encoded data.

【0075】第4のフラグについても分流部1801に
対して同様の制御がなされる。2つのスイッチのオン・
オフの組合せは図17の上位レイヤ符号化部と同様、3
種類存在する。それぞれの組合せにおける動作は図17
の説明で述べたものと同様である。
With respect to the fourth flag, similar control is performed on the flow dividing unit 1801. Two switches on
The combination of OFFs is 3 as in the upper layer encoding unit in FIG.
There are types. The operation in each combination is shown in FIG.
Is the same as that described in the explanation.

【0076】このように、第3の実施の形態において下
位レイヤの合成に用いる領域形状の符号化方法として、
下位レイヤ合成を行なう上位レイヤのフレーム位置で、
その前後のフレーム位置の下位レイヤにおける領域形状
を、現在のフレーム位置で符号化する方法を用いること
ができる。
As described above, as the region shape encoding method used in the synthesis of the lower layer in the third embodiment,
At the frame position of the upper layer that performs lower layer composition,
It is possible to use a method of encoding the region shape in the lower layer of the frame positions before and after that at the current frame position.

【0077】これまで本発明の説明において、下位レイ
ヤフレームに上位レイヤフレームが重畳された画像は、
符号化装置では図14に示す様に上位レイヤ符号化部に
フィードバックされ、上位レイヤの予測符号化に利用さ
れる。復号装置では上位レイヤの予測符号化に利用され
ると共にディスプレイなどに表示される。しかしなが
ら、重畳された画像は表示用のためにだけ使用しても良
い。
In the above description of the present invention, the image in which the upper layer frame is superimposed on the lower layer frame is
In the encoding device, as shown in FIG. 14, it is fed back to the upper layer encoding unit and used for predictive encoding of the upper layer. In the decoding device, it is used for predictive coding of the upper layer and displayed on a display or the like. However, the superimposed image may be used only for display.

【0078】すなわち、符号化装置では本実施の形態の
重畳部を持たず、上位レイヤの復号画像が直接上位レイ
ヤ符号化部にフィードバックされて予測符号化に利用さ
れる。復号装置では上位レイヤの復号画像は直接上位レ
イヤ復号部にフィードバックされて予測に利用されると
共に重畳部に入力され、重畳部の出力はディスプレイな
どに表示される。
That is, the coding apparatus does not have the superposition unit of this embodiment, and the decoded image of the upper layer is directly fed back to the upper layer coding unit and used for predictive coding. In the decoding device, the decoded image of the upper layer is directly fed back to the upper layer decoding unit to be used for prediction and is input to the superimposing unit, and the output of the superimposing unit is displayed on a display or the like.

【0079】また、本発明の説明で領域形状の符号化は
全て8方向量子化符号による方法を用いて説明している
が、他の形状符号化手法を用いても良いことはもちろん
である。
Further, in the description of the present invention, the coding of the area shape is described by using the method by the eight-direction quantization code, but it goes without saying that another shape coding method may be used.

【0080】[0080]

【発明の効果】本発明の動画像符号化装置及び動画像復
号装置によれば、(1)符号化されていない下位レイヤ
フレームの合成を行う際に、時間的に前に存在する下位
レイヤの第1領域形状と、時間的に後に存在する下位レ
イヤの第2領域形状を上位レイヤにおいて符号化し、前
記第1領域形状と前記第2領域形状を用いて前記合成を
行なうことにより、領域形状が時間的に変化する場合で
も下位レイヤと上位レイヤの重畳画像に歪みがなく良好
な画像を得ることができる。さらに、(2)前記(1)
の下位レイヤフレーム合成の際に、時間的に前に存在す
る下位レイヤの第1領域形状と、時間的に後に存在する
下位レイヤの第2領域形状の前記符号化を行なわず、前
記第1領域形状と前記第2領域形状を下位レイヤと上位
レイヤの一方もしくは両方の復号データから抽出するこ
とにより、上位レイヤで領域形状の符号化を行なわない
モードが導入され、ビット数を削減することができる。
さらに、(3)前記(1)及び(2)の上位レイヤ符号
化時に、上位レイヤの画素情報を符号化するか否かを示
す第1のフラグを設け、上位レイヤで領域形状のみが符
号化された場合と、領域形状と画素情報の両方が符号化
された場合を復号装置にて前記第1のフラグによって判
断することによって、復号装置にて簡単にモードを判定
することができる。さらに(4)前記(2)において、
上位レイヤと同じフレーム位置に対応する下位レイヤフ
レームが存在しない場合に時間的に前後に存在する下位
レイヤの領域形状を抽出する際に、下位レイヤの復号画
像を領域分割し、領域分割結果を利用して前記領域形状
を抽出することによって、ビット数を増やすことなく正
確に領域形状を得ることができる。さらには(5)前記
(2)において、上位レイヤと同じフレーム位置に対応
する下位レイヤフレームが存在しない場合に時間的に前
後に存在する下位レイヤの領域形状を抽出する際に、上
位レイヤ復号時に得られた領域形状を用いて前記領域形
状を推定して抽出することによってビット数を増やすこ
となく簡単に領域形状を得ることができる。さらには
(6)前記(1)〜(5)において、復号の際に上位レ
イヤのフレーム位置に対応する下位レイヤフレームが存
在しない場合には、前後に存在する下位レイヤを用いて
前記存在しない下位レイヤフレームの合成を行うか否か
を示す第2のフラグを設け、前または後に存在する下位
レイヤフレームを合成された下位レイヤフレームとして
用いることによって、合成に必要な処理量を減らすこと
が可能となる。さらには(7)下位レイヤにて領域情報
を符号化しないので、下位レイヤで多くのビットを発生
することがない。従って下位レイヤを伝送あるいは蓄積
する比較的ビットレートの低い伝送路やメモリでも大き
な歪みを生ずることなく、良好な下位レイヤ画像を伝送
あるいは蓄積することができる。
According to the moving picture coding apparatus and the moving picture decoding apparatus of the present invention, (1) when synthesizing a lower layer frame that has not been coded, a lower layer that is temporally preceding is added. By encoding the first area shape and the second area shape of the lower layer that exists temporally later in the upper layer and performing the synthesis using the first area shape and the second area shape, the area shape is Even in the case of temporal changes, it is possible to obtain a good image without distortion in the superimposed image of the lower layer and the upper layer. Further, (2) above (1)
When the lower layer frame combination is performed, the first region shape of the lower layer existing temporally before and the second region shape of the lower layer existing temporally later are not encoded, and the first region By extracting the shape and the second area shape from the decoded data of one or both of the lower layer and the upper layer, a mode in which the area shape is not encoded in the upper layer is introduced, and the number of bits can be reduced. .
Further, (3) at the time of encoding the upper layer of (1) and (2), a first flag indicating whether or not to encode the pixel information of the upper layer is provided, and only the area shape is encoded in the upper layer. The decoding device can easily determine the mode by determining, by the decoding device, whether or not both the region shape and the pixel information are coded. Further (4) In the above (2),
When there is no lower layer frame corresponding to the same frame position as the upper layer, the decoded image of the lower layer is divided into regions when the region shape of the lower layer that exists temporally before and after is extracted, and the region division result is used. Then, by extracting the area shape, the area shape can be accurately obtained without increasing the number of bits. Further, (5) in (2) above, when the region shape of a lower layer that is temporally before and after in time is extracted when a lower layer frame corresponding to the same frame position as the upper layer does not exist, when decoding the upper layer, By estimating and extracting the area shape using the obtained area shape, the area shape can be easily obtained without increasing the number of bits. Furthermore, (6) In the above (1) to (5), when there is no lower layer frame corresponding to the frame position of the upper layer at the time of decoding, the lower layer that exists before and after is used for the lower layer that does not exist. By providing a second flag indicating whether or not to perform layer frame composition and using a lower layer frame existing before or after as a combined lower layer frame, it is possible to reduce the amount of processing required for composition. Become. Furthermore, (7) since the region information is not encoded in the lower layer, many bits are not generated in the lower layer. Therefore, a good lower layer image can be transmitted or accumulated without causing a large distortion even in a transmission path or memory having a relatively low bit rate for transmitting or accumulating the lower layer.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態を示すブロック図で
ある。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】本発明の第2の実施の形態を示すブロック図で
ある。
FIG. 2 is a block diagram showing a second embodiment of the present invention.

【図3】本発明の第1のフラグを説明する図である。FIG. 3 is a diagram illustrating a first flag of the present invention.

【図4】本発明で下位レイヤの復号データを用いて領域
形状を抽出する場合のブロック図である。
FIG. 4 is a block diagram when a region shape is extracted using decoded data of a lower layer according to the present invention.

【図5】本発明で上位レイヤの領域形状を用いて領域形
状を抽出する場合のブロック図である。
FIG. 5 is a block diagram in the case of extracting a region shape by using a region shape of an upper layer according to the present invention.

【図6】本発明の第3の実施の形態を説明する図であ
る。
FIG. 6 is a diagram illustrating a third embodiment of the present invention.

【図7】本発明の第3の実施の形態の他の例を説明する
図である。
FIG. 7 is a diagram illustrating another example of the third embodiment of the present invention.

【図8】従来の符号化方式及び復号方式を説明するブロ
ック図である。
FIG. 8 is a block diagram illustrating a conventional encoding method and decoding method.

【図9】本発明の効果の一例を説明する図である。FIG. 9 is a diagram illustrating an example of effects of the present invention.

【図10】従来法の概念を示す図である。FIG. 10 is a diagram showing a concept of a conventional method.

【図11】8方向量子化符号を説明する図である。FIG. 11 is a diagram illustrating an eight-direction quantized code.

【図12】従来法の問題点を説明する図である。FIG. 12 is a diagram illustrating a problem of the conventional method.

【図13】本発明で上位レイヤの領域形状を用いて領域
形状を抽出する例を説明する図である。
FIG. 13 is a diagram illustrating an example of extracting a region shape using a region shape of an upper layer according to the present invention.

【図14】本発明の第1の実施の形態及び第2の実施の
形態を説明するブロック図である。
FIG. 14 is a block diagram illustrating a first embodiment and a second embodiment of the present invention.

【図15】本発明の第1の実施の形態を説明するブロッ
ク図である。
FIG. 15 is a block diagram illustrating a first embodiment of the present invention.

【図16】本発明の第2の実施の形態を説明するブロッ
ク図である。
FIG. 16 is a block diagram illustrating a second embodiment of the present invention.

【図17】本発明の上位レイヤ符号化部の例を示すブロ
ック図である。
FIG. 17 is a block diagram showing an example of an upper layer encoding unit of the present invention.

【図18】本発明の上位レイヤ復号部の例を示すブロッ
ク図である。
FIG. 18 is a block diagram showing an example of an upper layer decoding unit of the present invention.

【符号の説明】[Explanation of symbols]

101 スイッチ 102 画素データ符号化部 103 領域形状符号化部 104 画素データ復号部 105 領域形状復号部 106 多重化部 107 第1の遅延部 108 第2の遅延部 109 第1の領域抽出部 110 第2の領域抽出部 111 コントローラ 112 スイッチ 113 補間画像作成部 114 加重平均部 115 第3の遅延部 116 第4の遅延部 101 Switch 102 Pixel Data Encoding Unit 103 Region Shape Encoding Unit 104 Pixel Data Decoding Unit 105 Region Shape Decoding Unit 106 Multiplexing Unit 107 First Delay Unit 108 Second Delay Unit 109 First Region Extraction Unit 110 Second Area extraction unit 111 controller 112 switch 113 interpolation image creation unit 114 weighted average unit 115 third delay unit 116 fourth delay unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 草尾 寛 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 渡部 秀一 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Hiroshi Kusao 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Within Sharp Co., Ltd. Within the corporation

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 動画像シーケンスを低いフレームレート
で符号化する下位レイヤ符号化と、前記動画像シーケン
スの一つ以上の特定領域もしくは全領域を高いフレーム
レートで符号化する上位レイヤ符号化を行ない、下位レ
イヤの復号は低いフレームレートの下位レイヤのみを復
号し、上位レイヤまでの復号は下位レイヤと、より高い
フレームレートの上位レイヤを復号して下位レイヤと上
位レイヤを重畳する階層符号化装置及び復号装置であっ
て、復号の際に上位レイヤと同じフレーム位置に対応す
る下位レイヤフレームが存在しない場合に、前後に存在
する下位レイヤを用いて前記存在しない下位レイヤフレ
ームの合成を行い、前記合成に当たっては時間的に前に
存在する下位レイヤの第1領域形状と、時間的に後に存
在する下位レイヤの第2領域形状を上位レイヤにおいて
符号化し、前記第1領域形状と前記第2領域形状を用い
て前記合成を行なうことを特徴とする動画像符号化装置
及び動画像復号装置。
1. A lower layer coding for coding a moving picture sequence at a low frame rate and an upper layer coding for coding one or more specific areas or all areas of the moving picture sequence at a high frame rate. , A hierarchical coding apparatus that decodes only a lower layer having a lower frame rate for decoding a lower layer, and decodes a lower layer and an upper layer having a higher frame rate for decoding up to an upper layer and superimposes the lower layer and the upper layer. And a decoding device, when there is no lower layer frame corresponding to the same frame position as the upper layer at the time of decoding, performs synthesis of the lower layer frame that does not exist using lower layers existing before and after, In synthesizing, the first region shape of the lower layer that exists before in time and the first region shape of the lower layer that exists after in time A moving picture coding apparatus and a moving picture decoding apparatus, wherein a second area shape is coded in an upper layer, and the combining is performed using the first area shape and the second area shape.
【請求項2】 請求項1記載の動画像符号化装置及び動
画像復号装置において、復号の際に上位レイヤと同じフ
レーム位置に対応する下位レイヤフレームが存在しない
場合に、時間的に前に存在する下位レイヤの第1領域形
状と、時間的に後に存在する下位レイヤの第2領域形状
の前記符号化を行なわず、前記第1領域形状と前記第2
領域形状を下位レイヤと上位レイヤの一方もしくは両方
の復号データから抽出することを特徴とする動画像符号
化装置及び動画像復号装置。
2. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 1, wherein when a lower layer frame corresponding to the same frame position as that of an upper layer does not exist at the time of decoding, it exists before in time. The first region shape of the lower layer and the second region shape of the lower layer existing temporally later are not encoded, and the first region shape and the second region shape are not encoded.
A moving picture coding apparatus and a moving picture decoding apparatus, wherein a region shape is extracted from decoded data of one or both of a lower layer and an upper layer.
【請求項3】 請求項1又は請求項2記載の動画像符号
化装置及び動画像復号装置において、上位レイヤ符号化
時に上位レイヤの画素情報を符号化するか否かを示す第
1のフラグを設け、上位レイヤで領域形状のみが符号化
された場合と、領域形状と画素情報の両方が符号化され
た場合を復号装置にて前記第1のフラグによって判断す
ることを特徴とした動画像符号化装置及び動画像復号装
置。
3. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 1 or 2, further comprising a first flag indicating whether to code upper layer pixel information when coding the upper layer. A moving image code provided by a decoding device that determines whether only the area shape is coded in the upper layer and when both the area shape and the pixel information are coded by the decoding device. Apparatus and moving picture decoding apparatus.
【請求項4】 請求項2記載の動画像符号化装置及び動
画像復号装置において、上位レイヤと同じフレーム位置
に対応する下位レイヤフレームが存在しない場合に時間
的に前後に存在する下位レイヤの領域形状を抽出する際
に、下位レイヤの復号画像を領域分割し、領域分割結果
を利用して前記領域形状を抽出することを特徴とする動
画像符号化装置及び動画像復号装置。
4. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 2, wherein when there is no lower layer frame corresponding to the same frame position as that of the upper layer, an area of a lower layer that exists temporally before and after. A moving picture coding apparatus and a moving picture decoding apparatus, characterized in that when extracting a shape, a decoded image of a lower layer is divided into areas, and the area shape is extracted using a result of the area division.
【請求項5】 請求項2記載の動画像符号化装置及び動
画像復号装置において、上位レイヤと同じフレーム位置
に対応する下位レイヤフレームが存在しない場合に時間
的に前後に存在する下位レイヤの領域形状を抽出する際
に、上位レイヤ復号時に得られた領域形状を用いて前記
領域形状を推定して抽出することを特徴とする動画像符
号化装置及び動画像復号装置。
5. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 2, wherein when there is no lower layer frame corresponding to the same frame position as that of the upper layer, a lower layer area existing temporally before and after. A moving picture coding apparatus and a moving picture decoding apparatus, wherein when extracting a shape, the area shape is estimated and extracted using the area shape obtained at the time of decoding an upper layer.
【請求項6】 請求項1、請求項2、請求項3、請求項
4又は請求項5記載の動画像符号化装置及び動画像復号
装置において、復号の際に上位レイヤのフレーム位置に
対応する下位レイヤフレームが存在しない場合には、前
後に存在する下位レイヤを用いて前記存在しない下位レ
イヤフレームの合成を行うか否かを示す第2のフラグを
設け、下位レイヤフレームの合成を行なわない場合に
は、前または後に存在する下位レイヤフレームを合成さ
れた下位レイヤフレームとして用いることを特徴とす
る、動画像符号化装置及び動画像復号装置。
6. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 1, claim 2, claim 3, claim 4 or claim 5, which corresponds to a frame position of an upper layer at the time of decoding. When the lower layer frame does not exist, a second flag indicating whether or not the lower layer frames existing before and after the lower layer frame are combined is provided, and the lower layer frame is not combined. The moving picture coding apparatus and the moving picture decoding apparatus are characterized in that a lower layer frame existing before or after is used as a combined lower layer frame.
【請求項7】 請求項6記載の動画像符号化装置及び動
画像復号装置において、下位レイヤフレームの合成を行
なう場合には時間的に前に存在する下位レイヤの第1領
域形状を符号化するか否かを示す第3のフラグと時間的
に後に存在する下位レイヤの第2領域形状を符号化する
か否かを示す第4のフラグを設け、前記第1の領域形状
と第2の領域形状を共に符号化しない場合には前回合成
に用いられた領域形状をそれぞれ今回合成に用いる領域
形状とし、第2の領域形状だけを符号化する場合には前
回合成に用いられた第2の領域形状を今回合成に用いる
第1の領域形状とし、第1の領域形状だけを符号化する
場合を設けないことを特徴とする動画像符号化装置及び
動画像復号装置。
7. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 6, wherein when synthesizing a lower layer frame, a first region shape of a lower layer existing temporally before is coded. A third flag indicating whether or not and a fourth flag indicating whether or not to encode a second region shape of a lower layer that exists temporally later are provided, and the first region shape and the second region are provided. When the shapes are not coded together, the region shape used in the previous synthesis is the region shape used in the current synthesis, and when only the second region shape is coded, the second region used in the previous synthesis A moving picture coding apparatus and a moving picture decoding apparatus, wherein the shape is a first area shape used for the present synthesis, and a case where only the first area shape is coded is not provided.
JP12175296A 1996-02-07 1996-05-16 Image encoding device and image decoding device Expired - Fee Related JP3247836B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP12175296A JP3247836B2 (en) 1996-05-16 1996-05-16 Image encoding device and image decoding device
PCT/JP1997/000276 WO1997029595A1 (en) 1996-02-07 1997-02-05 Moving image encoding and decoding device
EP20030003822 EP1343328A3 (en) 1996-02-07 1997-02-05 Moving image encoding and decoding device
DE69733007T DE69733007T2 (en) 1996-02-07 1997-02-05 DEVICE FOR CODING AND DECODING MOTION IMAGES
US09/117,501 US6148030A (en) 1996-02-07 1997-02-05 Motion picture coding and decoding apparatus
ES97902581T ES2241034T3 (en) 1996-02-07 1997-02-05 DEVICE FOR CODIFICATION OF MOVEMENT DECODIFICATION.
EP97902581A EP0880286B1 (en) 1996-02-07 1997-02-05 Moving image encoding and decoding device
US09/663,352 US6324215B1 (en) 1996-02-07 2000-09-15 Motion picture coding and decoding apparatus
US09/859,421 US6466622B2 (en) 1996-02-07 2001-05-18 Motion picture coding and decoding apparatus
US10/232,404 US6678326B2 (en) 1996-02-07 2002-09-03 Motion picture coding and decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12175296A JP3247836B2 (en) 1996-05-16 1996-05-16 Image encoding device and image decoding device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001233032A Division JP3866946B2 (en) 2001-08-01 2001-08-01 Video encoding device

Publications (2)

Publication Number Publication Date
JPH09307906A true JPH09307906A (en) 1997-11-28
JP3247836B2 JP3247836B2 (en) 2002-01-21

Family

ID=14819018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12175296A Expired - Fee Related JP3247836B2 (en) 1996-02-07 1996-05-16 Image encoding device and image decoding device

Country Status (1)

Country Link
JP (1) JP3247836B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693960B2 (en) 1996-08-21 2004-02-17 Sharp Kabushiki Kaisha Moving picture encoder and moving picture decoder
KR100728222B1 (en) * 2005-03-25 2007-06-13 한국전자통신연구원 Hierarchical Video Encoding/Decoding Method for Complete Spatial Scalability and Apparatus thereof
JP2008005504A (en) * 2006-06-22 2008-01-10 Samsung Electronics Co Ltd Flag encoding method, flag decoding method, and apparatus using the same
JP2009523349A (en) * 2006-01-12 2009-06-18 サムスン エレクトロニクス カンパニー リミテッド Flag encoding method, flag decoding method, and apparatus using the method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693960B2 (en) 1996-08-21 2004-02-17 Sharp Kabushiki Kaisha Moving picture encoder and moving picture decoder
KR100728222B1 (en) * 2005-03-25 2007-06-13 한국전자통신연구원 Hierarchical Video Encoding/Decoding Method for Complete Spatial Scalability and Apparatus thereof
JP2009523349A (en) * 2006-01-12 2009-06-18 サムスン エレクトロニクス カンパニー リミテッド Flag encoding method, flag decoding method, and apparatus using the method
JP2008005504A (en) * 2006-06-22 2008-01-10 Samsung Electronics Co Ltd Flag encoding method, flag decoding method, and apparatus using the same

Also Published As

Publication number Publication date
JP3247836B2 (en) 2002-01-21

Similar Documents

Publication Publication Date Title
US6324215B1 (en) Motion picture coding and decoding apparatus
EP1271957B1 (en) Object-based digital image predictive coding and transfer method and apparatus, and decoding apparatus
US6754269B1 (en) Video encoding apparatus and video decoding apparatus
EP0909096B1 (en) Picture encoder and picture decoder
JP3224514B2 (en) Video encoding device and video decoding device
EP1061749B1 (en) Moving picture decoder
JP3866946B2 (en) Video encoding device
JP3247836B2 (en) Image encoding device and image decoding device
JPH09326024A (en) Picture coding and decoding method and its device
JP3148751B2 (en) Video encoding device and video decoding device
JPH07298263A (en) Coding method for moving image, coder, decoding method and decoder
JPH11285001A (en) Moving image encoding device and moving image decoding device
JP3148752B2 (en) Video encoding device
JP3526258B2 (en) Image encoding device and image decoding device
JP2001160966A (en) Moving picture encoding device
JPH09121346A (en) Image encoding device and image decoding device
JP2000036962A (en) Image coder and image decoder

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081102

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees