JP3247836B2 - Image encoding device and image decoding device - Google Patents
Image encoding device and image decoding deviceInfo
- Publication number
- JP3247836B2 JP3247836B2 JP12175296A JP12175296A JP3247836B2 JP 3247836 B2 JP3247836 B2 JP 3247836B2 JP 12175296 A JP12175296 A JP 12175296A JP 12175296 A JP12175296 A JP 12175296A JP 3247836 B2 JP3247836 B2 JP 3247836B2
- Authority
- JP
- Japan
- Prior art keywords
- lower layer
- shape
- frame
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ディジタル画像処
理の分野に属し、画像データを高能率に符号化する動画
像符号化装置及びこの動画像符号化装置で作成された符
号化データを復号する動画像復号装置に関するものであ
る。The present invention relates belongs to the field of digital image processing, decodes the encoded data generated by the video encoding apparatus and the moving picture coding apparatus for coding image data with high efficiency The present invention relates to a video decoding device.
【0002】[0002]
【従来の技術】画像符号化において、異なる動画像シー
ケンスを重畳する方式が検討されている。2. Description of the Related Art In image coding, a method of superimposing different moving image sequences has been studied.
【0003】例えば、文献「階層表現と多重テンプレー
トを用いた画像符号化」(信学技報IE94−159,
pp99−106 (1995))では、背景となる動
画像シーケンスと前景となる部品動画像の動画像シーケ
ンス(例えばクロマキー技術によって切り出された人物
画像や魚の映像など)を重畳して新たなシーケンスを作
成する手法が述べられている。[0003] For example, a document "Image coding using hierarchical representation and multiple templates" (IEICE IE94-159, IEICE Tech.
pp99-106 (1995)), a new sequence is created by superimposing a moving image sequence as a background and a moving image sequence of a component moving image as a foreground (for example, a human image or a video of a fish cut out by the chroma key technique). An approach to doing so is described.
【0004】また文献「画像内容に基づく時間階層符号
化」(”Temporal Scalability
based on image content”,
ISO/IEC/ JTC1/SC29/WG11 M
PEG95/211(1995))では、フレームレー
トの低い動画像シーケンスにフレームレートの高い部品
動画像の動画像シーケンスを重畳して新たなシーケンス
を作成する手法が述べられている。[0004] In addition, the document "Time hierarchical coding based on image contents"("TemporalScalability")
based on image content ",
ISO / IEC / JTC1 / SC29 / WG11 M
PEG95 / 211 (1995)) describes a method of creating a new sequence by superimposing a moving image sequence of a component moving image having a high frame rate on a moving image sequence having a low frame rate.
【0005】この方式では図10に示すように下位レイ
ヤでは低いフレームレートで予測符号化が行われ、上位
レイヤでは選択領域(斜線部)についてのみ高いフレー
ムレートで予測符号化が行われる。ただし、下位レイヤ
で符号化したフレームは上位レイヤでは符号化せず、下
位レイヤの復号画像をそのままコピーして用いる。ま
た、選択領域としては例えば人物部分など視聴者の注目
が集まる部分が選ばれているものとする。In this method, as shown in FIG. 10, predictive coding is performed at a low frame rate in a lower layer, and predictive coding is performed at a high frame rate only in a selected region (shaded area) in an upper layer. However, the frame encoded in the lower layer is not encoded in the upper layer, and the decoded image of the lower layer is copied and used as it is. Also, it is assumed that a part that attracts the viewer's attention, such as a person part, is selected as the selected area.
【0006】図8に従来手法のブロック図を示す。まず
従来手法の符号化側では、入力動画像は第1の駒落し部
801及び第2の駒落し部802によってフレーム間引
きされ、入力画像のフレームレート以下とされた後それ
ぞれ上位レイヤ符号化部803及び下位レイヤ符号化部
804に入力される。ここで上位レイヤのフレームレー
トは下位レイヤのフレームレート以上であるとする。FIG. 8 shows a block diagram of a conventional method. First, on the encoding side of the conventional method, the input moving image is frame-thinned by the first frame dropping unit 801 and the second frame dropping unit 802, and the frame rate is set to be equal to or less than the frame rate of the input image. And to the lower layer coding section 804. Here, it is assumed that the frame rate of the upper layer is equal to or higher than the frame rate of the lower layer.
【0007】下位レイヤ符号化部804では入力された
動画像全体が符号化される。符号化方式としては例えば
MPEGやH.261などの動画像符号化国際標準化方
式が用いられる。下位レイヤ符号化部804ではまた、
下位レイヤの復号画像が作成され、予測符号化に利用さ
れると同時に重畳部805に入力される。[0007] The lower layer coding section 804 codes the entire input moving image. Examples of the encoding method include MPEG and H.264. H.261 or the like is used. In lower layer coding section 804,
A decoded image of the lower layer is created, used for predictive coding, and input to the superimposing unit 805 at the same time.
【0008】図8の上位レイヤ符号化部803では入力
された動画像の選択領域のみが符号化される。ここでも
MPEGやH.261などの動画像符号化国際標準化方
式が用いられるが、領域形状情報に基づいて選択領域の
みを符号化する。ただし下位レイヤで符号化されたフレ
ームは上位レイヤでは符号化されない。領域形状情報は
人物部などの選択領域の形状を示す情報であり、例えば
選択領域の位置で値1、それ以外の位置で値0をとる2
値画像である。上位レイヤ符号化部803ではまた、動
画像の選択領域のみが復号され、重畳部805に入力さ
れる。[0008] In the upper layer coding section 803 of FIG. 8, only the selected area of the input moving image is coded. Again, MPEG and H.264. Although a moving picture coding international standardization method such as H.261 is used, only a selected region is coded based on region shape information. However, frames encoded in the lower layer are not encoded in the upper layer. The area shape information is information indicating the shape of a selected area such as a person part. For example, a value 1 is set at a position of the selected area, and a value 0 is set at other positions.
It is a value image. In the upper layer coding section 803, only the selected area of the moving image is decoded and input to the superimposing section 805.
【0009】領域形状符号化部806では領域形状が8
方向量子化符号を利用して符号化される。8方向量子化
符号は図11のように、次の点への方向を数値で示した
もので、デジタル図形を表現する際に一般的に使用され
るものである。The region shape encoding unit 806 sets the region shape to 8
It is encoded using a direction quantization code. As shown in FIG. 11, the 8-way quantization code indicates the direction to the next point by a numerical value, and is generally used when representing a digital figure.
【0010】重畳部805は下位レイヤフレームが符号
化されているフレーム位置では下位レイヤの復号画像を
出力する。下位レイヤフレームが符号化されていないフ
レーム位置では、対象フレームの前後2枚の符号化され
た下位レイヤの復号画像と対象フレームと同時刻の1枚
の上位レイヤ復号画像を用いて画像を作成し出力する。
ここで作成された画像は上位レイヤ符号化部803に入
力され、予測符号化に利用される。重畳部805におけ
る画像作成方法は以下の通りである。[0010] The superimposing section 805 outputs a decoded image of the lower layer at the frame position where the lower layer frame is encoded. At a frame position where the lower layer frame is not encoded, an image is created using two encoded lower layer decoded images before and after the target frame and one upper layer decoded image at the same time as the target frame. Output.
The image created here is input to the upper layer encoding unit 803 and used for predictive encoding. The image creation method in the superimposing unit 805 is as follows.
【0011】まず、2枚の下位レイヤの補間画像が作成
される。時間tにおける下位レイヤの復号画像をB
(x,y,t)(ただし、x,yは空間内の画素位置を
表す座標である)とし、2枚の下位レイヤの時間をそれ
ぞれt1,t2、上位レイヤの時間をt3(ただし、t
1<t3<t2である)とすると時間t3における補間
画像I(x,y,t3)は I(x,y,t3)=[(t2-t3)B(x,y,t1)+(t3-t1)B(x,y,t2)]/(t2-t1) (1) によって計算される。First, two lower layer interpolated images are created. The decoded image of the lower layer at time t is B
(X, y, t) (where x and y are coordinates representing pixel positions in space), the times of the two lower layers are t1 and t2, respectively, and the times of the upper layers are t3 (where t is t).
1 <t3 <t2), the interpolated image I (x, y, t3) at time t3 is I (x, y, t3) = [(t2-t3) B (x, y, t1) + (t3 -t1) B (x, y, t2)] / (t2-t1) (1)
【0012】次に上で求めた補間画像Iに上位レイヤの
復号画像Eを重畳する。このために、領域形状情報M
(x,y,t)から重畳のための重み情報W(x,y,
t)を作成し、次式によって重畳画像Sを得る。Next, the decoded image E of the upper layer is superimposed on the interpolated image I obtained above. For this purpose, the area shape information M
From (x, y, t), weight information W (x, y,
t) is created, and a superimposed image S is obtained by the following equation.
【0013】 S(x,y,t)=[1-W(x, y, t)]I(x, y, t)+E(x, y, t)W(x, y, t) (2) 領域形状情報M(x,y,t)は選択領域内で1、選択
領域外で0の値をとる2値画像であり、この画像に低域
通過フィルタを複数回施す事によって重み情報W(x,
y,t)を得る事ができる。S (x, y, t) = [1-W (x, y, t)] I (x, y, t) + E (x, y, t) W (x, y, t) (2 The region shape information M (x, y, t) is a binary image having a value of 1 inside the selected region and a value of 0 outside the selected region. The weight information W is obtained by applying a low-pass filter to the image a plurality of times. (X,
y, t) can be obtained.
【0014】すなわち重み情報W(x,y,t)は選択
領域内で1、選択領域外で0、選択領域の境界部で0〜
1の値をとる。以上が重畳部805における画像作成方
法の説明である。That is, the weight information W (x, y, t) is 1 in the selected area, 0 outside the selected area, and 0 to 0 at the boundary of the selected area.
Takes a value of 1. The above is the description of the image creating method in the superimposing unit 805.
【0015】下位レイヤ符号化部804、上位レイヤ符
号化部803、領域形状符号化部806で符号化された
符号化データは、図示しない符号化データ統合部で統合
され、伝送あるいは蓄積される。The coded data coded by the lower layer coding section 804, the upper layer coding section 803, and the area shape coding section 806 are integrated by a coded data integration section (not shown) and transmitted or stored.
【0016】次に従来手法の復号側では、符号化データ
が図示しない符号化データ分解部にて下位レイヤの符号
化データ、上位レイヤの符号化データ、領域形状の符号
化データに分解される。これらの符号化データは図8に
示すように下位レイヤ復号部808、上位レイヤ復号部
807及び領域形状復号部809によって復号される。
復号側の重畳部810は符号化側の重畳部805と同
一の装置からなり、下位レイヤ復号画像と上位レイヤ復
号画像を用い、符号化側の説明で述べたものと同一の方
法によって画像が重畳される。ここで重畳された動画像
はディスプレイに表示されると共に上位レイヤ復号部8
07に入力され、上位レイヤの予測に利用される。Next, on the decoding side of the conventional method, the encoded data is decomposed into encoded data of a lower layer, encoded data of an upper layer, and encoded data of an area shape by an encoded data decomposing unit (not shown). These encoded data are decoded by the lower layer decoding unit 808, the upper layer decoding unit 807, and the area shape decoding unit 809 as shown in FIG.
The decoding side superimposing section 810 is composed of the same device as the encoding side superimposing section 805, and uses the lower layer decoded image and the upper layer decoded image to superimpose the image by the same method as described in the encoding side. Is done. The superimposed moving image is displayed on the display and the upper layer decoding unit 8
07 and used for prediction of an upper layer.
【0017】ここでは下位レイヤと上位レイヤの両方を
復号する復号装置について述べたが、下位レイヤの復号
部のみを備えた復号装置ならば、上位レイヤ復号部80
7、重畳部810が不要であり、少ないハードウエア規
模で符号化データの一部を再生する事ができる。Here, the decoding device for decoding both the lower layer and the upper layer has been described. However, if the decoding device includes only the decoding unit for the lower layer, the decoding device for the upper layer 80
7. The superimposition unit 810 is unnecessary, and a part of the encoded data can be reproduced with a small hardware scale.
【0018】[0018]
【発明が解決しようとする課題】従来の技術においては
(1)式のように2枚の下位レイヤ復号画像と1枚の上
位レイヤ復号画像から出力画像を得る際に2枚の下位レ
イヤの補間を行っているため、選択領域の位置が時間的
に変化する場合に選択領域周辺に大きな歪みが発生し、
画質を大きく劣化させるという問題がある。In the prior art, when an output image is obtained from two lower layer decoded images and one upper layer decoded image as shown in equation (1), interpolation of two lower layers is performed. When the position of the selected area changes with time, large distortion occurs around the selected area,
There is a problem that the image quality is greatly deteriorated.
【0019】図12はこの問題を説明するものである。
図12(a)で画像A、Cは下位レイヤの2枚の復号画
像、画像Bは上位レイヤの復号画像であり、表示時間順
はA、B、Cの順である。ただし、選択領域を斜線で示
している。また、上位レイヤでは選択領域のみが符号化
されるため選択領域外を破線で示している。選択領域が
動いているため、画像Aと画像Cから求めた補間画像は
図12(b)の網点部のように2つの選択領域が重複し
たものになる。FIG. 12 illustrates this problem.
In FIG. 12A, images A and C are two decoded images of the lower layer, image B is a decoded image of the upper layer, and the display time order is A, B, and C. However, the selected area is indicated by oblique lines. In the upper layer, only the selected area is encoded, so that the area outside the selected area is indicated by a broken line. Since the selected area is moving, the interpolated image obtained from the image A and the image C has two selected areas overlapping each other as shown by a halftone dot portion in FIG.
【0020】さらに画像Bを重み情報を用いて重畳する
と、出力画像は図12(c)に示すように3つの選択領
域が重複した画像となる。特に上位レイヤの選択領域周
辺(外側)に下位レイヤの選択領域が残像のようにあら
われ、画質が大きく劣化する。動画像全体としては下位
レイヤのみが表示されている時には上記の歪みがなく、
上位レイヤと下位レイヤの重畳画像が表示されている時
には上記の歪みが現われるため、フリッカ的歪みが発生
し非常に大きな画質劣化となる。Further, when the image B is superimposed using the weight information, the output image is an image in which three selected areas overlap as shown in FIG. In particular, the selected area of the lower layer appears as an afterimage around (outside) the selected area of the upper layer, and the image quality is greatly deteriorated. When only the lower layer is displayed as the whole moving image, there is no such distortion,
When the superimposed image of the upper layer and the lower layer is displayed, the above-mentioned distortion appears, so that flicker-like distortion occurs and the image quality is extremely deteriorated.
【0021】本発明の目的はこれらの問題を解決し、符
号化後のデータ量を削減する一方復号画像の品質を劣化
させないような符号化装置、及び復号装置を提供するこ
とにある。An object of the present invention is to solve these problems and to provide an encoding apparatus and a decoding apparatus that reduce the amount of data after encoding while not deteriorating the quality of a decoded image.
【0022】[0022]
【課題を解決するための手段】本発明は、上記目的を達
成するために、 (1)動画像シーケンスの画素データを第1のフレーム
レートで符号化した下位レイヤ符号化データと、前記動
画像シーケンスの特定領域の画素データを前記第1のフ
レームレートより高い第2のフレームレートで符号化す
るとともに、前記動画像シーケンスの特定領域の領域形
状を符号化した上位レイヤ符号化データとを入力とし、
下位レイヤ復号画像を出力するか、あるいは下位レイヤ
復号画像と上位レイヤ復号画像との重畳画像を出力する
動画像復号装置であって、前記下位レイヤ符号化データ
を前記第1のフレームレートで復号する下位レイヤ復号
部と、前記上位レイヤ符号化データを、画素データの符
号化データと領域形状の符号化データとに分流する分流
部と、前記分流部で分流された画素データの符号化デー
タを前記第2のフレームレートで復号する画素データ復
号部と、前記分流部で分流された領域形状の符号化デー
タを復号する領域形状復号部とを備え、前記領域形状の
符号化データは、上位レイヤフレームと時間的に同じフ
レーム位置に対応する下位レイヤフレームが存在しない
場合、そのフレーム位置の時間的に前後に存在する第1
及び第2の下位レイヤフレームにおける特定領域を示す
第1領域形状及び第2領域形状の符号化データを含んで
おり、前記第1領域形状及び前記第2領域形状と、前記
第1及び第2の下位レイヤフレームを用い、前記第1の
領域形状のみの領域に対しては前記第2の下位レイヤフ
レームの画素値を使用し、前記第2の領域形状のみの領
域に対しては前記第1の下位レイヤフレームの画素値を
使用して、前記存在しない下位レイヤフレームの合成を
行うことを特徴とする。 (2)動画像シーケンスの画素データを第1のフレーム
レートで符号化した下位レイヤ符号化データと、前記動
画像シーケンスの特定領域の画素データを前記第1のフ
レームレートより高い第2のフレームレートで符号化す
るとともに、該特定領域の画素データを符号化するフレ
ーム位置においてのみ、前記動画像シーケンスの特定領
域の領域形状を符号化した上位レイヤ符号化データとを
入力とし、下位レイヤ復号画像を出力するか、あるいは
下位レイヤ復号画像と上位レイヤ復号画像との重畳画像
を出力する動画像復号装置であって、前記下位レイヤ符
号化データを前記第1のフレームレートで復号する下位
レイヤ復号部と、前記上位レイヤ符号化データを、画素
データの符号化データと領域形状の符号化データとに分
流する分流部と、前記分流部で分流された画素データの
符号化データを前記第2のフレームレートで復号する画
素データ復号部と、前記分流部で分流された領域形状の
符号化データを復号する領域形状復号部とを備え、上位
レイヤフレームと時間的に同じフレーム位置に対応する
下位レイヤフレームが存在しない場合、そのフレーム位
置の時間的に前後に存在する第1及び第2の下位レイヤ
フレームにおける特定領域を示す第1領域形状及び第2
領域形状を、前記下位レイヤ復号部で得られた下位レイ
ヤ復号画像を領域分割することによって抽出し、前記第
1領域形状及び第2領域形状と、前記第1及び第2の下
位レイヤフレームを用い、前記第1の領域形状のみの領
域に対しては前記第2の下位レイヤフレームの画素値を
使用し、前記第2の領域形状のみの領域に対しては前記
第1の下位レイヤフレームの画素値を使用して、前記存
在しない下位レイヤフレームの合成を行うことを特徴と
する。 (3)動画像シーケンスの画素データを第1のフレーム
レートで符号化した下位レイヤ符号化データと、前記動
画像シーケンスの特定領域の画素データを前記第1のフ
レームレートより高い第2のフレームレートで符号化す
るとともに、該特定領域の画素データを符号化するフレ
ーム位置においてのみ、前記動画像シーケンスの特定領
域の領域形状を符号化した上位レイヤ符号化データとを
入力とし、下位レイヤ復号画像を出力するか、あるいは
下位レイヤ復号画像と上位レイヤ復号画像との重畳画像
を出力する動画像復号装置であって、前記下位レイヤ符
号化データを前記第1のフレームレートで復号する下位
レイヤ復号部と、前記上位レイヤ符号化データを、画素
データの符号化データと領域形状の符号化データとに分
流する分流部と、前記分流部で分流された画素データの
符号化データを前記第2のフレームレートで復号する画
素データ復号部と、前記分流部で分流された領域形状の
符号化データを復号する領域形状復号部とを備え、上位
レイヤフレームと時間的に同じフレーム位置に対応する
下位レイヤフレームが存在しない場合、そのフレーム位
置の時間的に前後に存在する第1及び第2の下位レイヤ
フレームにおける特定領域を示す第1領域形状及び第2
領域形状を、前記領域形状復号部で得られた領域形状か
らアフィン変換を用いて推定することによって抽出し、
前記第1領域形状及び第2領域形状と、前記第1及び第
2の下位レイヤフレームを用い、前記第1の領域形状の
みの領域に対しては前記第2の下位レイヤフレームの画
素値を使用し、前記第2の領域形状のみの領域に対して
は前記第1の下位レイヤフレームの画素値を使用して、
前記存在しない下位レイヤフレームの合成を行うことを
特徴とする。 (4)動画像シーケンスの画素データを第1のフレーム
レートで符号化した下位レイヤ符号化データと、前記動
画像シーケンスの特定領域の画素データを前記第1のフ
レームレートより高い第2のフレームレートで符号化す
るとともに、該特定領域の画素データを符号化するフレ
ーム位置においてのみ、前記動画像シーケンスの特定領
域の領域形状を符号化した上位レイヤ符号化データとを
入力とし、下位レイヤ復号画像を出力するか、あるいは
下位レイヤ復号画像と上位レイヤ復号画像との重畳画像
を出力する動画像復号装置であって、前記下位レイヤ符
号化データを前記第1のフレームレートで復号する下位
レイヤ復号部と、前記上位レイヤ符号化データを、画素
データの符号化データと領域形状の符号化データとに分
流する分流部と、前記分流部で分流された画素データの
符号化データを前記第2のフレームレートで復号する画
素データ復号部と、前記分流部で分流された領域形状の
符号化データを復号する領域形状復号部とを備え、上位
レイヤフレームと時間的に同じフレーム位置に対応する
下位レイヤフレームが存在しない場合、そのフレーム位
置の時間的に前後に存在する第1及び第2の下位レイヤ
フレームにおける特定領域を示す第1領域形状及び第2
領域形状を、前記領域形状復号部で得られた領域形状か
らブロックマッチングによる予測を用いて推定すること
によって抽出し、前記第1領域形状及び第2領域形状
と、前記第1及び第2の下位レイヤフレームを用い、前
記第1の領域形状のみの領域に対しては前記第2の下位
レイヤフレームの画素値を使用し、前記第2の領域形状
のみの領域に対しては前記第1の下位レイヤフレームの
画素値を使用して、前記存在しない下位レイヤフレーム
の合成を行うことを特徴とする。 (5)前記(1)乃至(4)の動画像復号装置におい
て、下位レイヤフレームの合成を行うか否かを示すフラ
グの符号化データを復号するフラグ復号部を備え、前記
フラグ復号部で復号されたフラグに基づいて、前記第1
領域形状及び前記第2領域形状と、前記第1及び第2の
下位レイヤフレームを用いて、前記存在しない下位レイ
ヤフレームの合成を行うか否かを判断し、該下位レイヤ
フレームの合成を行うことを特徴とする。 (6)前記(1)の動画像復号装置において、前記上位
レイヤ復号部は、さらに、上位レイヤフレームの時間的
に前に存在する第1の下位レイヤフレームにおける第1
領域形状を示す領域情報が符号化されているか否かを示
す第1のフラグの符号化データを復号する第1のフラグ
復号部と、上位レイヤフレームの時間的に後に存在する
第2の下位レイヤフレームにおける第2領域形状を示す
領域情報が符号化されているか否かを示す第2のフラグ
の符号化データを復号する第2のフラグ復号部とを備
え、前記第1及び第2のフラグ復号部で復号された第1
のフラグ及び第2のフラグに基づいて、第1の領域形状
と第2の領域形状が符号化されているか否かを判断し、
第1及び第2の領域形状がともに符号化されていない場
合には、前回の下位レイヤ合成時に使用した領域形状を
それぞれ今回の下位レイヤ合成時に用いる領域形状と
し、第2の領域形状だけが符号化されている場合には、
前回の下位レイヤ合成時に使用した第2の領域形状を今
回の下位レイヤ合成時に用いる第1の領域形状とし、前
記第1領域形状及び前記第2領域形状と、前記第1及び
第2の下位レイヤフレームを用いて、前記存在しない下
位レイヤフレームの合成を行うことを特徴とする。 (7)動画像シーケンスの画素データを第1のフレーム
レートで符号化する下位レイヤ符号化部と、前記動画像
シーケンスの特定領域の画素データを前記第1のフレー
ムレートより高い第2のフレームレートで符号化すると
ともに、前記動画像シーケンスの特定領域の領域形状を
符号化する上位レイヤ符号化部とを備えた動画像符号化
装置であって、前記上位レイヤ符号化部は、前記動画像
シーケンスの特定領域の画素データを前記第1のフレー
ムレートより高い第2のフレームレートで符号化する画
素データ符号化部と、前記動画像シーケンスの特定領域
の領域形状を符号化する領域形状符号化部と、前記画素
データ符号化部で符号化された画素データの符号化デー
タと、前記領域形状符号化部で符号化された領域形状の
符号化データとを多重化する多重化部とを有し、前記領
域形状符号化部は、上位レイヤフレームと時間的に同じ
フレーム位置に対応する下位レイヤフレームが存在しな
い場合、そのフレーム位置の時間的に前後に存在する第
1及び第2の下位レイヤフレームにおける特定領域を示
す第1領域形状及び第2領域形状を符号化することを特
徴とする。 (8)前記(7)の動画像符号化装置において、動画像
復号装置で下位レイヤフレームの合成を行うか否かを示
すフラグを符号化するフラグ符号化部を備えたことを特
徴とする。 (9)前記(7)の動画像符号化装置において、前記上
位レイヤ符号化部は、さらに、上位レイヤフレームの時
間的に前に存在する第1の下位レイヤフレームにおける
第1領域形状を示す領域情報を符号化したか否かを示す
第1のフラグを符号化する第1のフラグ符号化部と、上
位レイヤフレームの時間的に後に存在する第2の下位レ
イヤフレームにおける第2領域形状を示す領域情報を符
号化したか否かを示す第2のフラグを符号化する第2の
フラグ符号化部とを有することを特徴とする。In order to achieve the above object, the present invention provides: (1) lower layer encoded data obtained by encoding pixel data of a moving image sequence at a first frame rate; Pixel data of a specific region of the sequence is encoded at a second frame rate higher than the first frame rate, and upper layer encoded data obtained by encoding the region shape of the specific region of the video sequence is input. ,
A moving image decoding device that outputs a lower layer decoded image or outputs a superimposed image of a lower layer decoded image and an upper layer decoded image, and decodes the lower layer encoded data at the first frame rate. A lower layer decoding unit, a shunt unit that shunts the upper layer coded data into coded data of pixel data and coded data of an area shape, and coded data of the pixel data shunted by the shunt unit. A pixel data decoding unit for decoding at a second frame rate; and a region shape decoding unit for decoding encoded data of the region shape divided by the division unit, wherein the encoded data of the region shape is an upper layer frame. If there is no lower layer frame corresponding to the same frame position as the first frame, the first
And encoded data of a first area shape and a second area shape indicating a specific area in the second lower layer frame, and the first area shape and the second area shape, and the first and second area shapes. Using the lower layer frame , the first
The second lower layer layer is used for an area having only the area shape.
Using the pixel value of the frame, the area of only the second area shape is used.
For the area, the pixel value of the first lower layer frame is
And combining the non-existent lower layer frames. (2) Lower layer encoded data obtained by encoding pixel data of a moving image sequence at a first frame rate, and a second frame rate higher than the first frame rate of pixel data of a specific area of the moving image sequence In addition, only at the frame position where the pixel data of the specific area is to be encoded, the upper layer encoded data obtained by encoding the area shape of the specific area of the moving image sequence is input, and the lower layer decoded image is encoded. A moving image decoding apparatus for outputting or outputting a superimposed image of the lower layer decoded image and the upper layer decoded image, wherein the lower layer decoding unit decodes the lower layer encoded data at the first frame rate. A diverter for diverting the upper layer encoded data into encoded data of pixel data and encoded data of an area shape; A pixel data decoding unit that decodes the encoded data of the pixel data divided by the division unit at the second frame rate, and an area shape decoding unit that decodes the encoded data of the region shape divided by the division unit When there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the first and second lower layer frames indicating the specific area in the first and second lower layer frames existing before and after the frame position in time 1 area shape and 2nd area
The area shape, the lower layer decoded image obtained we are in the lower layer decoding unit extracts by area division, and the first area shape and the second area shape, said first and second lower layer frame Using only the first region shape.
For the area, the pixel value of the second lower layer frame is
Used, and for the region having only the second region shape,
The non-existent lower layer frame is synthesized using the pixel value of the first lower layer frame . (3) Pixel data of a moving image sequence is converted to a first frame
Lower layer encoded data encoded at a rate,
Pixel data of a specific area of the image sequence is stored in the first file.
Encoding at a second frame rate higher than the frame rate
And a frame for encoding the pixel data of the specific area.
Only at the camera position,
Upper layer encoded data obtained by encoding the area shape of the area
Output the lower layer decoded image as input, or
Superimposed image of lower layer decoded image and upper layer decoded image
A video decoding device that outputs the lower layer code
For decoding encoded data at the first frame rate
A layer decoding unit, and
The data is divided into encoded data and encoded data of the area shape.
A shunt portion that flows, and pixel data that is shunted by the shunt portion.
An image for decoding encoded data at the second frame rate
A raw data decoding unit, and a region shape divided by the division unit.
And a region shape decoding unit for decoding the encoded data, and when there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the first and second frames existing before and after the frame position are provided. The first area shape and the second area shape indicating the specific area in the second lower layer frame
If the region shape is the region shape obtained by the region shape decoding unit,
Extracted by estimating using affine transformation from
The first and second region shapes, and the first and second region shapes;
2 lower layer frames and the first region shape
Only the area of the second lower layer frame.
Using the prime value, for the region having only the second region shape
Uses the pixel values of the first lower layer frame,
The non-existent lower layer frame is synthesized . (4) The pixel data of the moving image sequence is stored in the first frame
Lower layer encoded data encoded at a rate,
Pixel data of a specific area of the image sequence is stored in the first file.
Encoding at a second frame rate higher than the frame rate
And a frame for encoding the pixel data of the specific area.
Only at the camera position,
Upper layer encoded data obtained by encoding the area shape of the area
Output the lower layer decoded image as input, or
Superimposed image of lower layer decoded image and upper layer decoded image
A video decoding device that outputs the lower layer code
For decoding encoded data at the first frame rate
A layer decoding unit, and
The data is divided into encoded data and encoded data of the area shape.
A shunting part for flowing, and pixel data shunted by the shunting part
An image for decoding encoded data at the second frame rate
A raw data decoding unit, and a region shape divided by the division unit.
And a region shape decoding unit for decoding the encoded data, and when there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the first and second frames existing before and after the frame position are provided. The first area shape and the second area shape indicating the specific area in the second lower layer frame
The region shape is extracted by estimating from the region shape obtained by the region shape decoding unit using prediction by block matching , and the first region shape and the second region shape are extracted.
And using the first and second lower layer frames,
The second lower order is applied to an area having only the first area shape.
Using the pixel values of the layer frame, the second region shape
Only the region of the first lower layer frame
Using the pixel values, the non-existent lower layer frame
Is synthesized . (5) The moving picture decoding device according to any one of (1) to (4), further including a flag decoding unit that decodes encoded data of a flag indicating whether to synthesize the lower layer frame, and decoding by the flag decoding unit. Based on the flag set, the first
Using the region shape and the second region shape and the first and second lower layer frames to determine whether to synthesize the nonexistent lower layer frame, and performing the lower layer frame synthesis It is characterized by. (6) In the video decoding device according to (1), the upper layer decoding unit further includes a first lower layer frame in a first lower layer frame temporally preceding the upper layer frame.
A first flag decoding unit that decodes encoded data of a first flag indicating whether or not area information indicating an area shape has been encoded; and a second lower layer that exists temporally after the upper layer frame A second flag decoding unit that decodes encoded data of a second flag indicating whether or not area information indicating a second area shape in the frame has been encoded, wherein the first and second flag decoding are performed. First decrypted by
It is determined whether the first region shape and the second region shape are coded based on the flag and the second flag,
If both the first and second region shapes are not encoded, the region shapes used in the previous lower layer combination are used as the region shapes used in the current lower layer combination, respectively, and only the second region shape is encoded. If it is
The second area shape used in the previous lower layer synthesis is used as the first area shape used in the current lower layer synthesis, and the first area shape and the second area shape, and the first and second lower layers are used. The non-existent lower layer frame is synthesized using a frame. (7) a lower layer encoding unit that encodes the pixel data of the moving image sequence at a first frame rate, and a second frame rate that is higher than the first frame rate for the pixel data of a specific area of the moving image sequence And a higher layer coding unit for coding a region shape of a specific region of the moving image sequence, wherein the higher layer coding unit includes the moving image sequence. A pixel data encoding unit that encodes pixel data of a specific area at a second frame rate higher than the first frame rate; and an area shape encoding unit that encodes an area shape of a specific area of the moving image sequence And the encoded data of the pixel data encoded by the pixel data encoding unit and the encoded data of the area shape encoded by the area shape encoding unit. A multiplexing unit that overlaps, and when there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the area shape coding unit exists before and after the frame position in time. The first region shape and the second region shape indicating a specific region in the first and second lower layer frames to be encoded are encoded. (8) The video encoding device according to (7), further comprising a flag encoding unit that encodes a flag indicating whether or not the lower-layer frame is to be synthesized by the video decoding device. (9) In the video encoding device according to (7), the upper layer encoding unit further includes a region indicating a first region shape in a first lower layer frame temporally preceding the upper layer frame. A first flag encoding unit that encodes a first flag indicating whether or not information has been encoded, and a second region shape in a second lower layer frame that is temporally subsequent to the upper layer frame. A second flag encoding unit that encodes a second flag indicating whether or not the area information has been encoded.
【0023】[0023]
【発明の実施の形態】図1、図14及び図15は第1の
実施の形態を示すブロック図である。図14で上位レイ
ヤ符号化部1403、重畳部1405、上位レイヤ復号
部1406、重畳部1408以外の各部は図8と同様の
働きをする。FIG. 1, FIG. 14 and FIG. 15 are block diagrams showing a first embodiment. In FIG. 14, the units other than the upper layer encoding unit 1403, the superimposing unit 1405, the upper layer decoding unit 1406, and the superimposing unit 1408 perform the same operations as in FIG.
【0024】図1のスイッチ101、画素データ符号化
部102、領域形状符号化部103、画素データ復号部
104、領域情報復号部105及び多重化部106は、
図14の上位レイヤ符号化部1403を構成する。ま
た、図1の第1の遅延部107、第2の遅延部108、
第1の領域抽出部109、第2の領域抽出部110、コ
ントローラ111、スイッチ112、補間画像作成部1
13、加重平均部114、第3の遅延部115及び第4
の遅延部116は、図14の重畳部1405あるいは重
畳部1408を構成する。なお、重畳部1408は重畳
部1405と同一の働きをする。The switch 101, the pixel data encoder 102, the area shape encoder 103, the pixel data decoder 104, the area information decoder 105, and the multiplexer 106 shown in FIG.
The higher layer coding section 1403 in FIG. 14 is configured. Also, the first delay unit 107, the second delay unit 108 in FIG.
First region extraction unit 109, second region extraction unit 110, controller 111, switch 112, interpolation image creation unit 1
13, the weighted average unit 114, the third delay unit 115, and the fourth
The delay unit 116 constitutes the superimposing unit 1405 or 1408 in FIG. Note that the overlapping unit 1408 has the same function as the overlapping unit 1405.
【0025】以下、図1に従って第1の実施の形態を詳
細に説明する。Hereinafter, the first embodiment will be described in detail with reference to FIG.
【0026】スイッチ101は図示しないコントローラ
によって上位レイヤの画素値を符号化するモードと符号
化しないモードを切替える。すなわち、上位レイヤと同
じフレーム位置に対応する下位レイヤフレームが符号化
されている場合にはスイッチをオフに制御し、上位レイ
ヤの画素値を符号化しない。一方、上位レイヤと同じフ
レーム位置に対応する下位レイヤフレームが符号化され
ていない場合にはスイッチをオンに制御し、上位レイヤ
の画素値を符号化する。The switch 101 switches between a mode in which the pixel value of the upper layer is encoded and a mode in which the pixel value is not encoded by a controller (not shown). That is, when the lower layer frame corresponding to the same frame position as the upper layer is encoded, the switch is controlled to be turned off, and the pixel value of the upper layer is not encoded. On the other hand, if the lower layer frame corresponding to the same frame position as the upper layer has not been encoded, the switch is turned on to encode the pixel value of the upper layer.
【0027】画素データ符号化部102はスイッチ10
1がオンの場合に、上位レイヤの画素データを符号化す
る。符号化方式としては、MPEGやH.261などの
国際標準化方式が用いられる。ただし、符号化の際には
領域形状が領域形状復号部105から図示しない信号線
を介して入力され、領域内の画素データのみが符号化さ
れる。The pixel data encoding unit 102 includes a switch 10
When 1 is on, the pixel data of the upper layer is encoded. As an encoding method, MPEG or H.264 is used. International standardization methods such as H.261 are used. However, at the time of encoding, the region shape is input from the region shape decoding unit 105 via a signal line (not shown), and only the pixel data in the region is encoded.
【0028】領域形状符号化部103は、[従来の技
術]で述べた図8の領域形状符号化部806と同様の働
きによって領域形状を符号化する。The region shape encoding unit 103 encodes the region shape by the same operation as the region shape encoding unit 806 in FIG. 8 described in [Prior Art].
【0029】画素データ復号部104は、画素データ符
号化部102で符号化された画素データを復号する。こ
こでも領域形状が領域形状復号部105から図示しない
信号線を介して入力され、復号に利用される。また、復
号された画素データは第3の遅延部115に入力される
と共に、図示しない信号線を介して画素データ符号化部
にフィードバックされ、予測に利用される。The pixel data decoding unit 104 decodes the pixel data encoded by the pixel data encoding unit 102. Here also, the region shape is input from the region shape decoding unit 105 via a signal line (not shown) and used for decoding. The decoded pixel data is input to the third delay unit 115, and is fed back to the pixel data encoding unit via a signal line (not shown) to be used for prediction.
【0030】領域形状復号部105は、領域形状符号化
部103にて符号化された領域形状データを復号し、復
号データを第1の遅延部107に出力する。Area shape decoding section 105 decodes the area shape data encoded by area shape encoding section 103 and outputs the decoded data to first delay section 107.
【0031】以上のように、本実施の形態の上位レイヤ
符号化部ではスイッチ101によって上位レイヤを符号
化する場合としない場合が制御される。次に本実施の形
態の重畳部を説明する。As described above, in the upper layer encoding section of the present embodiment, the case where the upper layer is encoded by the switch 101 is controlled. Next, the superposition unit of the present embodiment will be described.
【0032】第1の遅延部107は領域形状データをa
フレームだけ遅延させる。遅延された領域形状データは
加重平均部114に入力される。第2の遅延部108は
領域形状データをさらにbフレームだけ遅延させる。遅
延された領域形状データは第1の領域抽出部109と第
2の領域抽出部110に入力される。これらの回路では
遅延をうけていない領域形状データも同時に入力されて
いる。ここで、信号線上の記号t+a,t,t−bは各
フレームの時刻を表している。また、t,a,bは整数
である。The first delay unit 107 converts the area shape data into a
Delay by frame. The delayed area shape data is input to the weighted averaging unit 114. The second delay unit 108 further delays the region shape data by b frames. The delayed region shape data is input to the first region extraction unit 109 and the second region extraction unit 110. In these circuits, the area shape data that has not been delayed is also input at the same time. Here, the symbols t + a, t, and tb on the signal lines represent the time of each frame. Further, t, a, and b are integers.
【0033】第1の領域抽出部109は、第1の領域情
報及び第2の領域情報から第2の領域でありかつ第1の
領域でない領域を抽出する。図9(a)の場合、網点部
が抽出される。The first area extracting unit 109 extracts an area that is the second area and is not the first area from the first area information and the second area information. In the case of FIG. 9A, a halftone dot portion is extracted.
【0034】第1の領域抽出部110は、第1の領域情
報及び第2の領域情報から第1の領域でありかつ第2の
領域でない領域を抽出する。図9(a)の場合、斜線部
が抽出される。The first area extracting section 110 extracts an area that is the first area and is not the second area from the first area information and the second area information. In the case of FIG. 9A, a hatched portion is extracted.
【0035】コントローラ111は、第1の領域抽出部
109及び第2の領域抽出部110の出力によりスイッ
チ112を制御する部分である。すなわち、注目画素位
置が第1の領域のみの場合にはスイッチ112をフレー
ム時刻(t+a)の復号画像側に接続し、注目画素位置
が第2の領域のみの場合にはスイッチ112をフレーム
時刻(t−b)の復号側に接続し、それ以外の場合には
スイッチ112を補間画像作成部113からの出力に接
続する。The controller 111 controls the switch 112 based on the outputs of the first area extraction unit 109 and the second area extraction unit 110. That is, when the target pixel position is only in the first area, the switch 112 is connected to the decoded image side at the frame time (t + a), and when the target pixel position is only in the second area, the switch 112 is connected to the frame time ( The switch 112 is connected to the decoding side of t-b). In other cases, the switch 112 is connected to the output from the interpolation image creation unit 113.
【0036】第3の遅延部115は上位レイヤの復号画
像データをaフレームだけ遅延させ、時刻tの復号画像
データを加重平均部114に入力する。第4の遅延部1
16は下位レイヤの復号画像データを(a+b)フレー
ムだけ遅延させ、時刻(t−b)の復号画像を補間画像
作成部113に入力する。The third delay unit 115 delays the decoded image data of the upper layer by a frame, and inputs the decoded image data at time t to the weighted average unit 114. Fourth delay unit 1
Reference numeral 16 delays the decoded image data of the lower layer by (a + b) frames and inputs the decoded image at time (t−b) to the interpolation image creation unit 113.
【0037】補間画像作成部113は、下位レイヤのフ
レーム時刻(t−b)の復号画像と下位レイヤの時刻
(t+a)の復号画像との補間画像を[従来の技術]で
述べた式(1)に従って計算する。ただし式(1)でB
(x,y,t1)は第1の復号画像、B(x,y,t
2)は第2の復号画像、I(x,y,t3)は補間画像
であり、t1,t2,t3はそれぞれ第1の復号画像、
第2の復号画像及び補間画像の時間である。従って図1
の記号を用いれば、t1=t−b,t2=t+a,t3
=tとなる。The interpolated image creating unit 113 calculates an interpolated image of the decoded image at the lower layer frame time (t−b) and the decoded image at the lower layer time (t + a) by the equation (1) described in [Prior Art]. ). However, in equation (1), B
(X, y, t1) is the first decoded image, B (x, y, t)
2) is a second decoded image, I (x, y, t3) is an interpolated image, t1, t2, and t3 are first decoded images, respectively.
This is the time of the second decoded image and the interpolated image. Therefore, FIG.
T1 = t−b, t2 = t + a, t3
= T.
【0038】以上のようにスイッチ112の切替を用い
て下位レイヤ合成を行なうので、例えば図9(a)の場
合、斜線部では第2の復号画像(フレーム時刻t+a)
が使用されるため選択領域外部の背景画素があらわれ、
網点部では第1の復号画像(フレーム時刻t−b)が使
用されるため選択領域外部の背景画素があらわれ、それ
以外の部分では第1の復号画像と第2の復号画像の補間
画像があらわれる。このようにして合成された下位レイ
ヤの上に図1の加重平均部114によって上位レイヤの
復号画像を重ねるため、重畳された画像は図9(b)の
ように選択領域(斜線部分)周辺に残像がなく、歪みの
少ない画像が得られる。図1の加重平均部114は、上
記の補間画像と上位レイヤの復号画像を加重平均によっ
て重畳する。重畳方法については[従来の技術]で述べ
たのでここでは説明を省略する。As described above, the lower layer is synthesized by using the switching of the switch 112. For example, in the case of FIG. 9A, the second decoded image (frame time t + a) is indicated by the hatched portion.
Is used, a background pixel outside the selected area appears,
Since the first decoded image (frame time tb) is used in the halftone dot portion, a background pixel outside the selected region appears, and in the other portions, an interpolated image of the first decoded image and the second decoded image is displayed. Appears. Since the decoded image of the upper layer is superimposed on the lower layer synthesized in this way by the weighted averaging unit 114 of FIG. 1, the superimposed image is located around the selected area (shaded area) as shown in FIG. 9B. An image with no afterimage and little distortion can be obtained. The weighted averaging unit 114 in FIG. 1 superimposes the above-mentioned interpolation image and the decoded image of the upper layer by weighted averaging. The method of superimposition has been described in [Prior Art], and a description thereof will be omitted.
【0039】図15は、図14の復号装置中の上位レイ
ヤ復号部1406を構成するブロック図である。分流部
1501は上位レイヤ符号化データを画素データの符号
化データと領域形状の符号化データに分流する部分であ
る。スイッチ1504は下位レイヤが符号化されている
フレーム位置でオフとなり、上位レイヤだけが符号化さ
れているフレーム位置でオンとなる。画素データ復号部
1502は上位レイヤの画素データを復号し、復号画素
を重畳部1408に出力し、領域形状復号部1503は
領域形状符号化データを復号し、復号画素を重畳部14
08に出力する部分である。重畳部1408は重畳部1
405と同様の働きにより、本発明の手法によって下位
レイヤに上位レイヤを重畳する。FIG. 15 is a block diagram showing the configuration of upper layer decoding section 1406 in the decoding apparatus shown in FIG. The splitter 1501 splits the upper layer encoded data into encoded data of pixel data and encoded data of a region shape. The switch 1504 turns off at the frame position where the lower layer is coded, and turns on at the frame position where only the upper layer is coded. The pixel data decoding unit 1502 decodes the pixel data of the upper layer and outputs the decoded pixel to the superimposition unit 1408. The region shape decoding unit 1503 decodes the region shape encoded data, and
08. Superimposition section 1408 is superimposition section 1
By the same operation as 405, the upper layer is superimposed on the lower layer by the method of the present invention.
【0040】次に本発明の第2の実施の形態について述
べる。この実施の形態は上位レイヤ符号化装置で領域形
状を符号化しないモードを設け、符号化ビット数を削減
するものである。領域形状が時間的にほとんどあるいは
全く変化しない場合に、本実施の形態の手法を用いれば
ビット数を大幅に削減できる。Next, a second embodiment of the present invention will be described. In this embodiment, a mode in which a region shape is not coded by an upper layer coding device is provided to reduce the number of coded bits. In the case where the region shape hardly changes at all over time, the number of bits can be greatly reduced by using the method of the present embodiment.
【0041】本実施の形態は図2、図14及び図16に
よってあらわされる。図14は第1の実施の形態の説明
に用いた図であるが、第2の実施の形態の説明にも用い
る。ただし、図14の上位レイヤ符号化部1403、上
位レイヤ復号部1406、重畳部1405及び重畳部1
408の働きは第1の実施の形態とは異なる。これら働
きの異なる部分について以下に説明する。This embodiment is shown in FIGS. 2, 14 and 16. FIG. 14 is a diagram used for describing the first embodiment, but is also used for describing the second embodiment. However, upper layer coding section 1403, upper layer decoding section 1406, superimposing section 1405 and superimposing section 1 in FIG.
The operation of 408 is different from that of the first embodiment. These different functions will be described below.
【0042】図2は、第2の実施の形態における上位レ
イヤ符号化部と重畳部のブロック図である。スイッチ2
01、画素データ符号化部203、領域形状符号化部2
04、画素データ復号部205、領域形状復号部206
及び多重化部207については図1にてすでに述べたも
のと同様の働きをするので説明を省略する。FIG. 2 is a block diagram of an upper layer encoding unit and a superimposing unit according to the second embodiment. Switch 2
01, pixel data encoding unit 203, region shape encoding unit 2
04, pixel data decoding unit 205, region shape decoding unit 206
The multiplexing section 207 has the same function as that already described with reference to FIG.
【0043】スイッチ202とスイッチ208は図示し
ない制御部にて同時にオン又はオフするよう制御され
る。上位レイヤと同じフレーム位置に対応する下位レイ
ヤフレームが符号化されている場合にはスイッチをオン
に制御し、上位レイヤの領域形状を符号化する。一方、
上位レイヤと同じフレーム位置に対応する下位レイヤフ
レームが符号化されていない場合にはスイッチをオフに
制御し、上位レイヤの領域形状を符号化しない。The switches 202 and 208 are controlled by a control unit (not shown) so that they are simultaneously turned on or off. When the lower layer frame corresponding to the same frame position as the upper layer is encoded, the switch is turned on to encode the region shape of the upper layer. on the other hand,
If the lower layer frame corresponding to the same frame position as the upper layer has not been encoded, the switch is controlled to be turned off, and the region shape of the upper layer is not encoded.
【0044】第1の領域形状抽出部209では、復号装
置で得られるデータをもとに第1の領域形状を抽出す
る。同様に、第2の領域形状抽出部210では、復号装
置で得られるデータをもとに第2の領域形状を抽出す
る。復号装置で得られるデータとしては、下位レイヤの
復号画像、領域形状符号化モードがオン(スイッチ20
2、スイッチ208がオン)の時の上位レイヤの領域形
状などがある。図2では明示していないが、これらのデ
ータが各々の領域形状抽出部に入力され、領域形状の抽
出に利用される。The first region shape extraction unit 209 extracts the first region shape based on the data obtained by the decoding device. Similarly, the second region shape extraction unit 210 extracts a second region shape based on data obtained by the decoding device. As the data obtained by the decoding device, the decoded image of the lower layer and the region shape encoding mode are on (switch 20).
2, when the switch 208 is on). Although not explicitly shown in FIG. 2, these data are input to each region shape extraction unit and used for extracting the region shape.
【0045】第1の領域抽出部211、第2の領域抽出
部212、コントローラ213、スイッチ214、補間
画像作成部215及び加重平均部216は図1にてすで
に述べたものと同様の働きをするので説明を省略する。
また、遅延部217は図1の第4の遅延部116と同様
の働きをする。The first area extracting section 211, the second area extracting section 212, the controller 213, the switch 214, the interpolation image creating section 215, and the weighted averaging section 216 perform the same operations as those already described with reference to FIG. Therefore, the description is omitted.
Further, the delay unit 217 has the same function as the fourth delay unit 116 in FIG.
【0046】図16は第2の実施の形態における上位レ
イヤ復号部のブロック図である。この図において、16
01は分流部、1602は画素データ復号部、1603
は領域形状復号部、1604はスイッチ、1605はス
イッチである。FIG. 16 is a block diagram of an upper layer decoding unit according to the second embodiment. In this figure, 16
01 is a branching unit, 1602 is a pixel data decoding unit, 1603
Denotes an area shape decoding unit, 1604 denotes a switch, and 1605 denotes a switch.
【0047】この図と図15との違いは、図16ではス
イッチ1605を設けている点である。スイッチ160
5は、上位レイヤ復号時に同じフレーム位置に対応する
下位レイヤフレームの符号化データが存在しない時オフ
となる。また、上位レイヤで画素データがを符号化する
フレーム位置でオンとなる。FIG. 15 differs from FIG. 15 in that a switch 1605 is provided in FIG. Switch 160
5 is off when there is no encoded data of the lower layer frame corresponding to the same frame position at the time of upper layer decoding. Also, it is turned on at a frame position where pixel data is encoded in the upper layer.
【0048】以上のように第2の実施の形態では、上位
レイヤ符号化部にて上位レイヤと同じフレーム位置に対
応する下位レイヤフレームが符号化されていない場合に
はスイッチ202及びスイッチ208をオフに制御し、
上位レイヤの領域形状を符号化しないため、符号量を削
減することが可能となる。As described above, in the second embodiment, when the lower layer frame corresponding to the same frame position as the upper layer is not encoded by the upper layer encoding unit, the switches 202 and 208 are turned off. Control,
Since the region shape of the upper layer is not coded, the amount of code can be reduced.
【0049】上述の第1の実施の形態及び第2の実施の
形態ではスイッチ101あるいはスイッチ201によっ
て画素データの符号化のオン/オフを切替えている。こ
の切替えは図1や図2に示していない制御部にて上位レ
イヤと同じフレーム位置に対応する下位レイヤフレーム
が符号化されているかどうかを判断して行なわれる。こ
の判断は符号化装置と復号装置で同様に行なうことがで
きる。しかしながら、少なくとも復号装置ではこのよう
な判断を行なう制御部を用いずに上記スイッチの切替え
を行なうことも可能である。そのためには図3に示すよ
うな第1のフラグ発生部301と第1のフラグ符号化部
302を符号化装置に設け、フラグによって上位レイヤ
符号化部303中のスイッチを切替えれば良い。ただ
し、図3は符号化装置と復号装置の一部を示したブロッ
ク図である。In the first and second embodiments described above, the switch 101 or the switch 201 switches on / off the encoding of pixel data. This switching is performed by determining whether or not a lower layer frame corresponding to the same frame position as the upper layer is encoded by a control unit not shown in FIGS. This determination can be made in the same way by the encoding device and the decoding device. However, at least in the decoding device, it is also possible to perform the switching without using the control unit that makes such a determination. For this purpose, a first flag generator 301 and a first flag encoder 302 as shown in FIG. 3 may be provided in the encoder, and switches in the upper layer encoder 303 may be switched according to the flags. However, FIG. 3 is a block diagram showing a part of the encoding device and the decoding device.
【0050】フラグ発生部301は上位レイヤと同じフ
レーム位置に対応する下位レイヤフレームが符号化され
ているかどうかを判断してフラグを発生する。第1のフ
ラグ符号化部302は第1のフラグを符号化し、符号化
データは図示しない多重化部にて符号化データに多重化
して伝送あるいは蓄積される。フラグの符号化方法とし
ては固定長符号化や、可変長符号化などが用いられる。The flag generator 301 determines whether a lower layer frame corresponding to the same frame position as the upper layer has been encoded, and generates a flag. The first flag encoding unit 302 encodes the first flag, and the encoded data is multiplexed with the encoded data by a multiplexing unit (not shown) and transmitted or stored. As a flag encoding method, fixed-length encoding, variable-length encoding, or the like is used.
【0051】復号装置における第1のフラグ復号部30
4は符号化データから第1のフラグを復号し上位レイヤ
復号部305に出力する。上位レイヤ復号部に含まれる
スイッチ1504あるいはスイッチ1604の切替えに
際しては、上述した切替え判断を行なうことなく、復号
された第1のフラグにしたがって切替が行なわれる。First flag decoding section 30 in decoding apparatus
4 decodes the first flag from the encoded data and outputs the result to the upper layer decoding unit 305. Upon switching of the switch 1504 or switch 1604 included in the upper layer decoding unit, the without performing the above-mentioned switching decision, the switching is performed in accordance with the first flag decoded.
【0052】次に、第2の実施の形態における領域形状
抽出部について説明する。ここでは復号装置で得られる
データをもとに第2の領域形状を抽出するが、復号装置
で得られるデータとして、下位レイヤの復号データや上
位レイヤの復号領域形状などを用いればよい。Next, a description will be given of an area shape extraction unit according to the second embodiment. Here, the second region shape is extracted based on the data obtained by the decoding device, but the decoded data of the lower layer, the decoded region shape of the upper layer, or the like may be used as the data obtained by the decoding device.
【0053】図4は、下位レイヤの復号データを用いて
領域形状を抽出する場合の重畳部のブロック図である。
第1の領域形状抽出部402には遅延部401にて遅延
された下位レイヤの第1の復号画像が入力され、第2の
領域形状抽出部403には下位レイヤの復号画像が遅延
なしに入力される。各領域形状抽出部は選択領域を抜き
出すように入力された復号画像を領域分割し、領域形状
を抽出する。領域分割の手法としては、微分演算を用い
たエッジ検出手法やモルフォロジカルセグメンテーショ
ンなどが用いられる。図4の他の部分は図2と同様の働
きをするので、ここでは説明を省略する。FIG. 4 is a block diagram of a superimposing unit for extracting a region shape using decoded data of a lower layer.
A first decoded image of the lower layer delayed by the delay unit 401 is input to the first region shape extraction unit 402, and a decoded image of the lower layer is input to the second region shape extraction unit 403 without delay. Is done. Each region shape extraction unit divides a decoded image input so as to extract a selected region into regions, and extracts a region shape. As a method of region division, an edge detection method using a differential operation, morphological segmentation, or the like is used. The other parts in FIG. 4 operate in the same manner as in FIG.
【0054】図5は、復号装置で得られるデータとして
上位レイヤの復号領域形状を用いる場合のブロック図で
ある。この図において、501は遅延部、502は第1
の領域形状抽出部、503は第2の領域形状抽出部、5
04は第1の領域抽出部、505は第2の領域抽出部、
506はコントローラ、507はスイッチ、508は補
間画像作成部、509は加重平均部である。FIG. 5 is a block diagram in the case where the decoding area shape of the upper layer is used as data obtained by the decoding apparatus. In this figure, 501 is a delay unit, 502 is a first unit.
503 is a second region shape extraction unit, and 503 is a second region shape extraction unit.
04 is a first region extraction unit, 505 is a second region extraction unit,
Reference numeral 506 denotes a controller, 507 denotes a switch, 508 denotes an interpolation image creation unit, and 509 denotes a weighted average unit.
【0055】図5で、上位レイヤの領域形状が符号化さ
れた場合に、その復号データが第1の領域形状抽出部5
02と第2の領域形状抽出部503に入力される。各領
域形状抽出部では復号された領域形状を記憶しておき、
下位レイヤフレームに対応する領域形状を抽出する。例
えば図13に示すように、下位レイヤフレームの前後の
上位レイヤの復号領域形状1及び2から並行移動、回
転、拡大縮小などを表現するアフィン変換によって下位
レイヤフレーム位置での領域形状を抽出する方法が考え
られる。In FIG. 5, when the region shape of the upper layer is coded, the decoded data is supplied to the first region shape extraction unit 5.
02 and the second region shape extraction unit 503. Each region shape extraction unit stores the decoded region shape,
The region shape corresponding to the lower layer frame is extracted. For example, as shown in FIG. 13, a method of extracting the region shape at the position of the lower layer frame from the decoded region shapes 1 and 2 of the upper layer before and after the lower layer frame by affine transformation expressing parallel movement, rotation, scaling, and the like. Can be considered.
【0056】そのために、まず領域形状1から領域形状
2へのアフィン変換を求める。すなわち、領域形状1を
変換することによって領域形状2を近似するようなアフ
ィン変換パラメータを求める。次に領域形状1から下位
レイヤフレーム上へのアフィン変換を、変換係数を線形
内挿することによって求める。このアフィン変換を用い
て下位レイヤフレーム上での領域形状を求めることがで
きる。アフィン変換のかわりに、領域形状1から領域形
状2への予測をブロックマッチングにて行ない、その結
果を線形内挿することで下位レイヤフレーム上での領域
形状を求めてもよい。あるいは領域形状1又は2をその
まま下位レイヤフレーム上での領域形状として用いるこ
とも可能である。For this purpose, first, an affine transformation from the region shape 1 to the region shape 2 is obtained. That is, an affine transformation parameter that approximates the region shape 2 by converting the region shape 1 is obtained. Next, an affine transformation from the region shape 1 to the lower layer frame is obtained by linearly interpolating the transformation coefficients. The region shape on the lower layer frame can be obtained using the affine transformation. Instead of affine transformation, prediction from region shape 1 to region shape 2 may be performed by block matching, and the result may be linearly interpolated to obtain the region shape on the lower layer frame. Alternatively, the region shape 1 or 2 can be used as it is as the region shape on the lower layer frame.
【0057】第2の実施の形態では下位レイヤが符号化
されないフレームで図2のスイッチ202をオフ、上位
レイヤの画素データを符号化するフレーム位置でスイッ
チ202をオンとしたが、これとは異なるコントロール
を行なってもよい。例えば領域形状の時間的変化を調
べ、ほとんど変化しない場合にはスイッチ202をオ
フ、それ以外ではオンとし、オフの場合の復号領域形状
データとしては直前に符号化・復号された領域形状デー
タのコピーを使用するという方法を用いてもよい。In the second embodiment, the switch 202 in FIG. 2 is turned off in a frame in which the lower layer is not coded, and the switch 202 is turned on in a frame position where pixel data in the upper layer is coded. You may take control. For example, the temporal change of the region shape is examined. If the change is hardly changed, the switch 202 is turned off. Otherwise, the switch 202 is turned on. May be used.
【0058】次に第3の実施の形態について説明する。
本実施の形態は、上位レイヤ復号時に上位レイヤのフレ
ーム位置に対応する下位レイヤの符号化データが存在し
ない場合に、第1及び第2の実施の形態で述べた下位レ
イヤフレームの合成を行なわないモードを設けることを
目的としている。例えば、領域形状が時間的にあまり変
化していない場合は[発明が解決しようとする課題]で
述べた問題点が無視できるため、下位レイヤフレームの
合成を行なう必要がない。領域形状が大きく変化する場
合でも、符号化装置及び復号装置にて処理量を増加させ
ないために下位レイヤフレームの合成を行なわないモー
ドを選択可能とする。このような目的のために、図6に
示すように符号化装置に第2のフラグ発生部601と第
2のフラグ符号化部602を設け、復号装置に第2のフ
ラグ復号部604を設ける。ただし、図6は符号化装置
と復号装置の一部を示したブロック図である。Next, a third embodiment will be described.
In the present embodiment, when there is no encoded data of the lower layer corresponding to the frame position of the upper layer at the time of decoding the upper layer, the lower layer frame described in the first and second embodiments is not combined. The purpose is to provide a mode. For example, when the region shape does not change much over time, the problem described in [Problems to be Solved by the Invention] can be ignored, and there is no need to combine lower layer frames. Even when the region shape changes greatly, a mode in which lower layer frames are not combined can be selected so as not to increase the processing amount in the encoding device and the decoding device. For such a purpose, as shown in FIG. 6, a second flag generator 601 and a second flag encoder 602 are provided in the encoding device, and a second flag decoder 604 is provided in the decoding device. FIG. 6 is a block diagram showing a part of the encoding device and the decoding device.
【0059】図6の第2のフラグ発生部601は下位レ
イヤフレームの合成を行なうかどうかを示すフラグを発
生する。重畳部603では第2のフラグに従って下位レ
イヤフレームの合成を行なう場合と行なわない場合を切
替える。第2のフラグ符号化部602は第2のフラグを
符号化し、符号化データは図示しない多重化部にて符号
化データに多重化して伝送あるいは蓄積される。フラグ
の符号化方法としては固定長符号化や、可変長符号化な
どが用いられる。The second flag generator 601 shown in FIG. 6 generates a flag indicating whether to combine lower layer frames. The superimposing unit 603 switches between combining and not combining lower layer frames according to the second flag. The second flag encoding unit 602 encodes the second flag, and the encoded data is multiplexed with the encoded data by a multiplexing unit (not shown) and transmitted or stored. As a flag encoding method, fixed-length encoding, variable-length encoding, or the like is used.
【0060】復号装置における第2のフラグ復号部60
4は符号化データから第2のフラグを復号し重畳部60
5に出力する。重畳部605では復号された第2のフラ
グにしたがって下位レイヤを合成するか否かの切替が行
なわれる。Second flag decoding unit 60 in the decoding device
4 decodes the second flag from the encoded data,
5 is output. The superposition unit 605 switches whether to combine lower layers according to the decoded second flag.
【0061】第3の実施の形態において下位レイヤの合
成を行なわない場合には、下位レイヤにて符号化され、
復号された前後の下位レイヤフレームのうちいずれかを
合成された下位レイヤフレームのかわりに用いる。この
場合の回路構成を図7に示す。この図において、701
はスイッチ、702はスイッチ、703は画素データ符
号化部、704は領域形状符号化部、705は画素デー
タ復号部、706は領域形状復号部、707は多重化
部、708はスイッチ、709は下位レイヤ合成部、7
10はスイッチ、711は加重平均部である。In the third embodiment, when the lower layer is not synthesized, it is encoded in the lower layer,
One of the lower layer frames before and after the decoding is used instead of the synthesized lower layer frame. FIG. 7 shows a circuit configuration in this case. In this figure, 701
Denotes a switch, 702 denotes a switch, 703 denotes a pixel data encoding unit, 704 denotes an area shape encoding unit, 705 denotes a pixel data decoding unit, 706 denotes an area shape decoding unit, 707 denotes a multiplexing unit, 708 denotes a switch, and 709 denotes a lower order. Layer composition part, 7
Reference numeral 10 denotes a switch, and 711 denotes a weighted average unit.
【0062】次に、図7の回路の動作について説明す
る。まず、下位レイヤの復号画像と、下位レイヤ合成部
709で合成された下位レイヤフレームがスイッチ71
0にて切替えられ、加重平均部711に入力される。図
7の下位レイヤ合成部709では、第1、第2の実施の
形態で述べた方法に従って下位レイヤフレームが合成さ
れる。スイッチ710は図6で説明した第2のフラグに
従い、下位レイヤ合成がオンの時は下側に、オフの時は
上側に切替えられる。Next, the operation of the circuit shown in FIG. 7 will be described. First, the decoded image of the lower layer and the lower layer frame synthesized by the lower
It is switched at 0 and input to the weighted average section 711. The lower layer combining unit 709 in FIG. 7 combines lower layer frames according to the method described in the first and second embodiments. The switch 710 is switched to the lower side when the lower layer combining is on and to the upper side when the lower layer combining is off according to the second flag described in FIG.
【0063】第3の実施の形態において下位レイヤの合
成に用いる領域形状の符号化方法としては、以下に述べ
るようなものを用いても良い。すなわち、下位レイヤ合
成を行なう上位レイヤのフレーム位置で、その前後のフ
レーム位置の下位レイヤにおける領域形状を、現在のフ
レーム位置で符号化する。この方法を用いた上位レイヤ
符号化部を図17に、上位レイヤ復号部を図18に示
す。In the third embodiment, the following method may be used as the coding method of the area shape used for the synthesis of the lower layer. That is, at the frame position of the upper layer where lower layer synthesis is performed, the region shape in the lower layer before and after the frame position is encoded at the current frame position. FIG. 17 shows an upper layer encoding unit using this method, and FIG. 18 shows an upper layer decoding unit.
【0064】図17において、1701は画素データ符
号化部、1702は画素データ復号部、1703は第1
の遅延部、1704第2の遅延部、1705はスイッ
チ、1706はスイッチ、1707は領域形状符号化
部、1708は領域形状復号部、1709は第3のフラ
グ発生部、1710は第4のフラグ発生部、1711は
第3のフラグ符号化部、1712は第4のフラグ符号化
部、1713はコントローラ、1714は多重化部であ
る。In FIG. 17, reference numeral 1701 denotes a pixel data encoding unit; 1702, a pixel data decoding unit;
1704, a switch, 1706, a switch, 1707, an area shape encoder, 1708, an area shape decoder, 1709, a third flag generator, and 1710, a fourth flag generator , 1711 is a third flag encoding unit, 1712 is a fourth flag encoding unit, 1713 is a controller, and 1714 is a multiplexing unit.
【0065】図17で画素データ符号化部1701及び
画素データ復号部1702は、図1の説明で述べたもの
と同様の働きをするのでこれらについての説明を省略す
る。図17で領域形状は第1の遅延部1703でaフレ
ーム遅延され、さらに第2の遅延部1704でbフレー
ム遅延される。In FIG. 17, the pixel data encoding unit 1701 and the pixel data decoding unit 1702 operate in the same manner as those described in the description of FIG. In FIG. 17, the region shape is delayed by a frame in the first delay unit 1703 and further delayed by b frame in the second delay unit 1704.
【0066】第3のフラグ発生部1709、第4のフラ
グ発生部1710はそれぞれ第3のフラグ、第4のフラ
グを発生させる。第3のフラグはフレーム時刻t+aに
おける領域形状(以後、領域形状2とする)を符号化す
るか否かを表し、第4のフラグはフレーム時刻t−bに
おける領域形状(以後、領域形状1とする)を符号化す
るか否かを表す。コントローラ1713は、第3のフラ
グ及び第4のフラグの入力によってスイッチ1705及
びスイッチ1706を制御する。The third flag generator 1709 and the fourth flag generator 1710 generate a third flag and a fourth flag, respectively. The third flag indicates whether or not to encode the region shape at frame time t + a (hereinafter, region shape 2), and the fourth flag indicates the region shape at frame time tb (hereinafter region shape 1 and region shape 1). ) Is encoded or not. The controller 1713 controls the switches 1705 and 1706 by inputting the third flag and the fourth flag.
【0067】すなわち、第3のフラグが領域形状を符号
化することを表す場合にはスイッチ1705をオンと
し、そうでない場合にはスイッチ1705をオフとす
る。また、第4のフラグが領域形状を符号化することを
表す場合にはスイッチ1706をオンとし、そうでない
場合にはスイッチ1706をオフとする。第3のフラグ
符号化部及び第4のフラグ符号化部はそれぞれ第3のフ
ラグ及び第4のフラグの符号化を行なう。フラグの符号
化方法としては固定長符号化や、可変長符号化などが用
いられる。That is, if the third flag indicates that the region shape is to be coded, the switch 1705 is turned on; otherwise, the switch 1705 is turned off. If the fourth flag indicates that the region shape is to be coded, the switch 1706 is turned on; otherwise, the switch 1706 is turned off. The third flag encoding unit and the fourth flag encoding unit encode the third flag and the fourth flag, respectively. As a flag encoding method, fixed-length encoding, variable-length encoding, or the like is used.
【0068】領域形状符号化部1707は、領域形状が
入力されたフレーム時刻にその領域形状を符号化し、符
号化データを出力する。領域形状復号部1708は領域
形状の符号化データを復号し、復号された領域形状を重
畳部に送る。ここで重畳部としては図1に示したような
装置を用いるが、図1の第1の遅延部107及び第2の
遅延部108は使用しない。領域形状1の復号データは
重畳部の第1の領域抽出部109及び第2の領域抽出部
110に入力され、同様に領域形状2の復号データも第
1の領域抽出部109及び第2の領域抽出部110に入
力される。これに対し、フレーム時刻tに対応する領域
形状の復号データは加重平均部114に入力される。The region shape encoding unit 1707 encodes the region shape at the frame time when the region shape is input, and outputs encoded data. The region shape decoding unit 1708 decodes the encoded data of the region shape and sends the decoded region shape to the superimposing unit. Here, the device as shown in FIG. 1 is used as the superimposing unit, but the first delay unit 107 and the second delay unit 108 in FIG. 1 are not used. The decoded data of the region shape 1 is input to the first region extracting unit 109 and the second region extracting unit 110 of the superimposing unit. Similarly, the decoded data of the region shape 2 is also input to the first region extracting unit 109 and the second region extracting unit 110. It is input to the extraction unit 110. On the other hand, the decoded data of the area shape corresponding to the frame time t is input to the weighted averaging unit 114.
【0069】スイッチ1705とスイッチ1706のオ
ン・オフの組合せは次の3通りに制御される。すなわち
両スイッチが共にオン、両スイッチが共にオフ、スイッ
チ1705がオンかつスイッチ1706がオフの3通り
である。下位レイヤの合成を初めておこなう場合には両
スイッチが共にオンに制御され、前後のフレーム位置の
領域形状、つまり領域形状1及び領域形状2が符号化・
復号され、復号された領域形状が第1の領域抽出部10
9及び第2の領域抽出部110に入力される。領域形状
1と領域形状2として前回の下位レイヤ合成時と同じ領
域形状を用いる場合には両スイッチが共にオフに制御さ
れる。この場合は第1の領域抽出部109及び第2の領
域抽出部110に、図示しないメモリより前回の下位レ
イヤ合成時に使用した領域形状1と領域形状2が入力さ
れる。The ON / OFF combination of the switches 1705 and 1706 is controlled in the following three ways. In other words, there are three types: both switches are on, both switches are off, the switch 1705 is on, and the switch 1706 is off. If performed the first time the synthesis of the lower layer both switches are controlled both turned on, the region shape of the frame position of the front and rear, means that area shape 1 and area shape 2 is encoded,
The decoded area shape is decoded by the first area extracting unit 10.
9 and the second region extraction unit 110. When the same region shape is used as the region shape 1 and the region shape 2 at the time of the previous lower layer combination, both switches are controlled to be off. In this case, the region shape 1 and the region shape 2 used at the time of the previous lower layer combination are input from the memory (not shown) to the first region extraction unit 109 and the second region extraction unit 110.
【0070】また、前回の下位レイヤ合成時に使用した
領域形状2を、今回の下位レイヤ合成時に領域形状1と
して用い、今回合成時の領域形状2としては新たな領域
形状を用いる場合にはスイッチ1705をオンかつスイ
ッチ1706をオフと制御する。この場合は第1の領域
抽出部109及び第2の領域抽出部110に、図示しな
いメモリより前回の下位レイヤ合成時に使用した領域形
状2を今回合成時の領域形状1として入力する。また、
今回新たに符号化・復号された領域形状2を第1の領域
抽出部109及び第2の領域抽出部110に入力する。A switch 1705 is used when the area shape 2 used in the previous lower layer synthesis is used as the area shape 1 in the current lower layer synthesis and a new area shape is used as the area shape 2 in the current synthesis. Is turned on and the switch 1706 is turned off. In this case, the area shape 2 used at the time of the previous lower layer synthesis is input as the area shape 1 at the time of the current synthesis from a memory (not shown) to the first area extractor 109 and the second area extractor 110. Also,
The newly encoded / decoded region shape 2 is input to the first region extraction unit 109 and the second region extraction unit 110.
【0071】図17の画素データ復号部1702で復号
されたフレーム時刻t+aの画素データは、図1の重畳
部中の第3の遅延部115でaフレーム遅延された後、
加重平均部114に入力される。図17の多重化部17
08は画素データ、領域形状、第3のフラグ及び第4の
フラグの各々の符号化データを多重化し、上位レイヤの
符号化データとして出力する。The pixel data at the frame time t + a decoded by the pixel data decoding unit 1702 in FIG. 17 is delayed by a frame in the third delay unit 115 in the superimposing unit in FIG.
It is input to the weighted averaging unit 114. Multiplexer 17 in FIG.
08 multiplexes the encoded data of each of the pixel data, the area shape, the third flag, and the fourth flag, and outputs the multiplexed data as the encoded data of the upper layer.
【0072】次に、上述した上位レイヤ符号化データを
復号する上位レイヤ復号部を図18を用いて説明する。
この図において、1801は分流部、1802は画素デ
ータ復号部、1803は領域形状復号部、1804は第
3のフラグ復号部、1805は第4のフラグ復号部、1
806は第1の遅延部、1807は第2の遅延部、18
08はスイッチ、1809はスイッチ、1810はコン
トローラである。Next, an upper layer decoding unit for decoding the above-described upper layer encoded data will be described with reference to FIG.
In this drawing, reference numeral 1801 denotes a branching unit, 1802 denotes a pixel data decoding unit, 1803 denotes an area shape decoding unit, 1804 denotes a third flag decoding unit, 1805 denotes a fourth flag decoding unit,
806 is a first delay unit, 1807 is a second delay unit, 18
08 is a switch, 1809 is a switch, and 1810 is a controller.
【0073】図18で、分流部1801は上位レイヤ符
号化データを、画素データ、領域形状、第3のフラグ及
び第4のフラグの各々の符号化データに分離する部分で
ある。画素データ復号部1802、領域形状復号部18
03、第1の遅延部1806、第2の遅延部1807、
スイッチ1808及びスイッチ1809は、図17と同
様の働きをするので説明を省略する。In FIG. 18, a branching section 1801 is a section for separating upper layer encoded data into encoded data of pixel data, area shape, third flag and fourth flag. Pixel data decoding unit 1802, region shape decoding unit 18
03, a first delay unit 1806, a second delay unit 1807,
The switches 1808 and 1809 have the same functions as those in FIG.
【0074】図18の第3のフラグ復号部及び第4のフ
ラグ復号部は、第3のフラグ及び第4のフラグをそれぞ
れ復号し、コントローラ1810に供給する。コントロ
ーラ1810は図17のコントローラ1713と同様に
2つのスイッチを制御するが、これと同時に分流部18
01で領域形状の符号化データを取り出す制御も行な
う。すなわち第3のフラグが領域形状1が符号化された
ことを示している時は、上位レイヤ符号化データから領
域形状1のデータを分離し、そうでない場合は領域形状
1のデータは存在しないので上位レイヤ符号化データか
らこれを分離しないように制御する。The third flag decoding unit and the fourth flag decoding unit in FIG. 18 decode the third flag and the fourth flag, respectively, and supply them to the controller 1810. The controller 1810 controls the two switches similarly to the controller 1713 of FIG.
At 01, control for extracting encoded data of the area shape is also performed. That is, when the third flag indicates that the region shape 1 has been coded, the region shape 1 data is separated from the upper layer coded data, otherwise the region shape 1 data does not exist. Control is performed so that this is not separated from the upper layer encoded data.
【0075】第4のフラグについても分流部1801に
対して同様の制御がなされる。2つのスイッチのオン・
オフの組合せは図17の上位レイヤ符号化部と同様、3
種類存在する。それぞれの組合せにおける動作は図17
の説明で述べたものと同様である。The same control is performed on the flow dividing unit 1801 for the fourth flag. Turn on two switches
The combination of off is the same as in the upper layer coding section of FIG.
There are kinds. The operation in each combination is shown in FIG.
Is the same as that described in the description.
【0076】このように、第3の実施の形態において下
位レイヤの合成に用いる領域形状の符号化方法として、
下位レイヤ合成を行なう上位レイヤのフレーム位置で、
その前後のフレーム位置の下位レイヤにおける領域形状
を、現在のフレーム位置で符号化する方法を用いること
ができる。As described above, in the third embodiment, as a method of encoding a region shape used for combining lower layers,
In the upper layer frame position where the lower layer is synthesized,
It is possible to use a method of encoding the region shape in the lower layer before and after the frame position at the current frame position.
【0077】これまで本発明の説明において、下位レイ
ヤフレームに上位レイヤフレームが重畳された画像は、
符号化装置では図14に示す様に上位レイヤ符号化部に
フィードバックされ、上位レイヤの予測符号化に利用さ
れる。復号装置では上位レイヤの予測符号化に利用され
ると共にディスプレイなどに表示される。しかしなが
ら、重畳された画像は表示用のためにだけ使用しても良
い。In the description of the present invention, the image in which the upper layer frame is superimposed on the lower layer frame is:
In the coding apparatus, as shown in FIG. 14, the data is fed back to the upper layer coding unit and used for predictive coding of the upper layer. In the decoding device, it is used for predictive coding of an upper layer and is displayed on a display or the like. However, the superimposed image may be used only for display.
【0078】すなわち、符号化装置では本実施の形態の
重畳部を持たず、上位レイヤの復号画像が直接上位レイ
ヤ符号化部にフィードバックされて予測符号化に利用さ
れる。復号装置では上位レイヤの復号画像は直接上位レ
イヤ復号部にフィードバックされて予測に利用されると
共に重畳部に入力され、重畳部の出力はディスプレイな
どに表示される。That is, the encoding apparatus does not have the superimposing unit of the present embodiment, and the decoded image of the upper layer is directly fed back to the upper layer encoding unit and used for predictive encoding. In the decoding device, the decoded image of the upper layer is directly fed back to the upper layer decoding unit, used for prediction and input to the superimposing unit, and the output of the superimposing unit is displayed on a display or the like.
【0079】また、本発明の説明で領域形状の符号化は
全て8方向量子化符号による方法を用いて説明している
が、他の形状符号化手法を用いても良いことはもちろん
である。Further, in the description of the present invention, the encoding of the region shape is all described using a method using an 8-way quantization code, but it goes without saying that other shape encoding methods may be used.
【0080】[0080]
【発明の効果】本発明の動画像符号化装置及び動画像復
号装置によれば、 (1)符号化されていない下位レイヤフレームの合成を
行う際に、時間的に前に存在する下位レイヤの第1領域
形状と、時間的に後に存在する下位レイヤの第2領域形
状を上位レイヤにおいて符号化し、前記第1領域形状と
前記第2領域形状を用い、前記第1の領域形状のみの領
域に対しては前記第2の下位レイヤフレームの画素値を
使用し、前記第2の領域形状のみの領域に対しては前記
第1の下位レイヤフレームの画素値を使用して前記合成
を行なうことにより、領域形状が時間的に変化する場合
でも下位レイヤと上位レイヤの重畳画像に歪みがなく良
好な画像を得ることができる。 (2)符号化されていない下位レイヤフレームの合成を
行う際に、時間的に前に存在する下位レイヤの第1領域
形状と、時間的に後に存在する下位レイヤの第2領域形
状の符号化を行なわず、前記第1領域形状と前記第2領
域形状を、下位レイヤ復号部で得られた下位レイヤ復号
画像を領域分割することによって抽出することで、上位
レイヤで領域形状の符号化を行なわないモードが導入さ
れ、ビット数を削減することができる。 (3)符号化されていない下位レイヤフレームの合成を
行う際に、時間的に前に存在する下位レイヤの第1領域
形状と、時間的に後に存在する下位レイヤの第2領域形
状の符号化を行なわず、前記第1領域形状及び前記第2
領域形状を、領域形状復号部で得られた領域形状からア
フィン変換を用いて推定することによって抽出すること
で、ビット数を増やすことなく正確に領域形状を得るこ
とができる。 (4)符号化されていない下位レイヤフレームの合成を
行う際に、時間的に前に存在する下位レイヤの第1領域
形状と、時間的に後に存在する下位レイヤの第2領域形
状の符号化を行なわず、前記第1領域形状及び前記第2
領域形状を、領域形状復号部で得られた領域形状からブ
ロックマッチングによる予測を用いて推定することによ
って抽出することで、ビット数を増やすことなく簡単に
領域形状を得ることができる。 (5)前記(1)〜(4)において、前記存在しない下
位レイヤフレームの合成を行うか否かを示すフラグを符
号化することによって、存在しない下位レイヤフレーム
の時間的に前または後に存在する下位レイヤフレームを
合成された下位レイヤフレームとして用いることがで
き、合成に必要な処理量を減らすことが可能となる。 (6)前記(1)において、前記第1領域形状及び第2
領域形状をそれぞれ符号化するか否かを示す第1及び第
2のフラグを符号化することによって、第1及び第2の
領域形状がともに符号化されていない場合には、前回の
下位レイヤ合成時に使用した領域形状をそれぞれ今回の
下位レイヤ合成時に用いる領域形状とし、第2の領域形
状だけが符号化されている場合には、前回の下位レイヤ
合成時に使用した第2の領域形状を今回の下位レイヤ合
成時に用いる第1の領域形状とすることができる。 (7)下位レイヤにて領域情報を符号化しないので、下
位レイヤで多くのビットを発生することがない。従っ
て、下位レイヤを伝送あるいは蓄積する比較的ビットレ
ートの低い伝送路やメモリでも大きな歪みを生ずること
なく、良好な下位レイヤ画像を伝送あるいは蓄積するこ
とができる。According to the moving picture encoding apparatus and the moving picture decoding apparatus of the present invention, (1) when synthesizing a lower layer frame that has not been coded, A first region shape and a second region shape of a lower layer existing later in time are encoded in an upper layer, and the first region shape and the second region shape are used , and only the first region shape is determined.
For the area, the pixel value of the second lower layer frame is
Used, and for the region having only the second region shape,
By performing the synthesis using the pixel values of the first lower layer frame, a good image can be obtained without distortion in the superimposed image of the lower layer and the upper layer even when the region shape changes over time. . (2) When synthesizing an uncoded lower layer frame, encoding the first region shape of the lower layer existing temporally earlier and the second region shape of the lower layer existing temporally later Without performing the first region shape and the second region shape, using the lower layer decoding obtained by the lower layer decoding unit.
By extracting an image by region division, a mode in which region shape is not encoded in an upper layer is introduced, and the number of bits can be reduced. (3) Combining uncoded lower layer frames
When performing, the first area of the lower layer existing temporally before
The shape and the second area shape of the lower layer existing later in time
Without Jo coding, the first area shape and the second
The region shape is derived from the region shape obtained by the region shape decoding unit.
By extracting by estimating using the fin transform , the region shape can be accurately obtained without increasing the number of bits. (4) Combining uncoded lower layer frames
When performing, the first area of the lower layer existing temporally before
The shape and the second area shape of the lower layer existing later in time
Without Jo coding, the first area shape and the second
The region shape is extracted from the region shape obtained by the region shape decoding unit.
By extracting by estimating using prediction by lock matching , the region shape can be easily obtained without increasing the number of bits. (5) In the above (1) to (4), by encoding a flag indicating whether or not to synthesize the non-existing lower layer frame, the non-existing lower layer frame temporally precedes or follows. The lower layer frame can be used as the synthesized lower layer frame, and the amount of processing required for the synthesis can be reduced. (6) In the above (1), the first region shape and the second region shape
By encoding the first and second flags indicating whether or not to encode each of the region shapes, if both the first and second region shapes are not encoded, the previous lower layer synthesis is performed. The region shape used at the time of the current lower layer combination is used as the region shape used at the time of the current lower layer composition. If only the second region shape is encoded, the second region shape used at the time of the previous lower layer composition is The first area shape used at the time of lower layer composition can be used. (7) Since the region information is not encoded in the lower layer, many bits are not generated in the lower layer. Therefore, a good lower layer image can be transmitted or stored without causing large distortion even in a transmission line or memory having a relatively low bit rate for transmitting or storing the lower layer.
【図1】本発明の第1の実施の形態を示すブロック図で
ある。FIG. 1 is a block diagram showing a first embodiment of the present invention.
【図2】本発明の第2の実施の形態を示すブロック図で
ある。FIG. 2 is a block diagram showing a second embodiment of the present invention.
【図3】本発明の第1のフラグを説明する図である。FIG. 3 is a diagram illustrating a first flag according to the present invention.
【図4】本発明で下位レイヤの復号データを用いて領域
形状を抽出する場合のブロック図である。FIG. 4 is a block diagram in a case where a region shape is extracted using decoded data of a lower layer in the present invention.
【図5】本発明で上位レイヤの領域形状を用いて領域形
状を抽出する場合のブロック図である。FIG. 5 is a block diagram in a case where a region shape is extracted using a region shape of an upper layer according to the present invention.
【図6】本発明の第3の実施の形態を説明する図であ
る。FIG. 6 is a diagram illustrating a third embodiment of the present invention.
【図7】本発明の第3の実施の形態の他の例を説明する
図である。FIG. 7 is a diagram illustrating another example of the third embodiment of the present invention.
【図8】従来の符号化方式及び復号方式を説明するブロ
ック図である。FIG. 8 is a block diagram illustrating a conventional encoding method and decoding method.
【図9】本発明の効果の一例を説明する図である。FIG. 9 is a diagram illustrating an example of an effect of the present invention.
【図10】従来法の概念を示す図である。FIG. 10 is a diagram showing the concept of a conventional method.
【図11】8方向量子化符号を説明する図である。FIG. 11 is a diagram illustrating an 8-way quantization code.
【図12】従来法の問題点を説明する図である。FIG. 12 is a diagram illustrating a problem of the conventional method.
【図13】本発明で上位レイヤの領域形状を用いて領域
形状を抽出する例を説明する図である。FIG. 13 is a diagram illustrating an example of extracting a region shape using a region shape of an upper layer according to the present invention.
【図14】本発明の第1の実施の形態及び第2の実施の
形態を説明するブロック図である。FIG. 14 is a block diagram illustrating a first embodiment and a second embodiment of the present invention.
【図15】本発明の第1の実施の形態を説明するブロッ
ク図である。FIG. 15 is a block diagram illustrating a first embodiment of the present invention.
【図16】本発明の第2の実施の形態を説明するブロッ
ク図である。FIG. 16 is a block diagram illustrating a second embodiment of the present invention.
【図17】本発明の上位レイヤ符号化部の例を示すブロ
ック図である。FIG. 17 is a block diagram illustrating an example of an upper layer encoding unit according to the present invention.
【図18】本発明の上位レイヤ復号部の例を示すブロッ
ク図である。FIG. 18 is a block diagram illustrating an example of an upper layer decoding unit according to the present invention.
101 スイッチ 102 画素データ符号化部 103 領域形状符号化部 104 画素データ復号部 105 領域形状復号部 106 多重化部 107 第1の遅延部 108 第2の遅延部 109 第1の領域抽出部 110 第2の領域抽出部 111 コントローラ 112 スイッチ 113 補間画像作成部 114 加重平均部 115 第3の遅延部 116 第4の遅延部 Reference Signs List 101 switch 102 pixel data encoding unit 103 area shape encoding unit 104 pixel data decoding unit 105 area shape decoding unit 106 multiplexing unit 107 first delay unit 108 second delay unit 109 first region extraction unit 110 second Region extraction unit 111 controller 112 switch 113 interpolation image creation unit 114 weighted average unit 115 third delay unit 116 fourth delay unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 草尾 寛 大阪府大阪市阿倍野区長池町22番22号 シャープ株式会社内 (72)発明者 渡部 秀一 大阪府大阪市阿倍野区長池町22番22号 シャープ株式会社内 (56)参考文献 特開 平8−130733(JP,A) 特開 平7−38899(JP,A) 特開 昭60−206287(JP,A) 特開 昭60−128791(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 INSPEC(DIALOG) JICSTファイル(JOIS) 実用ファイル(PATOLIS) 特許ファイル(PATOLIS)──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hiroshi Kusao 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (72) Inventor Shuichi Watanabe 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Sharp Corporation (56) References JP-A-8-130733 (JP, A) JP-A-7-38899 (JP, A) JP-A-60-206287 (JP, A) JP-A-60-122871 (JP, A) (58) Investigated field (Int.Cl. 7 , DB name) H04N 7/ 24-7/68 INSPEC (DIALOG) JICST file (JOIS) Practical file (PATOLIS) Patent file (PATOLIS)
Claims (9)
フレームレートで符号化した下位レイヤ符号化データ
と、前記動画像シーケンスの特定領域の画素データを前
記第1のフレームレートより高い第2のフレームレート
で符号化するとともに、前記動画像シーケンスの特定領
域の領域形状を符号化した上位レイヤ符号化データとを
入力とし、 下位レイヤ復号画像を出力するか、あるいは下位レイヤ
復号画像と上位レイヤ復号画像との重畳画像を出力する
動画像復号装置であって、 前記下位レイヤ符号化データを前記第1のフレームレー
トで復号する下位レイヤ復号部と、 前記上位レイヤ符号化データを、画素データの符号化デ
ータと領域形状の符号化データとに分流する分流部と、 前記分流部で分流された画素データの符号化データを前
記第2のフレームレートで復号する画素データ復号部
と、 前記分流部で分流された領域形状の符号化データを復号
する領域形状復号部とを備え、 前記領域形状の符号化データは、上位レイヤフレームと
時間的に同じフレーム位置に対応する下位レイヤフレー
ムが存在しない場合、そのフレーム位置の時間的に前後
に存在する第1及び第2の下位レイヤフレームにおける
特定領域を示す第1領域形状及び第2領域形状の符号化
データを含んでおり、 前記第1領域形状及び前記第2領域形状と、前記第1及
び第2の下位レイヤフレームを用い、前記第1の領域形
状のみの領域に対しては前記第2の下位レイヤフレーム
の画素値を使用し、前記第2の領域形状のみの領域に対
しては前記第1の下位レイヤフレームの画素値を使用し
て、前記存在しない下位レイヤフレームの合成を行うこ
とを特徴とする動画像復号装置。1. A lower layer encoded data obtained by encoding pixel data of a moving image sequence at a first frame rate, and a second layer image data of a specific area of the moving image sequence being higher than the first frame rate. An upper layer encoded data obtained by encoding at a frame rate and an area shape of a specific area of the moving image sequence is input, and a lower layer decoded image is output, or the lower layer decoded image and the upper layer decoded A moving image decoding apparatus that outputs a superimposed image on an image, comprising: a lower layer decoding unit that decodes the lower layer encoded data at the first frame rate; A shunting unit that shunts the coded data and the coded data of the area shape, and coded data of the pixel data shunted by the shunting unit. A pixel data decoding unit for decoding at a second frame rate; and a region shape decoding unit for decoding encoded data of the region shape divided by the division unit, wherein the encoded data of the region shape is an upper layer frame. If there is no lower layer frame corresponding to the same frame position in time, the first region shape and the second region shape indicating the specific region in the first and second lower layer frames existing temporally before and after the frame position It contains coded data of area shape, using said first area shape and the second area shape, said first and second lower layer frame, said first area type
The second lower layer frame
Using the pixel value of
A moving image decoding apparatus for synthesizing the nonexistent lower layer frame by using a pixel value of the first lower layer frame .
フレームレートで符号化した下位レイヤ符号化データ
と、前記動画像シーケンスの特定領域の画素データを前
記第1のフレームレートより高い第2のフレームレート
で符号化するとともに、該特定領域の画素データを符号
化するフレーム位置においてのみ、前記動画像シーケン
スの特定領域の領域形状を符号化した上位レイヤ符号化
データとを入力とし、 下位レイヤ復号画像を出力するか、あるいは下位レイヤ
復号画像と上位レイヤ復号画像との重畳画像を出力する
動画像復号装置であって、 前記下位レイヤ符号化データを前記第1のフレームレー
トで復号する下位レイヤ復号部と、 前記上位レイヤ符号化データを、画素データの符号化デ
ータと領域形状の符号化データとに分流する分流部と、 前記分流部で分流された画素データの符号化データを前
記第2のフレームレートで復号する画素データ復号部
と、 前記分流部で分流された領域形状の符号化データを復号
する領域形状復号部とを備え、 上位レイヤフレームと時間的に同じフレーム位置に対応
する下位レイヤフレームが存在しない場合、そのフレー
ム位置の時間的に前後に存在する第1及び第2の下位レ
イヤフレームにおける特定領域を示す第1領域形状及び
第2領域形状を、前記下位レイヤ復号部で得られた下位
レイヤ復号画像を領域分割することによって抽出し、 前記第1領域形状及び第2領域形状と、前記第1及び第
2の下位レイヤフレームを用い、前記第1の領域形状の
みの領域に対しては前記第2の下位レイヤフレームの画
素値を使用し、前記第2の領域形状のみの領域に対して
は前記第1の下位レイヤフレームの画素値を使用して、
前記存在しない下位レイヤフレームの合成を行うことを
特徴とする動画像復号装置。2. A lower layer encoded data obtained by encoding pixel data of a moving image sequence at a first frame rate, and a second layer image data of a specific area of the moving image sequence being higher than the first frame rate. At the frame rate at which the pixel data of the specific area is coded at the frame rate, the upper layer coded data obtained by coding the area shape of the specific area of the moving image sequence is input, and the lower layer decoding is performed. What is claimed is: 1. A moving image decoding apparatus that outputs an image or outputs a superimposed image of a lower layer decoded image and an upper layer decoded image, the lower layer decoding decoding the lower layer encoded data at the first frame rate. A portion for dividing the upper layer encoded data into encoded data of pixel data and encoded data of an area shape. A stream unit; a pixel data decoding unit that decodes the encoded data of the pixel data split by the split unit at the second frame rate; and an area that decodes the encoded data of the area shape split by the split unit. When there is no lower layer frame corresponding to the same frame position as the upper layer frame temporally, the first and second lower layer frames located before and after the frame position are provided. the first area shape and the second area shape showing the area, the lower layer decoded image obtained we are in the lower layer decoding unit extracts by area division, and the first area shape and the second area shape, wherein Using first and second lower layer frames , the first region shape
Only the area of the second lower layer frame.
Using the prime value, for the region having only the second region shape
Uses the pixel values of the first lower layer frame ,
A moving image decoding apparatus, wherein the non-existent lower layer frame is synthesized.
フレームレートで符号化した下位レイヤ符号化データ
と、前記動画像シーケンスの特定領域の画素データを前
記第1のフレームレートより高い第2のフレームレート
で符号化するとともに、該特定領域の画素データを符号
化するフレーム位置においてのみ、前記動画像シーケン
スの特定領域の領域形状を符号化した上位レイヤ符号化
データとを入力とし、 下位レイヤ復号画像を出力するか、あるいは下位レイヤ
復号画像と上位レイヤ 復号画像との重畳画像を出力する
動画像復号装置であって、 前記下位レイヤ符号化データを前記第1のフレームレー
トで復号する下位レイヤ復号部と、 前記上位レイヤ符号化データを、画素データの符号化デ
ータと領域形状の符号化データとに分流する分流部と、 前記分流部で分流された画素データの符号化データを前
記第2のフレームレートで復号する画素データ復号部
と、 前記分流部で分流された領域形状の符号化データを復号
する領域形状復号部とを備え、 上位レイヤフレームと時間的に同じフレーム位置に対応
する下位レイヤフレームが存在しない場合、そのフレー
ム位置の時間的に前後に存在する第1及び第2の下位レ
イヤフレームにおける特定領域を示す第1領域形状及び
第2領域形状を、前記領域形状復号部で得られた領域形
状からアフィン変換を用いて推定することによって抽出
し、 前記第1領域形状及び第2領域形状と、前記第1及び第
2の下位レイヤフレームを用い、前記第1の領域形状の
みの領域に対しては前記第2の下位レイヤフレームの画
素値を使用し、前記第2の領域形状のみの領域に対して
は前記第1の下位レイヤフレームの画素値を使用して、
前記存在しない下位レイヤフレームの合成を行う ことを
特徴とする動画像復号装置。3. The method according to claim 1, wherein the pixel data of the moving image sequence is
Lower layer encoded data encoded at frame rate
And pixel data of a specific area of the moving image sequence
A second frame rate higher than the first frame rate
And the pixel data of the specific area is encoded.
Only at the frame position where
Layer coding that encodes the shape of the specific area of the
Input data and output a lower layer decoded image, or
Output a superimposed image of the decoded image and the upper layer decoded image
A moving image decoding apparatus, wherein the lower layer encoded data is transmitted to the first frame rate.
A lower layer decoding unit that decodes the encoded data of the pixel data and an encoded data of the pixel data.
And a shunt section that shunts the data and the coded data of the area shape, and coded data of the pixel data shunted by the shunt section.
A pixel data decoding unit for decoding at a second frame rate;
If, decodes the encoded data of the diverted area shape by the diverter
When there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the first and second lower layer frames existing before and after the frame position are provided. The first region shape and the second region shape indicating the specific region in the region shape are obtained by the region shape obtained by the region shape decoding unit.
Extraction by estimating from shape using affine transformation
And the first and second region shapes and the first and second region shapes.
2 lower layer frames and the first region shape
Only the area of the second lower layer frame.
Using the prime value, for the region having only the second region shape
Uses the pixel values of the first lower layer frame,
Moving image decoding apparatus you and performing the synthesis of the lower layer frame not the present.
フレームレートで符号化した下位レイヤ符号化データ
と、前記動画像シーケンスの特定領域の画素データを前
記第1のフレームレートより高い第2のフレームレート
で符号化するとともに、該特定領域の画素データを符号
化するフレーム位置においてのみ、前記動画像シーケン
スの特定領域の領域形状を符号化した上位レイヤ符号化
データとを入力とし、 下位レイヤ復号画像を出力するか、あるいは下位レイヤ
復号画像と上位レイヤ復号画像との重畳画像を出力する
動画像復号装置であって、 前記下位レイヤ符号化データを前記第1のフレームレー
トで復号する下位レイヤ復号部と、 前記上位レイヤ符号化データを、画素データの符号化デ
ータと領域形状の符号化データとに分流する分流部と、 前記分流部で分流された画素データの符号化データを前
記第2のフレームレートで復号する画素データ復号部
と、 前記分流部で分流された領域形状の符号化データを復号
する領域形状復号部とを備え、 上位レイヤフレームと時間的に同じフレーム位置に対応
する下位レイヤフレームが存在しない場合、そのフレー
ム位置の時間的に前後に存在する第1及び第2の下位レ
イヤフレームにおける特定領域を示す第1領域形状及び
第2領域形状を、前記領域形状復号部で得られた領域形
状からブロックマッチングによる予測を用いて推定する
ことによって抽出し、 前記第1領域形状及び第2領域形状と、前記第1及び第
2の下位レイヤフレームを用い、前記第1の領域形状の
みの領域に対しては前記第2の下位レイヤフレームの画
素値を使用し、前記第2の領域形状のみの領域に対して
は前記第1の下位レイヤフレームの画素値を使用して、
前記存在しない下位レイヤフレームの合成を行う ことを
特徴とする動画像復号装置。4. The method according to claim 1, wherein the pixel data of the moving image sequence is
Lower layer encoded data encoded at frame rate
And pixel data of a specific area of the moving image sequence
A second frame rate higher than the first frame rate
And the pixel data of the specific area is encoded.
Only at the frame position where
Layer coding that encodes the shape of the specific area of the
Input data and output a lower layer decoded image, or
Output a superimposed image of the decoded image and the upper layer decoded image
A moving image decoding apparatus, wherein the lower layer encoded data is transmitted to the first frame rate.
A lower layer decoding unit that decodes the encoded data of the pixel data and an encoded data of the pixel data.
And a shunt section that shunts the data and the coded data of the area shape, and coded data of the pixel data shunted by the shunt section.
A pixel data decoding unit for decoding at a second frame rate;
If, decodes the encoded data of the diverted area shape by the diverter
When there is no lower layer frame corresponding to the same frame position as the upper layer frame in time, the first and second lower layer frames existing before and after the frame position are provided. the first area shape and the second area shape shows a certain area in the area shape from area shape obtained by the decoding unit using the prediction by block matching extracted by estimating the first area shape and the second Region shape, the first and second
2 lower layer frames and the first region shape
Only the area of the second lower layer frame.
Using the prime value, for the region having only the second region shape
Uses the pixel values of the first lower layer frame,
Moving image decoding apparatus you and performing the synthesis of the lower layer frame not the present.
装置において、 下位レイヤフレームの合成を行うか否かを示すフラグの
符号化データを復号するフラグ復号部を備え、 前記フラグ復号部で復号されたフラグに基づいて、前記
第1領域形状及び前記第2領域形状と、前記第1及び第
2の下位レイヤフレームを用いて、前記存在しない下位
レイヤフレームの合成を行うか否かを判断し、該下位レ
イヤフレームの合成を行うことを特徴とする動画像復号
装置。5. The moving picture decoding apparatus according to claim 1, further comprising: a flag decoding unit configured to decode encoded data of a flag indicating whether or not to synthesize a lower layer frame; Based on the flag decoded in the above, it is determined whether to synthesize the nonexistent lower layer frame using the first area shape and the second area shape, and the first and second lower layer frames. A moving image decoding apparatus for determining and synthesizing the lower layer frame.
おいて、 前記上位レイヤ復号部は、さらに、上位レイヤフレーム
の時間的に前に存在する第1の下位レイヤフレームにお
ける第1領域形状を示す領域情報が符号化されているか
否かを示す第1のフラグの符号化データを復号する第1
のフラグ復号部と、 上位レイヤフレームの時間的に後に存在する第2の下位
レイヤフレームにおける第2領域形状を示す領域情報が
符号化されているか否かを示す第2のフラグの符号化デ
ータを復号する第2のフラグ復号部とを備え、 前記第1及び第2のフラグ復号部で復号された第1のフ
ラグ及び第2のフラグに基づいて、第1の領域形状と第
2の領域形状が符号化されているか否かを判断し、第1
及び第2の領域形状がともに符号化されていない場合に
は、前回の下位レイヤ合成時に使用した領域形状をそれ
ぞれ今回の下位レイヤ合成時に用いる領域形状とし、第
2の領域形状だけが符号化されている場合には、前回の
下位レイヤ合成時に使用した第2の領域形状を今回の下
位レイヤ合成時に用いる第1の領域形状とし、 前記第1領域形状及び前記第2領域形状と、前記第1及
び第2の下位レイヤフレームを用いて、前記存在しない
下位レイヤフレームの合成を行うことを特徴とする動画
像復号装置。6. The video decoding device according to claim 1, wherein the upper layer decoding unit further determines a first region shape in a first lower layer frame temporally preceding the upper layer frame. A first flag for decoding the encoded data of the first flag indicating whether or not the area information indicated is encoded;
Coded data of a second flag indicating whether or not region information indicating a second region shape in a second lower layer frame that is temporally subsequent to the upper layer frame is coded. A second flag decoding unit for decoding, based on the first flag and the second flag decoded by the first and second flag decoding units, a first region shape and a second region shape Is encoded or not, and the first
If neither the second region shape nor the second region shape is encoded, the region shapes used in the previous lower layer combination are used as the region shapes used in the current lower layer combination, respectively, and only the second region shape is encoded. The second area shape used in the previous lower layer synthesis is used as the first area shape used in the current lower layer synthesis, and the first area shape and the second area shape, and And a second lower layer frame, wherein the non-existent lower layer frame is synthesized.
フレームレートで符号化する下位レイヤ符号化部と、 前記動画像シーケンスの特定領域の画素データを前記第
1のフレームレートより高い第2のフレームレートで符
号化するとともに、前記動画像シーケンスの特定領域の
領域形状を符号化する上位レイヤ符号化部とを備えた動
画像符号化装置であって、 前記上位レイヤ符号化部は、前記動画像シーケンスの特
定領域の画素データを前記第1のフレームレートより高
い第2のフレームレートで符号化する画素データ符号化
部と、 前記動画像シーケンスの特定領域の領域形状を符号化す
る領域形状符号化部と、 前記画素データ符号化部で符号化された画素データの符
号化データと、前記領域形状符号化部で符号化された領
域形状の符号化データとを多重化する多重化部とを有
し、 前記領域形状符号化部は、上位レイヤフレームと時間的
に同じフレーム位置に対応する下位レイヤフレームが存
在しない場合、そのフレーム位置の時間的に前後に存在
する第1及び第2の下位レイヤフレームにおける特定領
域を示す第1領域形状及び第2領域形状を符号化するこ
とを特徴とする動画像符号化装置。7. A lower layer encoding unit that encodes pixel data of a moving image sequence at a first frame rate, and a second layer encoding unit that encodes pixel data of a specific region of the moving image sequence at a higher rate than the first frame rate. A moving image encoding apparatus comprising: an upper layer encoding unit that encodes at a frame rate and encodes a region shape of a specific region of the moving image sequence; A pixel data encoding unit that encodes pixel data of a specific area of the image sequence at a second frame rate higher than the first frame rate; and an area shape code that encodes an area shape of the specific area of the moving image sequence Encoding unit, encoded data of the pixel data encoded by the pixel data encoding unit, and encoding of the region shape encoded by the region shape encoding unit And a multiplexing unit that multiplexes the data with the upper layer frame. If there is no lower layer frame corresponding to the same frame position as the upper layer frame, the area shape coding unit A first region shape and a second region shape indicating a specific region in first and second lower layer frames existing before and after the first and second lower layer frames.
において、 動画像復号装置で下位レイヤフレームの合成を行うか否
かを示すフラグを符号化するフラグ符号化部を備えたこ
とを特徴とする動画像符号化装置。8. The moving picture encoding apparatus according to claim 7, further comprising: a flag encoding unit that encodes a flag indicating whether or not to synthesize the lower layer frame in the moving picture decoding apparatus. A moving picture coding apparatus characterized by the following.
において、 前記上位レイヤ符号化部は、さらに、上位レイヤフレー
ムの時間的に前に存在する第1の下位レイヤフレームに
おける第1領域形状を示す領域情報を符号化したか否か
を示す第1のフラグを符号化する第1のフラグ符号化部
と、 上位レイヤフレームの時間的に後に存在する第2の下位
レイヤフレームにおける第2領域形状を示す領域情報を
符号化したか否かを示す第2のフラグを符号化する第2
のフラグ符号化部とを有することを特徴とする動画像符
号化装置。9. The video encoding apparatus according to claim 7, wherein the upper layer encoding unit further includes a first area in a first lower layer frame temporally preceding the upper layer frame. A first flag encoding unit that encodes a first flag that indicates whether or not region information indicating a shape has been encoded; and a second flag in a second lower layer frame that exists temporally after the upper layer frame. A second flag for encoding a second flag indicating whether or not the area information indicating the area shape has been encoded
And a flag encoding unit.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12175296A JP3247836B2 (en) | 1996-05-16 | 1996-05-16 | Image encoding device and image decoding device |
EP20030003822 EP1343328A3 (en) | 1996-02-07 | 1997-02-05 | Moving image encoding and decoding device |
DE69733007T DE69733007T2 (en) | 1996-02-07 | 1997-02-05 | DEVICE FOR CODING AND DECODING MOTION IMAGES |
EP97902581A EP0880286B1 (en) | 1996-02-07 | 1997-02-05 | Moving image encoding and decoding device |
US09/117,501 US6148030A (en) | 1996-02-07 | 1997-02-05 | Motion picture coding and decoding apparatus |
PCT/JP1997/000276 WO1997029595A1 (en) | 1996-02-07 | 1997-02-05 | Moving image encoding and decoding device |
ES97902581T ES2241034T3 (en) | 1996-02-07 | 1997-02-05 | DEVICE FOR CODIFICATION OF MOVEMENT DECODIFICATION. |
US09/663,352 US6324215B1 (en) | 1996-02-07 | 2000-09-15 | Motion picture coding and decoding apparatus |
US09/859,421 US6466622B2 (en) | 1996-02-07 | 2001-05-18 | Motion picture coding and decoding apparatus |
US10/232,404 US6678326B2 (en) | 1996-02-07 | 2002-09-03 | Motion picture coding and decoding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12175296A JP3247836B2 (en) | 1996-05-16 | 1996-05-16 | Image encoding device and image decoding device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001233032A Division JP3866946B2 (en) | 2001-08-01 | 2001-08-01 | Video encoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09307906A JPH09307906A (en) | 1997-11-28 |
JP3247836B2 true JP3247836B2 (en) | 2002-01-21 |
Family
ID=14819018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12175296A Expired - Fee Related JP3247836B2 (en) | 1996-02-07 | 1996-05-16 | Image encoding device and image decoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3247836B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3224514B2 (en) | 1996-08-21 | 2001-10-29 | シャープ株式会社 | Video encoding device and video decoding device |
EP1862010A4 (en) * | 2005-03-25 | 2011-08-17 | Korea Electronics Telecomm | Hierarchical video encoding/decoding method for complete spatial scalability and apparatus thereof |
KR100791295B1 (en) * | 2006-01-12 | 2008-01-04 | 삼성전자주식회사 | Flag encoding method, flag decoding method, and apparatus thereof |
KR100809298B1 (en) * | 2006-06-22 | 2008-03-04 | 삼성전자주식회사 | Flag encoding method, flag decoding method, and apparatus thereof |
-
1996
- 1996-05-16 JP JP12175296A patent/JP3247836B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09307906A (en) | 1997-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6466622B2 (en) | Motion picture coding and decoding apparatus | |
US6167158A (en) | Object-based digital image predictive method | |
EP0909096B1 (en) | Picture encoder and picture decoder | |
JP3224514B2 (en) | Video encoding device and video decoding device | |
WO1999038330A1 (en) | Moving picture coder and moving picture decoder | |
JP3247836B2 (en) | Image encoding device and image decoding device | |
JP3866946B2 (en) | Video encoding device | |
JPH0937260A (en) | Moving image coder and moving image decoder | |
JPH09326024A (en) | Picture coding and decoding method and its device | |
JP3148751B2 (en) | Video encoding device and video decoding device | |
JPH11285001A (en) | Moving image encoding device and moving image decoding device | |
JP3256434B2 (en) | Image data encoding / decoding apparatus and method | |
JP3148752B2 (en) | Video encoding device | |
JP3461807B2 (en) | Video decoding method | |
JP2002044671A (en) | Dynamic-picture decoding apparatus | |
JP3526258B2 (en) | Image encoding device and image decoding device | |
JP3148734B2 (en) | Image encoding device and image decoding device | |
JP2001160966A (en) | Moving picture encoding device | |
JP2002044657A (en) | Image decoding method, image decoder and image decoding program recording medium | |
JP2002142154A (en) | Video switching apparatus and video switching method | |
JPH09121346A (en) | Image encoding device and image decoding device | |
JPH09219821A (en) | Compositing device | |
JP2000036962A (en) | Image coder and image decoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081102 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091102 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |