JP2000004444A - Image encoding device and image decoding device - Google Patents

Image encoding device and image decoding device

Info

Publication number
JP2000004444A
JP2000004444A JP11077035A JP7703599A JP2000004444A JP 2000004444 A JP2000004444 A JP 2000004444A JP 11077035 A JP11077035 A JP 11077035A JP 7703599 A JP7703599 A JP 7703599A JP 2000004444 A JP2000004444 A JP 2000004444A
Authority
JP
Japan
Prior art keywords
frame
lower layer
area
image
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11077035A
Other languages
Japanese (ja)
Other versions
JP3148734B2 (en
Inventor
Hiroyuki Katada
裕之 堅田
Hiroshi Kusao
寛 草尾
Norio Ito
典男 伊藤
Toshio Nomura
敏男 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP7703599A priority Critical patent/JP3148734B2/en
Publication of JP2000004444A publication Critical patent/JP2000004444A/en
Application granted granted Critical
Publication of JP3148734B2 publication Critical patent/JP3148734B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain satisfactory image acquisition by using a following low-order layer frame for the area of only a first component area and using a preceding low-order layer frame for the area of only a second component area when generating the non-encoded low-order layer frame. SOLUTION: A first area extracting part 101 extracts an area, which is the first area but is not the second area, from the first and second area information of low-order layers. A second area extracting part 102 extracts the area, which is the second area but is not the first area, from the first and second area information of low-order layers. When a concerned pixel position is the first area only, a controller 103 connects a switch 104 to a second decoding image side but when the concerned pixel position is the second area only, the switch 104 is connected to a first decoding side and in the other case, the switch 104 is connected to output from an interpolated image preparing part 105.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ディジタル画像処
理の分野に属し、画像データを高能率に符号化する画像
符号化装置及びこの画像符号化装置で作成された符号化
データを復号する画像復号装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the field of digital image processing, and more particularly to an image encoding apparatus for encoding image data with high efficiency and an image decoding apparatus for decoding encoded data created by the image encoding apparatus. It concerns the device.

【0002】[0002]

【従来の技術】画像符号化において、異なる動画像シー
ケンスを合成する方式が検討されている。文献「階層表
現と多重テンプレートを用いた画像符号化」(信学技報
IE94-159,pp99-106 (1995))では、背景となる動画像シ
ーケンスと前景となる部品動画像の動画像シーケンス
(例えばクロマキー技術によって切り出された人物画像
や魚の映像など)を合成して新たなシーケンスを作成す
る手法が述べられている。
2. Description of the Related Art In image coding, a method of combining different moving image sequences has been studied. Document "Image Coding Using Hierarchical Representation and Multiple Templates" (IEICE Technical Report)
IE94-159, pp99-106 (1995)) combines a moving image sequence as a background and a moving image sequence of component moving images as a foreground (for example, a human image or a video of a fish cut out by chroma key technology) to create a new image. A technique for creating a simple sequence is described.

【0003】また、文献「画像内容に基づく時間階層符
号化」("Temporal Scalability based on image conte
nt", ISO/IEC/ JTC1/SC29/WG11 MPEG95/211(1995))で
は、フレームレートの低い動画像シーケンスにフレーム
レートの高い部品動画像の動画像シーケンスを合成して
新たなシーケンスを作成する手法が述べられている。
[0003] Further, a document "Temporal Scalability based on image conte
nt ", ISO / IEC / JTC1 / SC29 / WG11 MPEG95 / 211 (1995)) creates a new sequence by combining a low-frame-rate video sequence with a high-frame-rate component video sequence. The method is described.

【0004】この方式では、図16に示すように、下位
レイヤでは低いフレームレートで予測符号化が行われ、
上位レイヤでは選択領域(斜線部)についてのみ高いフ
レームレートで予測符号化が行われる。ただし、下位レ
イヤで符号化したフレームは上位レイヤでは符号化せ
ず、下位レイヤの復号画像をそのままコピーして用い
る。また、選択領域としては、例えば人物部分など視聴
者の注目が集まる部分が選ばれているものとする。
In this method, as shown in FIG. 16, predictive coding is performed at a low frame rate in a lower layer,
In the upper layer, predictive coding is performed at a high frame rate only for the selected area (shaded area). However, the frame encoded in the lower layer is not encoded in the upper layer, and the decoded image of the lower layer is copied and used as it is. Further, it is assumed that a part that attracts the viewer's attention, such as a person part, is selected as the selection area.

【0005】図8に従来手法のブロック図を示す。ま
ず、従来手法の符号化側では、入力動画像は第1の駒落
し部801及び第2の駒落し部802によってフレーム
間引きされ、入力画像のフレームレート以下とされた
後、それぞれ上位レイヤ符号化部803及び下位レイヤ
符号化部804に入力される。ここで、上位レイヤのフ
レームレートは下位レイヤのフレームレート以上であ
る。
FIG. 8 shows a block diagram of a conventional method. First, on the encoding side according to the conventional method, the input moving image is frame-thinned by the first frame dropping unit 801 and the second frame dropping unit 802, and the frame rate is set to be lower than the frame rate of the input image. Unit 803 and lower layer coding section 804. Here, the frame rate of the upper layer is equal to or higher than the frame rate of the lower layer.

【0006】下位レイヤ符号化部804では、入力され
た動画像全体が符号化される。符号化方式としては、例
えばMPEGやH.261などの動画像符号化国際標準化方式が
用いられる。また、下位レイヤ符号化部804では、下
位レイヤの復号画像が作成され、予測符号化に利用され
ると同時に、合成部805に入力される。
[0006] The lower layer encoding section 804 encodes the entire input moving image. As the encoding method, for example, a moving image encoding international standardization method such as MPEG or H.261 is used. In the lower layer encoding unit 804, a decoded image of the lower layer is created and used for predictive encoding, and is input to the synthesizing unit 805 at the same time.

【0007】図9は従来の符号化装置における符号量制
御部を示すブロック図である。図9において、符号化部
902は、動き補償予測、直交変換、量子化、可変長符
号化などを用いて動画像符号化を行う。
FIG. 9 is a block diagram showing a code amount control section in a conventional coding apparatus. In FIG. 9, an encoding unit 902 performs moving image encoding using motion compensation prediction, orthogonal transform, quantization, variable length encoding, and the like.

【0008】また、量子化幅算出部901は、符号化部
902で用いる量子化幅を算出し、発生符号量算出部9
03は、符号化データの累積を計算する。一般に発生符
号量が大きくなるとこれを抑えるために量子化幅を大き
く、逆に発生符号量が小さくなると量子化幅を小さく制
御する。
A quantization width calculation section 901 calculates a quantization width used in the encoding section 902 and generates a generated code amount calculation section 9.
03 calculates the accumulation of the encoded data. In general, when the generated code amount is large, the quantization width is controlled to suppress this, and conversely, when the generated code amount is small, the quantization width is controlled to be small.

【0009】図8の上位レイヤ符号化部803では、入
力された動画像の選択領域のみが符号化される。ここで
も、MPEGやH.261などの動画像符号化国際標準化方式が
用いられるが、領域情報に基づいて選択領域のみを符号
化する。ただし、下位レイヤで符号化されたフレームは
上位レイヤでは符号化されない。
In the upper layer coding section 803 of FIG. 8, only the selected area of the input moving picture is coded. Here, the moving picture coding international standardization method such as MPEG or H.261 is used, but only the selected area is coded based on the area information. However, frames encoded in the lower layer are not encoded in the upper layer.

【0010】領域情報は、人物部などの選択領域を示す
情報であり、例えば選択領域の位置で値1、それ以外の
位置で値0をとる2値画像である。また、上位レイヤ符
号化部803では、動画像の選択領域のみが復号され、
合成部805に入力される。
The area information is information indicating a selected area such as a person, and is, for example, a binary image having a value of 1 at the position of the selected area and a value of 0 at other positions. Further, in the upper layer encoding unit 803, only the selected region of the moving image is decoded,
It is input to the synthesis unit 805.

【0011】領域情報符号化部806では、領域情報が
8方向量子化符号を利用して符号化される。8方向量子
化符号は、図17に示すように、次の点への方向を数値
で示したもので、デジタル図形を表現する際に一般的に
使用されるものである。
[0011] In the area information encoding unit 806, the area information is encoded using an 8-way quantization code. As shown in FIG. 17, the eight-way quantization code indicates a direction to the next point by a numerical value, and is generally used when expressing a digital figure.

【0012】合成部805は、合成対象フレームで下位
レイヤフレームが符号化されている場合、下位レイヤの
復号画像を出力する。合成対象フレームで下位レイヤフ
レームが符号化されていない場合は、合成対象フレーム
の前後2枚の符号化された下位レイヤの復号画像と1枚
の上位レイヤ復号画像とを用いて動画像を出力する。
[0012] When the lower layer frame is encoded in the frame to be synthesized, the synthesizing unit 805 outputs a decoded image of the lower layer. When the lower layer frame is not encoded in the frame to be combined, a moving image is output using two encoded lower layer decoded images before and after the combined frame and one upper layer decoded image. .

【0013】ここで、下位レイヤの2枚の画像のフレー
ムは、上位レイヤのフレームの前及び後である。また、
合成部805で作成された動画像は上位レイヤ符号化部
803に入力され、予測符号化に利用される。合成部8
05における画像作成方法は以下の通りである。
Here, the frames of the two images of the lower layer are before and after the frame of the upper layer. Also,
The moving image created by the combining unit 805 is input to the upper layer encoding unit 803 and used for predictive encoding. Combiner 8
The image creation method in 05 is as follows.

【0014】まず、2枚の下位レイヤの補間画像が作成
される。時間tにおける下位レイヤの復号画像をB(x, y,
t)(ただし、x, yは空間内の画素位置を表す座標であ
る)とし、2枚の下位レイヤの時間をそれぞれt1, t2、
上位レイヤの時間をt3(ただし、t1<t3<t2である)とす
ると、時間t3における補間画像I(x, y, t3)は、 I(x, y, t3) = [ (t2-t3)B(x, y, t1) + (t3-t1)B(x, y, t2) ]/(t2-t1) (1) によって計算される。
First, two lower layer interpolation images are created. Let the decoded image of the lower layer at time t be B (x, y,
t) (where x and y are coordinates representing pixel positions in space), and the times of the two lower layers are t1, t2,
Assuming that the time of the upper layer is t3 (where t1 <t3 <t2), the interpolated image I (x, y, t3) at the time t3 is I (x, y, t3) = [(t2-t3) B (x, y, t1) + (t3-t1) B (x, y, t2)] / (t2-t1) (1)

【0015】次に、上記で求めた補間画像Iに上位レイ
ヤの復号画像Eを合成する。このために、領域情報M(x,
y, t)から合成のための重み情報W(x, y, t)を作成し、
次式によって合成画像Sを得る。 S(x, y, t) = [1-W(x, y, t)]I(x, y, t) + E(x, y, t)W(x, y, t) (2) 領域情報M(x, y, t)は選択領域内で1、選択領域外で0
の値をとる2値画像であり、この画像に低域通過フィル
タを複数回施すことによって、重み情報W(x, y, t)を得
ることができる。
Next, the decoded image E of the upper layer is synthesized with the interpolated image I obtained above. For this purpose, the area information M (x,
y, t) to create weight information W (x, y, t) for synthesis,
A composite image S is obtained by the following equation. S (x, y, t) = [1-W (x, y, t)] I (x, y, t) + E (x, y, t) W (x, y, t) (2) domain Information M (x, y, t) is 1 inside the selected area and 0 outside the selected area
The weight information W (x, y, t) can be obtained by applying a low-pass filter to the image a plurality of times.

【0016】すなわち、重み情報W(x, y, t)は選択領域
内で1、選択領域外で0、選択領域の境界部で0〜1の
値をとる。以上が、合成部805における画像作成方法
の説明である。
That is, the weight information W (x, y, t) takes a value of 1 inside the selected area, 0 outside the selected area, and 0 to 1 at the boundary of the selected area. The above is the description of the image creating method in the combining unit 805.

【0017】下位レイヤ符号化部804、上位レイヤ符
号化部803、領域情報符号化部806で符号化された
符号化データは、図示しない符号化データ統合部で統合
され、伝送あるいは蓄積される。
The coded data coded by the lower layer coding section 804, the upper layer coding section 803, and the area information coding section 806 are integrated by a coded data integration section (not shown) and transmitted or stored.

【0018】次に、従来手法の復号側では、符号化デー
タが図示しない符号化データ分解部により、下位レイヤ
の符号化データ、上位レイヤの符号化データ、領域情報
の符号化データに分解される。これらの符号化データ
は、図8に示すように、下位レイヤ復号部808、上位
レイヤ復号部807及び領域情報復号部809によって
復号される。
Next, on the decoding side of the conventional method, the coded data is decomposed into coded data of a lower layer, coded data of an upper layer, and coded data of area information by a coded data decomposing unit (not shown). . These encoded data are decoded by a lower layer decoding unit 808, an upper layer decoding unit 807, and a region information decoding unit 809, as shown in FIG.

【0019】復号側の合成部810は、符号化側の合成
部805と同一の装置からなり、下位レイヤ復号画像と
上位レイヤ復号画像とを用い、符号化側の説明で述べた
ものと同一の方法によって画像が合成される。ここで合
成された動画像は、ディスプレイに表示されると共に、
上位レイヤ復号部807に入力され、上位レイヤの予測
に利用される。
The combining unit 810 on the decoding side is composed of the same device as the combining unit 805 on the encoding side, uses the lower layer decoded image and the upper layer decoded image, and is the same as that described in the description on the encoding side. The images are combined by the method. The moving image synthesized here is displayed on the display,
It is input to the upper layer decoding unit 807 and used for prediction of the upper layer.

【0020】ここでは、下位レイヤと上位レイヤとの両
方を復号する復号装置について述べたが、下位レイヤの
復号部のみを備えた復号装置ならば、上位レイヤ符号化
部807、合成部810が不要であり、少ないハードウ
エア規模で符号化データの一部を再生することができ
る。
Here, the decoding device for decoding both the lower layer and the upper layer has been described. However, if the decoding device includes only the decoding unit for the lower layer, the upper layer encoding unit 807 and the combining unit 810 are unnecessary. Thus, a part of the encoded data can be reproduced with a small hardware scale.

【0021】[0021]

【発明が解決しようとする課題】(1)従来の技術にお
いては、上記(1)式のように、2枚の下位レイヤ復号画
像と1枚の上位レイヤ復号画像とから出力画像を得る
際、2枚の下位レイヤの補間を行っているため、選択領
域の位置が時間的に変化する場合には、選択領域周辺に
大きな歪みが発生し、画質を大きく劣化させるという問
題がある。
(1) In the prior art, when an output image is obtained from two lower layer decoded images and one upper layer decoded image as in the above equation (1), Since the interpolation of the two lower layers is performed, when the position of the selected area changes with time, a large distortion occurs around the selected area, and there is a problem that the image quality is largely deteriorated.

【0022】図18はこの問題を説明するものである。
図18(a)において、画像A、Cは下位レイヤの2枚の
復号画像、画像Bは上位レイヤの復号画像であり、表示
時間順はA、B、Cの順である。ただし、選択領域を斜線
で示している。また、上位レイヤでは選択領域のみが符
号化されるため、選択領域外を破線で示している。
FIG. 18 illustrates this problem.
In FIG. 18A, images A and C are two decoded images of the lower layer, image B is a decoded image of the upper layer, and the display time order is A, B, C. However, the selected area is indicated by oblique lines. Also, since only the selected area is encoded in the upper layer, the area outside the selected area is indicated by a broken line.

【0023】選択領域が動いているため、画像Aと画像C
とから求めた補間画像は、図18(b)における網点部
のように、2つの選択領域が重複したものになる。さら
に、画像Bを重み情報を用いて合成すると、出力画像は
図18(c)に示すように、3つの選択領域が重複した
画像となる。
Since the selected area is moving, images A and C
The interpolated image obtained from the above is an image in which the two selected regions overlap, as shown by the halftone dot portion in FIG. Further, when the image B is synthesized using the weight information, the output image is an image in which three selected regions overlap as shown in FIG.

【0024】特に、上位レイヤの選択領域周辺(外側)
に下位レイヤの選択領域が残像のように現れ、画質が大
きく劣化する。動画像全体としては、下位レイヤのみが
表示されている時には、上記の歪みがなく、上位レイヤ
と下位レイヤとの合成画像が表示されている時には、上
記の歪みが現われるため、フリッカ的歪みが発生し、非
常に大きな画質劣化となる。
In particular, around the selected area of the upper layer (outside)
Thus, the selected area of the lower layer appears as an afterimage, and the image quality is greatly deteriorated. As for the whole moving image, when only the lower layer is displayed, there is no such distortion, and when a composite image of the upper layer and the lower layer is displayed, the distortion appears. Then, the image quality is extremely deteriorated.

【0025】(2)従来の技術においては、領域情報の
符号化に8方向量子化符号(図17)を用いているが、
低ビットレートに応用する場合や領域の形状が複雑にな
る場合などに、領域情報のデータ量の全符号化データ量
に占める割合が大きくなるため、画質劣化の要因となる
問題がある。
(2) In the conventional technique, an 8-way quantization code (FIG. 17) is used to encode region information.
When applied to a low bit rate or when the shape of an area becomes complicated, the ratio of the data amount of the area information to the entire coded data amount increases, which causes a problem of deteriorating the image quality.

【0026】(3)従来の技術においては、領域情報に
低域通過フィルタを複数回施すことによって、重み情報
を得ているが、フィルタ操作を複数回行うため、処理量
が増大するという問題がある。
(3) In the prior art, the weight information is obtained by applying a low-pass filter to the area information a plurality of times. However, since the filtering operation is performed a plurality of times, the processing amount increases. is there.

【0027】(4)従来の技術においては、予測符号化
を用いているが、下位レイヤでシーンチェンジがある場
合にも予測符号化を用いることがあり、大きな歪みが発
生する。下位レイヤでの歪みは、上位レイヤにも波及す
るため、長時間に渡って歪みが持続するという問題があ
る。
(4) In the prior art, predictive coding is used. However, even when there is a scene change in a lower layer, predictive coding may be used, resulting in large distortion. Since the distortion in the lower layer propagates to the upper layer, there is a problem that the distortion is maintained for a long time.

【0028】(5)従来の技術においては、下位レイヤ
でMPEGやH.261などの動画像符号化国際標準化方式が用
いられるため、選択領域とそれ以外の領域の間で画質の
差があまりない。これに対し、上位レイヤでは選択領域
だけが高画質で符号化されるため選択領域での画質が時
間的に変化し、これがフリッカ的な歪みとなって検知さ
れるという問題がある。
(5) In the prior art, since the moving picture coding international standardization scheme such as MPEG or H.261 is used in the lower layer, there is not much difference in image quality between the selected area and other areas. . On the other hand, in the upper layer, only the selected area is coded with high image quality, so that the image quality in the selected area changes with time, and this is detected as flicker-like distortion.

【0029】本発明の目的は、これらの問題を解決し、
符号化後のデータ量を削減する一方復号画像の品質を劣
化させないような画像符号化装置及び画像復号装置を提
供することにある。
The object of the present invention is to solve these problems,
It is an object of the present invention to provide an image encoding device and an image decoding device that reduce the amount of data after encoding while not deteriorating the quality of a decoded image.

【0030】[0030]

【課題を解決するための手段】本願請求項1に記載の発
明に係る画像符号化装置は、1つの動画像シーケンスを
低いフレームレートで符号化する下位レイヤ符号化手段
と、前記動画像シーケンスの1もしくは複数の特定部品
領域のみを高いフレームレートで符号化する上位レイヤ
符号化手段と、前記特定部品領域を示す領域情報に基づ
き、上位レイヤの動画像シーケンスを、下位レイヤの動
画像シーケンスに合成する合成手段とを備えた画像符号
化装置において、前記合成手段は、合成対象フレーム位
置に対応する下位レイヤフレームが存在しない場合、前
記合成対象フレームの時間的に前に存在する下位レイヤ
における第1部品領域情報と、時間的に後に存在する下
位レイヤにおける第2部品領域情報とに基づき、前記合
成対象フレーム上で、第1部品領域のみの領域に対して
は、前記時間的に後にある下位レイヤフレームを用いる
とともに、前記合成対象フレーム上で、第2部品領域の
みの領域に対しては、前記時間的に前にある下位レイヤ
フレームを用いることによって、前記存在しない下位レ
イヤフレームの生成を行うものである。
According to the first aspect of the present invention, there is provided an image coding apparatus, comprising: a lower layer coding unit for coding one moving image sequence at a low frame rate; An upper layer encoding unit that encodes only one or a plurality of specific component regions at a high frame rate, and a moving image sequence of an upper layer is combined with a moving image sequence of a lower layer based on region information indicating the specific component region. A synthesizing unit, wherein when there is no lower layer frame corresponding to the position of the frame to be synthesized, the synthesizing unit includes a first layer in a lower layer temporally preceding the frame to be synthesized. Based on the component area information and the second component area information in the lower layer that is temporally later, the For a region including only the first component region, the lower layer frame that is temporally later is used, and for a region including only the second component region on the synthesis target frame, the temporally lower layer frame is used. The non-existent lower-layer frame is generated by using the lower-layer frame in (1).

【0031】本願請求項2に記載の発明に係る画像符号
化装置は、前記請求項1に記載の画像符号化装置におい
て、前記合成手段は、合成対象フレーム位置に対応する
下位レイヤフレームが存在しない場合、前記合成対象フ
レーム上で、第1部品領域と第2部品領域とが重なる領
域に対しては、前記時間的に前及び後に存在する下位レ
イヤフレームを加重平均することによって、前記存在し
ない下位レイヤフレームの生成を行うものである。
According to a second aspect of the present invention, in the image encoding apparatus according to the first aspect, the synthesizing means does not include a lower layer frame corresponding to the position of the frame to be synthesized. In the case where the first component area and the second component area overlap on the synthesis target frame, the lower layer frames existing before and after the time are weighted and averaged to obtain the lower nonexistent lower layer frame. This is for generating a layer frame.

【0032】本願請求項3に記載の発明に係る画像符号
化装置は、前記請求項1に記載の画像符号化装置におい
て、前記合成手段は、合成対象フレーム位置に対応する
下位レイヤフレームが存在しない場合、前記合成対象フ
レーム上で、第1部品領域と第2部品領域とが重なる領
域に対しては、前記時間的に前又は後に存在する下位レ
イヤフレームを用いることによって、前記存在しない下
位レイヤフレームの生成を行うものである。
According to a third aspect of the present invention, in the image encoding apparatus according to the first aspect, the synthesizing means does not include a lower layer frame corresponding to a position of a frame to be synthesized. In the case, on the synthesis target frame, for a region where the first component region and the second component region overlap, by using the lower layer frame existing before or after the time, the lower layer frame that does not exist is used. Is generated.

【0033】本願請求項4に記載の発明に係る画像符号
化装置は、前記請求項1乃至3のいずれかに記載の画像
符号化装置において、前記合成手段は、合成対象フレー
ム位置に対応する下位レイヤフレームが存在しない場
合、前記合成対象フレーム上で、第1部品領域でも第2
部品領域でもない領域に対しては、前記時間的に前及び
後に存在する下位レイヤフレームを加重平均することに
よって、前記存在しない下位レイヤフレームの生成を行
うものである。
According to a fourth aspect of the present invention, in the image encoding apparatus according to any one of the first to third aspects, the synthesizing means includes a lower level corresponding to a position of a frame to be synthesized. If the layer frame does not exist, the second component area is also
For an area that is not a component area, the non-existent lower layer frame is generated by performing a weighted average of the lower layer frames existing before and after the time.

【0034】本願請求項5に記載の発明に係る画像符号
化装置は、前記請求項1乃至3のいずれかに記載の画像
符号化装置において、前記合成手段は、合成対象フレー
ム位置に対応する下位レイヤフレームが存在しない場
合、前記合成対象フレーム上で、第1部品領域でも第2
部品領域でもない領域に対しては、前記時間的に前又は
後に存在する下位レイヤフレームのいずれかを用いるこ
とによって、前記存在しない下位レイヤフレームの生成
を行うものである。
According to a fifth aspect of the present invention, in the image encoding apparatus according to any one of the first to third aspects, the synthesizing means includes a lower level corresponding to a position of a frame to be synthesized. If the layer frame does not exist, the second component area is also
For an area that is not a component area, the non-existent lower-layer frame is generated by using one of the lower-layer frames existing before or after in time.

【0035】本願請求項6に記載の発明に係る画像符号
化装置は、前記請求項1乃至5のいずれかに記載の画像
符号化装置において、前記合成手段は、合成対象フレー
ム位置に対応する下位レイヤフレームが存在しない場
合、前記合成対象フレームの時間的に前に存在する下位
レイヤ画像と、時間的に後に存在する下位レイヤ画像と
の間の動きパラメータを推定する動きパラメータ推定手
段と、前記動きパラメータによって、前記合成対象フレ
ームの時間的に前及び後に存在する下位レイヤ画像と、
第1部品領域及び第2部品領域とを、前記合成対象フレ
ーム位置に基づき、それぞれ動き補償によって変形する
変形手段とを有するものである。
According to a sixth aspect of the present invention, in the image encoding apparatus according to any one of the first to fifth aspects, the synthesizing means includes a lower level corresponding to a position of a frame to be synthesized. A motion parameter estimating means for estimating a motion parameter between a lower layer image existing temporally before the frame to be synthesized and a lower layer image temporally existing when the layer frame does not exist; Depending on the parameter, a lower layer image existing before and after the frame to be synthesized temporally;
And a deforming means for deforming the first component region and the second component region by motion compensation based on the position of the compositing target frame.

【0036】本願請求項7に記載の発明に係る画像復号
装置は、1つの動画像シーケンスを低いフレームレート
で符号化した符号化データを復号する下位レイヤ復号手
段と、前記動画像シーケンスの1もしくは複数の特定部
品領域のみを高いフレームレートで符号化した符号化デ
ータを復号する上位レイヤ復号手段と、前記特定部品領
域を示す領域情報に基づき、上位レイヤの動画像シーケ
ンスを、下位レイヤの動画像シーケンスに合成する合成
手段とを備えた画像復号装置において、前記合成手段
は、合成対象フレーム位置に対応する下位レイヤフレー
ムが存在しない場合、前記合成対象フレームの時間的に
前に存在する下位レイヤにおける第1部品領域情報と、
時間的に後に存在する下位レイヤにおける第2部品領域
情報とに基づき、前記合成対象フレーム上で、第1部品
領域のみの領域に対しては、前記時間的に後にある下位
レイヤフレームを用いるとともに、前記合成対象フレー
ム上で、第2部品領域のみの領域に対しては、前記時間
的に前にある下位レイヤフレームを用いることによっ
て、前記存在しない下位レイヤフレームの生成を行うも
のである。
An image decoding apparatus according to a seventh aspect of the present invention includes a lower layer decoding means for decoding coded data obtained by coding one moving image sequence at a low frame rate, and one or more of the moving image sequences. An upper layer decoding unit that decodes encoded data obtained by encoding only a plurality of specific component regions at a high frame rate; and a moving image sequence of an upper layer based on region information indicating the specific component region. A synthesizing unit for synthesizing the sequence into a sequence, wherein when there is no lower-layer frame corresponding to the position of the frame to be synthesized, the synthesizing unit may determine whether the lower layer exists temporally before the frame to be synthesized. First component area information;
On the basis of the second component area information in the lower layer that is temporally later, the lower layer frame that is temporally later is used for the area of only the first component area on the synthesis target frame, The non-existent lower-layer frame is generated by using the lower-layer frame that is temporally earlier in the area including only the second component area on the synthesis target frame.

【0037】本願請求項8に記載の発明に係る画像復号
装置は、前記請求項7に記載の画像復号装置において、
前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前及び後に存在する下位レイヤ
フレームを加重平均することによって、前記存在しない
下位レイヤフレームの生成を行うものである。
An image decoding apparatus according to an eighth aspect of the present invention is the image decoding apparatus according to the seventh aspect, wherein:
When there is no lower layer frame corresponding to the position of the frame to be synthesized, the synthesizing unit determines whether the region where the first component region and the second component region overlap with each other on the synthesis target frame has the temporally earlier position. Then, the lower-layer frame that does not exist is generated by performing a weighted average of the lower-layer frame that exists later.

【0038】本願請求項9に記載の発明に係る画像復号
装置は、前記請求項7に記載の画像復号装置において、
前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前又は後に存在する下位レイヤ
フレームを用いることによって、前記存在しない下位レ
イヤフレームの生成を行うものである。
An image decoding apparatus according to a ninth aspect of the present invention is the image decoding apparatus according to the seventh aspect,
When there is no lower layer frame corresponding to the position of the frame to be synthesized, the synthesizing unit determines whether the region where the first component region and the second component region overlap with each other on the synthesis target frame has the temporally earlier position. Alternatively, the non-existent lower-layer frame is generated by using a lower-layer frame existing later.

【0039】本願請求項10に記載の発明に係る画像復
号装置は、前記請求項7乃至9のいずれかに記載の画像
復号装置において、前記合成手段は、合成対象フレーム
位置に対応する下位レイヤフレームが存在しない場合、
前記合成対象フレーム上で、第1部品領域でも第2部品
領域でもない領域に対しては、前記時間的に前及び後に
存在する下位レイヤフレームを加重平均することによっ
て、前記存在しない下位レイヤフレームの生成を行うも
のである。
According to a tenth aspect of the present invention, in the image decoding apparatus according to any one of the seventh to ninth aspects, the synthesizing means includes a lower layer frame corresponding to a position of a frame to be synthesized. If does not exist,
For the area that is neither the first component area nor the second component area on the compositing target frame, the lower layer frames existing before and after the time are weighted and averaged to obtain the lower layer frame that does not exist. This is to generate.

【0040】本願請求項11に記載の発明に係る画像復
号装置は、前記請求項7乃至9のいずれかに記載の画像
復号装置において、前記合成手段は、合成対象フレーム
位置に対応する下位レイヤフレームが存在しない場合、
前記合成対象フレーム上で、第1部品領域でも第2部品
領域でもない領域に対しては、前記時間的に前又は後に
存在する下位レイヤフレームのいずれかを用いることに
よって、前記存在しない下位レイヤフレームの生成を行
うものである。
An image decoding apparatus according to an eleventh aspect of the present invention is the image decoding apparatus according to any one of the seventh to ninth aspects, wherein the synthesizing means includes a lower layer frame corresponding to a position of a frame to be synthesized. If does not exist,
For an area that is neither the first component area nor the second component area on the compositing target frame, the non-existent lower layer frame is obtained by using any of the lower layer frames existing before or after the time. Is generated.

【0041】本願請求項12に記載の発明に係る画像復
号装置は、前記請求項7乃至11のいずれかに記載の画
像復号装置において、前記合成手段は、合成対象フレー
ム位置に対応する下位レイヤフレームが存在しない場
合、前記合成対象フレームの時間的に前に存在する下位
レイヤ画像と、時間的に後に存在する下位レイヤ画像と
の間の動きパラメータを推定する動きパラメータ推定手
段と、前記動きパラメータによって、前記合成対象フレ
ームの時間的に前及び後に存在する下位レイヤ画像と、
第1部品領域及び第2部品領域とを、前記合成対象フレ
ーム位置に基づき、それぞれ動き補償によって変形する
変形手段とを有するものである。
According to a twelfth aspect of the present invention, in the image decoding apparatus according to any one of the seventh to eleventh aspects, the synthesizing means includes a lower layer frame corresponding to a position of a frame to be synthesized. Does not exist, a motion parameter estimating means for estimating a motion parameter between a lower layer image existing temporally before the frame to be synthesized and a lower layer image existing temporally after, and the motion parameter A lower-layer image temporally preceding and following the compositing target frame;
And a deforming means for deforming the first component region and the second component region by motion compensation based on the position of the compositing target frame.

【0042】[0042]

【発明の実施の形態】本発明の第1の実施例は、図8に
おける合成部805で発生する問題を解決するものであ
る。すなわち、2枚の下位レイヤ復号画像から画像を合
成する際、上位レイヤの選択領域の周辺に残像のような
歪みを発生させない画像合成装置に関するものである。
図1は第1の実施例の画像合成装置を示すブロック図で
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The first embodiment of the present invention solves the problem that occurs in the synthesizing unit 805 in FIG. That is, the present invention relates to an image synthesizing apparatus that does not generate distortion such as an afterimage around a selected region of an upper layer when an image is synthesized from two lower layer decoded images.
FIG. 1 is a block diagram showing an image synthesizing apparatus according to the first embodiment.

【0043】図1において、第1の領域抽出部101
は、下位レイヤの第1の領域情報及び下位レイヤの第2
の領域情報から、第1の領域であり且つ第2の領域でな
い領域を抽出する。図10(a)において、第1の領域
情報を点線で(点線内部が値0、点線外部が値1を持つ
ものとする)表し、同様に、第2の領域情報を破線で表
すとすると、第1の領域抽出部101で抽出される領域
は、図10(a)における斜線部となる。
In FIG. 1, a first area extracting unit 101
Are the first area information of the lower layer and the second area information of the lower layer.
The region that is the first region and is not the second region is extracted from the region information. In FIG. 10A, if the first area information is represented by a dotted line (the inside of the dotted line has a value of 0 and the outside of the dotted line has a value of 1), and similarly, the second area information is represented by a broken line. The region extracted by the first region extraction unit 101 is a hatched portion in FIG.

【0044】第2の領域抽出部102は、下位レイヤの
第1の領域情報及び下位レイヤの第2の領域情報から、
第2の領域領域であり且つ第1の領域でない領域を抽出
する。図10(a)の場合、網点部が抽出される。
The second area extracting unit 102 calculates the first area information of the lower layer and the second area information of the lower layer from the first area information.
An area that is the second area and is not the first area is extracted. In the case of FIG. 10A, a halftone dot portion is extracted.

【0045】コントローラ103は、第1の領域抽出部
101及び第2の領域抽出部102の出力により、スイ
ッチ104を制御する部分である。すなわち、注目画素
位置が第1の領域のみの場合には、スイッチ104を第
2の復号画像側に接続し、注目画素位置が第2の領域の
みの場合には、スイッチ104を第1の復号側に接続
し、それ以外の場合には、スイッチ104を補間画像作
成部105からの出力に接続する。
The controller 103 controls the switch 104 based on the outputs of the first area extraction unit 101 and the second area extraction unit 102. That is, when the target pixel position is only in the first region, the switch 104 is connected to the second decoded image side, and when the target pixel position is only in the second region, the switch 104 is connected to the first decoded image. Side, and in other cases, the switch 104 is connected to the output from the interpolation image creation unit 105.

【0046】補間画像作成部105は、下位レイヤの第
1の復号画像と下位レイヤの第2の復号画像との補間画
像を、上記従来技術として説明した式(1)に従って計算
する。ただし、式(1)でB(x, y, t1)は第1の復号画像、
B(x, y, t2)は第2の復号画像、I(x, y, t3) は補間画
像であり、t1, t2, t3はそれぞれ第1の復号画像、第2
の復号画像及び補間画像の時間である。
The interpolated image creating unit 105 calculates an interpolated image of the first decoded image of the lower layer and the second decoded image of the lower layer according to the above-mentioned conventional formula (1). Here, in equation (1), B (x, y, t1) is the first decoded image,
B (x, y, t2) is a second decoded image, I (x, y, t3) is an interpolated image, and t1, t2, and t3 are the first decoded image and the second
Are the times of the decoded image and the interpolated image.

【0047】以上のようにして、画像を作成するので、
例えば図10(a)の場合、斜線部では第2の復号画像
が使用されるため、選択領域外部の背景画素が現れ、網
点部では第1の復号画像が使用されるため、選択領域外
部の背景画素が現れ、それ以外の部分では第1の復号画
像と第2の復号画像の補間画像が現れる。
As described above, an image is created.
For example, in the case of FIG. 10 (a), the second decoded image is used in the shaded area, so the background pixel outside the selected area appears, and in the halftone dot area, the first decoded image is used. , And an interpolated image of the first decoded image and the second decoded image appears in other portions.

【0048】このようにして作成された画像の上に、図
1の加重平均部106によって上位レイヤの復号画像を
重ねるため、合成された画像は図10(b)に示すよう
に、選択領域(斜線部分)周辺に残像がなく、歪みの少
ない画像が得られる。図1の加重平均部106は、上記
の補間画像と上位レイヤの復号画像とを加重平均によっ
て合成する。合成方法については、上記従来技術で述べ
たので、ここでは説明を省略する。
Since the decoded image of the upper layer is superimposed on the image created in this way by the weighted averaging unit 106 shown in FIG. 1, the synthesized image is selected as shown in FIG. There is no afterimage around the shaded area) and an image with little distortion can be obtained. The weighted averaging unit 106 in FIG. 1 combines the above interpolated image and the decoded image of the upper layer by weighted averaging. Since the synthesizing method has been described in the above-mentioned prior art, the description is omitted here.

【0049】上述の第1の実施例においては、図1に示
す補間画像作成部105を設けたが、そのかわりに第1
の復号画像B(x,y,t1)と第2の復号画像B(x,y,t2)のう
ち、上位レイヤの時間であるt3に時間的に近い復号画像
の画素値を用いるようにしても良い。その場合は、各画
像のフレーム番号を用いて、t3-t1 < t1-t2の時は、 I(x, y, t3) = B(x, y, t1) とし、それ以外の時は、 I(x, y, t3) = B(x, y, t2) とする。
In the above-described first embodiment, the interpolation image creating unit 105 shown in FIG. 1 is provided.
Of the decoded image B (x, y, t1) and the second decoded image B (x, y, t2), the pixel value of the decoded image temporally closer to t3 which is the time of the upper layer is used. Is also good. In that case, using the frame number of each image, when t3-t1 <t1-t2, I (x, y, t3) = B (x, y, t1), otherwise, I (x, y, t3) = B (x, y, t2).

【0050】ただし、t1, t2, t3は、それぞれ第1の復
号画像、第2の復号画像及び上位レイヤの復号画像の時
間である。
Here, t1, t2, and t3 are the times of the first decoded image, the second decoded image, and the decoded image of the upper layer, respectively.

【0051】次に、本発明の第2の実施例を説明する。
本実施例は、第1の実施例の画像合成装置において、下
位レイヤの復号画像の動き情報を考慮して、より正確に
画像を合成する画像合成装置に関するものである。図2
は動きパラメータを推定し、2枚の復号画像とそれらに
対応する2枚の領域情報とを変形する装置を示すブロッ
ク図である。
Next, a second embodiment of the present invention will be described.
The present embodiment relates to an image synthesizing apparatus that more accurately synthesizes an image in consideration of motion information of a decoded image of a lower layer in the image synthesizing apparatus of the first embodiment. FIG.
FIG. 3 is a block diagram showing a device for estimating a motion parameter and transforming two decoded images and corresponding two pieces of area information.

【0052】図2において、動きパラメータ推定部20
1では、下位レイヤにおける第1の復号画像から第2の
復号画像への動き情報を推定する。例えば、ブロック単
位の動ベクトルを求めたり、画像全体の動き(並行移
動、回転、拡大縮小など)を求め、動きパラメータとす
る。
In FIG. 2, a motion parameter estimating section 20
In step 1, motion information from the first decoded image to the second decoded image in the lower layer is estimated. For example, a motion vector is obtained for each block, or a motion (parallel movement, rotation, enlargement / reduction, etc.) of the entire image is obtained and used as a motion parameter.

【0053】変形部202では、第1の復号画像、第2
の復号画像、第1の領域情報、第2の領域情報を、それ
ぞれ推定された動きパラメータによって、合成対象フレ
ームの時間的位置に基づき変形する。例えば、動きパラ
メータとして第1の復号画像から第2の復号画像への動
ベクトル(MVx,MVy)が求められているとする。ここで、M
Vxは動ベクトルの水平成分、MVyは動ベクトルの垂直成
分である。
In the deforming unit 202, the first decoded image, the second
, The first region information and the second region information are transformed based on the estimated motion parameters based on the temporal position of the synthesis target frame. For example, it is assumed that a motion vector (MVx, MVy) from the first decoded image to the second decoded image is obtained as a motion parameter. Where M
Vx is the horizontal component of the motion vector, and MVy is the vertical component of the motion vector.

【0054】このとき、第1の復号画像から補間画像へ
の動ベクトルを、 (t3-t1)/(t2-t1)(MVx, MVy) によって計算し、第1の復号画像をこの動ベクトルにて
シフトする。動きパラメータとして回転、拡大縮小など
を用いる場合は、単なるシフトではなく変形を伴う。
At this time, a motion vector from the first decoded image to the interpolation image is calculated by (t3-t1) / (t2-t1) (MVx, MVy), and the first decoded image is converted to this motion vector. Shift. When rotation, enlargement / reduction, or the like is used as a motion parameter, deformation is involved instead of a simple shift.

【0055】図2においては、変形されたデータをそれ
ぞれa, b, c, dで表しているが、aは図1における第1
の復号画像、bは図1における第2の復号画像、cは図1
における第1の領域情報、dにおける図1の第2の領域
情報として、図1に示した画像合成装置に入力され、合
成画像が作成される。
In FIG. 2, the transformed data are represented by a, b, c and d, respectively, where a is the first data in FIG.
, B is the second decoded image in FIG. 1, and c is FIG.
Are input to the image synthesizing apparatus shown in FIG. 1 as the first area information in FIG. 1 and the second area information in FIG. 1 in d, and a synthesized image is created.

【0056】第2の実施例では、2枚の復号画像から動
きパラメータを推定するようにしたが、予測符号化の際
には画像の各ブロックの動ベクトルが符号化データに含
まれているのが一般的であるので、これらの動ベクトル
を利用しても良い。
In the second embodiment, the motion parameters are estimated from two decoded images. However, at the time of predictive encoding, the motion vector of each block of the image is included in the encoded data. Since these are general, these motion vectors may be used.

【0057】例えば、復号された動ベクトルの平均値
を、第1の復号画像から第2の復号画像への画像全体の
動ベクトルとしたり、或いは、復号された動ベクトルの
頻度分布を求め、最も頻度の高いベクトルを第1の復号
画像から第2の復号画像への画像全体の動ベクトルとし
ても良い。上記の処理は、水平方向・垂直方向で独立し
て行われる。
For example, the average value of the decoded motion vectors is used as the motion vector of the entire image from the first decoded image to the second decoded image, or the frequency distribution of the decoded motion vector is obtained. A vector having a high frequency may be used as a motion vector of the entire image from the first decoded image to the second decoded image. The above processing is performed independently in the horizontal and vertical directions.

【0058】次に、本発明の第3の実施例を説明する。
第3の実施例は、領域情報を効率良く符号化する領域情
報符号化装置に関するものである。図3及び図4は本実
施例のブロック図であり、図3は符号化側、図4は復号
側を示すものである。
Next, a third embodiment of the present invention will be described.
The third embodiment relates to an area information encoding device that efficiently encodes area information. 3 and 4 are block diagrams of the present embodiment. FIG. 3 shows the encoding side, and FIG. 4 shows the decoding side.

【0059】図3における領域情報近似部301は、領
域情報を複数の図形で近似する。図11に近似の例を示
す。この例では、図形として矩形が用いられ、人物の領
域情報(斜線部)が2個の矩形で近似されている。矩形
1は人物の頭部を、矩形2は人物の胸部を表している。
The area information approximating unit 301 in FIG. 3 approximates the area information with a plurality of figures. FIG. 11 shows an example of approximation. In this example, a rectangle is used as a figure, and the area information (hatched portion) of a person is approximated by two rectangles. The rectangle 1 represents the head of the person, and the rectangle 2 represents the chest of the person.

【0060】領域近似情報符号化部302は、上記の近
似された領域情報を符号化する部分である。図11に示
すように、矩形で近似された場合には、各矩形の左上の
座標値と矩形の大きさとを固定長で符号化すれば良い。
或いは、楕円で近似された場合には、楕円の中心点の座
標、長軸の長さ及び短軸の長さを固定長で符号化すれば
良い。近似された領域情報と符号化されたデータとは、
選択部304に送られる。
The area approximation information encoding unit 302 encodes the approximated area information. As shown in FIG. 11, when approximated by rectangles, the upper left coordinate value of each rectangle and the size of the rectangle may be encoded with a fixed length.
Alternatively, when approximated by an ellipse, the coordinates of the center point of the ellipse, the length of the major axis, and the length of the minor axis may be encoded with a fixed length. The approximated area information and the encoded data are:
Sent to selection section 304.

【0061】領域情報符号化部303は、上記従来技術
で述べた領域情報符号化部806と同様に、領域情報を
近似せず、8方向量子化符号を用いて符号化する。領域
情報と符号化されたデータとは、選択部304に送られ
る。
The area information encoding unit 303 does not approximate the area information and encodes the area information using an 8-way quantization code, similarly to the area information encoding unit 806 described in the related art. The area information and the encoded data are sent to the selection unit 304.

【0062】選択部304は、領域近似情報符号化部3
02の出力か、領域情報符号化部303の出力のいずれ
かを選択する。領域近似情報符号化部302の出力が選
択された時は、領域近似情報の符号化データを1ビット
の選択情報(例えば0)と共に、図示しない符号化デー
タ統合部に送り、領域近似情報を図示しない合成部に送
る。
The selection unit 304 is used to encode the region approximation information
02 or the output of the area information encoding unit 303. When the output of the region approximation information encoding unit 302 is selected, the coded data of the region approximation information is sent to a coded data integration unit (not shown) together with 1-bit selection information (for example, 0), and the region approximation information is shown. Not sent to the synthesis unit.

【0063】また、領域情報符号化部303の出力が選
択された時は、近似しない領域情報の符号化データを1
ビットの選択情報(例えば1)と共に、図示しない符号
化データ統合部に送り、近似しない領域情報を画像合成
部に送る。画像合成部は、上記本発明の第1の実施例及
び第2の実施例で説明したものである。
When the output of the area information encoding unit 303 is selected, the encoded data of the area information which is not approximated is set to 1
Along with the bit selection information (for example, 1), the information is sent to an unillustrated coded data integration unit, and non-approximate area information is sent to the image synthesis unit. The image synthesizing unit has been described in the first embodiment and the second embodiment of the present invention.

【0064】選択部304における選択手法としては、
例えば符号化データ量の小さい方を選択する手法、或い
は近似しない領域情報の符号化データ量がある閾値以内
の時は領域情報符号化部303の出力を選び、閾値を越
える時には領域近似情報符号化部302の出力を選ぶよ
うにする。このような選択を行うことにより、領域情報
の符号化歪みを抑えながら、符号化データ量を削減する
ことができる。
As a selection method in the selection unit 304,
For example, a method of selecting the smaller coded data amount, or the output of the region information coding unit 303 is selected when the coded data amount of the region information that is not approximated is within a certain threshold, and when the coded data amount exceeds the threshold, the region approximate information coding is performed. The output of the unit 302 is selected. By making such a selection, the amount of coded data can be reduced while suppressing the coding distortion of the area information.

【0065】次に、本発明の第3の実施例の復号側(図
4)について説明する。図4において、選択部401
は、符号化データに含まれる1ビットの選択情報をもと
に、符号化データが領域近似情報のものであるか、領域
情報のものであるかを選択する。
Next, the decoding side (FIG. 4) of the third embodiment of the present invention will be described. Referring to FIG.
Selects whether the coded data is based on the area approximation information or based on the area information based on the 1-bit selection information included in the coded data.

【0066】領域近似情報復号部402は、領域近似情
報を復号する。領域情報復号部403は、近似していな
い領域情報を復号する。スイッチ404は、選択部40
1からの信号によってコントロールされ、合成部への出
力として、領域近似情報或いは近似していない領域情報
を選択する。
The area approximation information decoding section 402 decodes the area approximation information. The area information decoding unit 403 decodes area information that is not approximated. The switch 404 is connected to the selection unit 40
1 and selects area approximation information or non-approximate area information as an output to the synthesis unit.

【0067】以上のようにして、領域近似情報と近似し
ないもとの領域情報とを適応的に選択して符号化/復号
するので、領域情報が複雑で膨大なデータ量となる場合
には、領域近似情報の符号化が選択され、少ない情報量
で領域情報を符号化することができる。
As described above, the region approximation information and the original region information which is not approximated are adaptively selected and encoded / decoded. Therefore, when the region information is complicated and has a huge data amount, The encoding of the area approximation information is selected, and the area information can be encoded with a small amount of information.

【0068】上記の例では、近似しない領域情報は、8
方向量子化符号によって符号化したが、さらに予測符号
化を組み合わせて効率良く符号化しても良い。8方向量
子化符号は、図17に示すように、0〜7の値を持つ
が、予測符号化によって差分をとると、−7〜7となっ
てしまう。
In the above example, the area information that is not approximated is 8
Although the encoding is performed using the direction quantization code, the encoding may be performed efficiently by further combining predictive encoding. The eight-way quantization code has a value of 0 to 7 as shown in FIG. 17, but if a difference is obtained by predictive coding, it becomes -7 to 7.

【0069】しかし、差分値が−4以下の時は8を加
え、差分値が4より大きい時は8を引くことにより、差
分値を−3〜4に抑えることができる。復号時には、前
値に差分値を加え、その結果が負の場合には8を加え、
7を越える場合には8を引くことにより、もとの8方向
量子化値を得ることができる。
However, the difference value can be suppressed to -3 to 4 by adding 8 when the difference value is less than -4 and subtracting 8 when the difference value is larger than 4. At the time of decoding, the difference value is added to the previous value, and if the result is negative, 8 is added.
If it exceeds 7, the original 8-way quantized value can be obtained by subtracting 8.

【0070】以下にその例を示す。 8方向量子化値 1, 6, 2, 1, 3, ... 差分値 5, -4, -1, -2, ... 変換値 -3, 4, -1, 2, ... 復号値 1, 6, 2, 1, 3, ... 例えば、値6の前値との差分は5であるが、これから8
を引くことで−3となり、復号時には、前値1に復号値
−3に加えることで−2が得られるが、値が負であるた
め、これに8を加え、復号値6を得る。このような予測
符号化は、8方向量子化符号が巡回しているという性質
を利用したものである。
An example is shown below. 8-way quantization value 1, 6, 2, 1, 3, ... Difference value 5, -4, -1, -2, ... Conversion value -3, 4, -1, 2, ... Decoding Value 1, 6, 2, 1, 3, ... For example, the difference between the value 6 and the previous value is 5,
Is subtracted to obtain -3. At the time of decoding, -2 is obtained by adding the previous value 1 to the decoded value -3. However, since the value is negative, 8 is added to this to obtain the decoded value 6. Such predictive coding utilizes the property that an 8-way quantization code is cyclic.

【0071】第3の実施例においては、近似された領域
情報の符号化は、各画像で独立に行われているが、一般
に動画像はフレーム間の相関が高いため、前回の符号化
結果を利用して符号化効率を高めるようにしても良い。
In the third embodiment, the coding of the approximated region information is performed independently for each image. However, since the moving image generally has a high correlation between frames, the previous coding result is Utilization may be used to increase the coding efficiency.

【0072】すなわち、近似された領域情報の符号化が
フレーム間で連続する場合、領域近似情報の差分のみを
符号化するようにする。例えば、領域が矩形で近似さ
れ、前フレームの矩形が 左上の点:(10, 20)、大きさ:(100, 150) で表され、現フレームの矩形が 左上の点:(13, 18)、大きさ:(100, 152) で表れる場合は、現フレームでは 左上の差分値:(3, 2)、大きさの差分値:(0, 2)を符号
化する。
That is, when encoding of the approximated area information is continuous between frames, only the difference of the approximated area information is encoded. For example, the area is approximated by a rectangle, the rectangle of the previous frame is represented by the upper left point: (10, 20), the size: (100, 150), and the rectangle of the current frame is the upper left point: (13, 18) , Magnitude: (100, 152), the current frame encodes the upper left difference value: (3, 2) and the magnitude difference value: (0, 2).

【0073】領域の形状変化が小さい場合には、差分値
はいずれも0付近に集中するため、ハフマン符号化など
のエントロピー符号化を用いれば、領域情報の符号量が
大幅に削減できる。さらに、矩形が変化しない場合が多
い時には、現フレームにおいて1ビットの情報を矩形の
変化情報として符号化すれば良い。
When the change in the shape of the area is small, all the difference values are concentrated around 0. Therefore, if entropy coding such as Huffman coding is used, the code amount of the area information can be greatly reduced. Furthermore, when the rectangle does not change in many cases, 1-bit information in the current frame may be encoded as rectangular change information.

【0074】すなわち、矩形が変化しない時には、これ
を表す1ビットの情報(例えば0)のみを符号化し、矩
形が変化する時には、1ビットの情報(例えば1)と上
記の差分情報とを符号化する。
That is, when the rectangle does not change, only 1-bit information (for example, 0) representing this is coded, and when the rectangle changes, 1-bit information (for example, 1) and the above difference information are coded. I do.

【0075】次に、本発明の第4の実施例を説明する。
第4の実施例は、領域情報から多値の重み情報を作成す
る重み情報作成装置に関するものである。図5は本実施
例のブロック図である。
Next, a fourth embodiment of the present invention will be described.
The fourth embodiment relates to a weight information creating device that creates multi-value weight information from region information. FIG. 5 is a block diagram of the present embodiment.

【0076】図5において、水平方向重み作成部501
は、領域情報を水平方向に走査して領域情報が1の部分
を求め、それに対応した重み関数を求める。具体的に
は、領域の左端の点の座標x0と領域の水平方向の長さN
とを求め、図12(a)に示すような水平方向重み関数
を計算する。
Referring to FIG. 5, a horizontal weight creating unit 501 is provided.
Scans the area information in the horizontal direction, finds a portion where the area information is 1, and finds a weighting function corresponding to it. Specifically, the coordinates x0 of the left end point of the area and the horizontal length N of the area
And a horizontal weighting function as shown in FIG. 12A is calculated.

【0077】重み関数は直線を組み合わせて作成しても
良いし、直線と三角関数を組み合わせて作成しても良
い。後者の例として、三角関数部分の幅をWとする時、
N > 2Wならば、 0≦x<W の時 sin[(x+1/2)π/(2W)]*sin[(x+1/2)π/(2W)] W≦x<N-W の時 1 N-W≦x<N の時 sin[(x-N+2W+1/2)π/(2W)]*sin[(x-N+2W+1/2)π/(2W)] N ≦ 2Wならば、 sin2[(x+1/2)π/N]*sin[(x+1/2)π/N] を用いることができる。ただし、領域の左端の点x0は0
としている。
The weight function may be created by combining straight lines, or may be created by combining straight lines and trigonometric functions. As an example of the latter, when the width of the trigonometric function part is W,
If N> 2W, when 0 ≦ x <W sin [(x + 1/2) π / (2W)] * sin [(x + 1/2) π / (2W)] W ≦ x <NW When 1 NW ≦ x <N sin [(x-N + 2W + 1/2) π / (2W)] * sin [(x-N + 2W + 1/2) π / (2W)] N ≦ If 2W, sin2 [(x + 1/2) π / N] * sin [(x + 1/2) π / N] can be used. However, the point x0 at the left end of the area is 0
And

【0078】垂直方向重み作成部502は、領域情報を
垂直方向に走査して領域情報が1の部分を求め、それに
対応した垂直方向重み関数を求める。具体的には、領域
の上端の点の座標y0と領域の垂直方向の長さMとを求
め、図12(b)に示すような垂直方向重み関数を計算
する。
The vertical weight generator 502 scans the area information in the vertical direction to find a portion where the area information is 1, and obtains a vertical weight function corresponding thereto. Specifically, the coordinates y0 of the upper end point of the region and the vertical length M of the region are obtained, and a vertical weighting function as shown in FIG. 12B is calculated.

【0079】乗算器503は、水平方向重み作成部50
1と垂直方向重み作成部502との出力を画素位置毎に
掛け合わせ、重み情報を作成する。このようにして重み
情報を作成すれば、領域情報の形に合わせた重み情報を
少ない演算量で求めることができる。
The multiplier 503 includes a horizontal direction weight generator 50.
1 is multiplied by the output of the vertical weight generator 502 for each pixel position to generate weight information. By creating the weight information in this manner, the weight information that matches the shape of the area information can be obtained with a small amount of calculation.

【0080】次に、本発明の第5の実施例を説明する。
第5の実施例は、下位レイヤ或いは上位レイヤの予測符
号化において、フレーム内符号化とフレーム間予測符号
化とを適応的に切替えるモード切替え方法に関するもの
である。図6は本実施例のブロック図である。
Next, a fifth embodiment of the present invention will be described.
The fifth embodiment relates to a mode switching method for adaptively switching between intra-frame coding and inter-frame predictive coding in predictive coding of a lower layer or an upper layer. FIG. 6 is a block diagram of the present embodiment.

【0081】図6において、平均値計算部601は、原
画像と領域情報とを入力とし、領域内部の画素値につい
て、画素値の平均を計算する。平均値は差分器603と
記憶部602とに入力される。差分器603は、記憶部
602に記憶された前回の平均値と平均値計算部601
から出力された今回の平均値との差を計算する。
In FIG. 6, an average value calculation unit 601 receives an original image and area information, and calculates an average of pixel values for pixel values inside the area. The average value is input to the differentiator 603 and the storage unit 602. The differentiator 603 calculates a previous average value and an average value calculation unit 601 stored in the storage unit 602.
Calculates the difference from the current average value output from.

【0082】判定部604は、差分器603で計算され
た差分値の絶対値を、予め定められた閾値と比較し、モ
ード切替え情報を出力する。差分値の絶対値が閾値より
も大きい場合は、選択領域においてシーンチェンジがあ
ると判定し、常にフレーム内符号化を行うようにモード
切替え情報を発生する。
The determination section 604 compares the absolute value of the difference value calculated by the differentiator 603 with a predetermined threshold value, and outputs mode switching information. If the absolute value of the difference value is larger than the threshold, it is determined that there is a scene change in the selected area, and mode switching information is generated so that intra-frame encoding is always performed.

【0083】このように、選択領域のシーンチェンジを
判定しながらモード切替えを行うことにより、例えば人
物が物影から現れたり、物体の表裏が反転したりする場
合にも、良好な符号化画像を得ることができる。
As described above, by performing the mode switching while judging the scene change of the selected area, a good coded image can be obtained even when, for example, a person appears from a shadow or the object is reversed. Obtainable.

【0084】この実施例は、下位レイヤの符号化におい
て、選択領域とそれ以外の領域とを分離して符号化する
方式に応用することができる。その場合は、領域情報を
下位レイヤに入力するようにする。さらに、本実施例
は、上位レイヤの選択領域のみの符号化に応用すること
もできる。
This embodiment can be applied to a method of performing coding by separating a selected area and other areas in coding of a lower layer. In that case, the area information is input to the lower layer. Further, the present embodiment can be applied to encoding of only the selected region of the upper layer.

【0085】次に、本発明の第6の実施例を説明する。
第6の実施例は、下位レイヤの符号化において、選択領
域とそれ以外の領域とを分離して符号化する場合のデー
タ量制御に関するものである。図7は本実施例のブロッ
ク図である。
Next, a sixth embodiment of the present invention will be described.
The sixth embodiment relates to data amount control in a case where a selected area and another area are separately encoded in encoding of a lower layer. FIG. 7 is a block diagram of the present embodiment.

【0086】図7において、符号化部703は、選択領
域とそれ以外の領域とを分離して符号化する。領域判定
部701には、領域情報が入力され、符号化している領
域が選択領域内であるか選択領域外であるかを判定す
る。発生符号量算出部705では、この判定結果に基づ
き、各領域での発生符号量を算出する。
In FIG. 7, an encoding unit 703 encodes a selected area separately from the other areas. The region information is input to the region determining unit 701, and it is determined whether the region to be coded is within the selected region or outside the selected region. The generated code amount calculation unit 705 calculates the generated code amount in each area based on the determination result.

【0087】目標符号量配分比算出部704では、各領
域に割り当てるフレーム単位の目標符号量の配分比を決
定する。配分比の決定方法については後述する。量子化
幅算出部702では、目標符号量に応じて量子化幅を決
定するが、この決定方法についは、従来法と同様であ
る。
The target code amount distribution ratio calculation unit 704 determines the distribution ratio of the target code amount for each frame to be allocated to each area. The method for determining the distribution ratio will be described later. The quantization width calculation unit 702 determines the quantization width according to the target code amount, and the method for this determination is the same as the conventional method.

【0088】ここで、目標符号量配分比算出部704に
おける配分比決定方法について、説明する。まず、該当
フレームの目標符号量Biは次式を用いて計算される。Bi
=(使用可能符号量-前フレームまでの使用符号量)/残り
フレーム数この目標符号量Biをある比率で選択領域内と
選択領域外とに割り当てるのであるが、ここでは適当な
固定比R0と前フレーム複雑度比率Rpとを用いて、その比
率を決定する。
Here, a method of determining the distribution ratio in target code amount distribution ratio calculating section 704 will be described. First, the target code amount Bi of the frame is calculated using the following equation. Bi
= (Available code amount-used code amount up to the previous frame) / number of remaining frames This target code amount Bi is allocated to the selected area inside and outside the selected area at a certain ratio, but here an appropriate fixed ratio R0 and Using the previous frame complexity ratio Rp, the ratio is determined.

【0089】前フレーム複雑度比率Rpは、次式で決定さ
れる。 Rp=(gen_bitF*avg_qF)/(gen_bitF*avg_qF+gen_bitB*avg
_qB) ここで、 gen_bitF:前フレーム選択領域内発生符号量 gen_bitB:前フレーム選択領域外発生符号量 avg_qF:前フレームの選択領域内平均量子化幅 avg_qB:前フレームの選択領域外平均量子化幅 である。
The previous frame complexity ratio Rp is determined by the following equation. Rp = (gen_bitF * avg_qF) / (gen_bitF * avg_qF + gen_bitB * avg
_qB) where gen_bitF: code amount generated in the previous frame selection area gen_bitB: code amount generated outside the previous frame selection area avg_qF: average quantization width within the selection area of the previous frame avg_qB: average quantization width outside the selection area of the previous frame is there.

【0090】選択領域を高画質にするには、量子化幅を
制御し、選択領域内の平均量子化幅が選択領域外の平均
量子化幅よりもある程度小さな状態を保ち、しかも動画
像シーケンス内での画像の変化にも追随することが望ま
しい。
To increase the quality of the selected area, the quantization width is controlled so that the average quantization width in the selected area is smaller than the average quantization width outside the selected area to some extent. It is desirable to follow the change of the image at the time.

【0091】一般に、固定比R0による配分は、選択領域
内と選択領域外との平均量子化幅の関係をほぼ一定に保
つのに適し、前フレーム複雑度比率Rpによる配分は、動
画像シーケンス内での画像の変化に追随させるのに適す
る。
In general, the distribution by the fixed ratio R0 is suitable for keeping the relation between the average quantization widths inside and outside the selected region almost constant, and the distribution by the previous frame complexity ratio Rp is the same as that in the moving image sequence. It is suitable to follow the change of the image at the time.

【0092】そこで、本発明では、目標符号量配分比Ra
を固定比R0と前フレーム複雑度比率Rpとの平均とし、両
者の長所を兼ね備えた制御を行なう。すなわち、 Ra=(R0+Rp)/2 である。
Therefore, in the present invention, the target code amount distribution ratio Ra
Is the average of the fixed ratio R0 and the previous frame complexity ratio Rp, and control having both advantages is performed. That is, Ra = (R0 + Rp) / 2.

【0093】例えば、選択領域における固定比R0と前フ
レーム複雑度比率Rpとが、動画像シーケンス全体におい
て、図13における点線のようになったとする。このと
き、目標符号量配分比Raは、図13における実線のよう
になり、固定比R0からあまり離れず、しかもある程度画
像の変化を反映することがわかる。
For example, it is assumed that the fixed ratio R0 and the previous frame complexity ratio Rp in the selected area are as shown by a dotted line in FIG. 13 in the entire moving image sequence. At this time, the target code amount distribution ratio Ra is as shown by the solid line in FIG. 13, and it can be seen that the target code amount distribution ratio does not deviate much from the fixed ratio R0 and reflects a change in the image to some extent.

【0094】このとき、選択領域外の固定比を(1-R0)、
前フレーム複雑度比率を(1-Rp)とすると、両者の平均で
ある目標符号量配分比(1-Ra)は、図14における実線に
示すようになり、選択領域内と選択領域外との目標符号
量配分比を加えたものは1となる。
At this time, the fixed ratio outside the selected area is (1-R0),
Assuming that the previous frame complexity ratio is (1-Rp), the target code amount distribution ratio (1-Ra), which is the average of the two, is as shown by the solid line in FIG. The value obtained by adding the target code amount distribution ratio is 1.

【0095】このようにして、量子化幅を適切に制御す
ることができるが、フレームによっては発生符号量が目
標符号量Biを越える場合があるため、シーケンス全体の
ビットレートが所定のビットレートに収まらないことが
起こりうる。そのような場合には、次に述べるような方
法をとることができる。
In this way, the quantization width can be appropriately controlled. However, since the generated code amount may exceed the target code amount Bi depending on the frame, the bit rate of the entire sequence is reduced to a predetermined bit rate. Things that don't fit can happen. In such a case, the following method can be used.

【0096】選択領域内の目標符号量配分比Raは、上述
したとおり、固定比R0と前フレーム複雑度比率Rpとの平
均とする。一方、選択領域外の目標符号量配分比は、選
択領域外の固定比(1-R0)と前フレーム複雑度比率(1-Rp)
との最小値Rmとする。
As described above, the target code amount distribution ratio Ra in the selected area is an average of the fixed ratio R0 and the previous frame complexity ratio Rp. On the other hand, the target code amount distribution ratio outside the selected region is a fixed ratio outside the selected region (1-R0) and a previous frame complexity ratio (1-Rp).
With the minimum value Rm.

【0097】このようにすると、選択領域外の目標符号
量配分比Rmの変化は、例えば図15における実線に示す
ようになる。このとき、 Ra+Rm≦1 となることから、該当フレームの目標符号量を小さくす
ることができる。すなわち、背景領域の目標符号量を抑
えることにより、動画像シーケンス全体のビットレート
を所定のビットレートに収めることができる。
In this way, the change in the target code amount distribution ratio Rm outside the selected area is, for example, as shown by the solid line in FIG. At this time, since Ra + Rm ≦ 1, the target code amount of the frame can be reduced. That is, by suppressing the target code amount in the background area, the bit rate of the entire moving image sequence can be kept at a predetermined bit rate.

【0098】[0098]

【発明の効果】本発明の画像符号化装置及び画像復号装
置によれば、符号化されていない下位レイヤフレームを
前後の下位レイヤフレームから生成する際に、第1部品
領域のみの領域に対しては時間的に後にある下位レイヤ
フレームを用い、第2部品領域のみの領域に対しては時
間的に前にある下位レイヤフレームを用いることによ
り、対象物体が動いている場合でも、合成画像に歪みが
なく良好な画像を得ることができる。
According to the image encoding apparatus and the image decoding apparatus of the present invention, when an unencoded lower layer frame is generated from previous and subsequent lower layer frames, only the first component area is generated. Uses the lower layer frame that is temporally later, and uses the lower layer frame that is temporally earlier for the area of only the second component area, so that even if the target object is moving, the synthesized image is distorted. And a good image can be obtained.

【0099】また、下位レイヤフレーム生成の際に、第
1部品領域と第2部品領域とが重なる領域、もしくは第
1部品領域でも第2部品領域でもない領域に対しては、
前記合成する下位レイヤフレームに時間的に近い下位レ
イヤフレームを用いるか、あるいは第1の下位レイヤフ
レームのみを用いるか、あるいは第2の下位レイヤフレ
ームのみを用いることにより、下位レイヤの背景領域が
動いている時にも、合成された背景画像が2重になるこ
とがなく、良好な画像を得ることができる。
Also, when the lower layer frame is generated, an area where the first component area and the second component area overlap, or an area that is neither the first component area nor the second component area,
By using a lower layer frame temporally closer to the lower layer frame to be combined, using only the first lower layer frame, or using only the second lower layer frame, the background area of the lower layer moves. In this case, the synthesized background image is not duplicated, and a good image can be obtained.

【0100】さらに、下位レイヤフレーム生成の際に、
動きパラメータによって第1の下位レイヤ画像、第2の
下位レイヤ画像、第1部品領域及び第2部品領域を、合
成する下位レイヤフレームの時間的位置に基づき、それ
ぞれ動き補償によって変形することにより、下位レイヤ
の背景領域が動いている時にも、この動きに追従した合
成画像を生成することができ、良好な画像を得ることが
できる。
Further, when generating the lower layer frame,
By transforming the first lower layer image, the second lower layer image, the first component region, and the second component region by motion compensation based on the temporal position of the lower layer frame to be combined with the motion parameter, Even when the background area of the layer is moving, it is possible to generate a composite image that follows this movement, and it is possible to obtain a good image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例を説明するブロック図で
ある。
FIG. 1 is a block diagram illustrating a first embodiment of the present invention.

【図2】本発明の第2の実施例を説明するブロック図で
ある。
FIG. 2 is a block diagram illustrating a second embodiment of the present invention.

【図3】本発明の第3の実施例の符号化側を説明するブ
ロック図である。
FIG. 3 is a block diagram illustrating an encoding side according to a third embodiment of the present invention.

【図4】本発明の第3の実施例の復号側を説明するブロ
ック図である。
FIG. 4 is a block diagram illustrating a decoding side according to a third embodiment of the present invention.

【図5】本発明の第4の実施例を説明するブロック図で
ある。
FIG. 5 is a block diagram illustrating a fourth embodiment of the present invention.

【図6】本発明の第5の実施例を説明するブロック図で
ある。
FIG. 6 is a block diagram illustrating a fifth embodiment of the present invention.

【図7】本発明の第6の実施例を説明するブロック図で
ある。
FIG. 7 is a block diagram illustrating a sixth embodiment of the present invention.

【図8】従来の符号化装置及び復号装置を説明するブロ
ック図である。
FIG. 8 is a block diagram illustrating a conventional encoding device and decoding device.

【図9】従来の符号量制御部を説明するブロック図であ
る。
FIG. 9 is a block diagram illustrating a conventional code amount control unit.

【図10】本発明の第1の実施例の効果を説明する図で
ある。
FIG. 10 is a diagram illustrating the effect of the first embodiment of the present invention.

【図11】本発明の第3の実施例における領域情報を近
似する例を示す説明図である。
FIG. 11 is an explanatory diagram showing an example of approximating region information according to a third embodiment of the present invention.

【図12】本発明の第4の実施例における重み情報の作
成方法例を示す説明図である。
FIG. 12 is an explanatory diagram illustrating an example of a method for creating weight information according to a fourth embodiment of the present invention.

【図13】本発明の第6の実施例における符号量制御方
法による選択領域の目標符号量比率を説明する図であ
る。
FIG. 13 is a diagram illustrating a target code amount ratio of a selected area according to a code amount control method according to a sixth embodiment of the present invention.

【図14】本発明の第6の実施例における符号量制御方
法による選択領域外の目標符号量比率を説明する図であ
る。
FIG. 14 is a diagram illustrating a target code amount ratio outside a selected area according to a code amount control method according to a sixth embodiment of the present invention.

【図15】本発明の第6の実施例における他の符号量制
御方法による選択領域外の目標符号量比率を説明する図
である。
FIG. 15 is a diagram illustrating a target code amount ratio outside a selected area according to another code amount control method according to the sixth embodiment of the present invention.

【図16】従来の動画像階層符号化の概念を説明する図
である。
FIG. 16 is a diagram illustrating the concept of conventional video hierarchical coding.

【図17】8方向量子化符号を説明する図である。FIG. 17 is a diagram illustrating an 8-way quantization code.

【図18】従来の動画像階層符号化の問題点を説明する
図である。
FIG. 18 is a diagram illustrating a problem of conventional video hierarchical coding.

【符号の説明】[Explanation of symbols]

101 第1の領域抽出部 102 第2の領域抽出部 103 コントローラ 104 スイッチ 105 補間画像作成部 106 加重平均部 Reference Signs List 101 first region extraction unit 102 second region extraction unit 103 controller 104 switch 105 interpolation image creation unit 106 weighted average unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊藤 典男 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 野村 敏男 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Norio Ito 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (72) Inventor Toshio Nomura 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside the corporation

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 1つの動画像シーケンスを低いフレーム
レートで符号化する下位レイヤ符号化手段と、 前記動画像シーケンスの1もしくは複数の特定部品領域
のみを高いフレームレートで符号化する上位レイヤ符号
化手段と、 前記特定部品領域を示す領域情報に基づき、上位レイヤ
の動画像シーケンスを、下位レイヤの動画像シーケンス
に合成する合成手段とを備えた画像符号化装置におい
て、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ムの時間的に前に存在する下位レイヤにおける第1部品
領域情報と、時間的に後に存在する下位レイヤにおける
第2部品領域情報とに基づき、 前記合成対象フレーム上で、第1部品領域のみの領域に
対しては、前記時間的に後にある下位レイヤフレームを
用いるとともに、前記合成対象フレーム上で、第2部品
領域のみの領域に対しては、前記時間的に前にある下位
レイヤフレームを用いることによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
符号化装置。
1. A lower layer coding means for coding one moving image sequence at a low frame rate, and an upper layer coding means for coding only one or a plurality of specific component regions of the moving image sequence at a high frame rate. Means for synthesizing a moving image sequence of an upper layer with a moving image sequence of a lower layer based on region information indicating the specific component region. When there is no lower layer frame corresponding to the frame position, the first component region information in the lower layer temporally preceding the frame to be combined and the second component region information in the lower layer temporally subsequent to the compositing target frame On the compositing target frame, for the area of only the first component area, The non-existent lower-layer frame is generated by using a lower-layer frame that is temporally earlier in a region including only the second component region on the synthesis target frame while using a layer frame. An image encoding device, characterized in that:
【請求項2】 前記請求項1に記載の画像符号化装置に
おいて、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前及び後に存在する下位レイヤ
フレームを加重平均することによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
符号化装置。
2. The image encoding device according to claim 1, wherein the combining unit includes a first component area and a first component area on the combining target frame when there is no lower layer frame corresponding to the combining target frame position. An image coding method characterized in that, for a region where the second component region overlaps, the non-existing lower layer frame is generated by performing a weighted average of the lower layer frames existing before and after in time. apparatus.
【請求項3】 前記請求項1に記載の画像符号化装置に
おいて、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前又は後に存在する下位レイヤ
フレームを用いることによって、前記存在しない下位レ
イヤフレームの生成を行うことを特徴とする画像符号化
装置。
3. The image encoding device according to claim 1, wherein the combining unit includes a first component area and a first component area on the synthesis target frame when there is no lower layer frame corresponding to the synthesis target frame position. An image coding apparatus, wherein a non-existent lower-layer frame is generated by using a lower-layer frame existing temporally before or after a region where a second component region overlaps.
【請求項4】 前記請求項1乃至3のいずれかに記載の
画像符号化装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域でも第2部品領域でもない領域に
対しては、前記時間的に前及び後に存在する下位レイヤ
フレームを加重平均することによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
符号化装置。
4. The image encoding device according to claim 1, wherein the combining unit is configured to determine whether a lower layer frame corresponding to the position of the frame to be combined does not exist on the frame to be combined. For a region that is neither the first component region nor the second component region, the non-existent lower layer frame is generated by performing a weighted average of the lower layer frames existing before and after the time. Image encoding device.
【請求項5】 前記請求項1乃至3のいずれかに記載の
画像符号化装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域でも第2部品領域でもない領域に
対しては、前記時間的に前又は後に存在する下位レイヤ
フレームのいずれかを用いることによって、前記存在し
ない下位レイヤフレームの生成を行うことを特徴とする
画像符号化装置。
5. The image encoding device according to claim 1, wherein the combining unit includes: when there is no lower layer frame corresponding to the position of the frame to be combined, on the frame to be combined; For a region that is neither the first component region nor the second component region, the non-existent lower layer frame is generated by using any of the temporally lower or higher-order lower layer frames. Image encoding device.
【請求項6】 前記請求項1乃至5のいずれかに記載の
画像符号化装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ムの時間的に前に存在する下位レイヤ画像と、時間的に
後に存在する下位レイヤ画像との間の動きパラメータを
推定する動きパラメータ推定手段と、 前記動きパラメータによって、前記合成対象フレームの
時間的に前及び後に存在する下位レイヤ画像と、第1部
品領域及び第2部品領域とを、前記合成対象フレーム位
置に基づき、それぞれ動き補償によって変形する変形手
段とを有することを特徴とする画像符号化装置。
6. The image encoding device according to claim 1, wherein the combining unit is configured to determine a temporal position of the synthesis target frame when there is no lower layer frame corresponding to the synthesis target frame position. A motion parameter estimating means for estimating a motion parameter between a lower layer image existing before and a lower layer image existing after in time; and the motion parameter, before and after in time the synthesis target frame. An image coding apparatus, comprising: a deforming unit that deforms an existing lower layer image and a first component region and a second component region by motion compensation based on the synthesis target frame position.
【請求項7】 1つの動画像シーケンスを低いフレーム
レートで符号化した符号化データを復号する下位レイヤ
復号手段と、 前記動画像シーケンスの1もしくは複数の特定部品領域
のみを高いフレームレートで符号化した符号化データを
復号する上位レイヤ復号手段と、 前記特定部品領域を示す領域情報に基づき、上位レイヤ
の動画像シーケンスを、下位レイヤの動画像シーケンス
に合成する合成手段とを備えた画像復号装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ムの時間的に前に存在する下位レイヤにおける第1部品
領域情報と、時間的に後に存在する下位レイヤにおける
第2部品領域情報とに基づき、 前記合成対象フレーム上で、第1部品領域のみの領域に
対しては、前記時間的に後にある下位レイヤフレームを
用いるとともに、前記合成対象フレーム上で、第2部品
領域のみの領域に対しては、前記時間的に前にある下位
レイヤフレームを用いることによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
復号装置。
7. A lower layer decoding means for decoding encoded data obtained by encoding one moving image sequence at a low frame rate, and encoding only one or a plurality of specific component areas of the moving image sequence at a high frame rate. Image decoding apparatus comprising: an upper layer decoding unit that decodes encoded data that has been encoded; and a combining unit that combines a moving image sequence of an upper layer with a moving image sequence of a lower layer based on region information indicating the specific component region. In the above, when the lower layer frame corresponding to the position of the frame to be synthesized does not exist, the synthesizing unit includes first component region information in a lower layer temporally preceding the frame to be synthesized and temporally following the lower layer. On the basis of the second component region information in the lower layer, only the first component region The lower layer frame that is temporally later is used for the area, and the lower layer frame that is temporally earlier is used for the area of only the second component area on the synthesis target frame. A non-existing lower layer frame.
【請求項8】 前記請求項7に記載の画像復号装置にお
いて、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前及び後に存在する下位レイヤ
フレームを加重平均することによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
復号装置。
8. The image decoding device according to claim 7, wherein, when there is no lower layer frame corresponding to the position of the frame to be combined, the combining unit includes a first component area and a first component area on the frame to be combined. An image decoding apparatus characterized in that, for an area where two component areas overlap, the lower layer frame that does not exist is generated by performing a weighted average of the lower layer frames that exist before and after the part.
【請求項9】 前記請求項7に記載の画像復号装置にお
いて、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域と第2部品領域とが重なる領域に
対しては、前記時間的に前又は後に存在する下位レイヤ
フレームを用いることによって、前記存在しない下位レ
イヤフレームの生成を行うことを特徴とする画像復号装
置。
9. The image decoding apparatus according to claim 7, wherein, when there is no lower layer frame corresponding to the position of the frame to be combined, the combining unit includes a first component area and a first component area on the frame to be combined. An image decoding apparatus characterized in that, for an area where two component areas overlap, the lower layer frame that does not exist is generated by using the lower layer frame that exists before or after the part in time.
【請求項10】 前記請求項7乃至9のいずれかに記載
の画像復号装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域でも第2部品領域でもない領域に
対しては、前記時間的に前及び後に存在する下位レイヤ
フレームを加重平均することによって、前記存在しない
下位レイヤフレームの生成を行うことを特徴とする画像
復号装置。
10. The image decoding device according to claim 7, wherein the combining unit determines whether a lower layer frame corresponding to the position of the frame to be combined does not exist on the frame to be combined. For an area that is neither the one part area nor the second part area, the lower layer frame that does not exist is generated by performing a weighted average of the lower layer frames that exist before and after the time. Image decoding device.
【請求項11】 前記請求項7乃至9のいずれかに記載
の画像復号装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ム上で、第1部品領域でも第2部品領域でもない領域に
対しては、前記時間的に前又は後に存在する下位レイヤ
フレームのいずれかを用いることによって、前記存在し
ない下位レイヤフレームの生成を行うことを特徴とする
画像復号装置。
11. The image decoding apparatus according to claim 7, wherein the combining unit determines whether a lower layer frame corresponding to the position of the frame to be combined does not exist on the frame to be combined. For an area that is neither a one component area nor a second component area, the generation of the non-existent lower layer frame is performed by using any of the lower layer frames existing before or after the time. Image decoding device.
【請求項12】 前記請求項7乃至11のいずれかに記
載の画像復号装置において、 前記合成手段は、合成対象フレーム位置に対応する下位
レイヤフレームが存在しない場合、前記合成対象フレー
ムの時間的に前に存在する下位レイヤ画像と、時間的に
後に存在する下位レイヤ画像との間の動きパラメータを
推定する動きパラメータ推定手段と、 前記動きパラメータによって、前記合成対象フレームの
時間的に前及び後に存在する下位レイヤ画像と、第1部
品領域及び第2部品領域とを、前記合成対象フレーム位
置に基づき、それぞれ動き補償によって変形する変形手
段とを有することを特徴とする画像復号装置。
12. The image decoding apparatus according to claim 7, wherein the combining unit determines a temporal position of the synthesis target frame when there is no lower layer frame corresponding to the synthesis target frame position. A motion parameter estimating means for estimating a motion parameter between a lower layer image existing before and a lower layer image existing later in time; An image decoding apparatus comprising: a lower layer image to be transformed, and first and second component areas, each of which is transformed by motion compensation based on the position of the compositing target frame.
JP7703599A 1999-03-23 1999-03-23 Image encoding device and image decoding device Expired - Fee Related JP3148734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7703599A JP3148734B2 (en) 1999-03-23 1999-03-23 Image encoding device and image decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7703599A JP3148734B2 (en) 1999-03-23 1999-03-23 Image encoding device and image decoding device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27550195A Division JP3101195B2 (en) 1995-07-14 1995-10-24 Image encoding device and image decoding device

Publications (2)

Publication Number Publication Date
JP2000004444A true JP2000004444A (en) 2000-01-07
JP3148734B2 JP3148734B2 (en) 2001-03-26

Family

ID=13622515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7703599A Expired - Fee Related JP3148734B2 (en) 1999-03-23 1999-03-23 Image encoding device and image decoding device

Country Status (1)

Country Link
JP (1) JP3148734B2 (en)

Also Published As

Publication number Publication date
JP3148734B2 (en) 2001-03-26

Similar Documents

Publication Publication Date Title
US6088061A (en) Video coding device and video decoding device
JP4326743B2 (en) Transcoding method and transcoder for transcoding predictive-encoded object-based image signal to predictive-encoded block-based image signal
JPH09252470A (en) Method for encoding and decoding image
JP3224514B2 (en) Video encoding device and video decoding device
JP3356516B2 (en) Video encoding device
JPH1070728A (en) Present frame prediction device
JP2002051336A (en) Image-coding apparatus and image-decoding apparatus
JPH0813145B2 (en) Video coding method using region segmentation
JP4427553B2 (en) Video decoding device
JP3125145B2 (en) Method and apparatus for highly efficient encoding of image data
JP3148734B2 (en) Image encoding device and image decoding device
JP3526258B2 (en) Image encoding device and image decoding device
JP3101262B2 (en) Image encoding device and image decoding device
JP3746708B2 (en) Video encoding device
JP3101195B2 (en) Image encoding device and image decoding device
JP3866946B2 (en) Video encoding device
JP3277116B2 (en) Video encoding device and video decoding device
JP2002094997A (en) Format conversion method for image sequence
JPH05236456A (en) Method and device for encoding moving image
JPH10150665A (en) Method for generating predictive image, and method and device for image encoding
JP3148751B2 (en) Video encoding device and video decoding device
JP4134078B2 (en) Video decoding device
JP2008005546A (en) Method for producing predictive image, and method and device for image encoding
JPH10145795A (en) Method for coding dynamic image, method for decoding, device for coding dynamic image and device for decoding dynamic image
JP3148752B2 (en) Video encoding device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080112

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees