JP2002051336A - Image-coding apparatus and image-decoding apparatus - Google Patents

Image-coding apparatus and image-decoding apparatus

Info

Publication number
JP2002051336A
JP2002051336A JP2001180950A JP2001180950A JP2002051336A JP 2002051336 A JP2002051336 A JP 2002051336A JP 2001180950 A JP2001180950 A JP 2001180950A JP 2001180950 A JP2001180950 A JP 2001180950A JP 2002051336 A JP2002051336 A JP 2002051336A
Authority
JP
Japan
Prior art keywords
image
information
area
encoding
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001180950A
Other languages
Japanese (ja)
Inventor
Hiroyuki Katada
裕之 堅田
Hiroshi Kusao
寛 草尾
Norio Ito
典男 伊藤
Toshio Nomura
敏男 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2001180950A priority Critical patent/JP2002051336A/en
Publication of JP2002051336A publication Critical patent/JP2002051336A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

PROBLEM TO BE SOLVED: To provide an image-coding apparatus and image-decoding apparatus, capable of efficiently coding and decoding the area information. SOLUTION: The image-coding apparatus for coding a plurality of clip motion pictures is provided with an area information encoding section for coding the area information of the motion pictures and an information generating section for generating information, showing that the motion pictures are represented by rectangles. The area information coding section codes information showing the sizes of the rectangles as area information of the component motion pictures represented by the rectangles, to integrate the information as the information showing that the motion pictures are represented by the rectangles.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ディジタル画像処
理の分野に属し、画像データを高能率に符号化する画像
符号化装置及びこの画像符号化装置で作成された符号化
データを復号する画像復号装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the field of digital image processing, and more particularly to an image encoding apparatus for encoding image data with high efficiency and an image decoding apparatus for decoding encoded data created by the image encoding apparatus. It concerns the device.

【0002】[0002]

【従来の技術】画像符号化において、異なる動画像シー
ケンスを合成する方式が検討されている。文献「階層表
現と多重テンプレートを用いた画像符号化」(信学技報
IE94-159,pp99-106 (1995))では、背景となる動画像シ
ーケンスと前景となる部品動画像の動画像シーケンス
(例えばクロマキー技術によって切り出された人物画像
や魚の映像など)を合成して新たなシーケンスを作成す
る手法が述べられている。
2. Description of the Related Art In image coding, a method of combining different moving image sequences has been studied. Document "Image Coding Using Hierarchical Representation and Multiple Templates" (IEICE Technical Report)
IE94-159, pp99-106 (1995)) combines a moving image sequence as a background and a moving image sequence of component moving images as a foreground (for example, a human image or a video of a fish cut out by chroma key technology) to create a new image. A technique for creating a simple sequence is described.

【0003】また、文献「画像内容に基づく時間階層符
号化」("Temporal Scalability based on image conte
nt", ISO/IEC/ JTC1/SC29/WG11 MPEG95/211(1995))で
は、フレームレートの低い動画像シーケンスにフレーム
レートの高い部品動画像の動画像シーケンスを合成して
新たなシーケンスを作成する手法が述べられている。
[0003] Further, a document "Temporal Scalability based on image conte
nt ", ISO / IEC / JTC1 / SC29 / WG11 MPEG95 / 211 (1995)) creates a new sequence by combining a low-frame-rate video sequence with a high-frame-rate component video sequence. The method is described.

【0004】この方式では、図16に示すように、下位
レイヤでは低いフレームレートで予測符号化が行われ、
上位レイヤでは選択領域(斜線部)についてのみ高いフ
レームレートで予測符号化が行われる。ただし、下位レ
イヤで符号化したフレームは上位レイヤでは符号化せ
ず、下位レイヤの復号画像をそのままコピーして用い
る。また、選択領域としては、例えば人物部分など視聴
者の注目が集まる部分が選ばれているものとする。
In this method, as shown in FIG. 16, predictive coding is performed at a low frame rate in a lower layer,
In the upper layer, predictive coding is performed at a high frame rate only for the selected area (shaded area). However, the frame encoded in the lower layer is not encoded in the upper layer, and the decoded image of the lower layer is copied and used as it is. Further, it is assumed that a part that attracts the viewer's attention, such as a person part, is selected as the selection area.

【0005】図8に従来手法のブロック図を示す。ま
ず、従来手法の符号化側では、入力動画像は第1の駒落
し部801及び第2の駒落し部802によってフレーム
間引きされ、入力画像のフレームレート以下とされた
後、それぞれ上位レイヤ符号化部803及び下位レイヤ
符号化部804に入力される。ここで、上位レイヤのフ
レームレートは下位レイヤのフレームレート以上であ
る。
FIG. 8 shows a block diagram of a conventional method. First, on the encoding side according to the conventional method, the input moving image is frame-thinned by the first frame dropping unit 801 and the second frame dropping unit 802, and the frame rate is set to be lower than the frame rate of the input image. Unit 803 and lower layer coding section 804. Here, the frame rate of the upper layer is equal to or higher than the frame rate of the lower layer.

【0006】下位レイヤ符号化部804では、入力され
た動画像全体が符号化される。符号化方式としては、例
えばMPEGやH.261などの動画像符号化国際標準化方式が
用いられる。また、下位レイヤ符号化部804では、下
位レイヤの復号画像が作成され、予測符号化に利用され
ると同時に、合成部805に入力される。
[0006] The lower layer encoding section 804 encodes the entire input moving image. As the encoding method, for example, a moving image encoding international standardization method such as MPEG or H.261 is used. In the lower layer encoding unit 804, a decoded image of the lower layer is created and used for predictive encoding, and is input to the synthesizing unit 805 at the same time.

【0007】図9は従来の符号化装置における符号量制
御部を示すブロック図である。図9において、符号化部
902は、動き補償予測、直交変換、量子化、可変長符
号化などを用いて動画像符号化を行う。
FIG. 9 is a block diagram showing a code amount control section in a conventional coding apparatus. In FIG. 9, an encoding unit 902 performs moving image encoding using motion compensation prediction, orthogonal transform, quantization, variable length encoding, and the like.

【0008】また、量子化幅算出部901は、符号化部
902で用いる量子化幅を算出し、発生符号量算出部9
03は、符号化データの累積を計算する。一般に発生符
号量が大きくなるとこれを抑えるために量子化幅を大き
く、逆に発生符号量が小さくなると量子化幅を小さく制
御する。
A quantization width calculation section 901 calculates a quantization width used in the encoding section 902 and generates a generated code amount calculation section 9.
03 calculates the accumulation of the encoded data. In general, when the generated code amount is large, the quantization width is controlled to suppress this, and conversely, when the generated code amount is small, the quantization width is controlled to be small.

【0009】図8の上位レイヤ符号化部803では、入
力された動画像の選択領域のみが符号化される。ここで
も、MPEGやH.261などの動画像符号化国際標準化方式が
用いられるが、領域情報に基づいて選択領域のみを符号
化する。ただし、下位レイヤで符号化されたフレームは
上位レイヤでは符号化されない。
In the upper layer coding section 803 of FIG. 8, only the selected area of the input moving picture is coded. Here, the moving picture coding international standardization method such as MPEG or H.261 is used, but only the selected area is coded based on the area information. However, frames encoded in the lower layer are not encoded in the upper layer.

【0010】領域情報は、人物部などの選択領域を示す
情報であり、例えば選択領域の位置で値1、それ以外の
位置で値0をとる2値画像である。また、上位レイヤ符
号化部803では、動画像の選択領域のみが復号され、
合成部805に入力される。
The area information is information indicating a selected area such as a person, and is, for example, a binary image having a value of 1 at the position of the selected area and a value of 0 at other positions. Further, in the upper layer encoding unit 803, only the selected region of the moving image is decoded,
It is input to the synthesis unit 805.

【0011】領域情報符号化部806では、領域情報が
8方向量子化符号を利用して符号化される。8方向量子
化符号は、図17に示すように、次の点への方向を数値
で示したもので、デジタル図形を表現する際に一般的に
使用されるものである。
[0011] In the area information encoding unit 806, the area information is encoded using an 8-way quantization code. As shown in FIG. 17, the eight-way quantization code indicates a direction to the next point by a numerical value, and is generally used when expressing a digital figure.

【0012】合成部805は、合成対象フレームで下位
レイヤフレームが符号化されている場合、下位レイヤの
復号画像を出力する。合成対象フレームで下位レイヤフ
レームが符号化されていない場合は、合成対象フレーム
の前後2枚の符号化された下位レイヤの復号画像と1枚
の上位レイヤ復号画像とを用いて動画像を出力する。
[0012] When the lower layer frame is encoded in the frame to be synthesized, the synthesizing unit 805 outputs a decoded image of the lower layer. When the lower layer frame is not encoded in the frame to be combined, a moving image is output using two encoded lower layer decoded images before and after the combined frame and one upper layer decoded image. .

【0013】ここで、下位レイヤの2枚の画像のフレー
ムは、上位レイヤのフレームの前及び後である。また、
合成部805で作成された動画像は上位レイヤ符号化部
803に入力され、予測符号化に利用される。合成部8
05における画像作成方法は以下の通りである。
Here, the frames of the two images of the lower layer are before and after the frame of the upper layer. Also,
The moving image created by the combining unit 805 is input to the upper layer encoding unit 803 and used for predictive encoding. Combiner 8
The image creation method in 05 is as follows.

【0014】まず、2枚の下位レイヤの補間画像が作成
される。時間tにおける下位レイヤの復号画像をB(x, y,
t)(ただし、x, yは空間内の画素位置を表す座標であ
る)とし、2枚の下位レイヤの時間をそれぞれt1, t2、
上位レイヤの時間をt3(ただし、t1<t3<t2であ
る)とすると、時間t3における補間画像I(x, y, t3)
は、 I(x, y, t3) = [ (t2-t3)B(x, y, t1) + (t3-t1)B(x, y, t2) ]/(t2-t1) (1) によって計算される。
First, two lower layer interpolation images are created. Let the decoded image of the lower layer at time t be B (x, y,
t) (where x and y are coordinates representing pixel positions in space), and the times of the two lower layers are t1, t2,
Assuming that the time of the upper layer is t3 (where t1 < t3 < t2), the interpolated image I (x, y, t3) at time t3
Is given by I (x, y, t3) = [(t2-t3) B (x, y, t1) + (t3-t1) B (x, y, t2)] / (t2-t1) (1) Is calculated.

【0015】次に、上記で求めた補間画像Iに上位レイ
ヤの復号画像Eを合成する。このために、領域情報M(x,
y, t)から合成のための重み情報W(x, y, t)を作成し、
次式によって合成画像Sを得る。 S(x, y, t) = [1-W(x, y, t)]I(x, y, t) + E(x, y, t)W(x, y, t) (2) 領域情報M(x, y, t)は選択領域内で1、選択領域外で0
の値をとる2値画像であり、この画像に低域通過フィル
タを複数回施すことによって、重み情報W(x, y,t)を得
ることができる。
Next, the decoded image E of the upper layer is synthesized with the interpolated image I obtained above. For this purpose, the area information M (x,
y, t) to create weight information W (x, y, t) for synthesis,
A composite image S is obtained by the following equation. S (x, y, t) = [1-W (x, y, t)] I (x, y, t) + E (x, y, t) W (x, y, t) (2) domain Information M (x, y, t) is 1 inside the selected area and 0 outside the selected area
The weight information W (x, y, t) can be obtained by applying a low-pass filter to the image a plurality of times.

【0016】すなわち、重み情報W(x, y, t)は選択領域
内で1、選択領域外で0、選択領域の境界部で0〜1の
値をとる。以上が、合成部805における画像作成方法
の説明である。
That is, the weight information W (x, y, t) takes a value of 1 inside the selected area, 0 outside the selected area, and 0 to 1 at the boundary of the selected area. The above is the description of the image creating method in the combining unit 805.

【0017】下位レイヤ符号化部804、上位レイヤ符
号化部803、領域情報符号化部806で符号化された
符号化データは、図示しない符号化データ統合部で統合
され、伝送あるいは蓄積される。
The coded data coded by the lower layer coding section 804, the upper layer coding section 803, and the area information coding section 806 are integrated by a coded data integration section (not shown) and transmitted or stored.

【0018】次に、従来手法の復号側では、符号化デー
タが図示しない符号化データ分解部により、下位レイヤ
の符号化データ、上位レイヤの符号化データ、領域情報
の符号化データに分解される。これらの符号化データ
は、図8に示すように、下位レイヤ復号部808、上位
レイヤ復号部807及び領域情報復号部809によって
復号される。
Next, on the decoding side of the conventional method, the coded data is decomposed into coded data of a lower layer, coded data of an upper layer, and coded data of area information by a coded data decomposing unit (not shown). . These encoded data are decoded by a lower layer decoding unit 808, an upper layer decoding unit 807, and a region information decoding unit 809, as shown in FIG.

【0019】復号側の合成部810は、符号化側の合成
部805と同一の装置からなり、下位レイヤ復号画像と
上位レイヤ復号画像とを用い、符号化側の説明で述べた
ものと同一の方法によって画像が合成される。ここで合
成された動画像は、ディスプレイに表示されると共に、
上位レイヤ復号部807に入力され、上位レイヤの予測
に利用される。
The combining unit 810 on the decoding side is composed of the same device as the combining unit 805 on the encoding side, uses the lower layer decoded image and the upper layer decoded image, and is the same as that described in the description on the encoding side. The images are combined by the method. The moving image synthesized here is displayed on the display,
It is input to the upper layer decoding unit 807 and used for prediction of the upper layer.

【0020】ここでは、下位レイヤと上位レイヤとの両
方を復号する復号装置について述べたが、下位レイヤの
復号部のみを備えた復号装置ならば、上位レイヤ符号化
部807、合成部810が不要であり、少ないハードウ
エア規模で符号化データの一部を再生することができ
る。
Here, the decoding device for decoding both the lower layer and the upper layer has been described. However, if the decoding device includes only the decoding unit for the lower layer, the upper layer encoding unit 807 and the combining unit 810 are unnecessary. Thus, a part of the encoded data can be reproduced with a small hardware scale.

【0021】[0021]

【発明が解決しようとする課題】(1)従来の技術にお
いては、上記(1)式のように、2枚の下位レイヤ復号画
像と1枚の上位レイヤ復号画像とから出力画像を得る
際、2枚の下位レイヤの補間を行っているため、選択領
域の位置が時間的に変化する場合には、選択領域周辺に
大きな歪みが発生し、画質を大きく劣化させるという問
題がある。
(1) In the prior art, when an output image is obtained from two lower layer decoded images and one upper layer decoded image as in the above equation (1), Since the interpolation of the two lower layers is performed, when the position of the selected area changes with time, a large distortion occurs around the selected area, and there is a problem that the image quality is largely deteriorated.

【0022】図18はこの問題を説明するものである。
図18(a)において、画像A、Cは下位レイヤの2枚の
復号画像、画像Bは上位レイヤの復号画像であり、表示
時間順はA、B、Cの順である。ただし、選択領域を斜線
で示している。また、上位レイヤでは選択領域のみが符
号化されるため、選択領域外を破線で示している。
FIG. 18 illustrates this problem.
In FIG. 18A, images A and C are two decoded images of the lower layer, image B is a decoded image of the upper layer, and the display time order is A, B, C. However, the selected area is indicated by oblique lines. Also, since only the selected area is encoded in the upper layer, the area outside the selected area is indicated by a broken line.

【0023】選択領域が動いているため、画像Aと画像C
とから求めた補間画像は、図18(b)における網点部
のように、2つの選択領域が重複したものになる。さら
に、画像Bを重み情報を用いて合成すると、出力画像は
図18(c)に示すように、3つの選択領域が重複した
画像となる。
Since the selected area is moving, images A and C
The interpolated image obtained from the above is an image in which the two selected regions overlap, as shown by the halftone dot portion in FIG. Further, when the image B is synthesized using the weight information, the output image is an image in which three selected regions overlap as shown in FIG.

【0024】特に、上位レイヤの選択領域周辺(外側)
に下位レイヤの選択領域が残像のように現れ、画質が大
きく劣化する。動画像全体としては、下位レイヤのみが
表示されている時には、上記の歪みがなく、上位レイヤ
と下位レイヤとの合成画像が表示されている時には、上
記の歪みが現われるため、フリッカ的歪みが発生し、非
常に大きな画質劣化となる。
In particular, around the selected area of the upper layer (outside)
Thus, the selected area of the lower layer appears as an afterimage, and the image quality is greatly deteriorated. As for the whole moving image, when only the lower layer is displayed, there is no such distortion, and when a composite image of the upper layer and the lower layer is displayed, the distortion appears. Then, the image quality is extremely deteriorated.

【0025】(2)従来の技術においては、領域情報の
符号化に8方向量子化符号(図17)を用いているが、
低ビットレートに応用する場合や領域の形状が複雑にな
る場合などに、領域情報のデータ量の全符号化データ量
に占める割合が大きくなるため、画質劣化の要因となる
問題がある。
(2) In the conventional technique, an 8-way quantization code (FIG. 17) is used to encode region information.
When applied to a low bit rate or when the shape of an area becomes complicated, the ratio of the data amount of the area information to the entire coded data amount increases, which causes a problem of deteriorating the image quality.

【0026】(3)従来の技術においては、領域情報に
低域通過フィルタを複数回施すことによって、重み情報
を得ているが、フィルタ操作を複数回行うため、処理量
が増大するという問題がある。
(3) In the prior art, the weight information is obtained by applying a low-pass filter to the area information a plurality of times. However, since the filtering operation is performed a plurality of times, the processing amount increases. is there.

【0027】(4)従来の技術においては、予測符号化
を用いているが、下位レイヤでシーンチェンジがある場
合にも予測符号化を用いることがあり、大きな歪みが発
生する。下位レイヤでの歪みは、上位レイヤにも波及す
るため、長時間に渡って歪みが持続するという問題があ
る。
(4) In the prior art, predictive coding is used. However, even when there is a scene change in a lower layer, predictive coding may be used, resulting in large distortion. Since the distortion in the lower layer propagates to the upper layer, there is a problem that the distortion is maintained for a long time.

【0028】(5)従来の技術においては、下位レイヤ
でMPEGやH.261などの動画像符号化国際標準化方式が用
いられるため、選択領域とそれ以外の領域の間で画質の
差があまりない。これに対し、上位レイヤでは選択領域
だけが高画質で符号化されるため選択領域での画質が時
間的に変化し、これがフリッカ的な歪みとなって検知さ
れるという問題がある。
(5) In the prior art, since the moving picture coding international standardization scheme such as MPEG or H.261 is used in the lower layer, there is not much difference in image quality between the selected area and other areas. . On the other hand, in the upper layer, only the selected area is coded with high image quality, so that the image quality in the selected area changes with time, and this is detected as flicker-like distortion.

【0029】本発明の目的は、これらの問題を解決し、
符号化後のデータ量を削減する一方復号画像の品質を劣
化させないような画像符号化装置及び画像復号装置を提
供することにある。
The object of the present invention is to solve these problems,
It is an object of the present invention to provide an image encoding device and an image decoding device that reduce the amount of data after encoding while not deteriorating the quality of a decoded image.

【0030】[0030]

【課題を解決するための手段】本発明に係る画像符号化
装置は、複数の部品動画像を符号化する画像符号化装置
であって、前記部品動画像の領域情報を符号化する領域
情報符号化手段と、前記部品動画像が矩形で表されたこ
とを示す情報を生成する情報生成手段とを備え、前記領
域情報符号化手段が、前記矩形で表された部品動画像の
領域情報として、前記矩形の大きさを示す情報を符号化
し、前記部品動画像が矩形で表されたことを示す情報と
統合することを特徴とする。
An image coding apparatus according to the present invention is an image coding apparatus for coding a plurality of component moving images, and includes an area information code for coding region information of the component moving images. Encoding means, and information generating means for generating information indicating that the component video is represented by a rectangle, the area information encoding means, as the area information of the component video represented by the rectangle, The information indicating the size of the rectangle is encoded and integrated with information indicating that the component moving image is represented by a rectangle.

【0031】本発明に係る画像復号装置は、複数の部品
動画像の領域情報を符号化したデータと、前記部品動画
像が矩形で表されたことを示す情報とを含む符号化デー
タを入力し、前記複数の部品動画像を復号する画像復号
装置であって、前記部品動画像の領域情報を復号する領
域情報復号手段を備え、前記領域情報復号手段は、前記
矩形で表された部品画像の領域情報として、前記矩形の
大きさを示す情報を復号することを特徴とする。
An image decoding apparatus according to the present invention receives encoded data including data obtained by encoding region information of a plurality of component moving images and information indicating that the component moving images are represented by rectangles. An image decoding apparatus for decoding the plurality of component moving images, comprising: area information decoding means for decoding area information of the component moving image, wherein the area information decoding means is configured to decode the component image represented by the rectangle. It is characterized in that information indicating the size of the rectangle is decoded as area information.

【0032】[0032]

【発明の実施の形態】本発明の第1の実施例は、図8に
おける合成部805で発生する問題を解決するものであ
る。すなわち、2枚の下位レイヤ復号画像から画像を合
成する際、上位レイヤの選択領域の周辺に残像のような
歪みを発生させない画像合成装置に関するものである。
図1は第1の実施例の画像合成装置を示すブロック図で
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The first embodiment of the present invention solves the problem that occurs in the synthesizing unit 805 in FIG. That is, the present invention relates to an image synthesizing apparatus that does not generate distortion such as an afterimage around a selected region of an upper layer when an image is synthesized from two lower layer decoded images.
FIG. 1 is a block diagram showing an image synthesizing apparatus according to the first embodiment.

【0033】図1において、第1の領域抽出部101
は、下位レイヤの第1の領域情報及び下位レイヤの第2
の領域情報から、第1の領域であり且つ第2の領域でな
い領域を抽出する。図10(a)において、第1の領域
情報を点線で(点線内部が値0、点線外部が値1を持つ
ものとする)表し、同様に、第2の領域情報を破線で表
すとすると、第1の領域抽出部101で抽出される領域
は、図10(a)における斜線部となる。
In FIG. 1, a first area extracting unit 101
Are the first area information of the lower layer and the second area information of the lower layer.
The region that is the first region and is not the second region is extracted from the region information. In FIG. 10A, if the first area information is represented by a dotted line (the inside of the dotted line has a value of 0 and the outside of the dotted line has a value of 1), and similarly, the second area information is represented by a broken line. The region extracted by the first region extraction unit 101 is a hatched portion in FIG.

【0034】第2の領域抽出部102は、下位レイヤの
第1の領域情報及び下位レイヤの第2の領域情報から、
第2の領域領域であり且つ第1の領域でない領域を抽出
する。図10(a)の場合、網点部が抽出される。
The second area extracting unit 102 calculates the first area information of the lower layer and the second area information of the lower layer from the first area information.
An area that is the second area and is not the first area is extracted. In the case of FIG. 10A, a halftone dot portion is extracted.

【0035】コントローラ103は、第1の領域抽出部
101及び第2の領域抽出部102の出力により、スイ
ッチ104を制御する部分である。すなわち、注目画素
位置が第1の領域のみの場合には、スイッチ104を第
2の復号画像側に接続し、注目画素位置が第2の領域の
みの場合には、スイッチ104を第1の復号側に接続
し、それ以外の場合には、スイッチ104を補間画像作
成部105からの出力に接続する。
The controller 103 controls the switch 104 based on the outputs of the first area extraction unit 101 and the second area extraction unit 102. That is, when the target pixel position is only in the first region, the switch 104 is connected to the second decoded image side, and when the target pixel position is only in the second region, the switch 104 is connected to the first decoded image. Side, and in other cases, the switch 104 is connected to the output from the interpolation image creation unit 105.

【0036】補間画像作成部105は、下位レイヤの第
1の復号画像と下位レイヤの第2の復号画像との補間画
像を、上記従来技術として説明した式(1)に従って計算
する。ただし、式(1)でB(x, y, t1)は第1の復号画像、
B(x, y, t2)は第2の復号画像、I(x, y, t3)は補間画像
であり、t1, t2, t3はそれぞれ第1の復号画像、第2の
復号画像及び補間画像の時間である。
The interpolated image creating unit 105 calculates an interpolated image of the first decoded image of the lower layer and the second decoded image of the lower layer according to the above-described equation (1). Here, in equation (1), B (x, y, t1) is the first decoded image,
B (x, y, t2) is the second decoded image, I (x, y, t3) is the interpolated image, and t1, t2, and t3 are the first decoded image, the second decoded image, and the interpolated image, respectively. It's time.

【0037】以上のようにして、画像を作成するので、
例えば図10(a)の場合、斜線部では第2の復号画像
が使用されるため、選択領域外部の背景画素が現れ、網
点部では第1の復号画像が使用されるため、選択領域外
部の背景画素が現れ、それ以外の部分では第1の復号画
像と第2の復号画像の補間画像が現れる。
As described above, since an image is created,
For example, in the case of FIG. 10 (a), the second decoded image is used in the shaded area, so the background pixel outside the selected area appears, and in the halftone dot area, the first decoded image is used. Of the first decoded image and the interpolated image of the second decoded image appear in other portions.

【0038】このようにして作成された画像の上に、図
1の加重平均部106によって上位レイヤの復号画像を
重ねるため、合成された画像は図10(b)に示すよう
に、選択領域(斜線部分)周辺に残像がなく、歪みの少
ない画像が得られる。図1の加重平均部106は、上記
の補間画像と上位レイヤの復号画像とを加重平均によっ
て合成する。合成方法については、上記従来技術で述べ
たので、ここでは説明を省略する。
Since the decoded image of the upper layer is superimposed on the image created in this way by the weighted averaging unit 106 in FIG. 1, the synthesized image is selected as shown in FIG. There is no afterimage around the shaded area) and an image with little distortion can be obtained. The weighted averaging unit 106 in FIG. 1 combines the above interpolated image and the decoded image of the upper layer by weighted averaging. Since the synthesizing method has been described in the above-mentioned prior art, the description is omitted here.

【0039】上述の第1の実施例においては、図1に示
す補間画像作成部105を設けたが、そのかわりに第1
の復号画像B(x, y, t1)と第2の復号画像B(x, y, t2)の
うち、上位レイヤの時間であるt3に時間的に近い復号画
像の画素値を用いるようにしても良い。
In the above-described first embodiment, the interpolation image creating unit 105 shown in FIG. 1 is provided.
Of the decoded image B (x, y, t1) and the second decoded image B (x, y, t2), the pixel value of the decoded image temporally closer to t3 which is the time of the upper layer is used. Is also good.

【0040】その場合は、各画像のフレーム番号を用い
て、t3-t1 < t1-t2の時は、 I(x, y, t3) = B(x, y, t1) とし、それ以外の時は、 I(x, y, t3) = B(x, y, t2) とする。
In this case, using the frame number of each image, when t3-t1 <t1-t2, I (x, y, t3) = B (x, y, t1). Is I (x, y, t3) = B (x, y, t2).

【0041】ただし、t1, t2, t3は、それぞれ第1の復
号画像、第2の復号画像及び上位レイヤの復号画像の時
間である。
Here, t1, t2, and t3 are the times of the first decoded image, the second decoded image, and the decoded image of the upper layer, respectively.

【0042】次に、本発明の第2の実施例を説明する。
本実施例は、第1の実施例の画像合成装置において、下
位レイヤの復号画像の動き情報を考慮して、より正確に
画像を合成する画像合成装置に関するものである。図2
は動きパラメータを推定し、2枚の復号画像とそれらに
対応する2枚の領域情報とを変形する装置を示すブロッ
ク図である。
Next, a second embodiment of the present invention will be described.
The present embodiment relates to an image synthesizing apparatus that more accurately synthesizes an image in consideration of motion information of a decoded image of a lower layer in the image synthesizing apparatus of the first embodiment. FIG.
FIG. 3 is a block diagram showing a device for estimating a motion parameter and transforming two decoded images and corresponding two pieces of area information.

【0043】図2において、動きパラメータ推定部20
1では、下位レイヤにおける第1の復号画像から第2の
復号画像への動き情報を推定する。例えば、ブロック単
位の動ベクトルを求めたり、画像全体の動き(並行移
動、回転、拡大縮小など)を求め、動きパラメータとす
る。
In FIG. 2, the motion parameter estimating section 20
In step 1, motion information from the first decoded image to the second decoded image in the lower layer is estimated. For example, a motion vector is obtained for each block, or a motion (parallel movement, rotation, enlargement / reduction, etc.) of the entire image is obtained and used as a motion parameter.

【0044】変形部202では、第1の復号画像、第2
の復号画像、第1の領域情報、第2の領域情報を、それ
ぞれ推定された動きパラメータによって、合成対象フレ
ームの時間的位置に基づき変形する。例えば、動きパラ
メータとして第1の復号画像から第2の復号画像への動
ベクトル(MVx, MVy)が求められているとする。ここで、
MVxは動ベクトルの水平成分、MVyは動ベクトルの垂直成
分である。
In the transformation unit 202, the first decoded image, the second decoded image
, The first region information and the second region information are transformed based on the estimated motion parameters based on the temporal position of the synthesis target frame. For example, it is assumed that a motion vector (MVx, MVy) from the first decoded image to the second decoded image is obtained as a motion parameter. here,
MVx is the horizontal component of the motion vector, and MVy is the vertical component of the motion vector.

【0045】このとき、第1の復号画像から補間画像へ
の動ベクトルを、 (t3-t1)/(t2-t1)(MVx, MVy) によって計算し、第1の復号画像をこの動ベクトルにて
シフトする。動きパラメータとして回転、拡大縮小など
を用いる場合は、単なるシフトではなく変形を伴う。
At this time, a motion vector from the first decoded image to the interpolated image is calculated by (t3-t1) / (t2-t1) (MVx, MVy), and the first decoded image is converted to this motion vector. Shift. When rotation, enlargement / reduction, or the like is used as a motion parameter, deformation is involved instead of a simple shift.

【0046】図2においては、変形されたデータをそれ
ぞれa, b, c, dで表しているが、aは図1における第1
の復号画像、bは図1における第2の復号画像、cは図1
における第1の領域情報、dにおける図1の第2の領域
情報として、図1に示した画像合成装置に入力され、合
成画像が作成される。
In FIG. 2, the transformed data are represented by a, b, c, and d, respectively, where a is the first data in FIG.
, B is the second decoded image in FIG. 1, and c is FIG.
Are input to the image synthesizing apparatus shown in FIG. 1 as the first area information in FIG. 1 and the second area information in FIG.

【0047】第2の実施例では、2枚の復号画像から動
きパラメータを推定するようにしたが、予測符号化の際
には画像の各ブロックの動ベクトルが符号化データに含
まれているのが一般的であるので、これらの動ベクトル
を利用しても良い。
In the second embodiment, the motion parameters are estimated from two decoded images. However, at the time of predictive encoding, the motion vector of each block of the image is included in the encoded data. Since these are general, these motion vectors may be used.

【0048】例えば、復号された動ベクトルの平均値
を、第1の復号画像から第2の復号画像への画像全体の
動ベクトルとしたり、或いは、復号された動ベクトルの
頻度分布を求め、最も頻度の高いベクトルを第1の復号
画像から第2の復号画像への画像全体の動ベクトルとし
ても良い。上記の処理は、水平方向・垂直方向で独立し
て行われる。
For example, the average value of the decoded motion vectors is used as the motion vector of the entire image from the first decoded image to the second decoded image, or the frequency distribution of the decoded motion vectors is obtained. A vector having a high frequency may be used as a motion vector of the entire image from the first decoded image to the second decoded image. The above processing is performed independently in the horizontal and vertical directions.

【0049】次に、本発明の第3の実施例を説明する。
第3の実施例は、領域情報を効率良く符号化する領域情
報符号化装置に関するものである。図3及び図4は本実
施例のブロック図であり、図3は符号化側、図4は復号
側を示すものである。
Next, a third embodiment of the present invention will be described.
The third embodiment relates to an area information encoding device that efficiently encodes area information. 3 and 4 are block diagrams of the present embodiment. FIG. 3 shows the encoding side, and FIG. 4 shows the decoding side.

【0050】図3における領域情報近似部301は、領
域情報を複数の図形で近似する。図11に近似の例を示
す。この例では、図形として矩形が用いられ、人物の領
域情報(斜線部)が2個の矩形で近似されている。矩形
1は人物の頭部を、矩形2は人物の胸部を表している。
The area information approximating unit 301 in FIG. 3 approximates the area information with a plurality of figures. FIG. 11 shows an example of approximation. In this example, a rectangle is used as a figure, and the area information (hatched portion) of a person is approximated by two rectangles. The rectangle 1 represents the head of the person, and the rectangle 2 represents the chest of the person.

【0051】領域近似情報符号化部302は、上記の近
似された領域情報を符号化する部分である。図11に示
すように、矩形で近似された場合には、各矩形の左上の
座標値と矩形の大きさとを固定長で符号化すれば良い。
或いは、楕円で近似された場合には、楕円の中心点の座
標、長軸の長さ及び短軸の長さを固定長で符号化すれば
良い。近似された領域情報と符号化されたデータとは、
選択部304に送られる。
The area approximation information encoding unit 302 encodes the approximated area information. As shown in FIG. 11, when approximated by rectangles, the upper left coordinate value of each rectangle and the size of the rectangle may be encoded with a fixed length.
Alternatively, when approximated by an ellipse, the coordinates of the center point of the ellipse, the length of the major axis, and the length of the minor axis may be encoded with a fixed length. The approximated area information and the encoded data are:
Sent to selection section 304.

【0052】領域情報符号化部303は、上記従来技術
で述べた領域情報符号化部806と同様に、領域情報を
近似せず、8方向量子化符号を用いて符号化する。領域
情報と符号化されたデータとは、選択部304に送られ
る。
The region information encoding unit 303 does not approximate the region information and encodes using an eight-way quantization code, similarly to the region information encoding unit 806 described in the above prior art. The area information and the encoded data are sent to the selection unit 304.

【0053】選択部304は、領域近似情報符号化部3
02の出力か、領域情報符号化部303の出力のいずれ
かを選択する。領域近似情報符号化部302の出力が選
択された時は、領域近似情報の符号化データを1ビット
の選択情報(例えば0)と共に、図示しない符号化デー
タ統合部に送り、領域近似情報を図示しない合成部に送
る。
The selection unit 304 is a region approximation information encoding unit 3
02 or the output of the area information encoding unit 303. When the output of the region approximation information encoding unit 302 is selected, the coded data of the region approximation information is sent to a coded data integration unit (not shown) together with 1-bit selection information (for example, 0), and the region approximation information is shown. Not sent to the synthesis unit.

【0054】また、領域情報符号化部303の出力が選
択された時は、近似しない領域情報の符号化データを1
ビットの選択情報(例えば1)と共に、図示しない符号
化データ統合部に送り、近似しない領域情報を画像合成
部に送る。画像合成部は、上記本発明の第1の実施例及
び第2の実施例で説明したものである。
When the output of the area information encoding unit 303 is selected, the encoded data of the area information that is not approximated is set to 1
Along with the bit selection information (for example, 1), the information is sent to an unillustrated coded data integration unit, and the non-approximate region information is sent to the image synthesis unit. The image synthesizing unit has been described in the first embodiment and the second embodiment of the present invention.

【0055】選択部304における選択手法としては、
例えば符号化データ量の小さい方を選択する手法、或い
は近似しない領域情報の符号化データ量がある閾値以内
の時は領域情報符号化部303の出力を選び、閾値を越
える時には領域近似情報符号化部302の出力を選ぶよ
うにする。このような選択を行うことにより、領域情報
の符号化歪みを抑えながら、符号化データ量を削減する
ことができる。
As a selection method in the selection unit 304,
For example, a method of selecting the smaller coded data amount, or the output of the region information coding unit 303 is selected when the coded data amount of the region information that is not approximated is within a certain threshold, and when the coded data amount exceeds the threshold, the region approximate information coding is performed. The output of the unit 302 is selected. By making such a selection, the amount of coded data can be reduced while suppressing the coding distortion of the area information.

【0056】次に、本発明の第3の実施例の復号側(図
4)について説明する。図4において、選択部401
は、符号化データに含まれる1ビットの選択情報をもと
に、符号化データが領域近似情報のものであるか、領域
情報のものであるかを選択する。
Next, the decoding side (FIG. 4) of the third embodiment of the present invention will be described. Referring to FIG.
Selects whether the coded data is based on the area approximation information or based on the area information based on the 1-bit selection information included in the coded data.

【0057】領域近似情報復号部402は、領域近似情
報を復号する。領域情報復号部403は、近似していな
い領域情報を復号する。スイッチ404は、選択部40
1からの信号によってコントロールされ、合成部への出
力として、領域近似情報或いは近似していない領域情報
を選択する。
The area approximation information decoding section 402 decodes the area approximation information. The area information decoding unit 403 decodes area information that is not approximated. The switch 404 is connected to the selection unit 40
1 and selects area approximation information or non-approximate area information as an output to the synthesis unit.

【0058】以上のようにして、領域近似情報と近似し
ないもとの領域情報とを適応的に選択して符号化/復号
するので、領域情報が複雑で膨大なデータ量となる場合
には、領域近似情報の符号化が選択され、少ない情報量
で領域情報を符号化することができる。
As described above, since the area approximation information and the area information which is not approximated are adaptively selected and encoded / decoded, when the area information is complicated and has a huge data amount, The encoding of the area approximation information is selected, and the area information can be encoded with a small amount of information.

【0059】上記の例では、近似しない領域情報は、8
方向量子化符号によって符号化したが、さらに予測符号
化を組み合わせて効率良く符号化しても良い。8方向量
子化符号は、図17に示すように、0〜7の値を持つ
が、予測符号化によって差分をとると、−7〜7となっ
てしまう。
In the above example, the area information that is not approximated is 8
Although the encoding is performed using the direction quantization code, the encoding may be performed efficiently by further combining predictive encoding. The eight-way quantization code has a value of 0 to 7 as shown in FIG. 17, but if a difference is obtained by predictive coding, it becomes -7 to 7.

【0060】しかし、差分値が−4以下の時は8を加
え、差分値が4より大きい時は8を引くことにより、差
分値を−3〜4に抑えることができる。復号時には、前
値に差分値を加え、その結果が負の場合には8を加え、
7を越える場合には8を引くことにより、もとの8方向
量子化値を得ることができる。
However, the difference value can be suppressed to -3 to 4 by subtracting 8 when the difference value is less than -4 and subtracting 8 when the difference value is greater than 4. At the time of decoding, the difference value is added to the previous value, and if the result is negative, 8 is added.
If it exceeds 7, the original 8-way quantized value can be obtained by subtracting 8.

【0061】以下にその例を示す。 8方向量子化値 1, 6, 2, 1, 3, ... 差分値 5, -4, -1, -2, ... 変換値 -3, 4, -1, 2, ... 復号値 1, 6, 2, 1, 3, ... 例えば、値6の前値との差分は5であるが、これから8
を引くことで−3となり、復号時には、前値1に復号値
−3に加えることで−2が得られるが、値が負であるた
め、これに8を加え、復号値6を得る。このような予測
符号化は、8方向量子化符号が巡回しているという性質
を利用したものである。
An example is shown below. 8-way quantization value 1, 6, 2, 1, 3, ... Difference value 5, -4, -1, -2, ... Conversion value -3, 4, -1, 2, ... Decoding Value 1, 6, 2, 1, 3, ... For example, the difference between the value 6 and the previous value is 5,
Is subtracted to obtain -3. At the time of decoding, -2 is obtained by adding the previous value 1 to the decoded value -3. However, since the value is negative, 8 is added to this to obtain the decoded value 6. Such predictive coding utilizes the property that an 8-way quantization code is cyclic.

【0062】第3の実施例においては、近似された領域
情報の符号化は、各画像で独立に行われているが、一般
に動画像はフレーム間の相関が高いため、前回の符号化
結果を利用して符号化効率を高めるようにしても良い。
In the third embodiment, the coding of the approximated area information is performed independently for each picture. However, since the moving picture generally has a high correlation between frames, the previous coding result is Utilization may be used to increase the coding efficiency.

【0063】すなわち、近似された領域情報の符号化が
フレーム間で連続する場合、領域近似情報の差分のみを
符号化するようにする。例えば、領域が矩形で近似さ
れ、前フレームの矩形が左上の点:(10, 20)、大きさ:
(100, 150)で表され、現フレームの矩形が左上の点:(1
3, 18)、大きさ:(100, 152)で表れる場合は、現フレー
ムでは左上の差分値:(3, 2)、大きさの差分値:(0, 2)
を符号化する。
That is, when encoding of the approximated area information is continuous between frames, only the difference of the approximated area information is encoded. For example, the area is approximated by a rectangle, and the rectangle of the previous frame is the upper left point: (10, 20), size:
(100, 150), and the rectangle of the current frame is the upper left point: (1
3, 18), size: (100, 152), in the current frame, the upper left difference value: (3, 2), the size difference value: (0, 2)
Is encoded.

【0064】領域の形状変化が小さい場合には、差分値
はいずれも0付近に集中するため、ハフマン符号化など
のエントロピー符号化を用いれば、領域情報の符号量が
大幅に削減できる。さらに、矩形が変化しない場合が多
い時には、現フレームにおいて1ビットの情報を矩形の
変化情報として符号化すれば良い。
When the change in the shape of the area is small, all the difference values are concentrated around 0. Therefore, if entropy coding such as Huffman coding is used, the code amount of the area information can be greatly reduced. Furthermore, when the rectangle does not change in many cases, 1-bit information in the current frame may be encoded as rectangular change information.

【0065】すなわち、矩形が変化しない時には、これ
を表す1ビットの情報(例えば0)のみを符号化し、矩
形が変化する時には、1ビットの情報(例えば1)と上
記の差分情報とを符号化する。
That is, when the rectangle does not change, only 1-bit information (for example, 0) representing this is coded, and when the rectangle changes, 1-bit information (for example, 1) and the above difference information are coded. I do.

【0066】次に、本発明の第4の実施例を説明する。
第4の実施例は、領域情報から多値の重み情報を作成す
る重み情報作成装置に関するものである。図5は本実施
例のブロック図である。
Next, a fourth embodiment of the present invention will be described.
The fourth embodiment relates to a weight information creating device that creates multi-value weight information from region information. FIG. 5 is a block diagram of the present embodiment.

【0067】図5において、水平方向重み作成部501
は、領域情報を水平方向に走査して領域情報が1の部分
を求め、それに対応した重み関数を求める。具体的に
は、領域の左端の点の座標x0と領域の水平方向の長さN
とを求め、図12(a)に示すような水平方向重み関数
を計算する。
Referring to FIG. 5, a horizontal direction weight creating unit 501 is provided.
Scans the area information in the horizontal direction, finds a portion where the area information is 1, and finds a weighting function corresponding to it. Specifically, the coordinates x0 of the left end point of the area and the horizontal length N of the area
And a horizontal weighting function as shown in FIG. 12A is calculated.

【0068】重み関数は直線を組み合わせて作成しても
良いし、直線と三角関数を組み合わせて作成しても良
い。後者の例として、三角関数部分の幅をWとする時、
N > 2Wならば、 0≦x<W の時 sin[(x+1/2)π/(2W)]*sin[(x+1/2)
π/(2W)] W≦x<N-W の時 1 N-W≦x<N の時 sin[(x-N+2W+1/2)π/(2W)]*sin[(x
-N+2W+1/2)π/(2W)] N ≦ 2Wならば、 sin2[(x+1/2)π/N]*sin[(x+1/2)π
/N] を用いることができる。ただし、領域の左端の点x0は0
としている。
The weight function may be created by combining straight lines, or may be created by combining straight lines and trigonometric functions. As an example of the latter, when the width of the trigonometric function part is W,
If N> 2W, when 0 ≦ x <W sin [(x + 1/2) π / (2W)] * sin [(x + 1/2)
π / (2W)] When W ≦ x <NW 1 When NW ≦ x <N sin [(x-N + 2W + 1/2) π / (2W)] * sin [(x
-N + 2W + 1/2) π / (2W)] If N ≤ 2W, sin2 [(x + 1/2) π / N] * sin [(x + 1/2) π
/ N] can be used. However, the point x0 at the left end of the area is 0
And

【0069】垂直方向重み作成部502は、領域情報を
垂直方向に走査して領域情報が1の部分を求め、それに
対応した垂直方向重み関数を求める。具体的には、領域
の上端の点の座標y0と領域の垂直方向の長さMとを求
め、図12(b)に示すような垂直方向重み関数を計算
する。
The vertical weight creating section 502 scans the area information in the vertical direction to obtain a portion where the area information is 1, and obtains a corresponding vertical weight function. Specifically, the coordinates y0 of the upper end point of the region and the vertical length M of the region are obtained, and a vertical weighting function as shown in FIG. 12B is calculated.

【0070】乗算器503は、水平方向重み作成部50
1と垂直方向重み作成部502との出力を画素位置毎に
掛け合わせ、重み情報を作成する。このようにして重み
情報を作成すれば、領域情報の形に合わせた重み情報を
少ない演算量で求めることができる。
The multiplier 503 is provided for the horizontal weight generator 50.
1 is multiplied by the output of the vertical weight generator 502 for each pixel position to generate weight information. By creating the weight information in this manner, the weight information that matches the shape of the area information can be obtained with a small amount of calculation.

【0071】次に、本発明の第5の実施例を説明する。
第5の実施例は、下位レイヤ或いは上位レイヤの予測符
号化において、フレーム内符号化とフレーム間予測符号
化とを適応的に切替えるモード切替え方法に関するもの
である。図6は本実施例のブロック図である。
Next, a fifth embodiment of the present invention will be described.
The fifth embodiment relates to a mode switching method for adaptively switching between intra-frame coding and inter-frame predictive coding in predictive coding of a lower layer or an upper layer. FIG. 6 is a block diagram of the present embodiment.

【0072】図6において、平均値計算部601は、原
画像と領域情報とを入力とし、領域内部の画素値につい
て、画素値の平均を計算する。平均値は差分器603と
記憶部602とに入力される。差分器603は、記憶部
602に記憶された前回の平均値と平均値計算部601
から出力された今回の平均値との差を計算する。
In FIG. 6, an average value calculation unit 601 receives an original image and area information, and calculates an average of pixel values for pixel values inside the area. The average value is input to the differentiator 603 and the storage unit 602. The differentiator 603 calculates a previous average value and an average value calculation unit 601 stored in the storage unit 602.
Calculates the difference from the current average value output from.

【0073】判定部604は、差分器603で計算され
た差分値の絶対値を、予め定められた閾値と比較し、モ
ード切替え情報を出力する。差分値の絶対値が閾値より
も大きい場合は、選択領域においてシーンチェンジがあ
ると判定し、常にフレーム内符号化を行うようにモード
切替え情報を発生する。
The determination section 604 compares the absolute value of the difference calculated by the differentiator 603 with a predetermined threshold and outputs mode switching information. If the absolute value of the difference value is larger than the threshold, it is determined that there is a scene change in the selected area, and mode switching information is generated so that intra-frame encoding is always performed.

【0074】このように、選択領域のシーンチェンジを
判定しながらモード切替えを行うことにより、例えば人
物が物影から現れたり、物体の表裏が反転したりする場
合にも、良好な符号化画像を得ることができる。
As described above, by performing the mode switching while determining the scene change of the selected area, a good coded image can be obtained even when, for example, a person appears from a shadow or the front and back of an object is reversed. Obtainable.

【0075】この実施例は、下位レイヤの符号化におい
て、選択領域とそれ以外の領域とを分離して符号化する
方式に応用することができる。その場合は、領域情報を
下位レイヤに入力するようにする。さらに、本実施例
は、上位レイヤの選択領域のみの符号化に応用すること
もできる。
This embodiment can be applied to a method of performing encoding by separating a selected area and other areas in encoding of a lower layer. In that case, the area information is input to the lower layer. Further, the present embodiment can be applied to encoding of only the selected region of the upper layer.

【0076】次に、本発明の第6の実施例を説明する。
第6の実施例は、下位レイヤの符号化において、選択領
域とそれ以外の領域とを分離して符号化する場合のデー
タ量制御に関するものである。図7は本実施例のブロッ
ク図である。
Next, a sixth embodiment of the present invention will be described.
The sixth embodiment relates to data amount control in a case where a selected area and another area are separately encoded in encoding of a lower layer. FIG. 7 is a block diagram of the present embodiment.

【0077】図7において、符号化部703は、選択領
域とそれ以外の領域とを分離して符号化する。領域判定
部701には、領域情報が入力され、符号化している領
域が選択領域内であるか選択領域外であるかを判定す
る。発生符号量算出部705では、この判定結果に基づ
き、各領域での発生符号量を算出する。
In FIG. 7, an encoding unit 703 encodes a selected area and other areas separately. The region information is input to the region determining unit 701, and it is determined whether the region to be coded is within the selected region or outside the selected region. The generated code amount calculation unit 705 calculates the generated code amount in each area based on the determination result.

【0078】目標符号量配分比算出部704では、各領
域に割り当てるフレーム単位の目標符号量の配分比を決
定する。配分比の決定方法については後述する。量子化
幅算出部702では、目標符号量に応じて量子化幅を決
定するが、この決定方法についは、従来法と同様であ
る。
The target code amount distribution ratio calculating section 704 determines a target code amount distribution ratio for each frame to be allocated to each area. The method for determining the distribution ratio will be described later. The quantization width calculation unit 702 determines the quantization width according to the target code amount, and the method for this determination is the same as the conventional method.

【0079】ここで、目標符号量配分比算出部704に
おける配分比決定方法について、説明する。まず、該当
フレームの目標符号量Biは次式を用いて計算される。Bi
=(使用可能符号量-前フレームまでの使用符号量)/残り
フレーム数この目標符号量Biをある比率で選択領域内と
選択領域外とに割り当てるのであるが、ここでは適当な
固定比R0と前フレーム複雑度比率Rpとを用いて、その比
率を決定する。
Here, a method of determining the distribution ratio in the target code amount distribution ratio calculating section 704 will be described. First, the target code amount Bi of the frame is calculated using the following equation. Bi
= (Available code amount-used code amount up to the previous frame) / number of remaining frames This target code amount Bi is allocated to the selected area inside and outside the selected area at a certain ratio, but here an appropriate fixed ratio R0 and Using the previous frame complexity ratio Rp, the ratio is determined.

【0080】前フレーム複雑度比率Rpは、次式で決定さ
れる。 Rp=(gen#bitF*avg#qF)/(gen#bitF*avg#qF+gen#bitB*avg
#qB) ここで、 gen#bitF:前フレーム選択領域内発生符号量 gen#bitB:前フレーム選択領域外発生符号量 avg#qF:前フレームの選択領域内平均量子化幅 avg#qB:前フレームの選択領域外平均量子化幅 である。
The previous frame complexity ratio Rp is determined by the following equation. Rp = (gen # bitF * avg # qF) / (gen # bitF * avg # qF + gen # bitB * avg
#qB) where gen # bitF: code amount generated in the previous frame selection area gen # bitB: code amount generated outside the previous frame selection area avg # qF: average quantization width in the selection area of the previous frame avg # qB: previous frame Is the average quantization width outside the selected region of.

【0081】選択領域を高画質にするには、量子化幅を
制御し、選択領域内の平均量子化幅が選択領域外の平均
量子化幅よりもある程度小さな状態を保ち、しかも動画
像シーケンス内での画像の変化にも追随することが望ま
しい。
In order to improve the quality of the selected area, the quantization width is controlled so that the average quantization width in the selected area is smaller than the average quantization width outside the selected area to some extent. It is desirable to follow the change of the image at the time.

【0082】一般に、固定比R0による配分は、選択領域
内と選択領域外との平均量子化幅の関係をほぼ一定に保
つのに適し、前フレーム複雑度比率Rpによる配分は、動
画像シーケンス内での画像の変化に追随させるのに適す
る。
In general, the distribution by the fixed ratio R0 is suitable for keeping the relation of the average quantization width between the inside and outside of the selected region almost constant, and the distribution by the previous frame complexity ratio Rp is within the moving image sequence. It is suitable to follow the change of the image at the time.

【0083】そこで、本発明では、目標符号量配分比Ra
を固定比R0と前フレーム複雑度比率Rpとの平均とし、両
者の長所を兼ね備えた制御を行なう。すなわち、 Ra=(R0+Rp)/2 である。
Therefore, in the present invention, the target code amount distribution ratio Ra
Is the average of the fixed ratio R0 and the previous frame complexity ratio Rp, and control having both advantages is performed. That is, Ra = (R0 + Rp) / 2.

【0084】例えば、選択領域における固定比R0と前フ
レーム複雑度比率Rpとが、動画像シーケンス全体におい
て、図13における点線のようになったとする。このと
き、目標符号量配分比Raは、図13における実線のよう
になり、固定比R0からあまり離れず、しかもある程度画
像の変化を反映することがわかる。
For example, it is assumed that the fixed ratio R0 and the previous frame complexity ratio Rp in the selected area are as shown by the dotted line in FIG. 13 in the entire moving image sequence. At this time, the target code amount distribution ratio Ra is as shown by the solid line in FIG. 13, and it can be seen that the target code amount distribution ratio does not deviate much from the fixed ratio R0 and reflects a change in the image to some extent.

【0085】このとき、選択領域外の固定比を(1-R0)、
前フレーム複雑度比率を(1-Rp)とすると、両者の平均で
ある目標符号量配分比(1-Ra)は、図14における実線に
示すようになり、選択領域内と選択領域外との目標符号
量配分比を加えたものは1となる。
At this time, the fixed ratio outside the selected area is (1-R0),
Assuming that the previous frame complexity ratio is (1-Rp), the target code amount distribution ratio (1-Ra), which is the average of the two, is as shown by the solid line in FIG. The value obtained by adding the target code amount distribution ratio is 1.

【0086】このようにして、量子化幅を適切に制御す
ることができるが、フレームによっては発生符号量が目
標符号量Biを越える場合があるため、シーケンス全体の
ビットレートが所定のビットレートに収まらないことが
起こりうる。そのような場合には、次に述べるような方
法をとることができる。
In this way, the quantization width can be appropriately controlled. However, since the generated code amount may exceed the target code amount Bi depending on the frame, the bit rate of the entire sequence is reduced to a predetermined bit rate. Things that don't fit can happen. In such a case, the following method can be used.

【0087】選択領域内の目標符号量配分比Raは、上述
したとおり、固定比R0と前フレーム複雑度比率Rpとの平
均とする。一方、選択領域外の目標符号量配分比は、選
択領域外の固定比(1-R0)と前フレーム複雑度比率(1-Rp)
との最小値Rmとする。
As described above, the target code amount distribution ratio Ra in the selected area is an average of the fixed ratio R0 and the previous frame complexity ratio Rp. On the other hand, the target code amount distribution ratio outside the selected region is a fixed ratio outside the selected region (1-R0) and a previous frame complexity ratio (1-Rp).
With the minimum value Rm.

【0088】このようにすると、選択領域外の目標符号
量配分比Rmの変化は、例えば図15における実線に示す
ようになる。このとき、Ra+Rm≦1となることから、該当
フレームの目標符号量を小さくすることができる。すな
わち、背景領域の目標符号量を抑えることにより、動画
像シーケンス全体のビットレートを所定のビットレート
に収めることができる。
In this way, the change of the target code amount distribution ratio Rm outside the selected area is, for example, as shown by a solid line in FIG. At this time, since Ra + Rm ≦ 1, the target code amount of the frame can be reduced. That is, by suppressing the target code amount in the background area, the bit rate of the entire moving image sequence can be kept at a predetermined bit rate.

【0089】[0089]

【発明の効果】本発明の画像符号化装置及び画像復号装
置によれば、矩形で表された部品動画像の領域情報とし
て、前記矩形の大きさを示す情報を符号化することによ
って、効率良く領域情報を符号化/復号することができ
る。
According to the image encoding device and the image decoding device of the present invention, the information indicating the size of the rectangle is encoded as the region information of the component moving image represented by the rectangle, so that the efficiency is improved. Region information can be encoded / decoded.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例を説明するブロック図で
ある。
FIG. 1 is a block diagram illustrating a first embodiment of the present invention.

【図2】本発明の第2の実施例を説明するブロック図で
ある。
FIG. 2 is a block diagram illustrating a second embodiment of the present invention.

【図3】本発明の第3の実施例の符号化側を説明するブ
ロック図である。
FIG. 3 is a block diagram illustrating an encoding side according to a third embodiment of the present invention.

【図4】本発明の第3の実施例の復号側を説明するブロ
ック図である。
FIG. 4 is a block diagram illustrating a decoding side according to a third embodiment of the present invention.

【図5】本発明の第4の実施例を説明するブロック図で
ある。
FIG. 5 is a block diagram illustrating a fourth embodiment of the present invention.

【図6】本発明の第5の実施例を説明するブロック図で
ある。
FIG. 6 is a block diagram illustrating a fifth embodiment of the present invention.

【図7】本発明の第6の実施例を説明するブロック図で
ある。
FIG. 7 is a block diagram illustrating a sixth embodiment of the present invention.

【図8】従来の符号化装置及び復号装置を説明するブロ
ック図である。
FIG. 8 is a block diagram illustrating a conventional encoding device and decoding device.

【図9】従来の符号量制御部を説明するブロック図であ
る。
FIG. 9 is a block diagram illustrating a conventional code amount control unit.

【図10】本発明の第1の実施例の効果を説明する図で
ある。
FIG. 10 is a diagram illustrating the effect of the first embodiment of the present invention.

【図11】本発明の第3の実施例における領域情報を近
似する例を示す説明図である。
FIG. 11 is an explanatory diagram showing an example of approximating region information according to a third embodiment of the present invention.

【図12】本発明の第4の実施例における重み情報の作
成方法例を示す説明図である。
FIG. 12 is an explanatory diagram illustrating an example of a method for creating weight information according to a fourth embodiment of the present invention.

【図13】本発明の第6の実施例における符号量制御方
法による選択領域の目標符号量比率を説明する図であ
る。
FIG. 13 is a diagram illustrating a target code amount ratio of a selected area according to a code amount control method according to a sixth embodiment of the present invention.

【図14】本発明の第6の実施例における符号量制御方
法による選択領域外の目標符号量比率を説明する図であ
る。
FIG. 14 is a diagram illustrating a target code amount ratio outside a selected area according to a code amount control method according to a sixth embodiment of the present invention.

【図15】本発明の第6の実施例における他の符号量制
御方法による選択領域外の目標符号量比率を説明する図
である。
FIG. 15 is a diagram illustrating a target code amount ratio outside a selected area according to another code amount control method according to the sixth embodiment of the present invention.

【図16】従来の動画像階層符号化の概念を説明する図
である。
FIG. 16 is a diagram illustrating the concept of conventional video hierarchical coding.

【図17】8方向量子化符号を説明する図である。FIG. 17 is a diagram illustrating an 8-way quantization code.

【図18】従来の動画像階層符号化の問題点を説明する
図である。
FIG. 18 is a diagram illustrating a problem of conventional video hierarchical coding.

【符号の説明】[Explanation of symbols]

101 第1の領域抽出部 102 第2の領域抽出部 103 コントローラ 104 スイッチ 105 補間画像作成部 106 加重平均部 301 領域情報近似部 302 領域近似情報符号化部 303 領域情報符号化部 304 選択部 401 選択部 402 領域近似情報復号部 403 領域情報復号部 101 first region extraction unit 102 second region extraction unit 103 controller 104 switch 105 interpolation image creation unit 106 weighted average unit 301 region information approximation unit 302 region approximation information encoding unit 303 region information encoding unit 304 selection unit 401 selection Unit 402 region approximation information decoding unit 403 region information decoding unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊藤 典男 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 野村 敏男 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5C059 KK01 LB11 MA04 MA05 MA35 MB02 MB04 MB12 MB21 MC11 NN21 PP04 TA23 TC10 TC14 TC38 TD03 TD11 UA02 UA05 5J064 AA01 BA09 BB01 BB03 BC16 BC21 BC25  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Norio Ito 22-22 Nagaikecho, Abeno-ku, Osaka City, Osaka Inside Sharp Corporation (72) Inventor Toshio Nomura 22-22 Nagaikecho, Abeno-ku, Osaka City, Osaka Incorporated F term (reference) 5C059 KK01 LB11 MA04 MA05 MA35 MB02 MB04 MB12 MB21 MC11 NN21 PP04 TA23 TC10 TC14 TC38 TD03 TD11 UA02 UA05 5J064 AA01 BA09 BB01 BB03 BC16 BC21 BC25

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数の部品動画像を符号化する画像符号
化装置であって、 前記部品動画像の領域情報を符号化する領域情報符号化
手段と、 前記部品動画像が矩形で表されたことを示す情報を生成
する情報生成手段とを備え、 前記領域情報符号化手段は、前記矩形で表された部品動
画像の領域情報として、前記矩形の大きさを示す情報を
符号化し、前記部品動画像が矩形で表されたことを示す
情報と統合することを特徴とする画像符号化装置。
1. An image encoding apparatus for encoding a plurality of component moving images, comprising: area information encoding means for encoding region information of the component moving image; and wherein the component moving image is represented by a rectangle. Information generating means for generating information indicating the size of the rectangle, as the area information of the component moving image represented by the rectangle, encodes information indicating the size of the rectangle, An image encoding apparatus, which integrates information indicating that a moving image is represented by a rectangle.
【請求項2】 複数の部品動画像の領域情報を符号化し
たデータと、前記部品動画像が矩形で表されたことを示
す情報とを含む符号化データを入力し、前記複数の部品
動画像を復号する画像復号装置であって、 前記部品動画像の領域情報を復号する領域情報復号手段
を備え、 前記領域情報復号手段は、前記矩形で表された部品画像
の領域情報として、前記矩形の大きさを示す情報を復号
することを特徴とする画像復号装置。
2. Inputting encoded data including data obtained by encoding region information of a plurality of component moving images and information indicating that the component moving images are represented by rectangles, An image decoding device that decodes region information of the part moving image, the region information decoding unit decodes the region information of the rectangle as the region information of the component image represented by the rectangle. An image decoding device for decoding information indicating a size.
JP2001180950A 2001-06-15 2001-06-15 Image-coding apparatus and image-decoding apparatus Pending JP2002051336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001180950A JP2002051336A (en) 2001-06-15 2001-06-15 Image-coding apparatus and image-decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001180950A JP2002051336A (en) 2001-06-15 2001-06-15 Image-coding apparatus and image-decoding apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000187116A Division JP3526258B2 (en) 1995-10-24 2000-06-22 Image encoding device and image decoding device

Publications (1)

Publication Number Publication Date
JP2002051336A true JP2002051336A (en) 2002-02-15

Family

ID=19021288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001180950A Pending JP2002051336A (en) 2001-06-15 2001-06-15 Image-coding apparatus and image-decoding apparatus

Country Status (1)

Country Link
JP (1) JP2002051336A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510932A (en) * 2005-09-27 2009-03-12 クゥアルコム・インコーポレイテッド Scalability technology based on content information
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing
JP2009510932A (en) * 2005-09-27 2009-03-12 クゥアルコム・インコーポレイテッド Scalability technology based on content information
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8879635B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US9071822B2 (en) 2005-09-27 2015-06-30 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US9088776B2 (en) 2005-09-27 2015-07-21 Qualcomm Incorporated Scalability techniques based on content information
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus

Similar Documents

Publication Publication Date Title
JP4326743B2 (en) Transcoding method and transcoder for transcoding predictive-encoded object-based image signal to predictive-encoded block-based image signal
US6023299A (en) Video coding device and video decoding device
JPH09172644A (en) Moving image coding/decoding device using moving compensation inter-frame prediction system employing affine transformation
JPH09252470A (en) Method for encoding and decoding image
JPH10117355A (en) Image coder and dynamic image decoder
EP3373584B1 (en) Content adaptive and art directable scalable video coding
JPH1155678A (en) Inter-block interpolation prediction coder, decoder, coding method and decoding method
JP4028900B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
JP2002051336A (en) Image-coding apparatus and image-decoding apparatus
JP4427553B2 (en) Video decoding device
JPH0813145B2 (en) Video coding method using region segmentation
JP2014168107A (en) Video encoding device, video decoding device, video encoding method and video decoding method
JP3746708B2 (en) Video encoding device
JP3101262B2 (en) Image encoding device and image decoding device
JP3526258B2 (en) Image encoding device and image decoding device
JP3148734B2 (en) Image encoding device and image decoding device
JPH08307860A (en) Scene re-encoder
JP3101195B2 (en) Image encoding device and image decoding device
JP2507199B2 (en) Image coding method and apparatus
JP3866946B2 (en) Video encoding device
JP3277116B2 (en) Video encoding device and video decoding device
JPH05236456A (en) Method and device for encoding moving image
JP2002094997A (en) Format conversion method for image sequence
JP7460384B2 (en) Prediction device, encoding device, decoding device, and program
JP4134078B2 (en) Video decoding device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060620