JP2003324742A - Image encoding apparatus and image decoding apparatus - Google Patents

Image encoding apparatus and image decoding apparatus

Info

Publication number
JP2003324742A
JP2003324742A JP2002132266A JP2002132266A JP2003324742A JP 2003324742 A JP2003324742 A JP 2003324742A JP 2002132266 A JP2002132266 A JP 2002132266A JP 2002132266 A JP2002132266 A JP 2002132266A JP 2003324742 A JP2003324742 A JP 2003324742A
Authority
JP
Japan
Prior art keywords
image
coding
information
encoding
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002132266A
Other languages
Japanese (ja)
Inventor
Tatsu Fujihira
達 藤平
Atsuo Kawaguchi
敦生 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002132266A priority Critical patent/JP2003324742A/en
Publication of JP2003324742A publication Critical patent/JP2003324742A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image encoding apparatus and an image decoding apparatus with less deterioration in image quality such as block distortion and mosquito noise even at a high compression rate. <P>SOLUTION: The image encoding apparatus includes: a first image encoding means for applying in-frame encoding to an input image according to a first prescribed encoding rule, sequentially outputting encoded information and outputting a reconfigured image of the encoded image; a second image encoding means for applying inter-frame encoding to the input image according to a second prescribed encoding rule, sequentially outputting encoded information and outputting a reconfigured image of the encoded image; an image encoding means for using at least either of the reconfigured image outputted from the first image encoding means and the reconfigured image outputted from the second image encoding means to perform inter-frame prediction encoding; and an encoded information composite means for composing the encoded information outputted from the first image encoding means with the encoded information outputted from the second image encoding means to output composed encoded information. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ディジタル動画像
データを符号化し、圧縮符号化情報を出力する画像符号
化装置、及び、圧縮符号化情報を復号化し、ディジタル
動画像データを出力する画像復号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding apparatus which encodes digital moving image data and outputs compression encoded information, and an image decoding apparatus which decodes compression encoded information and outputs digital moving image data. Regarding the chemical conversion device.

【0002】[0002]

【従来の技術】従来、放送・通信・蓄積メディア等にお
いて、ディジタル画像データを取り扱うための画像圧縮
符号化方式が数多く考案されている。これらの画像圧縮
符号化方式では特に、DCT(Discrete Cosine Transform)
等の直交変換、直交変換係数の量子化、及び可変長符号
を組み合わせた変換符号化方式が広く用いられている。
2. Description of the Related Art Conventionally, many image compression coding systems have been devised for handling digital image data in broadcasting, communication, storage media and the like. Especially in these image compression coding methods, DCT (Discrete Cosine Transform)
A transform coding method in which orthogonal transform such as the above, quantization of orthogonal transform coefficient, and variable length code is combined is widely used.

【0003】変換符号化方式では、自然画像に含まれる
空間周波数スペクトルが、比較的高周波成分が少なく、
低周波側に集中していることに着目し、直交変換によっ
て得られる変換係数のうち、高周波の係数よりも低周波
の係数に多くのビットを割当てている。例えば、主に静
止画像を対象とした規格として、JPEG(Joint Photograp
hic Coding Experts Group)規格があるが、初期の規格
であるJPEG(ITU-T T.81|ISO/IEC10918-1)は、DCT、DCT
係数の量子化、及び可変長符号を組み合わせた画像圧縮
符号化方式である。JPEGは、主観的に良好な画質を保ち
ながら、画像データ情報量を十分の一程度まで圧縮する
ことが可能である。
In the transform coding method, the spatial frequency spectrum contained in the natural image has relatively few high frequency components,
Focusing on the fact that they are concentrated on the low frequency side, more bits are allocated to the low frequency coefficient than the high frequency coefficient among the conversion coefficients obtained by the orthogonal transformation. For example, as a standard mainly for still images, JPEG (Joint Photograp
hic Coding Experts Group) standard, but the initial standard JPEG (ITU-T T.81 | ISO / IEC10918-1) is DCT, DCT
It is an image compression coding method that combines coefficient quantization and variable length coding. JPEG is capable of compressing the amount of image data information to about one tenth while maintaining subjectively good image quality.

【0004】また、動画像では、隣接するフレーム間の
相関が大きい為、フレームそのものよりも、隣接するフ
レーム間の差分を符号化する方が、効率が良い。このよ
うな符号化方法は、予測符号化と呼ばれている。
Further, in a moving image, since the correlation between adjacent frames is large, it is more efficient to encode the difference between adjacent frames than to encode the frames themselves. Such an encoding method is called predictive encoding.

【0005】しかし、画面の動きの大きい部分では、単
純なフレーム間の相関は小さくなり、予測符号化の効率
が下がる。そこで、画面の動きを検知して、動きの分を
補償した上で、予測符号化を行うことにより、さらに符
号化効率を上げることができる。このような符号化方法
は、動き補償予測符号化と呼ばれている。
However, in a portion where the screen movement is large, the correlation between simple frames becomes small, and the efficiency of predictive coding is lowered. Therefore, it is possible to further improve the coding efficiency by detecting the motion of the screen, compensating for the motion, and then performing the predictive coding. Such an encoding method is called motion compensation predictive encoding.

【0006】動き補償予測符号化は、カメラをパンした
場合等、画面全体が動く場合に特に有効である。さら
に、双方向予測符号化と呼ばれる符号化方法も知られて
いる。双方向予測符号化では、過去と未来の近傍のフレ
ームから予測符号化を行うことで、さらに符号化効率を
上げることができる。
Motion-compensated predictive coding is particularly effective when the entire screen moves, such as when the camera is panned. Furthermore, a coding method called bidirectional predictive coding is also known. In bidirectional predictive coding, it is possible to further improve the coding efficiency by performing predictive coding from past and future neighboring frames.

【0007】例えば、動画像を対象とした代表的な規格
としてMPEG(Moving Picture Experts Group)規格が挙げ
られるが、MPEG規格は、JPEGと同様に、DCT・DCT係数の
量子化・可変長符号を用いる変換符号化方式を基本とし
た上で、さらに双方向の動き補償予測方式を併用してい
る。
[0007] For example, the MPEG (Moving Picture Experts Group) standard is a typical standard for moving images, but the MPEG standard is similar to JPEG in that it uses DCT / DCT coefficient quantization / variable length coding. Based on the transform coding method used, a bidirectional motion compensation prediction method is also used.

【0008】MPEG規格には、初期のMPEG1(IS0/IE
C11172-2)、ディジタル放送やDVD(Digital Versatile
Disk)等に用いられているMPEG2(ITU-T H.262|ISO/
IEC13818-2)、主に通信等で用いられるMPEG4(ISO/
IEC14496-2)等の種類がある。
According to the MPEG standard, early MPEG1 (IS0 / IE
C11172-2), digital broadcasting and DVD (Digital Versatile
MPEG2 (ITU-T H.262 | ISO / used in Disk) etc.
IEC13818-2), MPEG4 (ISO / mainly used for communication etc.
There are types such as IEC14496-2).

【0009】DCT等を用いる変換符号化方式では、効率
的に画像を圧縮することができるが、圧縮率を比較的高
くした場合には、ブロック歪やモスキート・ノイズと呼
ばれる画質劣化が発生する。
The transform coding method using DCT or the like can efficiently compress an image, but when the compression rate is relatively high, image distortion called block distortion or mosquito noise occurs.

【0010】DCT等の直交変換における演算量は、画素
数に対して指数関数的に増大する為、直交変換を用いる
画像圧縮符号化方式では、一般に、画面全体をブロック
と呼ばれる8×8画素程度の小領域に分割して、ブロッ
ク単位で変換符号化を行う。この為、圧縮率を高めて、
変換係数の量子化誤差が大きくなると、各ブロックの直
流成分が不連続になり、ブロックの境界でギャップが発
生する。このブロック間のギャップが、ブロック歪とし
て視認される。
Since the amount of calculation in orthogonal transformation such as DCT increases exponentially with respect to the number of pixels, in the image compression coding method using orthogonal transformation, the entire screen is generally about 8 × 8 pixels called a block. , And the transform coding is performed in block units. Therefore, increase the compression rate,
When the quantization error of the transform coefficient becomes large, the DC component of each block becomes discontinuous, and a gap occurs at the block boundary. The gap between the blocks is visually recognized as block distortion.

【0011】また、直交変換の基底関数が周期的である
為、入力画像のブロック内に局所的なエッジが存在する
と、変換係数の高周波成分が多くなる。その量子化誤差
によって、再生画像のエッジ近傍に高周波の偽信号が発
生する。この偽信号がモスキート・ノイズとして視認さ
れる。これらの画質劣化は、主観的画質を著しく損なう
ものであり、改善が望まれてきた。
Further, since the basis function of the orthogonal transformation is periodic, the presence of local edges in the block of the input image increases the high frequency components of the transformation coefficient. Due to the quantization error, a high frequency false signal is generated near the edge of the reproduced image. This false signal is visually recognized as mosquito noise. These image quality deteriorations significantly impair the subjective image quality, and improvements have been desired.

【0012】こうした要求から、最近では、DWT(Discre
te Wavelet Transform)等の帯域分割フィルタ、量子
化、エントロピー符号を用いたサブバンド階層符号化方
式が普及しつつある。サブバンド階層符号化方式は、画
像を、帯域分割フィルタによって複数のサブバンドに分
割し、さらに低域サブバンドに対して階層的にサブバン
ド分割を繰り返し、それぞれの階層毎に量子化及びエン
トロピー符号化を行う方式である。本方式では、分割す
るサブバンドの階層を増やすことにより、符号化効率を
上げることが可能である。
Due to such demands, recently, DWT (Discrete
Band-division filters such as te Wavelet Transform), quantization, and subband hierarchical coding methods using entropy coding are becoming popular. The sub-band hierarchical coding method divides an image into a plurality of sub-bands by a band-division filter, hierarchically repeats sub-band division for low-frequency sub-bands, and performs quantization and entropy coding for each hierarchical layer. It is a method of performing conversion. In this method, it is possible to improve coding efficiency by increasing the hierarchy of subbands to be divided.

【0013】サブバンド階層符号化方式では、演算量が
画素数に概ね比例しており、変換符号化方式のように画
面をブロックに分割する必要性は少ない。画面の領域毎
にビット割り当てを細かく制御する場合には、画面を分
割して符号化を行うが、画面全体に対して符号化を行う
こともできる。この場合、原理的にブロック歪の発生を
抑えることができる。また、DWTの基底関数は、非周期
的であり、局在的な信号に対して、モスキート・ノイズ
が発生しにくい。
In the sub-band hierarchical coding method, the amount of calculation is almost proportional to the number of pixels, and it is not necessary to divide the screen into blocks as in the transform coding method. When the bit allocation is finely controlled for each screen area, the screen is divided and encoded, but the entire screen can be encoded. In this case, the occurrence of block distortion can be suppressed in principle. Moreover, the basis function of DWT is aperiodic, and mosquito noise is unlikely to occur for a localized signal.

【0014】JPEGの次世代の規格であるJPEG2000(ITU-T
T.800|ISO/IEC15444-1)は、DWTを採用したサブバンド
階層符号化方式である。JPEG2000では、ブロックの代わ
りに、タイルと呼ばれる画面領域毎に処理を行う。タイ
ルは任意の大きさの矩形領域であり、画面全体を多数の
小さいタイルに分割して、タイル毎に細かくビット制御
することが可能である。また、タイルを細かく分割せず
に、画面全体とすることも可能である。JPEG2000は、低
圧縮率から高圧縮率に至るまで、概ねJPEGより優れた画
質を得られている。
JPEG2000 (ITU-T
T.800 | ISO / IEC15444-1) is a subband hierarchical coding system that adopts DWT. In JPEG2000, instead of blocks, processing is performed for each screen area called tile. A tile is a rectangular area of an arbitrary size, and it is possible to divide the entire screen into a large number of small tiles and perform fine bit control for each tile. It is also possible to make the entire screen without dividing the tile into smaller parts. The image quality of JPEG2000 is superior to that of JPEG, from low compression rate to high compression rate.

【0015】JPEGやJPEG2000は、主に静止画を対象とし
た規格であるが、動画に適用することもできる。動画は
連続する静止画の集合とみなせるので、各画像を順番に
符号化してやればよい。JPEGを用いて動画像を符号化す
る方式は、正式に規格化がなされていないが、Motion-J
PEGと呼ばれ、ディジタル・カメラ等に、広く普及して
いる。また、JPEG2000を用いて動画像を符号化する方式
は、通称Motion-JPEG2000と呼ばれ、JPEG2000part3(ITU
-T T.800|ISO/IEC15444-3)として現在、規格化作業が行
われている。
JPEG and JPEG2000 are standards mainly for still images, but they can also be applied to moving images. Since a moving image can be regarded as a set of continuous still images, each image may be encoded in order. The method of encoding moving images using JPEG has not been officially standardized, but Motion-J
It is called PEG and is widely used in digital cameras. In addition, a method of encoding a moving image using JPEG2000 is commonly called Motion-JPEG2000, and JPEG2000 part3 (ITU-T
-T T.800 | ISO / IEC15444-3) is currently being standardized.

【0016】Motion-JPEG2000を用いた画像符号化装
置、及び画像復号化装置として、例えば特開2001−
258031に記載された画像符号化装置、及び画像復
号化装置がある。
As an image coding apparatus and an image decoding apparatus using Motion-JPEG2000, for example, Japanese Patent Laid-Open No. 2001-2001
There is an image encoding device and an image decoding device described in 258031.

【0017】[0017]

【発明が解決しようとする課題】ところで、動画像の圧
縮符号化において、ブロック歪やモスキート・ノイズの
発生を抑えながら、圧縮率を高める為には、サブバンド
階層符号化方式と、動き補償予測符号化方式を組み合わ
せることが有効であると考えられる。しかし、JPEG規格
やMPEG規格等、現時点で普及している画像圧縮符号化規
格においては、サブバンド階層符号化方式と、動き補償
予測符号化方式の双方を採用する規格は存在しない。
By the way, in order to increase the compression rate while suppressing the occurrence of block distortion and mosquito noise in the compression encoding of moving images, a sub-band hierarchical encoding method and a motion compensation prediction method are used. It is considered effective to combine encoding methods. However, in the currently popular image compression coding standards such as the JPEG standard and the MPEG standard, there is no standard that adopts both the sub-band hierarchical coding system and the motion compensation predictive coding system.

【0018】また、独自にサブバンド階層符号化方式
と、動き補償予測符号化方式を組み合わせた符号化方式
を考案しても、対応する画像符号化装置及び画像復号化
装置が普及していない為に、用途が限定されるという問
題がある。
Further, even if a coding method in which the sub-band hierarchical coding method and the motion compensation predictive coding method are combined is devised independently, the corresponding picture coding apparatus and picture decoding apparatus are not widespread. In addition, there is a problem that the application is limited.

【0019】本発明の目的は、既存の画像圧縮符号化規
格を活用しながらも、高い圧縮率と高画質を両立する画
像符号化装置、及び画像復号化装置を提供することを目
的とする。
It is an object of the present invention to provide an image coding apparatus and an image decoding apparatus which make good use of an existing image compression coding standard while achieving both a high compression rate and high image quality.

【0020】[0020]

【課題を解決するための手段】上記課題を解決する為、
本発明の画像符号化装置は、入力画像に対して第一の所
定の符号化規格に従ってフレーム内符号化を行い、符号
化情報を順次出力するとともに、符号化を行った画像の
再構成画像を出力する第一の画像符号化手段と、前記入
力画像に対して前記第一の所定の符号化規格とは異なる
第二の所定の符号化規格に従ってフレーム間予測符号化
を行い、符号化情報を順次出力するとともに、符号化を
行った画像の再構成画像を出力する第二の画像符号化手
段であって、前記第一の画像符号化手段の出力する再構
成画像と前記第二の画像符号化手段の出力する再構成画
像とのうち少なくとも一つを用いてフレーム間予測符号
化を行う画像符号化手段と、前記第一の画像符号化手段
の出力する符号化情報と前記第二の画像符号化手段の出
力する符号化情報とを合成して合成符号化情報を出力す
る符号化情報合成手段と、を備えることを特徴とする。
また、本発明の画像復号化装置は、入力される前記合成
符号化情報を前記第一の所定の符号化規格の符号化情報
と前記第二の所定の符号化規格の符号化情報に分離する
合成符号化情報分離手段と、前記合成符号化情報分離手
段の出力する前記第一の所定の符号化規格の符号化情報
の復号化を行い、復号画像を順次出力する第一の画像復
号化手段と、前記合成符号化情報分離手段の出力する前
記第二の所定の符号化規格の符号化情報の復号化を行
い、復号画像を順次出力する第二の画像復号化手段と、
前記第一の画像復号化手段の出力する復号画像と前記第
二の画像復号化手段の出力する復号画像を格納するフレ
ームバッファを備え、前記第二の画像復号化手段は、前
記第一の画像復号化手段の出力する復号画像と前記第二
の画像復号化手段の出力する復号画像のうち少なくとも
1つを用いてフレーム間予測復号を行うことを特徴と
し、入力される前記合成符号化情報は、前記合成の仕方
に関する情報が埋め込まれた合成符号化情報であって、
前記合成符号化情報分離手段は、前記合成符号化情報に
埋め込まれた合成の仕方に関する情報にしたがって前記
第一の所定の符号化規格の符号化情報と前記第二の所定
の符号化規格の符号化情報に分離することを特徴とす
る。
[Means for Solving the Problems] In order to solve the above problems,
The image coding apparatus of the present invention performs intraframe coding on an input image according to a first predetermined coding standard, sequentially outputs coding information, and reconstructs a reconstructed image of the coded image. A first image encoding means for outputting and inter-frame predictive encoding for the input image according to a second predetermined encoding standard different from the first predetermined encoding standard, and encoding information is obtained. Second image encoding means for sequentially outputting and outputting a reconstructed image of the encoded image, wherein the reconstructed image output by the first image encoding means and the second image code Image encoding means for performing interframe predictive encoding using at least one of the reconstructed images output by the encoding means, encoding information output by the first image encoding means, and the second image Encoding information output by encoding means And encoding information synthesizing means for synthesizing and outputting a synthesis coding information, characterized in that it comprises a.
Further, the image decoding apparatus of the present invention separates the input synthetic coding information into coding information of the first predetermined coding standard and coding information of the second predetermined coding standard. Synthetic coded information separating means, and first image decoding means for decoding the coded information of the first predetermined coding standard output by the synthetic coded information separating means and sequentially outputting decoded images. A second image decoding means for decoding the coded information of the second predetermined coding standard output by the composite coded information separating means, and sequentially outputting decoded images,
A frame buffer for storing a decoded image output by the first image decoding unit and a decoded image output by the second image decoding unit, wherein the second image decoding unit is the first image; The inter-frame predictive decoding is performed using at least one of the decoded image output by the decoding means and the decoded image output by the second image decoding means, and the input synthetic coding information is , Composite encoding information in which information about the method of combining is embedded,
The composite encoding information separating means encodes the encoding information of the first predetermined encoding standard and the code of the second predetermined encoding standard according to the information on the combination embedded in the composite encoding information. It is characterized in that it is separated into digitized information.

【0021】[0021]

【発明の実施の形態】以下、本発明を図面を用いて説明
する。なお、以下の説明ではフレーム内符号化を行う第
一の画像符号化方式としてJPEG2000を用いるが、これに
限るものではなく、ウェーブレット変換を用いた符号化
方式などブロック歪やモスキート・ノイズの発生しない
画像符号化方式であればよい。
DETAILED DESCRIPTION OF THE INVENTION The present invention will be described below with reference to the drawings. In the following description, JPEG2000 is used as the first image coding method for intraframe coding, but the invention is not limited to this, and block distortion or mosquito noise does not occur such as a coding method using wavelet transform. Any image encoding method may be used.

【0022】また、フレーム間符号化を行う第二の画像
符号化方式としてMPEG2を用いるが、これに限るもので
はなく、H.261、MPEG1、MPEG4をはじめとする、その他
のフレーム間符号化を行う画像符号化方式であればよ
い。
Although MPEG2 is used as the second image coding method for performing interframe coding, it is not limited to this, and other interframe coding such as H.261, MPEG1 and MPEG4 is used. Any image encoding method can be used.

【0023】図1は、本発明を適用した画像符号化装置
の第一の実施形態の構成を示す図である。本実施形態の
画像符号化装置は、JPEG2000符号化手段11、MPEG2符
号化手段12、フレームバッファ13・14、及び符号
化情報合成手段15を有する。
FIG. 1 is a diagram showing the configuration of a first embodiment of an image coding apparatus to which the present invention is applied. The image coding apparatus according to this embodiment includes a JPEG2000 coding unit 11, an MPEG2 coding unit 12, frame buffers 13 and 14, and a coding information synthesizing unit 15.

【0024】フレームバッファ13は、画像符号装置に
入力された画像データをいったん格納し、格納された画
像データを双方向予測を行う為の順序でJPEG2000符号化
手段11及びMPEG2符号化手段12に出力する。
The frame buffer 13 temporarily stores the image data input to the image encoding device, and outputs the stored image data to the JPEG2000 encoding means 11 and the MPEG2 encoding means 12 in the order for bidirectional prediction. To do.

【0025】JPEG2000符号化手段11は、フレームバッ
ファ13から出力された画像データに対して、フレーム
毎にJPEG2000規格にしたがって符号化を行い、生成され
たJPEG2000符号化情報を符号化情報合成手段15に出力
するとともに、符号化を行った画像の再構成画像をフレ
ームバッファ14に出力する。
The JPEG2000 encoding means 11 encodes the image data output from the frame buffer 13 for each frame according to the JPEG2000 standard, and the generated JPEG2000 encoding information is supplied to the encoding information synthesizing means 15. In addition to the output, the reconstructed image of the encoded image is output to the frame buffer 14.

【0026】MPEG2符号化手段12は、フレームバッフ
ァ13から出力される画像データに対して、MPEG2規格
にしたがってフレーム内符号化、または、フレームバッ
ファ14からの再構成画像データを用いてフレーム間予
測符号化を行い、生成されたMPEG2符号化情報を符号化
情報合成手段15に出力するとともに、符号化を行った
画像データの再構成画像データをフレームバッファ14
に出力する。
The MPEG2 coding means 12 performs intra-frame coding on the image data output from the frame buffer 13 according to the MPEG2 standard, or uses inter-frame prediction coding using reconstructed image data from the frame buffer 14. And outputs the generated MPEG2 coded information to the coded information synthesizing means 15 and the reconstructed image data of the coded image data to the frame buffer 14
Output to.

【0027】フレームバッファ14は、JPEG2000符号化
手段11及びMPEG2符号化手段12から出力される再構
成画像データを格納し、MPEG2符号化手段12において
フレーム間予測符号化を行うために参照される参照画像
データをMPEG2符号化手段12に出力する。
The frame buffer 14 stores the reconstructed image data output from the JPEG2000 coding means 11 and the MPEG2 coding means 12, and is referred to by the MPEG2 coding means 12 for performing interframe predictive coding. The image data is output to the MPEG2 encoding means 12.

【0028】符号化情報合成手段15は、JPEG2000符号
化手段11から出力されるJPEG2000符号化情報とMPEG2
符号化手段12から出力されるMPEG2符号化情報を合成
し、合成符号化情報を出力する。
The coded information synthesizing means 15 and the JPEG2000 coded information output from the JPEG2000 coding means 11 and MPEG2
The MPEG2 coded information output from the coding means 12 is combined and the combined coded information is output.

【0029】図2は、JPEG2000符号化手段11の構成を
示す図である。JPEG2000符号化手段11は、DWT手段2
1、量子化手段22、エントロピー符号化手段23、逆
量子化手段24、及びIDWT手段25を有する。JPEG2000
符号化手段11の構成は公知であるので、以下簡単に説
明する。
FIG. 2 is a diagram showing the structure of the JPEG2000 encoding means 11. The JPEG2000 encoding means 11 is the DWT means 2
1, a quantizer 22, an entropy encoder 23, an inverse quantizer 24, and an IDWT 25. JPEG2000
Since the configuration of the encoding means 11 is known, it will be briefly described below.

【0030】フレームバッファ13から出力された画像
データは、DWT手段21に入力される。DWT手段21にお
いて、画像データは所定の大きさのタイルに分割され、
タイル毎に離散ウェーブレット変換が行われ、DWT係数
が量子化手段22に出力される。
The image data output from the frame buffer 13 is input to the DWT means 21. In the DWT means 21, the image data is divided into tiles of a predetermined size,
The discrete wavelet transform is performed for each tile, and the DWT coefficient is output to the quantizing means 22.

【0031】量子化手段22では、DWT係数が所定の量
子化テーブルにしたがって量子化され、量子化係数がエ
ントロピー符号化手段23及び逆量子化手段24に出力
される。エントロピー符号化手段23では、量子化係数
が所定の符号化テーブルによって符号化され、生成され
た符号化情報を順次出力する。
The quantizing means 22 quantizes the DWT coefficients according to a predetermined quantizing table, and outputs the quantized coefficients to the entropy coding means 23 and the dequantizing means 24. In the entropy coding means 23, the quantized coefficient is coded by a predetermined coding table, and the generated coding information is sequentially output.

【0032】逆量子化手段24では、量子化係数に対し
て量子化手段22と逆の操作が行われ、逆量子化された
DWT係数がIDWT手段25に出力される。IDWT手段25で
は、逆量子化されたDWT係数に対して逆離散ウェーブレ
ット変換が行われ、再構成画像が生成され、フレームバ
ッファ14に出力される。
In the inverse quantizing means 24, the inverse operation of the quantizing means 22 is performed on the quantized coefficient and the inverse quantization is performed.
The DWT coefficient is output to the IDWT means 25. The IDWT means 25 performs an inverse discrete wavelet transform on the dequantized DWT coefficient, generates a reconstructed image, and outputs the reconstructed image to the frame buffer 14.

【0033】図3は、MPEG2符号化手段12の構成を示
す図である。MPEG2符号化手段12は、DCT手段31、量
子化手段32、可変長符号化手段33、逆量子化手段3
4、IDCT手段35、動き補償予測手段36、セレクタ手
段37、セレクタ手段38、減算手段39、及び加算手
段310を有する。MPEG2符号化手段12の構成も公知
であるので、以下、簡単に説明する。
FIG. 3 is a diagram showing the structure of the MPEG2 encoding means 12. The MPEG2 coding means 12 includes a DCT means 31, a quantizing means 32, a variable length coding means 33, and an inverse quantizing means 3.
4, IDCT means 35, motion compensation prediction means 36, selector means 37, selector means 38, subtraction means 39, and addition means 310. The configuration of the MPEG2 encoding means 12 is also known, and will be briefly described below.

【0034】MPEG2符号化手段12は、フレーム内符号
化を行う場合と、フレーム間符号化を行う場合で動作が
異なる。まず、フレーム内符号化を行う場合について説
明する。フレームバッファ13から出力された画像デー
タは、セレクタ手段37に入力される。セレクタ手段3
7は、フレームバッファ13からの画像データを選択
し、DCT手段31に出力する。
The MPEG2 coding means 12 operates differently depending on whether intra-frame coding is performed or inter-frame coding is performed. First, the case of performing intraframe coding will be described. The image data output from the frame buffer 13 is input to the selector means 37. Selector means 3
7 selects the image data from the frame buffer 13 and outputs it to the DCT means 31.

【0035】DCT手段31において、画像データは8×
8画素の大きさのブロックに分割され、ブロック毎に離
散コサイン変換が行われ、DCT係数が量子化手段32に
出力される。量子化手段32では、DCT係数が所定の量
子化テーブルにしたがって量子化され、量子化係数が可
変長符号化手段33及び逆量子化手段34に出力され
る。
In the DCT means 31, the image data is 8 ×
The block is divided into blocks each having a size of 8 pixels, the discrete cosine transform is performed for each block, and the DCT coefficient is output to the quantizer 32. The quantizer 32 quantizes the DCT coefficient according to a predetermined quantization table, and outputs the quantized coefficient to the variable length encoder 33 and the inverse quantizer 34.

【0036】可変長符号化手段33では、量子化係数が
所定の符号化テーブルによって符号化され、生成された
符号化情報が順次出力される。逆量子化手段34では、
量子化係数に対して量子化手段32と逆の操作が行わ
れ、逆量子化されたDCT係数がIDCT手段35に出力され
る。IDCT手段35では、逆量子化されたDCT係数に対し
て逆離散コサイン変換が行われ、再構成画像データが生
成され、セレクタ手段38に出力される。セレクタ手段
38はIDCT手段35からの再構成画像データを選択し、
フレームバッファ14に出力する。
In the variable length coding means 33, the quantized coefficient is coded by a predetermined coding table, and the generated coding information is sequentially output. In the inverse quantization means 34,
The inverse operation of the quantization means 32 is performed on the quantized coefficient, and the dequantized DCT coefficient is output to the IDCT means 35. The IDCT means 35 performs inverse discrete cosine transform on the inversely quantized DCT coefficient to generate reconstructed image data, which is output to the selector means 38. The selector means 38 selects the reconstructed image data from the IDCT means 35,
Output to the frame buffer 14.

【0037】フレーム間符号化を行う場合について説明
する。フレーム間符号化が行われる場合、DCT手段3
1、量子化手段32、可変長符号化手段33、逆量子化
手段34、及びIDCT手段35はフレーム内符号化の場合
と同様の動作をするので、説明を省略し、動き補償予測
手段36、セレクタ手段37、セレクタ手段38、減算
手段39、及び加算手段310の動作について説明す
る。
The case of performing interframe coding will be described. When interframe coding is performed, DCT means 3
1, the quantizing means 32, the variable length coding means 33, the inverse quantizing means 34, and the IDCT means 35 operate in the same manner as in the case of intra-frame coding, and therefore their explanations are omitted and the motion compensation prediction means 36 The operations of the selector means 37, the selector means 38, the subtraction means 39, and the addition means 310 will be described.

【0038】フレームバッファ13から出力された画像
データは、動き補償予測手段36に入力される。動き補
償予測手段36では、入力された画像データとフレーム
バッファ14から出力される参照画像データとを比較
し、最も近い部分の参照画像データを参照ブロックとし
て抜き出して、原産手段39に出力する。
The image data output from the frame buffer 13 is input to the motion compensation prediction means 36. The motion compensation prediction means 36 compares the input image data with the reference image data output from the frame buffer 14, extracts the closest reference image data as a reference block, and outputs it to the origination means 39.

【0039】減算手段39は、画像データのブロックか
ら参照ブロックを減算し、予測誤差を生成してセレクタ
手段37に出力する。セレクタ手段37は、予測誤差を
選択してDCT手段31に出力する。DCT手段31、量子化
手段32、可変長符号化手段33、逆量子化手段34、
IDCT手段35は予測誤差に対して、フレーム内符号化の
場合と同様の動作をする。
The subtracting means 39 subtracts the reference block from the block of image data to generate a prediction error and outputs it to the selector means 37. The selector means 37 selects the prediction error and outputs it to the DCT means 31. DCT means 31, quantization means 32, variable length coding means 33, dequantization means 34,
The IDCT means 35 operates on the prediction error in the same manner as in the case of intraframe coding.

【0040】IDCT手段35は、再構成予測誤差を生成
し、加算手段310に出力する。IDCT手段35の出力す
る再構成予測誤差は、加算手段310によって動き補償
予測手段36の出力する参照ブロックと加算され、再構
成画像データが生成され、セレクタ手段38に出力され
る。セレクタ手段38は再構成画像データを選択し、フ
レームバッファ14に出力する。
The IDCT means 35 generates a reconstruction prediction error and outputs it to the adding means 310. The reconstruction prediction error output from the IDCT means 35 is added by the addition means 310 to the reference block output from the motion compensation prediction means 36, reconstructed image data is generated, and output to the selector means 38. The selector means 38 selects the reconstructed image data and outputs it to the frame buffer 14.

【0041】フレームバッファ13・14の動作につい
て説明する。図6に示すように、入力画像のフレーム
0、フレーム1、フレーム2、フレーム3、フレーム4
・・・に対して、IBPBP・・・の順で符号化すると仮定
する。
The operation of the frame buffers 13 and 14 will be described. As shown in FIG. 6, frame 0, frame 1, frame 2, frame 3, frame 4 of the input image
, Are encoded in the order of IBPBP.

【0042】ここで、Iはフレーム内符号化、Pは片方向
のフレーム間予測符号化、Bは双方向のフレーム間予測
符号化される画像データを表す。フレーム1はBピクチ
ャであるので、フレーム0及びフレーム2を用いて双方
向予測符号化が行われる。したがって、フレーム1の前
にフレーム2を符号化する必要がある。同様にフレーム
3の符号化の前に、フレーム4が符号化される必要があ
る。
Here, I represents image data which is intra-frame coded, P is unidirectional inter-frame predictive coding, and B is bi-directional inter-frame predictive coded. Since frame 1 is a B picture, bidirectional predictive coding is performed using frame 0 and frame 2. Therefore, it is necessary to encode frame 2 before frame 1. Similarly, frame 4 needs to be coded before frame 3 is coded.

【0043】したがって、フレームバッファ13は、フ
レーム0、フレーム2、フレーム1、フレーム4、フレ
ーム3・・・の順に画像データを出力する。また、フレ
ーム2はPピクチャであるので、フレーム2を符号化す
る際は、フレームバッファ14は、フレーム0の再構成
画像を参照画像データとして出力する。
Therefore, the frame buffer 13 outputs the image data in the order of frame 0, frame 2, frame 1, frame 4, frame 3 ... Since frame 2 is a P picture, when encoding frame 2, frame buffer 14 outputs the reconstructed image of frame 0 as reference image data.

【0044】フレーム1はBピクチャであるので、フレ
ームバッファ14は、フレーム1を符号化する際、フレ
ーム0及びフレーム2の再構成画像データを参照画像デ
ータとして出力する。以下同様に、フレームバッファ1
4は、参照画像データとしてフレーム2、フレーム2及
びフレーム4・・・を出力する。なお、上記の説明は一
例であって、その他の順序・組み合わせで符号化を行う
場合でも、なんら問題はない。
Since frame 1 is a B picture, the frame buffer 14 outputs the reconstructed image data of frame 0 and frame 2 as reference image data when encoding frame 1. Similarly, the frame buffer 1
4 outputs frame 2, frame 2, frame 4, ... As reference image data. Note that the above description is an example, and there is no problem even if encoding is performed in other order / combination.

【0045】符号化情報合成手段15の動作について説
明する。図7は、入力された画像データに対して得られ
たMPEG2符号化情報の一例である。SHCはシーケンス層の
符号、GSCはGOP(Group of picture)層の符号、PSC0、PS
C1、PSC2、PSC3、PSC4はフレーム0、フレーム1、フレ
ーム2、フレーム3、フレーム4・・・に対応するピク
チャ層の符号、M0、M1、M2、M3、M4・・・はフレーム
0、フレーム1、フレーム2、フレーム3、フレーム4
・・・のピクチャ層以下の符号である。
The operation of the coded information synthesizing means 15 will be described. FIG. 7 is an example of the MPEG2 coded information obtained for the input image data. SHC is a sequence layer code, GSC is a GOP (Group of picture) layer code, PSC0, PS
C1, PSC2, PSC3, PSC4 are the code of the picture layer corresponding to frame 0, frame 1, frame 2, frame 3, frame 4 ... M0, M1, M2, M3, M4 ... are frame 0, frame 1, frame 2, frame 3, frame 4
Are codes below the picture layer.

【0046】ここでは、図6と同様に符号化する場合を
想定して、符号化情報はM0、M2、M1、M4、M3・・・の順
で表れているが、実際には、この限りではない。ところ
で、フレーム間予測符号化においては、フレーム間予測
による誤差の伝播が起きると、画質が大きく損なわれ
る。そこで、フレーム間予測による誤差の伝播を抑える
為に、一般に、参照ピクチャとなるフレームの画質を優
先し、Iピクチャ、Pピクチャ、Bピクチャの順に、多く
のビット数が割り当てられる。
Here, the encoding information is represented in the order of M0, M2, M1, M4, M3, ... is not. By the way, in the inter-frame predictive coding, if the error is propagated due to the inter-frame prediction, the image quality is greatly deteriorated. Therefore, in order to suppress the propagation of an error due to inter-frame prediction, in general, the image quality of a frame serving as a reference picture is prioritized, and a large number of bits are assigned in the order of I picture, P picture, and B picture.

【0047】このことから、本実施例の符号化情報合成
手段15は、最も重要なIピクチャについてJPEG2000符
号化情報を用い、PピクチャとBピクチャについてMPEG符
号化情報を用いる。したがって、Iピクチャであるフレ
ーム0をJPEG2000符号化情報とする為、図8に示すよう
に、PSC0とM0の間に、ユーザ・データ・スタート・コー
ドとユーザ・データであるUD0としてフレーム0に対す
るJPEG2000符号化情報であるJ0を挿入する。これによ
り、MPEG2規格とJPEG2000規格の合成符号化情報が得ら
れる。
From this, the coding information synthesizing means 15 of this embodiment uses JPEG2000 coding information for the most important I picture and MPEG coding information for P picture and B picture. Therefore, since the frame 0 which is an I picture is used as the JPEG2000 encoding information, as shown in FIG. 8, the JPEG2000 for the frame 0 is set between the PSC0 and M0 as the user data start code and the user data UD0. Insert J0 which is encoding information. As a result, composite encoded information of the MPEG2 standard and the JPEG2000 standard can be obtained.

【0048】この符号化情報は、一般のMPEG2画像復号
化装置で再生することが可能である。その場合、JPEG20
00符号化情報であるJ0は使われず、純粋なMPEG2符号化
情報として取り扱われる。
This coded information can be reproduced by a general MPEG2 image decoding device. In that case, JPEG20
J0 which is 00 coded information is not used and is treated as pure MPEG2 coded information.

【0049】この符号化情報は、フレーム0に対するMP
EG2符号化情報とJPEG2000符号化情報の両方を含んでい
るので、情報量が若干かさむ。そこで、図9に示すよう
に、M0を取り除いて、代わりにユーザ・データ・スター
ト・コードとユーザ・データであるUD0としてフレーム
0に対するJPEG2000符号化情報であるJ0のみを挿入する
こともできる。この場合得られる合成符号化情報は、情
報量の無駄は無いが、一般のMPEG2画像復号化装置で
は、再生することはできない。
This coded information is the MP for frame 0.
Since it contains both EG2 coded information and JPEG2000 coded information, the amount of information is slightly bulky. Therefore, as shown in FIG. 9, it is possible to remove M0 and instead insert only the user data start code and user data UD0, which is JPEG2000 encoded information J0 for frame 0. The synthesized encoded information obtained in this case has no waste of information amount, but cannot be reproduced by a general MPEG2 image decoding device.

【0050】なお、以上に示した符号化情報の合成は、
任意のフレームに対して適用できる。本実施形態では、
IピクチャのみJPEG2000符号化情報を用いたが、Iピクチ
ャ及びPピクチャについてJPEG2000符号化情報を用いて
もよい。
In addition, the synthesis of the coded information shown above is
It can be applied to any frame. In this embodiment,
Although the JPEG2000 coding information is used only for the I picture, the JPEG2000 coding information may be used for the I picture and P picture.

【0051】ところで、ブロック歪やモスキート・ノイ
ズは、前述したように、DCT係数の量子化誤差に起因す
るので、量子化スケールが大きくなる程、発生しやす
い。したがって、画像符号化装置における量子化スケー
ルを監視することによって、ブロック歪やモスキート・
ノイズの発生を予測することができる。ブロック歪やモ
スキート・ノイズの発生しやすい条件の場合に、JPEG20
00符号化情報を用い、その他の場合にMPEG2符号化情報
を用いることで、さらに効率的な符号化が可能である。
By the way, since the block distortion and the mosquito noise are caused by the quantization error of the DCT coefficient as described above, they are more likely to occur as the quantization scale becomes larger. Therefore, by monitoring the quantization scale in the image coding device, block distortion and mosquito
The occurrence of noise can be predicted. Under conditions where block distortion and mosquito noise are likely to occur, JPEG20
By using 00 coded information and MPEG2 coded information in other cases, more efficient coding is possible.

【0052】図4は、本発明を適用した画像符号化装置
の第二の実施形態の構成を示す図である。本実施形態
は、符号化情報合成制御手段46が追加されている点
で、第一の実施形態と異なる。図1と重複する部分につ
いては図1と同じ番号を付し、説明を省略する。
FIG. 4 is a diagram showing the configuration of the second embodiment of the image coding apparatus to which the present invention is applied. This embodiment is different from the first embodiment in that a coded information composition control means 46 is added. The same parts as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1 and their explanations are omitted.

【0053】MPEG2符号化手段12は、量子化スケール
情報を符号化情報合成制御手段46に出力する。符号化
情報合成制御手段46は、MPEG2符号化手段12から出
力される量子化スケール情報を用いて、フレーム毎にJP
EG2000符号化情報とMPEG2符号化情報のどちらを使用す
るかを指定する符号化情報合成制御信号を生成し、符号
化情報合成手段15に出力する。
The MPEG2 coding means 12 outputs the quantization scale information to the coding information synthesis control means 46. The coding information synthesis control means 46 uses the quantization scale information output from the MPEG2 coding means 12 to determine the JP for each frame.
An encoded information synthesis control signal that specifies which of EG2000 encoded information and MPEG2 encoded information is used is generated and output to the encoded information synthesis means 15.

【0054】符号化情報合成制御信号の生成の仕方は、
例えば、符号化対象フレームにおける量子化スケールの
平均値を算出し、所定の閾値と比較すればよい。量子化
スケールの平均値が閾値より大きい場合には、JPEG2000
符号化情報を選択するものとし、量子化スケールの平均
値が閾値より小さい場合には、MPEG2符号化情報を選択
するものとする。また、量子化スケールの平均値の代わ
りに、量子化スケールの最大値を用いてもよい。
The method of generating the encoded information synthesis control signal is as follows.
For example, the average value of the quantization scale in the encoding target frame may be calculated and compared with a predetermined threshold value. If the average value of the quantization scale is larger than the threshold, JPEG2000
Encoding information is selected, and if the average value of the quantization scale is smaller than the threshold value, MPEG2 encoding information is selected. Further, the maximum value of the quantization scale may be used instead of the average value of the quantization scale.

【0055】符号化情報合成手段15は、符号化情報合
成制御手段46から出力される符号化情報合成制御信号
にしたがって、本発明の画像符号化装置の第一の実施形
態と同様に、JPEG2000符号化情報とMPEG2符号化情報を
合成し、出力する。
The coded information synthesizing means 15, according to the coded information synthesizing control signal output from the coded information synthesizing control means 46, similarly to the first embodiment of the image coding apparatus of the present invention, the JPEG2000 code. The encoded information and the MPEG2 encoded information are combined and output.

【0056】本実施形態の画像符号化装置によれば、ブ
ロック歪やモスキート・ノイズの発生しやすい条件の場
合にのみ、JPEG2000符号化情報を使用するので、本発明
の画像符号化装置の第一の実施形態に比べ、効率的に画
質劣化を抑えることができる。
According to the image coding apparatus of this embodiment, the JPEG2000 coding information is used only under the condition that block distortion or mosquito noise is likely to occur. As compared with the above embodiment, it is possible to efficiently suppress the deterioration of image quality.

【0057】図5は、本発明を適用した画像復号化装置
の実施形態の構成を示す図である。本実施形態の画像復
号化装置は、JPEG2000復号化手段51、MPEG2復号化手
段52、符号化情報分離手段53、及びフレームバッフ
ァ54を有する。
FIG. 5 is a diagram showing the configuration of an embodiment of an image decoding apparatus to which the present invention has been applied. The image decoding apparatus according to this embodiment includes a JPEG2000 decoding unit 51, an MPEG2 decoding unit 52, a coded information separating unit 53, and a frame buffer 54.

【0058】符号化情報は、符号化情報分離手段53に
入力される。符号化情報分離手段53は、入力された符
号化情報をJPEG2000符号化情報とMPEG2符号化情報に分
離し、JPEG2000符号化情報をJPEG2000復号化手段51
に、MPEG2符号化情報をMPEG2復号化手段52に出力す
る。
The coded information is input to the coded information separating means 53. The coding information separating means 53 separates the inputted coding information into JPEG2000 coding information and MPEG2 coding information, and the JPEG2000 coding information is JPEG2000 decoding means 51.
Then, the MPEG2 encoded information is output to the MPEG2 decoding means 52.

【0059】JPEG2000復号化手段51は、符号化情報分
離手段53から出力されたJPEG2000符号化情報に対し
て、JPEG2000規格にしたがって復号化を行い、生成した
復号画像データをフレームバッファ54に出力する。MP
EG2符号化手段52は、符号化情報分離手段53から出
力されたMPEG2符号化情報に対して、MPEG2規格にしたが
ってフレーム内復号化、または、フレームバッファ54
からの参照画像データを用いてフレーム間予測復号化を
行い、生成した復号画像データをフレームバッファ54
に出力する。
The JPEG2000 decoding means 51 decodes the JPEG2000 encoded information output from the encoded information separating means 53 according to the JPEG2000 standard, and outputs the generated decoded image data to the frame buffer 54. MP
The EG2 encoding means 52 performs intra-frame decoding on the MPEG2 encoded information output from the encoded information separating means 53 according to the MPEG2 standard, or a frame buffer 54.
Inter-frame predictive decoding is performed using the reference image data from the frame buffer 54.
Output to.

【0060】フレームバッファ54は、JPEG2000復号化
手段51及びMPEG2復号化手段52から出力された復号
画像データを格納し、必要に応じて参照画像データをMP
EG2復号化手段52に出力するとともに、所定の再生順
序で復号画像データを出力する。このような構成によ
り、本実施例の画像復号化装置は、本発明による画像符
号化装置の生成する合成符号化情報を復号することがで
きる。
The frame buffer 54 stores the decoded image data output from the JPEG2000 decoding means 51 and the MPEG2 decoding means 52, and MP the reference image data as necessary.
The decoded image data is output to the EG2 decoding means 52 and also in a predetermined reproduction order. With such a configuration, the image decoding apparatus according to the present embodiment can decode the combined coding information generated by the image coding apparatus according to the present invention.

【0061】[0061]

【発明の効果】本発明によれば、高圧縮率でありなが
ら、ブロック歪やモスキート・ノイズなど画質劣化の発
生しない動画像符号化装置及び復号化装置が実現でき
る。
According to the present invention, it is possible to realize a moving picture coding apparatus and a decoding apparatus which have a high compression rate but which do not cause image distortion such as block distortion and mosquito noise.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像符号化装置の第一の実施例のブロ
ック図である。
FIG. 1 is a block diagram of a first embodiment of an image coding apparatus according to the present invention.

【図2】JPEG2000符号化手段のブロック図である。FIG. 2 is a block diagram of JPEG2000 encoding means.

【図3】MPEG2符号化手段のブロック図である。FIG. 3 is a block diagram of MPEG2 encoding means.

【図4】本発明の画像符号化装置の第二の実施例のブロ
ック図である。
FIG. 4 is a block diagram of a second embodiment of the image encoding device of the present invention.

【図5】本発明の画像復号化装置の実施例のブロック図
である。
FIG. 5 is a block diagram of an embodiment of an image decoding apparatus of the present invention.

【図6】フレームバッファの動作を説明する為の図であ
る。
FIG. 6 is a diagram for explaining the operation of the frame buffer.

【図7】MPEG2符号化情報を説明する為の図である。[Fig. 7] Fig. 7 is a diagram for describing MPEG2 encoded information.

【図8】合成符号化情報の第一例を説明する為の図であ
る。
FIG. 8 is a diagram for explaining a first example of combined encoded information.

【図9】合成符号化情報の第二例を説明する為の図であ
る。
FIG. 9 is a diagram for explaining a second example of combined encoded information.

【符号の説明】[Explanation of symbols]

11…JPEG2000符号化手段、12…MPEG2符号化手段、
13…フレームバッファ、15…符号化情報合成手段。
11 ... JPEG2000 encoding means, 12 ... MPEG2 encoding means,
13 ... Frame buffer, 15 ... Encoding information combining means.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK03 KK04 MA00 MA04 MA05 MA14 MA23 MA24 MC11 MC38 ME01 PP05 PP06 PP07 RC12 UA02 UA05 UA33 5J064 AA01 BA09 BA16 BB01 BB03 BC01 BC08 BC16 BC25    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5C059 KK03 KK04 MA00 MA04 MA05                       MA14 MA23 MA24 MC11 MC38                       ME01 PP05 PP06 PP07 RC12                       UA02 UA05 UA33                 5J064 AA01 BA09 BA16 BB01 BB03                       BC01 BC08 BC16 BC25

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】入力される画像データを、第一の符号化規
格に従ってフレーム内符号化し、符号化された情報を順
次出力するとともに、符号化された前記画像データの再
構成画像データを出力する第一の画像符号化手段と、 前記画像データに対して第二の符号化規格に従ってフレ
ーム間予測符号化し、符号化された情報を順次出力する
第二の画像符号化手段と、 前記第一の画像符号化手段の出力する符号化情報と前記
第二の画像符号化手段の出力する符号化情報とを合成し
て合成符号化情報を出力する符号化情報合成手段とを有
し、 前記第二の画像符号化手段は、 前記第一の画像符号化手段の出力する前記再構成画像を
用いてフレーム間予測符号化を行うことを特徴とする画
像符号化装置。
1. Input image data is intra-frame encoded in accordance with a first encoding standard, encoded information is sequentially output, and reconstructed image data of the encoded image data is output. A first image coding means, inter-frame predictive coding according to a second coding standard for the image data, a second image coding means for sequentially outputting the coded information, the first Encoding information output from the image encoding means and encoding information output from the second image encoding means are combined, and encoding information combining means for outputting combined encoding information, 2. The image coding apparatus according to claim 1, wherein the image coding means performs interframe predictive coding using the reconstructed image output from the first image coding means.
【請求項2】入力される画像データを、第一の符号化規
格に従ってフレーム内符号化し、符号化された情報を順
次出力するとともに、符号化された前記画像データの再
構成画像データを出力する第一の画像符号化手段と、 前記画像データに対して第二の符号化規格に従ってフレ
ーム間予測符号化し、符号化された情報を順次出力し、
符号化を行った画像データの再構成画像データを出力す
るする第二の画像符号化手段と、 前記第一の画像符号化手段の出力する符号化情報と前記
第二の画像符号化手段の出力する符号化情報とを合成し
て合成符号化情報を出力する符号化情報合成手段とを有
し、 前記第二の画像符号化手段は、 前記第一の画像符号化手段が出力する再構成画像データ
と前記第二の画像符号化手段が出力する再構成画像デー
タとのうち少なくとも一つを用いてフレーム間予測符号
化を行うことを特徴とする画像符号化装置。
2. Input image data is intra-frame encoded according to a first encoding standard, encoded information is sequentially output, and reconstructed image data of the encoded image data is output. A first image coding means, inter-frame predictive coding according to a second coding standard for the image data, sequentially output the coded information,
Second image encoding means for outputting reconstructed image data of encoded image data, encoding information output by the first image encoding means, and output of the second image encoding means And a coding information synthesizing means for synthesizing the coding information to output the synthesized coding information, wherein the second image coding means is a reconstructed image output by the first image coding means. An image coding apparatus, characterized in that interframe predictive coding is performed using at least one of data and reconstructed image data output by the second image coding means.
【請求項3】前記符号化情報合成手段は、 前記第一の画像符号化手段の出力する符号化情報と前記
第二の画像符号化手段の出力する符号化情報とをフレー
ム単位で合成することを特徴とする請求項1及び請求項
2のうちいずれか一つに記載の画像符号化装置。
3. The encoding information synthesizing unit synthesizes the encoding information output by the first image encoding unit and the encoding information output by the second image encoding unit in frame units. The image coding apparatus according to any one of claims 1 and 2, characterized in that.
【請求項4】符号化情報合成制御手段を有し、 前記符号化情報合成手段は、 前記符号化情報合成制御手段の制御に基づいて、前記第
一の画像符号化手段の出力する符号化情報と前記第二の
画像符号化手段の出力する符号化情報との合成の仕方を
変更し、合成の変更に関する情報を前記合成符号化情報
に埋め込むことを特徴とする請求項1、2及び3のうち
いずれか1つに記載された画像符号化装置。
4. The encoding information combining control means, wherein the encoding information combining means outputs the encoding information output from the first image encoding means under the control of the encoding information combining control means. 4. The method of synthesizing the coding information output from the second image coding means and the method of synthesizing the information are embedded in the synthetic coding information. The image encoding device described in any one of them.
【請求項5】前記符号化情報合成制御手段は、前記第二
の画像符号化手段の出力する量子化スケール情報を用い
て前記符号化情報合成手段を制御することを特徴とする
請求項4に記載の画像符号化装置。
5. The coded information synthesizing control means controls the coded information synthesizing means using the quantization scale information output from the second image coding means. The image encoding device described.
【請求項6】前記第一の符号化規格がウェーブレット変
換を用いた規格であることを特徴とする請求項1乃至5
に記載の画像符号化装置。
6. The method according to claim 1, wherein the first coding standard is a standard using a wavelet transform.
The image encoding device according to 1.
【請求項7】前記第一の符号化規格がJPEG2000であるこ
とを特徴とする請求項1乃至6に記載の画像符号化装
置。
7. The image coding apparatus according to claim 1, wherein the first coding standard is JPEG2000.
【請求項8】合成符号化情報を第一の符号化規格の符号
化情報と第二の符号化規格の符号化情報に分離する合成
符号化情報分離手段と、 前記合成符号化情報分離手段から出力される前記第一の
符号化規格の符号化情報を復号化し、復号された画像デ
ータを順次出力する第一の画像復号化手段と、 前記合成符号化情報分離手段から出力される前記第二の
符号化規格の符号化情報を復号し、復号された画像デー
タを順次出力する第二の画像復号化手段と、 前記第一の画像復号化手段から出力される復号画像デー
タと前記第二の画像復号化手段の出力する復号画像デー
タを格納するフレームバッファを備え、 前記第二の画像復号化手段は、前記第一の画像復号化手
段の出力する復号画像データと前記第二の画像復号化手
段の出力する復号画像データのうち少なくとも1つを用
いてフレーム間予測復号を行うことを特徴とする画像復
号化装置。
8. A composite coding information separating means for separating the composite coding information into coding information of a first coding standard and coding information of a second coding standard, and from the composite coding information separating means. A first image decoding unit that decodes the encoded information of the first encoding standard that is output and sequentially outputs the decoded image data; and the second image that is output from the synthetic encoded information separating unit. A second image decoding means for decoding the coded information of the coding standard and sequentially outputting the decoded image data; and the decoded image data output from the first image decoding means and the second image decoding means. A frame buffer for storing the decoded image data output by the image decoding means, wherein the second image decoding means outputs the decoded image data output by the first image decoding means and the second image decoding Decoded image data output by the means An image decoding device, characterized by performing interframe predictive decoding using at least one of the data.
【請求項9】前記合成符号化情報には、合成の仕方に関
する情報が埋め込まれており、 前記合成符号化情報分離手段は、前記合成符号化情報に
埋め込まれた合成の仕方に関する情報にしたがって前記
第一の符号化規格の符号化情報と前記第二の符号化規格
の符号化情報に分離することを特徴とする請求項8に記
載の画像復号化装置。
9. The composite coding information includes information about a combining method embedded therein, and the composite coding information separating means stores the composite coding information according to the information about the combining method embedded in the composite coding information. The image decoding apparatus according to claim 8, wherein the image decoding apparatus separates the coding information of the first coding standard and the coding information of the second coding standard.
【請求項10】前記第一の符号化規格がウェーブレット
変換を用いた規格であることを特徴とする請求項8乃至
9に記載の画像復号化装置。
10. The image decoding apparatus according to claim 8, wherein the first coding standard is a standard using a wavelet transform.
【請求項11】前記第一の符号化規格がJPEG2000である
ことを特徴とする請求項8乃至9に記載の画像復号化装
置。
11. The image decoding apparatus according to claim 8, wherein the first coding standard is JPEG2000.
JP2002132266A 2002-05-08 2002-05-08 Image encoding apparatus and image decoding apparatus Pending JP2003324742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002132266A JP2003324742A (en) 2002-05-08 2002-05-08 Image encoding apparatus and image decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002132266A JP2003324742A (en) 2002-05-08 2002-05-08 Image encoding apparatus and image decoding apparatus

Publications (1)

Publication Number Publication Date
JP2003324742A true JP2003324742A (en) 2003-11-14

Family

ID=29544444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002132266A Pending JP2003324742A (en) 2002-05-08 2002-05-08 Image encoding apparatus and image decoding apparatus

Country Status (1)

Country Link
JP (1) JP2003324742A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106101723A (en) * 2011-01-07 2016-11-09 Lg电子株式会社 The method of coding and decoding image information and the device using the method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106101723A (en) * 2011-01-07 2016-11-09 Lg电子株式会社 The method of coding and decoding image information and the device using the method
US10257535B2 (en) 2011-01-07 2019-04-09 Lg Electronics Inc. Method for encoding and decoding image information and device using same
CN106101723B (en) * 2011-01-07 2019-06-14 Lg电子株式会社 Code and decode the method for image information and the device using this method
US10715825B2 (en) 2011-01-07 2020-07-14 Lg Electronic Inc. Method for encoding and decoding image information and device using same
US11102502B2 (en) 2011-01-07 2021-08-24 Lg Electronics, Inc Method for encoding and decoding image information and device using same
US11825110B2 (en) 2011-01-07 2023-11-21 Lg Electronics Inc. Method for encoding and decoding image information and device using same

Similar Documents

Publication Publication Date Title
JP4763548B2 (en) Scalable video coding and decoding method and apparatus
US7738716B2 (en) Encoding and decoding apparatus and method for reducing blocking phenomenon and computer-readable recording medium storing program for executing the method
US7310371B2 (en) Method and/or apparatus for reducing the complexity of H.264 B-frame encoding using selective reconstruction
KR100596706B1 (en) Method for scalable video coding and decoding, and apparatus for the same
JP2549479B2 (en) Motion compensation inter-frame band division coding processing method
US20070160129A1 (en) Video decoding apparatus and video decoding method
US20070201554A1 (en) Video transcoding method and apparatus
US20070116125A1 (en) Video encoding/decoding method and apparatus
KR20140110221A (en) Video encoder, method of detecting scene change and method of controlling video encoder
JP4685849B2 (en) Scalable video coding and decoding method and apparatus
CA2543947A1 (en) Method and apparatus for adaptively selecting context model for entropy coding
JP2008104228A (en) Video decoding method considering intra bl mode, video decoder, and recording medium
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
KR20060071393A (en) Method and apparatus for selection of scanning mode in dual pass encoding
Xing et al. Arbitrarily shaped video-object coding by wavelet
JP2002223443A (en) Transcoding method and transcoder
JPH06125543A (en) Encoding device
JPH07312756A (en) Circuit, device and method for conversion of information quantity of compressed animation image code signal
JP2003304538A (en) Image encoder, image decoder, and method for them
JP2000324494A (en) Animation encoding device
JP2006279272A (en) Moving picture coder and coding control method thereof
KR100678907B1 (en) Method and apparatus for encoding and decoding FGS layer using reconstructed data of lower layer
JP2003324742A (en) Image encoding apparatus and image decoding apparatus
JP2002058032A (en) Apparatus and method for encoding image, apparatus and method for decoding image as well as image processor
US20060181650A1 (en) Encoding method and device