JP4596277B2 - Encoding device, encoding method, decoding device, and decoding method - Google Patents

Encoding device, encoding method, decoding device, and decoding method Download PDF

Info

Publication number
JP4596277B2
JP4596277B2 JP2007056300A JP2007056300A JP4596277B2 JP 4596277 B2 JP4596277 B2 JP 4596277B2 JP 2007056300 A JP2007056300 A JP 2007056300A JP 2007056300 A JP2007056300 A JP 2007056300A JP 4596277 B2 JP4596277 B2 JP 4596277B2
Authority
JP
Japan
Prior art keywords
noise
image signal
encoding
decoding
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007056300A
Other languages
Japanese (ja)
Other versions
JP2007181245A (en
Inventor
輝彦 鈴木
勝己 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007056300A priority Critical patent/JP4596277B2/en
Publication of JP2007181245A publication Critical patent/JP2007181245A/en
Application granted granted Critical
Publication of JP4596277B2 publication Critical patent/JP4596277B2/en
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、符号化装置、符号化方法、復号装置及び復号方法に関し、例えば動画像信号を光デイスクや磁気テープ等の記録媒体に記録し再生して表示したり、テレビ会議システム、テレビ電話システム、放送用機器等のように動画像信号を伝送路を介して送信側から受信側に伝送し、受信側においてこれを受信して表示する場合に用いて好適なものである。 The present invention relates to an encoding device, an encoding method, a decoding device, and a decoding method . For example, a moving image signal is recorded on a recording medium such as an optical disk or a magnetic tape, reproduced, and displayed, or a video conference system or a video phone system. It is suitable for use when a moving image signal is transmitted from a transmission side to a reception side via a transmission line, and is received and displayed on the reception side, such as in broadcasting equipment.

例えば、テレビ会議システム、テレビ電話システムなどのように、動画像信号を遠隔地に伝送するシステムにおいては、伝送路を効率良く利用するため、映像信号のライン相関やフレーム間相関を利用して、画像信号を圧縮符号化するようになされている。図20に、動画像信号を符号化して伝送し、これを復号化する動画像符号化/復号化装置の構成を示す。符号化装置1は、入力された映像信号VDを符号化し、伝送路としての記録媒体3に伝送する。そして復号化装置2は、記録媒体3に記録された信号を再生し、これを復号して出力する。   For example, in a system that transmits a moving image signal to a remote place such as a video conference system and a video phone system, in order to efficiently use a transmission path, the line correlation of video signals and the correlation between frames are used. An image signal is compressed and encoded. FIG. 20 shows the configuration of a moving image encoding / decoding device that encodes and transmits a moving image signal and decodes it. The encoding device 1 encodes the input video signal VD and transmits it to the recording medium 3 as a transmission path. Then, the decoding device 2 reproduces the signal recorded on the recording medium 3, decodes it, and outputs it.

符号化装置1では、入力映像信号VDが前処理回路11に入力され、ここで輝度信号と色信号(この場合、色差信号)に分離され、それぞれアナログデイジタル(A/D)変換器12、13でアナログデイジタル変換される。A/D変換器12、13によりアナログデイジタル変換されてデイジタル信号となつた映像信号は、プリフイルタ19に入力されフイルタ処理された後に、フレームメモリ14に供給されて記憶される。フレームメモリ14は、輝度信号を輝度信号フレームメモリ15に、また色差信号を色差信号フレームメモリ16に、それぞれ記憶させる。   In the encoding device 1, an input video signal VD is input to a preprocessing circuit 11, where it is separated into a luminance signal and a color signal (in this case, a color difference signal), and analog digital (A / D) converters 12, 13 respectively. In analog digital conversion. The video signal that has been converted to a digital signal by analog-digital conversion by the A / D converters 12 and 13 is input to the pre-filter 19 and subjected to filter processing, and then supplied to the frame memory 14 and stored therein. The frame memory 14 stores the luminance signal in the luminance signal frame memory 15 and the color difference signal in the color difference signal frame memory 16, respectively.

プリフイルタ19は符号化効率を向上させ、画質を改善する処理を行なう。これは例えばノイズ除去のフイルタであり、また例えば帯域を制限するためのフイルタである。図26に、プリフイルタ19の例として2次元ローパスフイルタの構成を示す。また図27(A)にこの2次元ローパスフイルタのフイルタ係数を示し、図27(B)に入力となる3×3画素ブロツクを示す。ある対象となる画素eに対してその周囲の3×3画素ブロツクを抽出する。これに対して次式   The prefilter 19 performs processing for improving encoding efficiency and image quality. This is, for example, a noise removal filter, and for example, a filter for limiting the band. FIG. 26 shows a configuration of a two-dimensional low-pass filter as an example of the prefilter 19. FIG. 27A shows the filter coefficient of the two-dimensional low-pass filter, and FIG. 27B shows a 3 × 3 pixel block as an input. For a target pixel e, a surrounding 3 × 3 pixel block is extracted. On the other hand, the following formula

Figure 0004596277
Figure 0004596277

の演算の出力を画素eに対するフイルタの出力値とする。実際上出力OUT1からフイルタ処理後の出力値が出力され、出力OUT2からフイルタ処理されない原画素値が所定の遅延の後出力される。このフイルタでは入力画像信号によらず、また符号化器の状態によらず常に一様なフイルタ処理が行なわれる。 The output of the calculation is the output value of the filter for the pixel e. Actually, the output value after the filter process is output from the output OUT1, and the original pixel value not subjected to the filter process is output from the output OUT2 after a predetermined delay. In this filter, uniform filter processing is always performed regardless of the input image signal and regardless of the state of the encoder.

フオーマツト変換回路17は、フレームメモリ14に記憶された画像信号を、符号化器(エンコーダ)18の入力フオーマツトに変換する。所定のフオーマツトに変換されたデータは、フオーマツト変換回路17からエンコーダ18に供給され、ここでエンコード(符号化)される。この符号化アルゴリズムは任意であるが、その1例については詳細を図22を参照して後述する。エンコーダ18によりエンコードされた信号は、ビツトストリームとして伝送路に出力され、例えば記録媒体3に記録される。   The format conversion circuit 17 converts the image signal stored in the frame memory 14 into an input format of an encoder 18. The data converted into a predetermined format is supplied from the format conversion circuit 17 to the encoder 18 where it is encoded. Although this encoding algorithm is arbitrary, details of one example will be described later with reference to FIG. The signal encoded by the encoder 18 is output as a bit stream to the transmission path and recorded on the recording medium 3, for example.

記録媒体3より再生されたデータは、復号化装置2のデコーダ31に供給されデコードされる。デコーダ31のデコード(復号化)アルゴリズムは任意で良いが、符号化アルゴリズムと対になつていなければならない。またその1例については詳細を、図25を参照して後述する。デコーダ31によりデコードされたデータは、フオーマツト変換回路32に入力され、出力フオーマツトに変換される。   Data reproduced from the recording medium 3 is supplied to the decoder 31 of the decoding device 2 and decoded. The decoding (decoding) algorithm of the decoder 31 may be arbitrary, but it must be paired with the encoding algorithm. Details of one example will be described later with reference to FIG. The data decoded by the decoder 31 is input to the format conversion circuit 32 and converted to the output format.

そしてフレームフオーマツトの輝度信号は、フレームメモリ33の輝度信号フレームメモリ34に供給されて記憶され、色差信号は色差信号フレームメモリ35に供給されて記憶される。輝度信号フレームメモリ34と色差信号フレームメモリ35より読み出された輝度信号と色差信号は、ポストフイルタ39に供給されフイルタ処理された後に、デイジタルアナログ(D/A)変換器36、37によりそれぞれデイジタルアナログ変換され、後処理回路38に供給されて合成される。そして出力映像信号として図示せぬ例えばCRTなどのデイスプレイに出力され表示される。   The luminance signal of the frame format is supplied to and stored in the luminance signal frame memory 34 of the frame memory 33, and the color difference signal is supplied to and stored in the color difference signal frame memory 35. The luminance signal and the color difference signal read out from the luminance signal frame memory 34 and the color difference signal frame memory 35 are supplied to the post filter 39 and subjected to the filtering process, and then digital digital (D / A) converters 36 and 37 respectively. It is converted into an analog signal, supplied to the post-processing circuit 38, and synthesized. The output video signal is output and displayed on a display such as a CRT (not shown).

ポストフイルタ39は画質を改善するためのフイルタ処理を行なう。画像を符号化することにより生じた劣化を緩和するために用いられる。例えばブロツク歪みや急峻なエツジの近傍で生じたノイズ、また量子化ノイズを除去するためのフイルタである。ポストフイルタには様々な種類があるが、例えば図26に示されるようにプリフイルタ19に用いられたと同様の2次元ローパスフイルタを用いることが出来る。   The post filter 39 performs a filter process for improving the image quality. Used to mitigate degradation caused by encoding an image. For example, it is a filter for removing noise generated in the vicinity of block distortion, steep edges, and quantization noise. There are various types of postfilters. For example, as shown in FIG. 26, a two-dimensional low-pass filter similar to that used for the prefilter 19 can be used.

次に動画像の高能率符号化について説明する。従来ビデオ信号等の動画像データは、情報量が極めて多いため、これを長時間記録再生するには、データ伝送速度が極めて高い記録媒体が必要であつた。従つて磁気テープや光デイスクは、大型のものが必要とされていた。また動画像データを伝送路を介して通信する場合や放送に用いる場合でもデータ量が多すぎるために、そのままでは既存の伝送路を用いて通信できないという問題があつた。   Next, high-efficiency encoding of moving images will be described. Conventionally, moving image data such as a video signal has an extremely large amount of information, and thus a recording medium having an extremely high data transmission speed has been required to record and reproduce it for a long time. Therefore, large-sized magnetic tapes and optical disks are required. Further, even when moving image data is communicated via a transmission line or used for broadcasting, the amount of data is too large, and there is a problem that communication cannot be performed using an existing transmission line as it is.

そこでより小型の記録媒体にビデオ信号を長時間記録しようとする場合、また通信や放送に用いる場合には、ビデオ信号を高能率符号化して記録すると共にその読み出し信号を能率良く復号化する手段が不可欠である。このような要求に応えるべく、ビデオ信号の相関を利用した高能率符号化方式が提案されており、その1つにMPEG(Moving Picture Experts Group)方式がある。これはISO−IEC/JTC1/SC2/WG11にて議論され標準案として提案されたものであり、動き補償予測符号化と離散コサイン変換(DCT(Discrete Cosine Transform))符号化を組み合わせたハイブリツド方式である。   Therefore, when recording a video signal on a smaller recording medium for a long time, or when using it for communication or broadcasting, there is provided means for efficiently recording and recording the video signal and decoding the read signal efficiently. It is essential. In order to meet such demands, a high-efficiency encoding method using correlation of video signals has been proposed, and one of them is the MPEG (Moving Picture Experts Group) method. This was discussed in ISO-IEC / JTC1 / SC2 / WG11 and proposed as a standard proposal, and is a hybrid system that combines motion compensated prediction coding and discrete cosine transform (DCT) coding. is there.

動き補償予測符号化は、画像信号の時間軸方向の相関を利用した方法であり、すでに復号再生されてわかつている信号から、現在入力された画像を予測し、そのときの予測誤差だけを伝送することで、符号化に必要な情報量を圧縮する方法である。またDCT符号化は、画像信号の持つフレーム内2次元相関性を利用して、ある特定の周波数成分に信号電力を集中させ、この集中分布した係数のみを符号化することで情報量の圧縮を可能とする。例えば絵柄が平坦で画像信号の自己相関性が高い部分では、DCT係数は低周波数成分へ集中分布する。従つてこの場合は低域へ集中分布した係数のみを符号化することで情報量の圧縮が可能となる。ここでは以下、符号化器としてMPEG2方式の場合の例を詳述するが、符号化方式はMPEG2方式に限らず、任意の符号化方式に対して同様に適用することが可能である。   Motion-compensated predictive coding is a method that uses correlation in the time axis direction of an image signal, predicts a currently input image from a signal that has already been decoded and reproduced, and transmits only the prediction error at that time. This is a method for compressing the amount of information necessary for encoding. In DCT coding, the signal power is concentrated on a specific frequency component using the intra-frame two-dimensional correlation of the image signal, and the information amount is compressed by coding only the concentrated distribution coefficient. Make it possible. For example, in a portion where the pattern is flat and the autocorrelation of the image signal is high, the DCT coefficients are concentratedly distributed to low frequency components. Therefore, in this case, it is possible to compress the information amount by encoding only the coefficients concentrated and distributed in the low band. Hereinafter, an example in the case of the MPEG2 system as an encoder will be described in detail, but the encoding system is not limited to the MPEG2 system, and can be similarly applied to an arbitrary encoding system.

次にMPEG2方式について詳述する。ライン相関を利用すると、画像信号を例えばDCT処理等により圧縮することができる。またフレーム間相関を利用すると、画像信号をさらに圧縮して符号化することが可能となる。例えば図17に示すように、時刻t1 、t2 、t3 において、フレーム画像PC1 、PC2 、PC3 がそれぞれ発生しているとき、フレーム画像PC1 とPC2 の画像信号の差を演算してPC12を生成し、またフレーム画像PC2 とPC3 の差を演算してPC23を生成する。通常時間的に隣接するフレームの画像は、それ程大きな変化を有していないため、両者の差を演算すると差分信号は小さな値のものとなる。そこでこの差分信号を符号化すれば、符号量を圧縮することができる。   Next, the MPEG2 system will be described in detail. When line correlation is used, an image signal can be compressed by, for example, DCT processing. If the inter-frame correlation is used, the image signal can be further compressed and encoded. For example, as shown in FIG. 17, when frame images PC1, PC2, and PC3 are generated at times t1, t2, and t3, the difference between the image signals of the frame images PC1 and PC2 is calculated to generate PC12. Also, the difference between the frame images PC2 and PC3 is calculated to generate PC23. Usually, images of frames that are adjacent in time do not have such a large change. Therefore, if the difference between them is calculated, the difference signal has a small value. Therefore, if this difference signal is encoded, the code amount can be compressed.

しかしながら、差分信号のみを伝送したのでは、元の画像を復元することができない。そこで各フレームの画像を、Iピクチヤ、Pピクチヤ又はBピクチヤの3種類のピクチヤのいずれかのピクチヤとし、画像信号を圧縮符号化する。すなわち例えば図18に示すように、フレームF1〜F17までの17フレームの画像信号をグループオブピクチヤ(GOP)とし処理の1単位とする。そしてその先頭のフレームF1の画像信号はIピクチヤとして符号化し、2番目のフレームF2はBピクチヤとして、また3番目のフレームF3はPピクチヤとして、それぞれ処理する。以下4番目以降のフレームF4〜F17は、Bピクチヤ又はPピクチヤとして交互に処理する。   However, if only the differential signal is transmitted, the original image cannot be restored. Therefore, the image of each frame is set to one of the three types of I-picture, P-picture, and B-picture, and the image signal is compression-coded. That is, for example, as shown in FIG. 18, the image signals of 17 frames from F1 to F17 are set as a group of pictures (GOP) as one unit of processing. The image signal of the first frame F1 is encoded as an I picture, the second frame F2 is processed as a B picture, and the third frame F3 is processed as a P picture. The fourth and subsequent frames F4 to F17 are processed alternately as a B picture or a P picture.

Iピクチヤの画像信号は、その1フレーム分の画像信号をそのまま伝送する。これに対してPピクチヤの画像信号は、基本的に図18(A)に示すように、それより時間的に先行するIピクチヤ又はPピクチヤの画像信号からの差分を伝送する。さらにBピクチヤの画像信号は、基本的に図18(B)に示すように、時間的に先行するフレーム又は後行するフレームの両方の平均値からの差分を求め、その差分を符号化する。   The I-picture image signal is transmitted as it is for one frame. In contrast, as shown in FIG. 18A, the P-picture image signal basically transmits a difference from the I-picture or P-picture image signal temporally preceding it. Further, as shown in FIG. 18B, for the B-picture image signal, a difference from the average value of both the temporally preceding frame and the succeeding frame is obtained, and the difference is encoded.

図19は、このようにして動画像信号を符号化する方法の原理に示す。最初のフレームF1はIピクチヤとして処理されるため、そのまま伝送データF1Xとして伝送路に伝送される(画像内符号化)。これに対して第2のフレームF2は、Bピクチヤとして処理されるため、時間的に先行するフレームF1と、時間的に後行するフレームF3の平均値との差分が演算され、その差分が伝送データF2Xとして伝送される。   FIG. 19 shows the principle of the method for encoding a moving image signal in this way. Since the first frame F1 is processed as an I-picture, it is transmitted as it is to the transmission path as transmission data F1X (intra-image coding). On the other hand, since the second frame F2 is processed as a B picture, the difference between the temporally preceding frame F1 and the average value of the temporally following frame F3 is calculated, and the difference is transmitted. It is transmitted as data F2X.

ただしこのBピクチヤとしての処理は、さらに細かく説明すると、4種類存在する。第1の処理は、元のフレームF2のデータをそのまま伝送データF2Xとして伝送するものであり(SP1)(イントラ符号化)、Iピクチヤにおける場合と同様の処理となる。第2の処理は、時間的に後のフレームF3からの差分を演算し、その差分(SP2)を伝送するものである(後方予測符号化)。第3の処理は、時間的に先行するフレームF1との差分(SP3)を伝送するものである(前方予測符号化)。さらに第4の処理は、時間的に先行するフレームF1と後行するフレームF3の平均値との差分(SP4)を生成し、これを伝送データF2Xとして伝送するものである(両方向予測符号化)。   However, there are four types of processing as the B-picture. The first process is to transmit the data of the original frame F2 as it is as the transmission data F2X (SP1) (intra coding), and is the same process as in the case of I-picture. The second process is to calculate a difference from a temporally subsequent frame F3 and transmit the difference (SP2) (backward predictive coding). The third process is to transmit a difference (SP3) from the temporally preceding frame F1 (forward prediction coding). Further, the fourth process is to generate a difference (SP4) between the average value of the temporally preceding frame F1 and the succeeding frame F3 and transmit this as transmission data F2X (bidirectional predictive coding). .

この4つの方法のうち、伝送データが最も少なくなる方法が採用される。なお差分データを伝送するとき、差分を演算する対象となるフレームの画像(予測画像)との間の動きベクトルx1(フレームF1とF2の間の動きベクトル)(前方予測の場合)、若しくはx2(フレームF3とF2の間の動きベクトル)(後方予測の場合)、またはx1とx2の両方(両方向予測の場合)が差分データと共に伝送される。   Of these four methods, the method with the least amount of transmission data is employed. When the difference data is transmitted, a motion vector x1 (motion vector between frames F1 and F2) between the frame image (predicted image) whose difference is to be calculated (forward prediction) or x2 ( The motion vector between frames F3 and F2) (for backward prediction) or both x1 and x2 (for bidirectional prediction) are transmitted along with the difference data.

またPピクチヤのフレームF3は、時間的に先行するフレームF1を予測画像として、このフレームとの差分信号(SP3)と、動きベクトルx3が演算され、これが伝送データF3Xとして伝送される(前方予測符号化)。あるいはまた元のフレームF3のデータがそのまま伝送データF3Xとして伝送される(SP1)(イントラ符号化)。いずれの方法により伝送されるかは、Bピクチヤにおける場合と同様に、伝送データがより少なくなる方が選択される。   Also, the P-picture frame F3 is obtained by calculating the difference signal (SP3) from this frame and the motion vector x3 using the temporally preceding frame F1 as a predicted image, and transmitting this as transmission data F3X (forward prediction code). ). Alternatively, the data of the original frame F3 is transmitted as it is as transmission data F3X (SP1) (intra coding). Which method is used for transmission is selected, as in the case of the B picture, in which the transmission data becomes smaller.

次に図22を参照して、エンコーダ18の構成について説明する。符号化されるべき画像データBDは、マクロブロツク単位で動きベクトル検出回路(MVーDet)50に入力される。動きベクトル検出回路50は、予め設定されている所定のシーケンスに従つて、各フレームの画像データを、Iピクチヤ、Pピクチヤ又はBピクチヤとして処理する。シーケンシヤルに入力される各フレームの画像を、I、P又はBのいずれのピクチヤとして処理するかは、予め定められている(例えば、図18に示したように、フレームF1〜F17により構成されるグループオブピクチヤが、I、B、P、B、P、……B、Pとして処理される)。   Next, the configuration of the encoder 18 will be described with reference to FIG. The image data BD to be encoded is input to the motion vector detection circuit (MV-Det) 50 in units of macro blocks. The motion vector detection circuit 50 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame input to the sequential is processed as a picture of I, P, or B is determined in advance (for example, as shown in FIG. 18, it is configured by frames F1 to F17. Group of pictures are processed as I, B, P, B, P,... B, P).

Iピクチヤとして処理されるフレーム(例えばフレームF1)の画像データは、動きベクトル検出回路50からフレームメモリ51の前方原画像部51aに転送して記憶され、Bピクチヤとして処理されるフレーム(例えばフレームF2)の画像データは、原画像部51bに転送して記憶され、Pピクチヤとして処理されるフレーム(例えばフレームF3)の画像データは、後方原画像部51cに転送して記憶される。   Image data of a frame (for example, frame F1) processed as an I-picture is transferred from the motion vector detection circuit 50 to the front original image portion 51a of the frame memory 51 and stored, and a frame (for example, frame F2) processed as a B-picture. ) Is transferred to and stored in the original image portion 51b, and image data of a frame (eg, frame F3) processed as a P picture is transferred to and stored in the rear original image portion 51c.

また次のタイミングにおいて、さらにBピクチヤ(フレームF4)又はPピクチヤ(フレームF5)として処理すべきフレームの画像が入力されたとき、それまで後方原画像部51cに記憶されていた最初のPピクチヤ(フレームF3)の画像データが、前方原画像部51aに転送され、次のBピクチヤ(フレームF4)の画像データが、原画像部51bに記憶(上書き)され、次のPピクチヤ(フレームF5)の画像データが、後方原画像部51cに記憶(上書き)される。このような動作が順次繰り返される。   At the next timing, when an image of a frame to be further processed as a B-picture (frame F4) or a P-picture (frame F5) is input, the first P-picture (stored in the rear original image portion 51c until then) The image data of the frame F3) is transferred to the front original image portion 51a, the image data of the next B picture (frame F4) is stored (overwritten) in the original image portion 51b, and the next P picture (frame F5) is stored. The image data is stored (overwritten) in the rear original image portion 51c. Such an operation is sequentially repeated.

フレームメモリ51に記憶された各ピクチヤの信号は、そこから読み出され予測モード切り替え回路(Mode−SW)52において、フレーム予測モード処理又はフイールド予測モード処理が行なわれる。さらにまた予測判定回路54の制御の下に、演算部53において、画像内予測、前方予測、後方予測又は両方向予測の演算が行なわれる。これらの処理のうち、いずれの処理を行なうかは、予測誤差信号(処理の対象とされている参照画像と、これに対する予測画像との差分)に対応して決定される。このため動きベクトル検出回路50は、この判定に用いられる予測誤差信号の絶対値和(自乗和でも良い)を生成する。   The signal of each picture stored in the frame memory 51 is read out from the picture signal and is subjected to frame prediction mode processing or field prediction mode processing in a prediction mode switching circuit (Mode-SW) 52. Further, under the control of the prediction determination circuit 54, the calculation unit 53 performs calculation of intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction. Which of these processes is performed is determined corresponding to a prediction error signal (a difference between a reference image to be processed and a predicted image corresponding thereto). Therefore, the motion vector detection circuit 50 generates the absolute value sum (or sum of squares) of the prediction error signal used for this determination.

ここで予測モード切り替え回路52におけるフレーム予測モードと、フイールド予測モードについて説明する。フレーム予測モードが設定された場合、予測モード切り替え回路52は、動きベクトル検出回路50より供給される4個の輝度ブロツクY[1]〜Y[4]を、そのまま後段の演算部53に出力する。すなわちこの場合、図23(A)に示すように、各輝度ブロツクに奇数フイールドのラインのデータと、偶数フイールドのラインのデータとが混在した状態となつている。このフレーム予測モードにおいては、4個の輝度ブロツク(マクロブロツク)を単位として予測が行われ、4個の輝度ブロツクに対して1個の動きベクトルが対応される。   Here, the frame prediction mode and the field prediction mode in the prediction mode switching circuit 52 will be described. When the frame prediction mode is set, the prediction mode switching circuit 52 outputs the four luminance blocks Y [1] to Y [4] supplied from the motion vector detection circuit 50 to the subsequent calculation unit 53 as they are. . In other words, in this case, as shown in FIG. 23A, the data of the odd-numbered line and the data of the even-numbered line are mixed in each luminance block. In this frame prediction mode, prediction is performed in units of four luminance blocks (macro blocks), and one motion vector corresponds to the four luminance blocks.

これに対して予測モード切り替え回路52は、フイールド予測モードにおいては、図23(A)に示す構成で動きベクトル検出回路50より入力される信号を、図23(B)に示すように、4個の輝度ブロツクのうち輝度ブロツクY[1]とY[2]を、例えば奇数フイールドのラインのドツトによりのみ構成させ、他の2個の輝度ブロツクY[3]とY[4]を、偶数フイールドのラインのデータにより構成させて、演算部53に出力する。この場合2個の輝度ブロツクY[1]とY[2]に対して、1個の動きベクトルが対応され、他の2個の輝度ブロツクY[3]とY[4]に対して、他の1個の動きベクトルが対応される。   In contrast, in the field prediction mode, the prediction mode switching circuit 52 receives four signals input from the motion vector detection circuit 50 with the configuration shown in FIG. 23A, as shown in FIG. The luminance blocks Y [1] and Y [2] are constituted only by, for example, the odd field line dots, and the other two luminance blocks Y [3] and Y [4] are even fields. And output to the calculation unit 53. In this case, one motion vector corresponds to the two luminance blocks Y [1] and Y [2], and the other two luminance blocks Y [3] and Y [4] Are associated with one motion vector.

動きベクトル検出回路50は、フレーム予測モードでの予測誤差の絶対値和と、フイールド予測モードでの予測誤差の絶対値和を、予測モード切り替え回路52に出力する。予測モード切り替え回路52は、フレーム予測モードとフイールド予測モードでの予測誤差の絶対値和を比較し、その値が小さい予測モードに対応する処理を施して、データを演算部53に出力する。ただしこの処理は、実際には動きベクトル検出回路50で行われる。すなわち動きベクトル検出回路50は決定されたモードに対応する構成の信号を予測モード切り替え回路52に出力し、予測モード切り替え回路52はその信号をそのまま後段の演算部53に出力する。   The motion vector detection circuit 50 outputs the absolute value sum of the prediction errors in the frame prediction mode and the absolute value sum of the prediction errors in the field prediction mode to the prediction mode switching circuit 52. The prediction mode switching circuit 52 compares the absolute value sum of the prediction errors in the frame prediction mode and the field prediction mode, performs a process corresponding to the prediction mode having a small value, and outputs the data to the calculation unit 53. However, this processing is actually performed by the motion vector detection circuit 50. That is, the motion vector detection circuit 50 outputs a signal having a configuration corresponding to the determined mode to the prediction mode switching circuit 52, and the prediction mode switching circuit 52 outputs the signal as it is to the calculation unit 53 in the subsequent stage.

なお色差信号はフレーム予測モードの場合、図23(A)に示すように、奇数フイールドのラインのデータと偶数フイールドのラインのデータとが混在する状態で、演算部53に供給される。またフイールド予測モードの場合、図23(B)に示すように、各色差ブロツクCb、Crの上半分(4ライン)が、輝度ブロツクY[1]、Y[2]に対応する奇数フイールドの色差信号とされ、下半分(4ライン)が、輝度ブロツクY[3]、Y[4]に対応する偶数フイールドの色差信号とされる。   In the frame prediction mode, the color difference signal is supplied to the arithmetic unit 53 in a state where odd field line data and even field line data are mixed, as shown in FIG. Further, in the field prediction mode, as shown in FIG. 23B, the upper half (four lines) of the color difference blocks Cb and Cr are the odd field color differences corresponding to the luminance blocks Y [1] and Y [2]. The lower half (four lines) is an even field color difference signal corresponding to the luminance blocks Y [3] and Y [4].

また動きベクトル検出回路50は、次のようにして、予測判定回路54において、画像内予測、前方予測、後方予測又は両方向予測のいずれの予測を行なうかを決定するための予測誤差の絶対値和を生成する。すなわち画像内予測の予測誤差の絶対値和として、参照画像のマクロブロツクの信号Aijの和ΣAijの絶対値|ΣAij|と、マクロブロツクの信号Aijの絶対値|Aij|の和Σ|Aij|の差を求める。また前方予測の予測誤差の絶対値和として、参照画像のマクロブロツクの信号Aijと、予測画像のマクロブロツクの信号Bijの差Aij−Bijの絶対値|Aij−Bij|の和Σ|Aij−Bij|を求める。   In addition, the motion vector detection circuit 50 calculates the prediction error absolute value sum for determining whether the prediction determination circuit 54 performs prediction in the image, forward prediction, backward prediction or bidirectional prediction as follows. Is generated. That is, as the sum of the absolute values of the prediction errors of intra-picture prediction, the sum ΣAij | of the sum ΣAij of the macroblock signal Aij of the reference image and the sum Σ | Aij | of the absolute value | Aij | of the macroblock signal Aij Find the difference. Also, as the sum of the absolute values of the prediction errors of the forward prediction, the sum Σ | Aij−Bij of the absolute value | Aij−Bij | of the difference Aij−Bij between the macroblock signal Aij of the reference image and the macroblock signal Bij of the predicted image Find |.

また後方予測と両方向予測の予測誤差の絶対値和も、前方予測における場合と同様に(その予測画像を前方予測における場合と異なる予測画像に変更して)求める。これらの絶対値和は、予測判定回路54に供給される。予測判定回路54は、前方予測、後方予測及び両方向予測の予測誤差の絶対値和のうち、最も小さいものを、インタ予測の予測誤差の絶対値和として選択する。さらにこのインタ予測の予測誤差の絶対値和と、画像内予測の予測誤差の絶対値和とを比較し、その小さい方を選択し、この選択した絶対値和に対応するモードを予測モード(P-mode)として選択する。すなわち画像内予測の予測誤差の絶対値和の方が小さければ、画像内予測モードが設定される。インタ予測の予測誤差の絶対値和の方が小さければ、前方予測、後方予測又は両方向予測モードのうち、対応する絶対値和が最も小さかつたモードが設定される。   Also, the absolute value sum of the prediction errors of the backward prediction and the bidirectional prediction is obtained in the same manner as in the forward prediction (by changing the prediction image to a prediction image different from that in the forward prediction). These sums of absolute values are supplied to the prediction determination circuit 54. The prediction determination circuit 54 selects the smallest absolute value sum of prediction errors of forward prediction, backward prediction, and bidirectional prediction as the absolute value sum of prediction errors of inter prediction. Further, the absolute value sum of the prediction errors of the inter prediction and the absolute value sum of the prediction errors of the intra prediction are compared, and the smaller one is selected, and the mode corresponding to the selected absolute value sum is set to the prediction mode (P -mode). That is, if the sum of the absolute values of the prediction errors of intra prediction is smaller, the intra prediction mode is set. If the absolute value sum of the prediction errors of inter prediction is smaller, the mode with the smallest corresponding absolute value sum is set among the forward prediction, backward prediction, and bidirectional prediction modes.

このように動きベクトル検出回路50は、参照画像のマクロブロツクの信号を、フレーム又はフイールド予測モードのうち、予測モード切り替え回路52により選択されたモードに対応する構成で、予測モード切り替え回路52を介して演算部53に供給するとともに、4つの予測モードのうち、予測判定回路54により選択された予測モード(P-mode)に対応する予測画像と参照画像の間の動きベクトルを検出し、可変長符号化回路(VLC)58と動き補償回路(M−comp)64に出力する。上述したように、この動きベクトルとしては、対応する予測誤差の絶対値和が最小となるものが選択される。   As described above, the motion vector detection circuit 50 is configured to use the macroblock signal of the reference image as a mode corresponding to the mode selected by the prediction mode switching circuit 52 in the frame or field prediction mode via the prediction mode switching circuit 52. The motion vector between the prediction image and the reference image corresponding to the prediction mode (P-mode) selected by the prediction determination circuit 54 out of the four prediction modes is detected and is variable length. The data is output to the encoding circuit (VLC) 58 and the motion compensation circuit (M-comp) 64. As described above, the motion vector having the minimum absolute value sum of the corresponding prediction errors is selected.

予測判定回路54は、動きベクトル検出回路50が前方原画像部51aよりIピクチヤの画像データを読み出しているとき、予測モードとしてフレーム(画像)内予測モード(動き補償を行わないモード)を設定し、演算部53のスイツチ53dを接点a側に切り替える。これによりIピクチヤの画像データが、DCTモード切り替え回路(DCT CTL)55に入力される。このDCTモード切り替え回路55は、図24(A)又は(B)に示すように、4個の輝度ブロツクのデータを、奇数フイールドのラインと偶数フイールドのラインが混在する状態(フレームDCTモード)、または分離された状態(フイールドDCTモード)のいずれかの状態にして、DCT回路56に出力する。   The prediction determination circuit 54 sets an intra-frame (image) prediction mode (a mode in which motion compensation is not performed) as a prediction mode when the motion vector detection circuit 50 reads I-picture image data from the front original image portion 51a. The switch 53d of the calculation unit 53 is switched to the contact a side. As a result, the I-picture image data is input to the DCT mode switching circuit (DCT CTL) 55. In this DCT mode switching circuit 55, as shown in FIG. 24A or 24B, the data of the four luminance blocks is mixed with the odd-numbered and even-numbered lines (frame DCT mode). Alternatively, the state is set to one of the separated states (field DCT mode) and output to the DCT circuit 56.

すなわちDCTモード切り替え回路55は、奇数フイールドと偶数フイールドのデータを混在してDCT処理した場合の符号化効率と、分離した状態でDCT処理した場合の符号化効率とを比較し、符号化効率の良好なモードを選択する。例えば入力された信号を、図24(A)に示すように、奇数フイールドと偶数フイールドのラインが混在する構成とし、上下に隣接する奇数フイールドのラインの信号と偶数フイールドのラインの信号の差を演算し、さらにその絶対値の和(又は自乗和)を求める。   That is, the DCT mode switching circuit 55 compares the coding efficiency when DCT processing is performed with a mixture of odd field data and even field data, and the coding efficiency when DCT processing is performed in a separated state. Select a good mode. For example, as shown in FIG. 24A, the input signal has a configuration in which odd and even field lines are mixed, and the difference between the signal of the odd and even field lines adjacent to each other is calculated. Calculation is performed, and the sum (or sum of squares) of the absolute values is obtained.

また入力された信号を、図24(B)に示すように、奇数フイールドと偶数フイールドのラインが分離した構成とし、上下に隣接する奇数フイールドのライン同士の信号の差と、偶数フイールドのライン同士の信号の差を演算し、それぞれの絶対値の和(又は自乗和)を求める。さらに両者(絶対値和)を比較し、小さい値に対応するDCTモードを設定する。すなわち前者の方が小さければフレームDCTモードを設定し、後者の方が小さければフイールドDCTモードを設定する。そして選択したDCTモードに対応する構成のデータをDCT回路56に出力すると共に、選択したDCTモードを示すDCTフラグ(DCT-FLG )を、可変長符号化回路58と動き補償回路64に出力する。   In addition, as shown in FIG. 24B, the input signal has a structure in which odd and even field lines are separated, and the signal difference between the odd and even adjacent odd field lines and the even field lines are separated. Is calculated, and the sum (or sum of squares) of the absolute values is calculated. Furthermore, both (absolute value sum) are compared, and a DCT mode corresponding to a small value is set. That is, if the former is smaller, the frame DCT mode is set, and if the latter is smaller, the field DCT mode is set. Data having a configuration corresponding to the selected DCT mode is output to the DCT circuit 56, and a DCT flag (DCT-FLG) indicating the selected DCT mode is output to the variable length coding circuit 58 and the motion compensation circuit 64.

予測モード切り替え回路52での予測モード(図23)と、このDCTモード切り替え回路55でのDCTモード(図24)を比較して明らかなように、輝度ブロツクに関しては、両者の各モードにおけるデータ構造は実質的に同一である。予測モード切り替え回路52でフレーム予測モード(奇数ラインと偶数ラインが混在するモード)が選択された場合、DCTモード切り替え回路55でもフレームDCTモード(奇数ラインと偶数ラインが混在するモード)が選択される可能性が高く、また予測モード切り替え回路52でフイールド予測モード(奇数フイールドと偶数フイールドのデータが分離されたモード)が選択された場合、DCTモード切り替え回路55でも、フイールドDCTモード(奇数フイールドと偶数フイールドのデータが分離されたモード)が選択される可能性が高い。   As is clear from comparison between the prediction mode in the prediction mode switching circuit 52 (FIG. 23) and the DCT mode in the DCT mode switching circuit 55 (FIG. 24), the data structure in each of the two modes is related to the luminance block. Are substantially identical. When the frame prediction mode (mode in which odd lines and even lines are mixed) is selected in the prediction mode switching circuit 52, the frame DCT mode (mode in which odd lines and even lines are mixed) is also selected in the DCT mode switching circuit 55. If the field prediction mode (the mode in which the odd field data and the even field data are separated) is selected by the prediction mode switching circuit 52, the DCT mode switching circuit 55 also uses the field DCT mode (odd field and even number). The mode in which the field data is separated is likely to be selected.

しかしながら必ずしも常にそのようになされるわけではなく、予測モード切り替え回路52では、予測誤差の絶対値和が小さくなるようにモードが決定され、DCTモード切り替え回路55では、符号化効率が良好となるようにモードが決定される。DCTモード切り替え回路55より出力されたIピクチヤの画像データは、DCT回路56に入力されてDCT処理され、DCT係数に変換される。このDCT係数は量子化回路(Q)57に入力され、送信バツフア(Buffer)59のデータ蓄積量(量子化制御信号(B-full))に対応した量子化スケール(QS)で量子化された後、可変長符号化回路58に入力される。   However, this is not always the case. In the prediction mode switching circuit 52, the mode is determined so as to reduce the absolute value sum of the prediction errors, and in the DCT mode switching circuit 55, the coding efficiency is improved. The mode is determined. The I-picture image data output from the DCT mode switching circuit 55 is input to the DCT circuit 56, subjected to DCT processing, and converted into DCT coefficients. This DCT coefficient is input to the quantization circuit (Q) 57 and quantized with a quantization scale (QS) corresponding to the data accumulation amount (quantization control signal (B-full)) of the transmission buffer (Buffer) 59. Thereafter, it is input to the variable length coding circuit 58.

可変長符号化回路58は量子化回路57より供給される量子化スケール(QS)に対応して、量子化回路57より供給される画像データ(この場合、Iピクチヤのデータ)を、例えばハフマン符号などの可変長符号に変換し、送信バツフア59に出力する。可変長符号化回路58にはまた、量子化回路57より量子化スケール(QS)、予測判定回路54より予測モード(画像内予測、前方予測、後方予測又は両方向予測のいずれが設定されたかを示すモード(P-mode))、動きベクトル検出回路50より動きベクトル(MV)、予測モード切り替え回路52より予測フラグ(フレーム予測モード又はフイールド予測モードのいずれが設定されたかを示すフラグ(P-FLG )、およびDCTモード切り替え回路55が出力するDCTフラグ(フレームDCTモード又はフイールドDCTモードのいずれが設定されたかを示すフラグ(DCT-FLG )が入力されており、これらも可変長符号化される。   The variable length encoding circuit 58 corresponds to the quantization scale (QS) supplied from the quantization circuit 57, and converts the image data (in this case, I-picture data) supplied from the quantization circuit 57 into, for example, a Huffman code. Is converted to a variable length code such as, and output to the transmission buffer 59. The variable length coding circuit 58 also indicates whether the quantization scale (QS) is set by the quantization circuit 57 and the prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction is set by the prediction determination circuit 54. Mode (P-mode)), a motion vector (MV) from the motion vector detection circuit 50, and a prediction flag (P-FLG) indicating whether a frame prediction mode or a field prediction mode is set from the prediction mode switching circuit 52 , And a DCT flag output from the DCT mode switching circuit 55 (a flag (DCT-FLG) indicating whether a frame DCT mode or a field DCT mode has been set) is input, and these are also variable-length encoded.

送信バツフア59は入力されたデータを一時蓄積し、蓄積量に対応するデータを量子化回路57に出力する。送信バツフア59は、そのデータ残量が許容上限値まで増量すると、量子化制御信号(B-full)によつて量子化回路57の量子化スケール(QS)を大きくすることにより、量子化データのデータ量を低下させる。またこれとは逆に、データ残量が許容下限値まで減少すると、送信バツフア59は量子化制御信号(B-full)によつて量子化回路57の量子化スケール(QS)を小さくすることにより、量子化データのデータ量を増大させる。このようにして送信バツフア59のオーバフロー又はアンダフローが防止される。そして送信バツフア59に蓄積されたデータは、所定のタイミングで読み出されて伝送路に出力され、例えば記録媒体3に記録される。   The transmission buffer 59 temporarily stores the input data and outputs data corresponding to the storage amount to the quantization circuit 57. When the remaining amount of data increases to the allowable upper limit value, the transmission buffer 59 increases the quantization scale (QS) of the quantization circuit 57 by the quantization control signal (B-full), thereby Reduce the amount of data. On the other hand, when the remaining amount of data decreases to the allowable lower limit value, the transmission buffer 59 reduces the quantization scale (QS) of the quantization circuit 57 with the quantization control signal (B-full). Increase the amount of quantized data. In this way, overflow or underflow of the transmission buffer 59 is prevented. The data stored in the transmission buffer 59 is read at a predetermined timing, output to the transmission path, and recorded on the recording medium 3, for example.

一方量子化回路57より出力されたIピクチヤのデータは、逆量子化回路(IQ)60に入力され、量子化回路57より供給される量子化スケール(QS)に対応して逆量子化される。逆量子化回路60の出力は、逆DCT(IDCT)回路61に入力され逆DCT処理された後、ブロツク並び替え回路(Block Change)65により、各DCTモード(フレーム/フイールド)に対してブロツクの並び替えが行われる。ブロツク並び替え回路65の出力は、演算器62を介してフレームメモリ63の前方予測画像部(F−P)63aに供給され記憶される。   On the other hand, the I-picture data output from the quantization circuit 57 is input to the inverse quantization circuit (IQ) 60 and inversely quantized corresponding to the quantization scale (QS) supplied from the quantization circuit 57. . The output of the inverse quantization circuit 60 is input to an inverse DCT (IDCT) circuit 61 and subjected to inverse DCT processing. Then, a block rearrangement circuit (Block Change) 65 outputs a block for each DCT mode (frame / field). Sorting is done. The output of the block rearrangement circuit 65 is supplied to and stored in the forward predicted image portion (FP) 63a of the frame memory 63 via the calculator 62.

動きベクトル検出回路50は、シーケンシヤルに入力される各フレームの画像データを、例えばI、B、P、B、P、B……のピクチヤとしてそれぞれ処理する場合、最初に入力されたフレームの画像データをIピクチヤとして処理した後、次に入力されたフレームの画像をBピクチヤとして処理する前に、さらにその次に入力されたフレームの画像データをPピクチヤとして処理する。Bピクチヤは後方予測を伴うため、後方予測画像としてのPピクチヤが先に用意されていないと、復号することができないためである。   When the motion vector detection circuit 50 processes the image data of each frame sequentially input as, for example, I, B, P, B, P, B,..., The image data of the first input frame. After the image is processed as an I-picture, the image data of the next input frame is processed as a P-picture before the image of the next input frame is processed as a B-picture. This is because the B picture is accompanied by backward prediction, and therefore cannot be decoded unless the P picture as the backward predicted image is prepared first.

そこで動きベクトル検出回路50は、Iピクチヤの処理の次に、後方原画像部51cに記憶されているPピクチヤの画像データの処理を開始する。そして上述した場合と同様に、マクロブロツク単位でのフレーム間差分(予測誤差)の絶対値和が、動きベクトル検出回路50から予測モード切り替え回路52と予測判定回路54に供給される。予測モード切り替え回路52と予測判定回路54は、このPピクチヤのマクロブロツクの予測誤差の絶対値和に対応して、フレーム/フイールド予測モード又は画像内予測、前方予測、後方予測若しくは両方向予測の予測モードを設定する。   Therefore, the motion vector detection circuit 50 starts processing the image data of the P picture stored in the rear original image portion 51c after the processing of the I picture. Similarly to the case described above, the absolute value sum of the inter-frame difference (prediction error) in units of macroblocks is supplied from the motion vector detection circuit 50 to the prediction mode switching circuit 52 and the prediction determination circuit 54. The prediction mode switching circuit 52 and the prediction determination circuit 54 predict the frame / field prediction mode or intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction in accordance with the absolute value sum of the prediction errors of the P-picture macroblock. Set the mode.

演算部53はフレーム内予測モードが設定されたとき、スイツチ53dを上述したように接点a側に切り替える。従つてこのデータは、Iピクチヤのデータと同様に、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バツフア59を介して伝送路に伝送される。またこのデータは、逆量子化回路60、逆DCT回路61、ブロツク並び替え回路65、演算器62を介してフレームメモリ63の後方予測画像部(B−P)63bに供給され記憶される。   When the intra-frame prediction mode is set, the calculation unit 53 switches the switch 53d to the contact a side as described above. Therefore, this data is transmitted to the transmission line via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59, as with the I-picture data. Further, this data is supplied to and stored in the backward predicted image section (BP) 63b of the frame memory 63 via the inverse quantization circuit 60, the inverse DCT circuit 61, the block rearrangement circuit 65, and the arithmetic unit 62.

前方予測モードの時、スイツチ53dが接点bに切り替えられると共に、フレームメモリ63の前方予測画像部63aに記憶されている画像(この場合Iピクチヤの画像)データが読み出され、動き補償回路64により動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち動き補償回路64は、予測判定回路54より前方予測モードの設定が指令されたとき、前方予測画像部63aの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロツクの位置に対応する位置から動きベクトルに対応する分だけずらしてデータを読み出し、予測画像データを生成する。   In the forward prediction mode, the switch 53d is switched to the contact point b, and the image data (in this case, the I-picture image) stored in the forward prediction image portion 63a of the frame memory 63 is read out, and the motion compensation circuit 64 Motion compensation is performed in accordance with the motion vector output from the motion vector detection circuit 50. That is, the motion compensation circuit 64 corresponds to the read address of the forward prediction image unit 63a corresponding to the position of the macro block currently output by the motion vector detection circuit 50 when the prediction determination circuit 54 is instructed to set the forward prediction mode. The data is read from the position to be shifted by the amount corresponding to the motion vector to generate predicted image data.

動き補償回路64より出力された予測画像データは、演算器53aに供給される。演算器53aは、予測モード切り替え回路52より供給された参照画像のマクロブロツクのデータから、動き補償回路64より供給されたこのマクロブロツクに対応する予測画像データを減算し、その差分(予測誤差)を出力する。この差分データは、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バツフア59を介して伝送路に伝送される。またこの差分データは、逆量子化回路60、逆DCT回路61により局所的に復号され、ブロツク並び替え回路65を介して演算器62に入力される。   The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53a. The computing unit 53a subtracts the predicted image data corresponding to the macroblock supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the prediction mode switching circuit 52, and the difference (prediction error). Is output. The difference data is transmitted to the transmission line via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59. The difference data is locally decoded by the inverse quantization circuit 60 and the inverse DCT circuit 61 and input to the arithmetic unit 62 via the block rearrangement circuit 65.

この演算器62にはまた演算器53aに供給されている予測画像データと同一のデータが供給されている。演算器62は、逆DCT回路61が出力する差分データに、動き補償回路64が出力する予測画像データを加算する。これにより、元の(復号した)Pピクチヤの画像データが得られる。このPピクチヤの画像データは、フレームメモリ63の後方予測画像部63bに供給され記憶される。   The calculator 62 is also supplied with the same data as the predicted image data supplied to the calculator 53a. The calculator 62 adds the predicted image data output from the motion compensation circuit 64 to the difference data output from the inverse DCT circuit 61. As a result, the original (decoded) P-picture image data is obtained. The P-picture image data is supplied to and stored in the backward predicted image unit 63b of the frame memory 63.

動きベクトル検出回路50は、このようにIピクチヤとPピクチヤのデータが前方予測画像部63aと後方予測画像部63bにそれぞれ記憶された後、次にBピクチヤの処理を実行する。予測モード切り替え回路52と予測判定回路54は、マクロブロツク単位でのフレーム間差分の絶対値和の大きさに対応して、フレーム/フイールドモードを設定し、また予測モードをフレーム内予測モード、前方予測モード、後方予測モード又は両方向予測モードのいずれかに設定する。上述したように、フレーム内予測モード又は前方予測モードの時、スイツチ53dは接点a又はbに切り替えられる。このときPピクチヤにおける場合と同様の処理が行われ、データが伝送される。   The motion vector detection circuit 50 thus executes the B-picture processing after the I-picture data and the P-picture data are stored in the forward prediction image section 63a and the backward prediction image section 63b, respectively. The prediction mode switching circuit 52 and the prediction determination circuit 54 set a frame / field mode corresponding to the magnitude of the sum of absolute values of inter-frame differences in units of macroblocks. Set to one of prediction mode, backward prediction mode, or bidirectional prediction mode. As described above, in the intra-frame prediction mode or the forward prediction mode, the switch 53d is switched to the contact point a or b. At this time, the same processing as in the P-picture is performed, and data is transmitted.

これに対して、後方予測モード又は両方向予測モードが設定された時、スイツチ53dは、接点c又はdにそれぞれ切り替えられる。スイツチ53dが接点cに切り替えられている後方予測モードの時、後方予測画像部63bに記憶されている画像(この場合、Pピクチヤの画像)データが読み出され、動き補償回路64により、動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち動き補償回路64は、予測判定回路54より後方予測モードの設定が指令されたとき、後方予測画像部63bの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロツクの位置に対応する位置から動きベクトルに対応する分だけずらしてデータを読み出し、予測画像データを生成する。   On the other hand, when the backward prediction mode or the bidirectional prediction mode is set, the switch 53d is switched to the contact c or d, respectively. In the backward prediction mode in which the switch 53d is switched to the contact point c, image data (in this case, a P-picture image) stored in the backward prediction image unit 63b is read out, and the motion compensation circuit 64 moves the motion vector. Motion compensation is performed corresponding to the motion vector output from the detection circuit 50. In other words, the motion compensation circuit 64 corresponds to the read address of the backward prediction image unit 63b corresponding to the position of the macro block currently output by the motion vector detection circuit 50 when the prediction determination circuit 54 is instructed to set the backward prediction mode. The data is read from the position to be shifted by the amount corresponding to the motion vector to generate predicted image data.

動き補償回路64より出力された予測画像データは、演算器53bに供給される。演算器53bは予測モード切り替え回路52より供給された参照画像のマクロブロツクのデータから、動き補償回路64より供給された予測画像データを減算しその差分を出力する。この差分データは、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バツフア59を介して伝送路に伝送される。   The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53b. The computing unit 53b subtracts the predicted image data supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the prediction mode switching circuit 52, and outputs the difference. The difference data is transmitted to the transmission line via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59.

スイツチ53dが接点dに切り替えられている両方向予測モードの時、前方予測画像部63aに記憶されている画像(この場合、Iピクチヤの画像)データと、後方予測画像部63bに記憶されている画像(この場合、Pピクチヤの画像)データが読み出され、動き補償回路64により、動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち動き補償回路64は、予測判定回路54より両方向予測モードの設定が指令されたとき、前方予測画像部63aと後方予測画像部63bの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロツクの位置に対応する位置から動きベクトル(この場合の動きベクトルは、前方予測画像用と後方予測画像用の2つとなる)に対応する分だけずらしてデータを読み出し、予測画像データを生成する。   In the bidirectional prediction mode in which the switch 53d is switched to the contact point d, image data (in this case, I-picture image) data stored in the forward prediction image unit 63a and image stored in the backward prediction image unit 63b (In this case, the image of the P picture) is read out, and motion compensation is performed by the motion compensation circuit 64 in accordance with the motion vector output from the motion vector detection circuit 50. That is, in the motion compensation circuit 64, when the setting of the bidirectional prediction mode is instructed by the prediction determination circuit 54, the motion vector detection circuit 50 now outputs the read addresses of the forward prediction image unit 63a and the backward prediction image unit 63b. Data is read out from the position corresponding to the position of the macroblock by the amount corresponding to the motion vector (in this case, two motion vectors are for the forward prediction image and the backward prediction image), and the prediction image data is generated. .

動き補償回路64より出力された予測画像データは、演算器53cに供給される。演算器53cは動きベクトル検出回路50より供給された参照画像のマクロブロツクのデータから、動き補償回路64より供給された予測画像データの平均値を減算し、その差分を出力する。この差分データはDCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バツフア59を介して伝送路に伝送される。Bピクチヤの画像は、他の画像の予測画像とされることがないため、フレームメモリ63には記憶されない。   The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53c. The computing unit 53c subtracts the average value of the predicted image data supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the motion vector detection circuit 50, and outputs the difference. The difference data is transmitted to the transmission line via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59. The B-picture image is not stored in the frame memory 63 because it is not a predicted image of another image.

なおフレームメモリ63において、前方予測画像部63aと後方予測画像部63bは、必要に応じてバンク切り替えが行われ、所定の参照画像に対して、一方又は他方に記憶されているものを、前方予測画像あるいは後方予測画像として切り替えて出力することができる。以上の説明では、輝度ブロツクを中心として説明をしたが、色差ブロツクについても同様に、図23及び図24に示すマクロブロツクを単位として処理され伝送される。なお色差ブロツクを処理する場合の動きベクトルは、対応する輝度ブロツクの動きベクトルを垂直方向と水平方向に、それぞれ1/2にしたものが用いられる。   Note that, in the frame memory 63, the forward prediction image unit 63a and the backward prediction image unit 63b are subjected to bank switching as necessary, and the one stored in one or the other for a predetermined reference image is forward-predicted. It can be switched and output as an image or a backward prediction image. In the above description, the luminance block has been mainly described, but the color difference block is also processed and transmitted in units of macro blocks shown in FIGS. 23 and 24. As the motion vector when processing the color difference block, the motion vector of the corresponding luminance block is halved in the vertical and horizontal directions.

次に図25に、図20のデコーダ31の構成を示す。伝送路(記録媒体3)を介して伝送された符号化された画像データは、図示せぬ受信回路で受信されたり再生装置で再生され、受信バツフア(Buffer)81に一時記憶された後、復号回路90の可変長復号化回路(IVLC)82に供給される。可変長復号化回路82は、受信バツフア81より供給されたデータを可変長復号化し、動きベクトル(MV)、予測モード(P-mode)及び予測フラグ(P-FLG )を動き補償回路(M−comp)87に供給する。またDCTフラグ(DCT-FLG )を逆ブロツク並び替え回路(Block Change)88に、量子化スケール(QS)を逆量子化回路(IQ)83にそれぞれ出力すると共に、復号された画像データを逆量子化回路83に出力する。   Next, FIG. 25 shows a configuration of the decoder 31 of FIG. The encoded image data transmitted through the transmission path (recording medium 3) is received by a receiving circuit (not shown) or reproduced by a reproducing device, temporarily stored in a receiving buffer 81, and then decoded. The variable length decoding circuit (IVLC) 82 of the circuit 90 is supplied. The variable-length decoding circuit 82 performs variable-length decoding on the data supplied from the reception buffer 81 and outputs a motion vector (MV), a prediction mode (P-mode), and a prediction flag (P-FLG) to a motion compensation circuit (M− comp) 87. Also, the DCT flag (DCT-FLG) is output to the inverse block rearrangement circuit (Block Change) 88, the quantization scale (QS) is output to the inverse quantization circuit (IQ) 83, and the decoded image data is inversely quantized. Output to the circuit 83.

逆量子化回路83は、可変長復号化回路82より供給された画像データを、同じく可変長復号化回路82より供給された量子化スケール(QS)に従つて逆量子化し、逆DCT回路(IDCT)84に出力する。逆量子化回路83より出力されたデータ(DCT係数)は、逆DCT回路84で逆DCT処理され、ブロツク並べ替え回路88を通じて演算器85に供給される。逆DCT回路84より供給された画像データが、Iピクチヤのデータである場合、そのデータは演算器85より出力され、演算器85に後に入力される画像データ(P又はBピクチヤのデータ)の予測画像データ生成のために、フレームメモリ86の前方予測画像部(F−P)86aに供給されて記憶される。またこのデータはフオーマツト変換回路32(図20)に出力される。   The inverse quantization circuit 83 inversely quantizes the image data supplied from the variable length decoding circuit 82 in accordance with the quantization scale (QS) also supplied from the variable length decoding circuit 82, and performs an inverse DCT circuit (IDCT). ) 84. The data (DCT coefficient) output from the inverse quantization circuit 83 is subjected to inverse DCT processing by the inverse DCT circuit 84 and supplied to the computing unit 85 through the block rearrangement circuit 88. When the image data supplied from the inverse DCT circuit 84 is I-picture data, the data is output from the computing unit 85 and prediction of image data (P or B-picture data) to be input to the computing unit 85 later. In order to generate image data, the image data is supplied to and stored in the forward predicted image portion (FP) 86a of the frame memory 86. This data is output to the format conversion circuit 32 (FIG. 20).

逆DCT回路84より供給された画像データが、その1フレーム前の画像データを予測画像データとするPピクチヤのデータであつて、前方予測モードのデータである場合、フレームメモリ86の前方予測画像部86aに記憶されている、1フレーム前の画像データ(Iピクチヤのデータ)が読み出され、動き補償回路87で可変長復号化回路82より出力された動きベクトルに対応する動き補償が施される。そして演算器85において、逆DCT回路84より供給された画像データ(差分のデータ)と加算され出力される。この加算されたデータ、すなわち復号されたPピクチヤのデータは、演算器85に後に入力される画像データ(Bピクチヤ又はPピクチヤのデータ)の予測画像データ生成のために、フレームメモリ86の後方予測画像部(B−P)86bに供給されて記憶される。   When the image data supplied from the inverse DCT circuit 84 is P-picture data that uses the image data of the previous frame as predicted image data and is data in the forward prediction mode, the forward predicted image portion of the frame memory 86 The image data of the previous frame (I-picture data) stored in 86a is read out, and motion compensation corresponding to the motion vector output from the variable length decoding circuit 82 is performed by the motion compensation circuit 87. . The arithmetic unit 85 adds the image data (difference data) supplied from the inverse DCT circuit 84 and outputs the result. This added data, that is, the decoded P-picture data is used as the backward prediction of the frame memory 86 to generate the predicted image data of the image data (B-picture or P-picture data) to be input later to the calculator 85. The image portion (BP) 86b is supplied and stored.

Pピクチヤのデータであつても画像内予測モードのデータは、Iピクチヤのデータと同様に演算器85で特に処理は行わず、そのまま後方予測画像部86bに記憶される。このPピクチヤは、次のBピクチヤの次に表示されるべき画像であるため、この時点ではまだフオーマツト変換回路32へ出力されない(上述したように、Bピクチヤの後に入力されたPピクチヤが、Bピクチヤより先に処理され、伝送されている)。   Even in the case of the P-picture data, the data in the intra-picture prediction mode is stored in the backward predicted image unit 86b as it is without any particular processing by the computing unit 85, like the I-picture data. Since this P picture is an image to be displayed next to the next B picture, it is not yet output to the format conversion circuit 32 at this point in time (as described above, the P picture inputted after the B picture is B B Processed and transmitted before the picture).

逆DCT回路84より供給された画像データが、Bピクチヤのデータである場合、可変長復号化回路82より供給された予測モードに対応して、フレームメモリ86の前方予測画像部86aに記憶されているIピクチヤの画像データ(前方予測モードの場合)、後方予測画像部86bに記憶されているPピクチヤの画像データ(後方予測モードの場合)、またはその両方の画像データ(両方向予測モードの場合)が読み出され、動き補償回路87において可変長復号化回路82より出力された動きベクトルに対応する動き補償が施されて、予測画像が生成される。ただし動き補償を必要としない場合(画像内予測モードの場合)、予測画像は生成されない。   When the image data supplied from the inverse DCT circuit 84 is B-picture data, it is stored in the forward prediction image unit 86a of the frame memory 86 corresponding to the prediction mode supplied from the variable length decoding circuit 82. I-picture image data (in the case of forward prediction mode), P-picture image data stored in the backward prediction image portion 86b (in the case of backward prediction mode), or both of them (in the case of bidirectional prediction mode) And motion compensation corresponding to the motion vector output from the variable-length decoding circuit 82 is performed in the motion compensation circuit 87, and a predicted image is generated. However, when motion compensation is not required (in the case of intra-picture prediction mode), a predicted image is not generated.

このようにして、動き補償回路87で動き補償が施されたデータは、演算器85において逆DCT回路84の出力と加算される。この加算出力はフオーマツト変換回路32に出力される。ただしこの加算出力はBピクチヤのデータであり、他の画像の予測画像生成のために利用されることがないため、フレームメモリ86には記憶されない。Bピクチヤの画像が出力された後、後方予測画像部86bに記憶されているPピクチヤの画像データが読み出され、動き補償回路87を介して演算器85に供給される。ただしこのとき、動き補償は行われない。   In this way, the data subjected to motion compensation by the motion compensation circuit 87 is added to the output of the inverse DCT circuit 84 in the arithmetic unit 85. This addition output is output to the format conversion circuit 32. However, since this added output is B-picture data and is not used for generating a predicted image of another image, it is not stored in the frame memory 86. After the B-picture image is output, the P-picture image data stored in the backward predicted image unit 86 b is read and supplied to the calculator 85 via the motion compensation circuit 87. However, motion compensation is not performed at this time.

なおこのデコーダ31には、図22のエンコーダ18における予測モード切り替え回路52とDCTモード切り替え回路55に対応する回路が図示されていないが、これらの回路に対応する処理、すなわち奇数フイールドと偶数フイールドのラインの信号が分離された構成を、元の混在する構成に必要に応じて戻す処理は動き補償回路87が実行する。また以上の説明では、輝度信号の処理について述べたが、色差信号の処理も同様に行われる。ただしこの場合、動きベクトルは、輝度信号用のものを、垂直方向及び水平方向に1/2にしたものが用いられる。   The decoder 31 does not show the circuits corresponding to the prediction mode switching circuit 52 and the DCT mode switching circuit 55 in the encoder 18 of FIG. 22, but the processing corresponding to these circuits, that is, the odd field and the even field. The motion compensation circuit 87 executes processing for returning the configuration in which the line signals are separated to the original mixed configuration as necessary. In the above description, the processing of the luminance signal has been described, but the processing of the color difference signal is performed in the same manner. However, in this case, the motion vector used is a luminance signal halved in the vertical and horizontal directions.

ところで図20に上述したような動画像の符号化装置1において、プリフイルタ19は入力画像信号に含まれるノイズを除去し、また符号化装置1における符号化効率を高めるために、また所定量まで情報量を削減するために用いられる。またポストフイルタ39は復号化画像の劣化を緩和し、画質を改善するために用いられる。ここで、画像に含まれるノイズについて考える。ノイズには様々な種類がある。例えば伝送路を通過する際に生じたノイズや、映画などのフイルムソースではフイルムに特有の粒状ノイズが存在する。   By the way, in the moving picture coding apparatus 1 as described above with reference to FIG. 20, the prefilter 19 removes noise contained in the input picture signal and increases the coding efficiency in the coding apparatus 1 and information up to a predetermined amount. Used to reduce the amount. The post filter 39 is used to alleviate the degradation of the decoded image and improve the image quality. Here, consider the noise included in the image. There are various types of noise. For example, noise generated when passing through a transmission line, or granular noise peculiar to a film exists in a film source such as a movie.

こうした画像に含まれるノイズには意図的に含まれているノイズと、意図せずに生じ、劣化の原因となつているノイズが存在する。プリフイルタ19ではこれらのノイズを区別なく削減する。また画像信号を符号化した場合、画像の高周波成分が削減され、これによつてノイズが削減されたり、元のノイズと異なる性質のノイズに変化してしまう。このようにしてノイズが削減される場合、過度に削減されると原画像とは異なる印象の画像となり、かえつて画像の劣化となる。これは特に意図的に含まれているノイズの場合問題となる。   Noise included in such an image includes intentionally included noise and noise that is unintentionally generated and causes deterioration. The prefilter 19 reduces these noises without distinction. In addition, when an image signal is encoded, the high-frequency component of the image is reduced, and as a result, noise is reduced or the noise is changed to noise having a different property from the original noise. When noise is reduced in this way, if it is excessively reduced, an image having an impression different from that of the original image is obtained, and the image is deteriorated. This is particularly a problem with intentionally included noise.

従つてこの動画像符号化方法によれば、プリフイルタ19や符号化装置1が過度にノイズを削減し、かえつて画像を劣化させてしまうという問題が存在する。また符号化された画像には、量子化ノイズが生じる。これは特にエツジの近傍で目立ち、画質劣化の大きな原因になつている。   Therefore, according to this moving image encoding method, there is a problem that the prefilter 19 and the encoding device 1 excessively reduce noise, and on the contrary, deteriorate the image. Also, quantization noise occurs in the encoded image. This is particularly noticeable in the vicinity of the edge and is a major cause of image quality degradation.

本発明は以上の点を考慮してなされたもので、動画像を符号化し復号化する際に失われたノイズを復元し、視覚的に復号化した動画像の画質を向上し得る符号化装置、符号化方法、復号装置及び復号方法を提案しようとするものである。 The present invention has been made in view of the above, to restore the noise that was lost when decoding coded moving picture coding apparatus capable of improving the image quality of visually decoded moving image An encoding method, a decoding device, and a decoding method are proposed.

かかる課題を解決するため本発明においては、画像信号を符号化する符号化装置において、画像信号を符号化して符号化ストリームを生成する符号化と、画像信号を符号化する際に用いる量子化スケールと画像信号をフイルタ処理する際のフイルタ係数とに従つて、符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報を生成するノイズ特性情報生成と、ノイズ特性情報生成により生成されたノイズ特性情報、符号化により生成された符号化ストリームとを伝送する伝送部とを設けるようにした。 In the present invention for solving the above problems, in the encoding apparatus for encoding an image signal, a coding section for generating an encoded stream image signal by encoding the quantization to be used for encoding an image signal A noise characteristic information generating unit that generates noise characteristic information indicating characteristics of noise to be added when performing the filter processing by decoding the encoded stream in accordance with the scale and the filter coefficient when the image signal is filtered; and noise characteristic information generated by the noise characteristic information generation unit, and be provided and a transmission unit for transmitting the coded stream generated by the encoding unit.

また本発明においては、画像信号を符号化する符号化方法において、画像信号を符号化する際に用いる量子化スケールと画像信号をフイルタ処理する際のフイルタ係数とに従つて、画像信号を符号化して生成した符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報を生成し、生成したノイズ特性情報画像信号を符号化して生成した符号化ストリームとを伝送するようにした。 According to the present invention, in an encoding method for encoding an image signal, the image signal is encoded according to a quantization scale used when the image signal is encoded and a filter coefficient when the image signal is filtered. decodes the generated coded stream generating noise characteristics information indicating characteristics of the noise to be added in performing the filter processing Te, generated noise characteristic information and the image signal generated by encoding the encoded stream transmission I tried to do it.

また本発明においては、画像信号を符号化して得られる符号化ストリームを復号する復号装置において、画像信号を符号化する際に用いる量子化スケールと画像信号をフイルタ処理する際のフイルタ係数とに従つて決定された、符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報、符号化ストリームとを受け取る受け取り部と、受け取り部により受け取られた符号化ストリームを復号して画像信号を生成する復号と、受け取り部により受け取られたノイズ特性情報に従つて、復号により生成された画像信号に対してフイルタ処理を行う際に付加するノイズ量を示すノイズ量情報を生成するノイズ量情報生成と、ノイズ量情報生成により生成されたノイズ量情報に従つて、復号により生成された画像信号に対してノイズを付加するフイルタ処理を行うポストフイルタとを設けるようにした。 In the present invention, in a decoding apparatus that decodes an encoded stream obtained by encoding an image signal, the quantization scale used when the image signal is encoded and the filter coefficient used when the image signal is filtered are used. A receiving unit that receives noise characteristics information indicating characteristics of noise to be added when decoding the encoded stream and performing filter processing, and an encoded stream received by the receiving unit. A decoding unit that generates an image signal by decoding , and a noise amount that indicates a noise amount to be added when performing a filtering process on the image signal generated by the decoding unit according to the noise characteristic information received by the receiving unit a noise amount information generation unit for generating information, follow the noise amount information generated by the noise amount information generation section connexion, the decoding section It was provided a post filter unit that performs filter processing for adding noise to made the image signal.

また本発明においては、画像信号を符号化して得られる符号化ストリームを復号する復号方法において、画像信号を符号化する際に用いる量子化スケールと画像信号をフイルタ処理する際のフイルタ係数とに従つて決定された、符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報、符号化ストリームとを受け取り受け取つたノイズ特性情報に従つて、符号化ストリームを復号して生成した画像信号に対してフイルタ処理を行う際に付加するノイズ量を示すノイズ量情報を生成し、生成したノイズ量情報に従つて、受け取つた符号化ストリームを復号して生成した画像信号に対してノイズを付加するフイルタ処理を行うようにした。 According to the present invention, in a decoding method for decoding an encoded stream obtained by encoding an image signal, the quantization scale used when the image signal is encoded and the filter coefficient used when the image signal is filtered are used. connexion determined, and the noise characteristic information indicating characteristics of noise by decoding the encoded stream is added when performing the filter processing, it receives a coded stream, follow the receive One noise characteristic information connexion, coded stream Generate noise amount information indicating the amount of noise to be added when performing filter processing on the image signal generated by decoding and generate the received encoded stream according to the generated noise amount information Filter processing for adding noise to the processed image signal is performed.

画像信号を符号化する際に用いる量子化スケールとフイルタ処理する際のフイルタ係数とに従つてノイズ特性情報を生成し、当該ノイズ特性情報を、画像信号を符号化して生成した符号化ビツトストリームと共に復号側に伝送し、復号側においてノイズ特性情報に従つてノイズ量を示すノイズ量情報を生成し、当該ノイズ量情報に従つて符号化ビツトストリームを復号して生成した画像信号に対してノイズを付加するフイルタ処理を行う。これにより符号化によつて失われたノイズ成分を再生することが可能となる。また符号化によつて生じる量子化ノイズなどの劣化を目立たなくすることが出来る。 Noise characteristic information is generated according to the quantization scale used when encoding the image signal and the filter coefficient used when filtering, and the noise characteristic information is encoded with the encoded bit stream generated by encoding the image signal. transmitted to the decoding side, to generate a noise amount information indicating the Supporting connexion noise amount to the noise characteristic information at the decoding side, the noise on the image signal generated by decoding the Supporting connexion coded bit stream to the noise amount information Perform additional filter processing. This makes it possible to reproduce noise components lost due to encoding. Further, deterioration such as quantization noise caused by encoding can be made inconspicuous.

上述のように本発明によれば、画像信号を符号化する際に用いる量子化スケールとフイルタ処理する際のフイルタ係数とに従つてノイズ特性情報を生成し、当該ノイズ特性情報を、画像信号を符号化して生成した符号化ビツトストリームと共に復号側に伝送し、復号側においてノイズ特性情報に従つてノイズ量を示すノイズ量情報を生成し、当該ノイズ量情報に従つて符号化ビツトストリームを復号して生成した画像信号に対してノイズを付加するフイルタ処理を行うことにより、符号化によつて失われたノイズ成分を再現し得、また符号化によつて生じる量子化ノイズなどの劣化を目立たなくし得、かくして視覚的に復号化した動画像の画質を向上し得る符号化装置、符号化方法、復号装置及び復号方法を実現できる。
As described above, according to the present invention, noise characteristic information is generated according to the quantization scale used when encoding the image signal and the filter coefficient used when performing the filter processing, and the noise characteristic information is converted into the image signal. It is transmitted to the decoding side together with the encoded bit stream generated by encoding, and the decoding side generates noise amount information indicating the noise amount according to the noise characteristic information, and decodes the encoded bit stream according to the noise amount information. By performing a filter process that adds noise to the image signal generated in this way, the noise component lost by encoding can be reproduced, and deterioration such as quantization noise caused by encoding is made inconspicuous. Thus, an encoding device, an encoding method, a decoding device, and a decoding method that can improve the image quality of a visually decoded moving image can be realized.

以下図面について、本発明の一実施例を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)第1実施例
図20との対応部分に同一符号を付した図1に、本発明の第1実施例による動画像符号化装置及び復号化装置を示す。この実施例の場合エンコーダ18は符号化時の条件に応じて、またプリフイルタ19で使用したフイルタの特性によつて、ポストフイルタ39において付加するノイズ量を決定し、それを示す付加ノイズ特性信号NAを符号化する。この付加ノイズ特性信号NAを決定するノイズ特性決定方法は2通り存在する。第1のノイズ特性決定方法は外部から強制的に付加ノイズ特性信号NAを入力し設定するものであり、第2のノイズ特性決定方法は符号化時に発生する各種フラグに基づいて付加ノイズ特性信号NAを決定するものである。
(1) First Embodiment FIG. 1 in which the same reference numerals are assigned to corresponding parts as in FIG. 20 shows a moving picture encoding apparatus and decoding apparatus according to the first embodiment of the present invention. In this embodiment, the encoder 18 determines the amount of noise to be added in the post filter 39 according to the encoding conditions and according to the characteristics of the filter used in the prefilter 19, and adds an additional noise characteristic signal NA indicating this. Is encoded. There are two noise characteristic determination methods for determining the additional noise characteristic signal NA. The first noise characteristic determination method is forcibly inputting and setting the additional noise characteristic signal NA from the outside, and the second noise characteristic determination method is based on various flags generated at the time of encoding. Is to determine.

第1のノイズ特性決定方法によるエンコーダ18の構成を、図22との対応部分に同一符号を付して図2に示す。外部から入力される付加ノイズ特性信号NAは可変長符号化器58に入力される。可変長符号化器58では従来と同様の可変長符号化を行なうとともに、ノイズ特性信号NAを可変長符号化する。付加ノイズ特性信号NAはビツトストリーム中のユーザデータに記録される。MPEG方式やMPEG2方式でのユーザデータは、シーケンス、GOP、ピクチヤヘツダの後に設定可能であるから、PSTは同様にシーケンス、GOP、ピクチヤ単位で設定可能である。   The configuration of the encoder 18 according to the first noise characteristic determination method is shown in FIG. The additional noise characteristic signal NA input from the outside is input to the variable length encoder 58. The variable length coder 58 performs variable length coding similar to the conventional one and also variable length codes the noise characteristic signal NA. The additional noise characteristic signal NA is recorded in user data in the bit stream. Since user data in the MPEG system or MPEG2 system can be set after the sequence, GOP, and picture header, the PST can be similarly set in units of sequence, GOP, and picture.

図3にMPEG方式のビデオのシンタクスを示す。図中下線を付した拡張/ユーザデータextension-and-user-data(i)に拡張データextension-data又はユーザデータuser-data が記録される。図4(A)及び図4(B)に拡張/ユーザデータextension-and-user-data(i)及び拡張データextension-dataを示す。拡張/ユーザデータextension-and-user-data(i)にユーザデータスタートコードuser-data-start-codeが記録されている場合、次にユーザデータuser-data が記録されていることを示している。次に図4(C)にユーザデータuser-data を示す。ユーザデータuser-data は8ビツト単位で記録される。"0000 0000 0000 0000 0000 0001" が発生するとユーザデータuser-data が終了することを示している。   FIG. 3 shows the syntax of the MPEG video. Extension data extension-data or user data user-data is recorded in extension / user data extension-and-user-data (i) with an underline in the figure. FIG. 4A and FIG. 4B show extension / user data extension-and-user-data (i) and extension data extension-data. When the user data start code user-data-start-code is recorded in the extension / user data extension-and-user-data (i), this indicates that the user data user-data is recorded next. . Next, FIG. 4C shows user data user-data. User data user-data is recorded in units of 8 bits. When "0000 0000 0000 0000 0000 0001" occurs, user data user-data is terminated.

次に付加ノイズ特性信号NAについて説明する。付加ノイズ特性信号NAは例えば図6に示すように8ビツトの信号である。付加ノイズ特性信号NAは図3及び図4に示すユーザデータuser-data に記録される。特性0が最も小量のノイズであり、特性255 が最も多量のノイズである。この付加ノイズ特性信号NAによつてノイズを付加する処理については後述する。   Next, the additional noise characteristic signal NA will be described. The additional noise characteristic signal NA is, for example, an 8-bit signal as shown in FIG. The additional noise characteristic signal NA is recorded in the user data user-data shown in FIGS. Characteristic 0 is the least amount of noise, and characteristic 255 is the most amount of noise. The process of adding noise using the additional noise characteristic signal NA will be described later.

付加ノイズ特性信号NAはシーケンス、GOP、ピクチヤヘツダの後のユーザデータuser-data で設定が可能である。一度付加ノイズ特性信号NAが設定されたら、次に再設定されるまでその値が用いられる。即ち再設定されるまで、同一のノイズが付加される。付加ノイズ特性信号NAは、シーケンスヘツダでまず設定される。その後再設定する場合、シーケンス、GOP、ピクチヤヘツダの後のどのユーザデータuser-data で設定しても良い。   The additional noise characteristic signal NA can be set by user data user-data after the sequence, GOP, and picture header. Once the additional noise characteristic signal NA is set, the value is used until it is reset again. That is, the same noise is added until it is reset. The additional noise characteristic signal NA is first set by the sequence header. When resetting thereafter, any user data user-data after the sequence, GOP, or picture header may be set.

次に第2のノイズ特性決定方法によるエンコーダ18の構成を、図2との対応部分に同一符号を付した図7に示す。付加ノイズ決定回路70は可変長符号化器58に入力される量子化スケール(QS)及びプリフイルタ19(図1)において使用されたフイルタ特性からポストフイルタ39(図1)において付加するノイズ量を決定する。付加ノイズ決定回路70はポストフイルタ39において付加するノイズ量を示すフラグ及び付加ノイズ特性信号NAを可変長符号化器58に出力する。可変長符号化器58では、第1のノイズ特性決定方法の場合と同様に付加ノイズ特性信号NAを可変長符号化する。   Next, the configuration of the encoder 18 according to the second noise characteristic determination method is shown in FIG. The additional noise determination circuit 70 determines the amount of noise to be added in the post filter 39 (FIG. 1) from the quantization scale (QS) input to the variable length encoder 58 and the filter characteristics used in the prefilter 19 (FIG. 1). To do. The additional noise determination circuit 70 outputs a flag indicating the amount of noise added by the post filter 39 and an additional noise characteristic signal NA to the variable length encoder 58. The variable length coder 58 performs variable length coding on the additional noise characteristic signal NA as in the case of the first noise characteristic determination method.

この第2のノイズ特性決定方法における付加ノイズ特性信号NAの決定方法について、その1例を説明する。エンコーダ18においては量子化が行なわれ、その際量子化スケール(QS)が小さいほど小振幅の信号まで符号化することが出来る。従つて量子化スケール(QS)が小さいほど原画像に含まれるノイズまで伝送する。また量子化スケール(QS)が大きいとノイズを伝送することが出来なくなり、復号画像はノイズが除去された平坦な画像となる。   An example of a method for determining the additional noise characteristic signal NA in the second noise characteristic determination method will be described. The encoder 18 performs quantization. At this time, the smaller the quantization scale (QS), the smaller the amplitude of the signal can be encoded. Therefore, the smaller the quantization scale (QS) is, the more noise is transmitted in the original image. If the quantization scale (QS) is large, noise cannot be transmitted, and the decoded image is a flat image from which noise has been removed.

また符号化装置1においては、プリフイルタ19によりフイルタ処理が行なわれる。このフイルタ処理には様々な処理が存在するが、ノイズ除去処理はその一例である。またノイズ除去フイルタの他に例えばローパスフイルタもノイズを減少する効果がある。こうしたフイルタによるノイズ除去の度合によつて復号画像で再現できるノイズ量が決まつてくる。すなわちプリフイルタ19でノイズをほとんど除去しない場合には、原画像に含まれるノイズ成分を伝送することが可能であるが、プリフイルタ19でノイズをほとんど除去した場合にはノイズを伝送することが不可能となる。   In the encoding apparatus 1, the filter process is performed by the prefilter 19. There are various types of filter processing, and noise removal processing is one example. In addition to the noise removal filter, for example, a low-pass filter has an effect of reducing noise. The amount of noise that can be reproduced in the decoded image is determined by the degree of noise removal by the filter. That is, when the prefilter 19 hardly removes noise, the noise component included in the original image can be transmitted. However, when the prefilter 19 removes most noise, it is impossible to transmit noise. Become.

従つて付加ノイズ特性信号NAは、量子化スケール(QS)及びプリフイルタ19でのノイズ除去の度合によつて決定される。すなわち量子化スケール(QS)が大きいほど、またプリフイルタ19のノイズ除去の度合いが大きいほどポストフイルタ39で付加されるノイズ量が多くなる。ポストフイルタ39でノイズを付加することは、符号化の際に失われたノイズを復元するだけでなく、符号化によつて生じた量子化ノイズなどの劣化を目立たなくする効果がある。   Therefore, the additional noise characteristic signal NA is determined by the quantization scale (QS) and the degree of noise removal by the prefilter 19. That is, the greater the quantization scale (QS) and the greater the degree of noise removal of the prefilter 19, the greater the amount of noise added by the postfilter 39. Adding noise by the post filter 39 has an effect not only to restore noise lost during encoding but also to make deterioration such as quantization noise caused by encoding inconspicuous.

これを図8を用いて説明する。符号化によつて生じる劣化にはエツジ近傍に生じる劣化や、ブロツク歪みがある。図8(A)は原画像であり、図8(B)はエツジ近傍に劣化が生じたことを示す。これに劣化によつて生じるノイズと同レベルのノイズを付加したのが図8(C)である。ノイズを付加することによつて目立たなくなることがわかる。   This will be described with reference to FIG. Deterioration caused by encoding includes deterioration near the edge and block distortion. FIG. 8A shows an original image, and FIG. 8B shows that deterioration has occurred in the vicinity of the edge. In FIG. 8C, noise having the same level as noise generated by deterioration is added. It turns out that it becomes inconspicuous by adding noise.

量子化スケール(QS)はこうした劣化の度合の目安となる。量子化スケール(QS)が小さい場合、劣化は少ないと考えられ、また量子化スケール(QS)が大きい場合、劣化が顕著になると考えられる。従つて劣化を目立たなくする観点からも量子化スケール(QS)が大きいほど付加するノイズ量が多くなり、また量子化スケール(QS)が小さいほど付加するノイズ量が少なくなる。   The quantization scale (QS) is a measure of the degree of such degradation. When the quantization scale (QS) is small, the deterioration is considered to be small, and when the quantization scale (QS) is large, the deterioration is considered to be remarkable. Therefore, from the viewpoint of making deterioration inconspicuous, the larger the quantization scale (QS) is, the more noise is added, and the smaller the quantization scale (QS) is, the less noise is added.

図9に量子化スケール(QS)及びプリフイルタ19のフイルタ特性F1〜FNから付加ノイズ特性信号NAを決定する方法を示す。ここでプリフイルタ19の強弱があるが、強いフイルタほどノイズを多く除去し、また弱いフイルタほどノイズを保存する。図10にその具体例を示す。F1〜FNは周波数特性が図10に示すようなフイルタ係数である。F1が最も弱くまたFNが最も強いフイルタである。   FIG. 9 shows a method of determining the additional noise characteristic signal NA from the quantization scale (QS) and the filter characteristics F1 to FN of the prefilter 19. Here, the prefilter 19 is strong and weak, but a stronger filter removes more noise, and a weaker filter stores noise. FIG. 10 shows a specific example. F1 to FN are filter coefficients whose frequency characteristics are as shown in FIG. F1 is the weakest filter and FN is the strongest filter.

ここでMPEG方式やMPEG2方式の場合の、マクロブロツクヘツダのシンタクスを図5に示す。図中下線で示すように量子化係数(quantizer-scale-code)はマクロブロツク単位で設定される。まず1フレーム符号化した後、1フレーム中の量子化係数の平均値MEAN-Qを求める。図9は量子化係数の平均値MEAN-Qとプリフイルタ19のフイルタ特性F1〜FNから付加ノイズ特性信号NAを決定する方法である。このようにして、付加ノイズ特性信号NAが決定される。   Here, the syntax of the macro block header in the case of the MPEG system or the MPEG2 system is shown in FIG. As indicated by the underline in the figure, the quantization coefficient (quantizer-scale-code) is set in units of macroblocks. First, after encoding one frame, an average value MEAN-Q of quantization coefficients in one frame is obtained. FIG. 9 shows a method of determining the additional noise characteristic signal NA from the average value MEAN-Q of the quantization coefficient and the filter characteristics F1 to FN of the prefilter 19. In this way, the additional noise characteristic signal NA is determined.

次にこの第1実施例におけるデコーダ31(図1)の構成を、図25との対応部分に同一符号を付した図11に示す。第1及び第2のノイズ特性決定方法共に、図11に示す復号回路90で復号される。ビツトストリームがデコーダ31に入力されると、まず可変長復号化回路82に入力され、可変長符号化が解かれる。このときユーザデータuser-data に記録されている付加ノイズ特性信号NAが復号されポストフイルタ39(図1)に出力される。その他のデコーダ31の動作は従来に記載されている方法と同様である。   Next, the configuration of the decoder 31 (FIG. 1) in the first embodiment is shown in FIG. Both the first and second noise characteristic determination methods are decoded by the decoding circuit 90 shown in FIG. When the bit stream is input to the decoder 31, it is first input to the variable length decoding circuit 82, where the variable length encoding is solved. At this time, the additional noise characteristic signal NA recorded in the user data user-data is decoded and output to the post filter 39 (FIG. 1). The other operations of the decoder 31 are the same as those described in the prior art.

ポストフイルタ39を図12に示す。ノイズ発生回路39Aはランダムなホワイトノイズを生成する。これは例えばM系列を発生させる回路で実現できる。デコーダ31によつて復号された付加ノイズ特性信号NAは付加ノイズ決定回路39Bに入力される。付加ノイズ決定回路39Bは付加ノイズ特性信号NAに従つて画像信号に付加するノイズ量を決定する。入力された画像信号及び発生したノイズは加算器39Cに入力されて加算される。加算器39Cの出力はポストフイルタ39の出力として、D/A変換器36、37(図1)に入力される。   The post filter 39 is shown in FIG. The noise generation circuit 39A generates random white noise. This can be realized, for example, by a circuit that generates an M series. The additional noise characteristic signal NA decoded by the decoder 31 is input to the additional noise determination circuit 39B. The additional noise determination circuit 39B determines the amount of noise added to the image signal according to the additional noise characteristic signal NA. The input image signal and the generated noise are input to the adder 39C and added. The output of the adder 39C is input to the D / A converters 36 and 37 (FIG. 1) as the output of the post filter 39.

以上の構成によれば、動画像信号を符号化する際に、画像中に含まれるノイズ量を検出してそのノイズ量を示す付加ノイズ特性信号NAを符号化して伝送し、復号化側においてビツトストリームを復号化した後にそのノイズ量を示す付加ノイズ特性信号NAに従つてノイズを付加するようにしたことにより、符号化によつて失われたノイズ成分を再現することがでる。また符号化によつて生じる量子化ノイズと同レベルのノイズをポストフイルタによつて付加することにより、量子化ノイズなどの劣化を目立たなくでき、かくして視覚的に復号化した動画像の画質を向上し得る。   According to the above configuration, when a moving image signal is encoded, the amount of noise included in the image is detected, and the additional noise characteristic signal NA indicating the amount of noise is encoded and transmitted. Since the noise is added according to the additional noise characteristic signal NA indicating the amount of noise after the stream is decoded, the noise component lost by the encoding can be reproduced. In addition, by adding post-filter noise of the same level as the quantization noise generated by encoding, the degradation of quantization noise and the like can be made inconspicuous, thus improving the image quality of visually decoded moving images. Can do.

(2)第2実施例
図1との対応部分に同一符号を付した図13に、本発明の第2実施例による動画像符号化装置及び復号化装置を示す。符号化装置1については従来と同様である。第1実施例で説明したように、付加すべきノイズ量は量子化スケール(QS)に依存する。量子化スケール(QS)はマクロブロツク単位で設定されるが、ユーザデータuser-data はシーケンス、GOP、ピクチヤ単位でしか伝送することができない。この第2実施例ではマクロブロツク単位で付加するノイズ量を決定する。
(2) Second Embodiment FIG. 13 in which the same reference numerals are assigned to the parts corresponding to those in FIG. 1 shows a moving picture coding apparatus and decoding apparatus according to a second embodiment of the present invention. The encoding device 1 is the same as the conventional one. As described in the first embodiment, the amount of noise to be added depends on the quantization scale (QS). Although the quantization scale (QS) is set in units of macro blocks, user data user-data can be transmitted only in units of sequences, GOPs, and pictures. In the second embodiment, the amount of noise to be added is determined on a macroblock basis.

第2実施例におけるデコーダ31について、図11との対応部分に同一符号を付した図14を用いて説明する。ビツトストリームはデコーダ31に入力されると可変長復号化回路82に入力され、可変長符号が解かれる。このときユーザデータuser-data に記録されている付加ノイズ特性信号NA及び量子化スケール(QS)をポストフイルタ39に出力する。その他のデコーダ31の動作は従来に記載されている方法と同様である。   The decoder 31 in the second embodiment will be described with reference to FIG. 14 in which the same reference numerals are assigned to the parts corresponding to those in FIG. When the bit stream is input to the decoder 31, it is input to the variable length decoding circuit 82, and the variable length code is solved. At this time, the additional noise characteristic signal NA and the quantization scale (QS) recorded in the user data user-data are output to the post filter 39. The other operations of the decoder 31 are the same as those described in the prior art.

第2実施例におけるポストフイルタ39を、図12との対応部分に同一符号を付した図15を用いて説明する。この実施例では、付加ノイズ特性信号NA及び量子化スケール(QS)がノイズ量決定回路39Dに入力される。ノイズ量決定回路39Dは付加ノイズ特性信号NA及び量子化スケール(QS)からポストフイルタ39において付加するノイズ量を決定する。図16にノイズ量決定方法を示す。決定されたノイズ量NA′は付加ノイズ決定回路39Bに出力される。   A post filter 39 according to the second embodiment will be described with reference to FIG. In this embodiment, the additional noise characteristic signal NA and the quantization scale (QS) are input to the noise amount determination circuit 39D. The noise amount determination circuit 39D determines the amount of noise added in the post filter 39 from the additional noise characteristic signal NA and the quantization scale (QS). FIG. 16 shows a noise amount determination method. The determined noise amount NA ′ is output to the additional noise determination circuit 39B.

付加ノイズ決定回路39Bは第1実施例と同様に、画像信号に付加するノイズを決定する。入力された画像信号及び発生したノイズは加算器39Cに入力され加算される。加算器39Cの出力はポストフイルタ39の出力としてD/A変換器36、37(図1)に入力される。その他の動作は第1実施例と全く同様である。   The additional noise determination circuit 39B determines the noise to be added to the image signal as in the first embodiment. The input image signal and generated noise are input to the adder 39C and added. The output of the adder 39C is input to the D / A converters 36 and 37 (FIG. 1) as the output of the post filter 39. Other operations are the same as those in the first embodiment.

以上の構成によれば、動画像信号を符号化する際に、画像中に含まれるノイズ量を検出してそのノイズ量を示す付加ノイズ特性信号NAを符号化して伝送し、復号化側においてビツトストリームを復号化した後にそのノイズ量を示す付加ノイズ特性信号NA及び量子化スケール(QS)に従つてノイズを付加するようにしたことにより、符号化によつて失われたノイズ成分を再現することがでる。また符号化によつて生じる量子化ノイズと同レベルのノイズをポストフイルタによつて付加することにより、量子化ノイズなどの劣化を目立たなくでき、かくして視覚的に復号化した動画像の画質を向上し得る。   According to the above configuration, when a moving image signal is encoded, the amount of noise included in the image is detected, and the additional noise characteristic signal NA indicating the amount of noise is encoded and transmitted. Reproducing the noise component lost by encoding by adding noise according to the additional noise characteristic signal NA and quantization scale (QS) indicating the amount of noise after decoding the stream I get out. In addition, by adding post-filter noise of the same level as the quantization noise generated by encoding, the degradation of quantization noise and the like can be made inconspicuous, thus improving the image quality of visually decoded moving images. Can do.

本発明は、動画像信号を光デイスクや磁気テープ等の記録媒体に記録し再生して表示する装置や、テレビ会議システム、テレビ電話システム、放送用機器等に広く利用できる。   The present invention can be widely used in an apparatus for recording and reproducing a moving image signal on a recording medium such as an optical disk or a magnetic tape, displaying it, a video conference system, a video phone system, a broadcasting device, and the like.

本発明による第1実施例の動画像符号化/復号化装置の構成を示すブロツク図である。It is a block diagram which shows the structure of the moving image encoding / decoding apparatus of 1st Example by this invention. 図1の符号化装置のエンコーダの構成を示すブロツク図である。It is a block diagram which shows the structure of the encoder of the encoding apparatus of FIG. MPEG方式のビデオのシンタクスを示す図表である。It is a chart which shows the syntax of the video of an MPEG system. MPEG方式のビデオのシンタクスの拡張/ユーザデータを示す図表である。5 is a table showing extension of MPEG video syntax / user data. MPEG方式のビデオのマクロブロツクのシンタクスを示す図表である。It is a table | surface which shows the syntax of the macro block of the video of an MPEG system. 付加ノイズ特性信号NAの内容を示す図表である。It is a chart which shows the contents of additional noise characteristic signal NA. 図1の符号化装置のエンコーダの構成を示すブロツク図である。It is a block diagram which shows the structure of the encoder of the encoding apparatus of FIG. ノイズ成分を再現して画質を向上する説明に供する特性曲線図である。FIG. 6 is a characteristic curve diagram for explaining an improvement in image quality by reproducing a noise component. 付加ノイズ特性信号の決定方法の説明に供する特性曲線図である。It is a characteristic curve figure with which it uses for description of the determination method of an additional noise characteristic signal. フイルタ係数の周波数特性の説明に供する特性曲線図である。It is a characteristic curve figure with which it uses for description of the frequency characteristic of a filter coefficient. 図1の復号化装置のデコーダの構成を示すブロツク図である。It is a block diagram which shows the structure of the decoder of the decoding apparatus of FIG. 図1の復号化装置のポストフイルタの構成を示すブロツク図である。It is a block diagram which shows the structure of the post filter of the decoding apparatus of FIG. 本発明による第2実施例の動画像符号化/復号化装置の構成を示すブロツク図である。It is a block diagram which shows the structure of the moving image encoding / decoding apparatus of 2nd Example by this invention. 図13の復号化装置のデコーダの構成を示すブロツク図である。It is a block diagram which shows the structure of the decoder of the decoding apparatus of FIG. 図13の復号化装置のポストフイルタの構成を示すブロツク図である。It is a block diagram which shows the structure of the post filter of the decoding apparatus of FIG. 付加ノイズ特性信号の決定方法の説明に供する特性曲線図である。It is a characteristic curve figure with which it uses for description of the determination method of an additional noise characteristic signal. フレーム相関を利用した動画像信号の高能率符号化の原理の説明に供する略線図である。It is a basic diagram with which it uses for description of the principle of the highly efficient encoding of the moving image signal using a frame correlation. 動画像信号を圧縮する場合のピクチヤタイプの説明に供する略線図である。It is a basic diagram with which it uses for description of the picture type in the case of compressing a moving image signal. 動画像信号符号化方法の原理の説明に供する略線図である。It is a basic diagram with which it uses for description of the principle of a moving image signal encoding method. 従来の動画像符号化/復号化装置の構成を示すブロツク図である。It is a block diagram which shows the structure of the conventional moving image encoding / decoding apparatus. フオーマツト変換回路の動作の説明として画像データの構造を示す略線図である。It is a basic diagram which shows the structure of image data as description of operation | movement of a format conversion circuit. 図20の動画像符号化/復号化装置におけるエンコーダの構成を示すブロツク図である。FIG. 21 is a block diagram illustrating a configuration of an encoder in the moving image encoding / decoding device in FIG. 20. エンコーダの予測モード切り替え回路の動作の説明に供する略線図である。It is a basic diagram with which it uses for description of operation | movement of the prediction mode switching circuit of an encoder. エンコーダのDCTモード切り替え回路の動作の説明に供する略線図である。It is a basic diagram with which it uses for description of operation | movement of the DCT mode switching circuit of an encoder. 図20の動画像符号化/復号化装置におけるデコーダの構成を示すブロツク図である。FIG. 21 is a block diagram showing a configuration of a decoder in the moving picture encoding / decoding apparatus in FIG. 20. 図20の動画像符号化/復号化装置におけるプリフイルタ/ポストフイルタとして2次元ローパスフイルタの構成を示す接続図である。FIG. 21 is a connection diagram illustrating a configuration of a two-dimensional low-pass filter as a prefilter / postfilter in the moving image encoding / decoding apparatus of FIG. 20. 図26の2次元ローパスフイルタの係数の説明に供する略線図である。It is a basic diagram with which it uses for description of the coefficient of the two-dimensional low-pass filter of FIG.

符号の説明Explanation of symbols

1……符号化装置、2……復号化装置、3……記録媒体(伝送路)、11……前処理回路、12、13……アナログデイジタル(A/D)変換器、14、33……フレームメモリ、15、34……輝度信号フレームメモリ、16、35……色差信号フレームメモリ、17、32……フオーマツト変換回路、18……エンコーダ、19……プリフイルタ、20……記憶装置、21……係数決定回路、22……符号化レート決定回路、31……デコーダ、36、37……デイジタルアナログ(D/A)変換器、38……後処理回路、50……動きベクトル検出回路(MV−Det)、51……フレームメモリ、51a……前方原画像部、51b……原画像部、51c……後方原画像部、52……予測モード切り替え回路(Mode−SW)、53……演算部、54……予測判定回路、55……DCTモード切り替え回路(DCT CTL)、56……DCT回路、57……量子化回路(Q)、58……可変長符号化回路(VLC)、59……送信バツフア(Buffer)、60、83……逆量子化回路(IQ)、61、84……逆DCT回路(IDCT)、62、85……演算器、63、86……フレームメモリ、63a、86a……前方予測画像(F−P)、63b、86b……後方予測画像(B−P)、64、87……動き補償回路(M−comp)、65、88……DCTブロツク並べ替え回路、70……付加ノイズ決定回路、81……受信バツフア(Buffer)、82……可変長復号化回路(IVLC)。   DESCRIPTION OF SYMBOLS 1 ... Encoding apparatus, 2 ... Decoding apparatus, 3 ... Recording medium (transmission path), 11 ... Pre-processing circuit, 12, 13 ... Analog digital (A / D) converter, 14, 33 ... ... Frame memory, 15, 34 ... Luminance signal frame memory, 16, 35 ... Color difference signal frame memory, 17, 32 ... Format conversion circuit, 18 ... Encoder, 19 ... Prefilter, 20 ... Storage device, 21 ... Coefficient determination circuit, 22... Coding rate determination circuit, 31... Decoder, 36 and 37... Digital analog (D / A) converter, 38. MV-Det), 51... Frame memory, 51 a... Original image portion, 51 b... Original image portion, 51 c. ... Calculation unit 54 ... Prediction determination circuit 55 ... DCT mode switching circuit (DCT CTL) 56 ... DCT circuit 57 ... Quantization circuit (Q) 58 ... Variable length coding circuit (VLC) , 59... Transmission buffer (60), 83... Inverse quantization circuit (IQ), 61, 84... Inverse DCT circuit (IDCT), 62, 85... Computing unit, 63, 86. , 63a, 86a... Prediction image (FP), 63b, 86b... Prediction image (BP), 64, 87... Motion compensation circuit (M-comp), 65, 88. Rearrangement circuit, 70... Additional noise determination circuit, 81... Reception buffer, 82... Variable length decoding circuit (IVLC).

Claims (12)

画像信号を符号化する符号化装置において、
上記画像信号を符号化して符号化ストリームを生成する符号化と、
上記画像信号を符号化する際に用いる量子化スケールと上記画像信号をフイルタ処理する際のフイルタ係数とに従つて、上記符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報を生成するノイズ特性情報生成と、
上記ノイズ特性情報生成により生成されたノイズ特性情報、上記符号化により生成された符号化ストリームとを伝送する伝送部
を具える符号化装置。
In an encoding device for encoding an image signal,
An encoding unit that encodes the image signal to generate an encoded stream;
According to the quantization scale used when the image signal is encoded and the filter coefficient when the image signal is filtered , the characteristics of noise to be added when the encoded stream is decoded and the filter process is performed. A noise characteristic information generating unit for generating noise characteristic information to be shown ;
The noise characteristic information and the noise characteristic information generated by the generating unit, the transmission unit and a comprises Ru marks Goka apparatus for transmitting the encoded stream generated by the coding unit.
上記ノイズ特性情報生成は、マクロブロツク単位で上記ノイズ特性情報を生成する
求項1に記載の符号化装置。
The noise characteristic information generation unit generates the noise characteristic information in units of macro blocks.
Encoding apparatus according to Motomeko 1.
上記伝送部は、上記ノイズ特性情報を上記符号化ストリームに多重化して伝送する
求項1に記載の符号化装置。
The transmission unit multiplexes and transmits the noise characteristic information to the encoded stream
Encoding apparatus according to Motomeko 1.
上記符号化は、MPEG規格に従つて上記符号化ストリームを生成する
求項1に記載の符号化装置。
The encoding unit generates the encoded stream according to the MPEG standard.
Encoding apparatus according to Motomeko 1.
上記伝送部は、上記ノイズ特性情報を上記符号化ストリーム中のユーザデータ領域に記述して伝送する
求項4に記載の符号化装置。
The transmission unit transmits the noise characteristic information described in the user data area in the coded stream
Encoding apparatus according to Motomeko 4.
画像信号を符号化する符号化方法において、
上記画像信号を符号化する際に用いる量子化スケールと上記画像信号をフイルタ処理する際のフイルタ係数とに従つて、上記画像信号を符号化して生成した符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報を生成し、生成した上記ノイズ特性情報上記画像信号を符号化して生成した上記符号化ストリームとを伝送する
号化方法。
In an encoding method for encoding an image signal,
In accordance with the quantization scale used when the image signal is encoded and the filter coefficient used when the image signal is filtered, the encoded stream generated by encoding the image signal is decoded and the filter process is performed. Noise characteristic information indicating the characteristics of noise added at the time is generated, and the generated noise characteristic information and the encoded stream generated by encoding the image signal are transmitted .
It marks Goka way.
画像信号を符号化して得られる符号化ストリームを復号する復号装置において、
上記画像信号を符号化する際に用いる量子化スケールと上記画像信号をフイルタ処理する際のフイルタ係数とに従つて決定された、上記符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報、上記符号化ストリームとを受け取る受け取り部と、
上記受け取り部により受け取られた符号化ストリームを復号して画像信号を生成する復号と、
上記受け取り部により受け取られたノイズ特性情報に従つて、上記復号により生成された画像信号に対してフイルタ処理を行う際に付加するノイズ量を示すノイズ量情報を生成するノイズ量情報生成と、
上記ノイズ量情報生成により生成されたノイズ量情報に従つて、上記復号により生成された画像信号に対してノイズを付加するフイルタ処理を行うポストフイルタ
を具える復号装置。
In a decoding device for decoding an encoded stream obtained by encoding an image signal,
Noise added when performing the filtering process by decoding the encoded stream, determined according to the quantization scale used when the image signal is encoded and the filter coefficient when the image signal is filtered A receiving unit that receives the noise characteristic information indicating the characteristics and the encoded stream;
A decoding unit that decodes the encoded stream received by the receiving unit to generate an image signal;
Follow the noise characteristic information received by the receiving unit connexion, and the noise amount information generation section for generating a noise amount information indicating the amount of noise to be added in performing the filter processing on the image signal generated by the decoding unit ,
The noise amount information accordance connexion to the generated noise amount information by the generating section, decrypt device Ru comprising a post filter unit that performs filter processing for adding noise to the image signal generated by the decoding unit.
上記ノイズ量情報生成は、マクロブロツク単位で上記ノイズ量情報を生成する
求項7に記載の復号装置。
The noise amount information generation unit generates the noise amount information in units of macro blocks.
Decoding apparatus according to Motomeko 7.
上記ノイズ特性情報は、上記符号化ストリームに多重化されており、
上記受け取り部は、上記符号化ストリームから上記ノイズ特性情報を取得する
求項7に記載の復号装置。
The noise characteristic information is multiplexed in the encoded stream,
The receiving unit acquires the noise characteristic information from the encoded stream.
Decoding apparatus according to Motomeko 7.
上記符号化ストリームは、MPEG規格に従つて符号化されたストリームである
求項7に記載の復号装置。
The encoded stream is a stream encoded according to the MPEG standard.
Decoding apparatus according to Motomeko 7.
上記ノイズ特性情報は、上記符号化ストリーム中のユーザデータ領域に記述されており、
上記受け取り部は、上記符号化ストリーム中のユーザデータ領域から上記ノイズ特性情報を取得する
求項10に記載の復号装置。
The noise characteristic information is described in a user data area in the encoded stream,
The receiving unit acquires the noise characteristic information from a user data area in the encoded stream.
Decoding apparatus according to Motomeko 10.
画像信号を符号化して得られる符号化ストリームを復号する復号方法において、
上記画像信号を符号化する際に用いる量子化スケールと上記画像信号をフイルタ処理する際のフイルタ係数とに従つて決定された、上記符号化ストリームを復号してフイルタ処理を行う際に付加するノイズの特性を示すノイズ特性情報、上記符号化ストリームとを受け取り受け取つた上記ノイズ特性情報に従つて、上記符号化ストリームを復号して生成した画像信号に対してフイルタ処理を行う際に付加するノイズ量を示すノイズ量情報を生成し、生成した上記ノイズ量情報に従つて、受け取つた上記符号化ストリームを復号して生成した画像信号に対してノイズを付加するフイルタ処理を行う
復号方法。
In a decoding method for decoding an encoded stream obtained by encoding an image signal,
Noise added when performing the filtering process by decoding the encoded stream, determined according to the quantization scale used when the image signal is encoded and the filter coefficient when the image signal is filtered and noise characteristic information indicating a characteristic, receives the above coded stream, follow the receive One was the noise characteristic information connexion, added when performing the filter processing on the image signal generated by decoding the coded stream Decoding method for generating noise amount information indicating the amount of noise to be performed and adding noise to an image signal generated by decoding the received encoded stream according to the generated noise amount information .
JP2007056300A 2007-03-06 2007-03-06 Encoding device, encoding method, decoding device, and decoding method Expired - Lifetime JP4596277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007056300A JP4596277B2 (en) 2007-03-06 2007-03-06 Encoding device, encoding method, decoding device, and decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007056300A JP4596277B2 (en) 2007-03-06 2007-03-06 Encoding device, encoding method, decoding device, and decoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP23215794A Division JP3980659B2 (en) 1994-08-31 1994-08-31 Video encoding method and apparatus, video decoding method and apparatus.

Publications (2)

Publication Number Publication Date
JP2007181245A JP2007181245A (en) 2007-07-12
JP4596277B2 true JP4596277B2 (en) 2010-12-08

Family

ID=38305837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007056300A Expired - Lifetime JP4596277B2 (en) 2007-03-06 2007-03-06 Encoding device, encoding method, decoding device, and decoding method

Country Status (1)

Country Link
JP (1) JP4596277B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0244884A (en) * 1988-08-04 1990-02-14 Kokusai Denshin Denwa Co Ltd <Kdd> Post filter system for removal of coding noise
JPH06233266A (en) * 1993-02-02 1994-08-19 Matsushita Electric Ind Co Ltd Video signal encoder and video signal decoder

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0244884A (en) * 1988-08-04 1990-02-14 Kokusai Denshin Denwa Co Ltd <Kdd> Post filter system for removal of coding noise
JPH06233266A (en) * 1993-02-02 1994-08-19 Matsushita Electric Ind Co Ltd Video signal encoder and video signal decoder

Also Published As

Publication number Publication date
JP2007181245A (en) 2007-07-12

Similar Documents

Publication Publication Date Title
JP3163830B2 (en) Image signal transmission method and apparatus
KR100289852B1 (en) Image coding method, image coding apparatus and image recording medium
KR100766740B1 (en) Apparatus and method for converting data using encoding history information
JP3855286B2 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and recording medium
US6587509B1 (en) Reducing undesirable effects of an emphasis processing operation performed on a moving image by adding a noise signal to a decoded uncompressed signal
JP3911035B2 (en) Moving picture coding method and moving picture coding apparatus
US6628713B1 (en) Method and device for data encoding and method for data transmission
KR19990072968A (en) Picture signal processing system, decoder, picture signal processing method, and decoding method
US8054887B2 (en) Method and apparatus for encoding a picture sequence using predicted and non-predicted pictures which each include multiple macroblocks
JP3980659B2 (en) Video encoding method and apparatus, video decoding method and apparatus.
JP3240024B2 (en) Image processing method
JPH07231449A (en) Encoder and decoder for picture signal
JP4596277B2 (en) Encoding device, encoding method, decoding device, and decoding method
JP3240737B2 (en) Image signal encoding method and apparatus, decoding method and apparatus
JP4765961B2 (en) Digital video recording device
JP4121567B2 (en) Moving picture encoding method, moving picture decoding method, moving picture encoding apparatus, and moving picture decoding apparatus
JP3322376B2 (en) Moving image decoding method and moving image decoding device
JP3481207B2 (en) Image signal transmission method and apparatus, and image signal decoding method and apparatus
JP3307379B2 (en) Decoding apparatus and method
JP3516622B2 (en) Decoding apparatus and method
JP3516621B2 (en) Encoding device and method
JPH06276504A (en) Method and device for picture signal coding, method and device for picture decoding
JP3164110B2 (en) Encoding device and method
JP2006020353A (en) Image signal encoding apparatus and method, and image signal decoding apparatus and method
JP3500340B2 (en) Coding apparatus and method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100908

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term