JP4302094B2 - Moving picture decoding apparatus and moving picture decoding method - Google Patents

Moving picture decoding apparatus and moving picture decoding method Download PDF

Info

Publication number
JP4302094B2
JP4302094B2 JP2005335964A JP2005335964A JP4302094B2 JP 4302094 B2 JP4302094 B2 JP 4302094B2 JP 2005335964 A JP2005335964 A JP 2005335964A JP 2005335964 A JP2005335964 A JP 2005335964A JP 4302094 B2 JP4302094 B2 JP 4302094B2
Authority
JP
Japan
Prior art keywords
prediction
prediction mode
signal
information
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005335964A
Other languages
Japanese (ja)
Other versions
JP2006121732A (en
Inventor
義浩 菊池
敏明 渡邊
健志 駄竹
孝 井田
昇 山口
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005335964A priority Critical patent/JP4302094B2/en
Publication of JP2006121732A publication Critical patent/JP2006121732A/en
Application granted granted Critical
Publication of JP4302094B2 publication Critical patent/JP4302094B2/en
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像信号を高能率に圧縮符号化する動画像復号化装置及び動画像復号化方法に係り、特に伝送路/蓄積媒体での誤りに強い動画像復号化装置及び動画像復号化方法に関する。   The present invention relates to a moving picture decoding apparatus and a moving picture decoding method for compressing and encoding a moving picture signal with high efficiency, and more particularly to a moving picture decoding apparatus and a moving picture decoding which are resistant to errors in a transmission path / storage medium. Regarding the method.

TV電話、TV会議システム、携帯情報端末、ディジタルビデオディスクシステムおよびディジタルTV放送システムなどのように動画像信号を伝送/蓄積するシステムにおいては、動画像信号をできるだけ少ない情報量に圧縮符号化し、得られた圧縮符号化信号である符号列を伝送路/蓄積媒体へ伝送/蓄積し、伝送/蓄積された符号列を復号化することによって元の動画像信号を再生する。   In a system that transmits / stores moving image signals, such as a TV phone, a TV conference system, a portable information terminal, a digital video disk system, and a digital TV broadcast system, the moving image signals are compressed and encoded to the smallest possible amount of information. The code sequence which is the compressed and encoded signal is transmitted / accumulated to the transmission path / storage medium, and the transmitted / accumulated code sequence is decoded to reproduce the original moving image signal.

このようなシステムに適用される動画像信号の圧縮符号化技術として、動き補償、離散コサイン変換(DCT)、サブバンド符号化、ピラミッド符号化等の方式や、これらを組み合わせた方式など様々な方式が開発されている。また、動画像の圧縮符号化の国際標準方式としてISO・MPEG1、MPEG2、ITU−T・H.261,H.262が規定されている。これらの符号化方式は、いずれも動き補償適応予測と離散コサイン変換の組み合わせを基本とした方式であり、文献1:安田浩編著、“マルチメディア符号化の国際標準”、丸善、(平成3年6月)等にその詳細が述べられている。   As a compression encoding technique of a moving image signal applied to such a system, various systems such as a system such as motion compensation, discrete cosine transform (DCT), subband encoding, pyramid encoding, and a combination thereof are available. Has been developed. In addition, ISO / MPEG1, MPEG2, ITU-T / H. 261, H.M. 262 is defined. All of these encoding methods are based on a combination of motion compensated adaptive prediction and discrete cosine transform. Reference 1: edited by Hiroshi Yasuda, “International Standard for Multimedia Coding”, Maruzen, (1991) (June) etc., the details are described.

ところで、このようにして動画像信号を符号化して得られた符号列を無線伝送路のような誤りが生じやすい媒体を介して伝送/蓄積する場合、復号化側で再生される画像信号が伝送/蓄積の際の誤りにより劣化してしまうことがある。このような誤りの対策として、例えば誤り確率の異なる複数の伝送路を介して符号列を伝送できる条件下では、誤りによる画質劣化を少なくするため、符号列をいくつかの階層に分けて、上位階層の符号列はより誤り確率の低い伝送路で伝送を行う階層的符号化方式が知られている。階層の切り分けとしては、モード情報、動き補償情報、画像信号の低周波成分を上位階層とし、画像信号の高周波数成分を上位階層とする方法等が提案されている。   By the way, when a code string obtained by encoding a moving image signal in this way is transmitted / stored via a medium that is prone to error such as a wireless transmission path, an image signal reproduced on the decoding side is transmitted. / May be deteriorated due to errors during storage. As a countermeasure against such an error, for example, under conditions where a code string can be transmitted through a plurality of transmission paths having different error probabilities, the code string is divided into several layers in order to reduce image quality degradation due to errors. Hierarchical coding schemes are known in which a hierarchical code string is transmitted on a transmission path with a lower error probability. As the layer separation, methods such as mode information, motion compensation information, and a low frequency component of an image signal as an upper layer and a high frequency component of an image signal as an upper layer have been proposed.

従来の階層的動画像符号化装置の例として、動き補償適応予測とDCTを用いた動画像符号化装置を図5により説明する。図5において、入力動画像信号11はまず予測回路12で予測に供される。予測回路12においては、入力動画像信号11とフレームメモリ13に蓄えられている既に符号化/局部復号化によって得られた参照画像信号との間の動きベクトルが検出され、この動きベクトルに基づいて所定の単位領域(予測領域という)毎に動き補償予測が行われ、動き補償予測信号が作成される。   As an example of a conventional hierarchical video encoding device, a video encoding device using motion compensated adaptive prediction and DCT will be described with reference to FIG. In FIG. 5, an input moving image signal 11 is first subjected to prediction by a prediction circuit 12. In the prediction circuit 12, a motion vector between the input moving image signal 11 and the reference image signal already obtained by encoding / local decoding stored in the frame memory 13 is detected, and based on this motion vector Motion compensation prediction is performed for each predetermined unit region (referred to as a prediction region), and a motion compensation prediction signal is generated.

予測回路12は、動き補償予測モード(フレーム間予測モード)と入力動画像信号11をそのまま符号化するフレーム内予測モードを持っており、これらの予測モードから符号化に最適なモードを選択して、それぞれのモードに対応する予測信号14を出力する。すなわち、予測回路12は動き補償予測モードでは動き補償予測信号、フレーム内予測モードでは“0”をそれぞれ予測信号14として出力する。   The prediction circuit 12 has a motion compensation prediction mode (interframe prediction mode) and an intraframe prediction mode for encoding the input moving image signal 11 as they are, and selects an optimum mode for encoding from these prediction modes. The prediction signal 14 corresponding to each mode is output. That is, the prediction circuit 12 outputs a motion compensation prediction signal in the motion compensation prediction mode and “0” as the prediction signal 14 in the intraframe prediction mode.

減算器15では、入力動画像信号11から予測信号14が減算されることにより予測残差信号16が生成される。予測残差信号16は、離散コサイン変換(DCT)回路17において一定の大きさのブロック単位で離散コサイン変換され、DCT係数情報18となる。DCT係数情報18は、量子化回路19で量子化される。フレーム内予測モードでは予測信号14は“0”であるから、減算器15からは予測残差信号16として入力動画像信号11がそのまま出力される。   In the subtracter 15, the prediction residual signal 16 is generated by subtracting the prediction signal 14 from the input moving image signal 11. The prediction residual signal 16 is subjected to discrete cosine transform in a block unit having a certain size in a discrete cosine transform (DCT) circuit 17 to become DCT coefficient information 18. The DCT coefficient information 18 is quantized by the quantization circuit 19. Since the prediction signal 14 is “0” in the intra-frame prediction mode, the input moving image signal 11 is output as it is from the subtracter 15 as the prediction residual signal 16.

量子化回路19からの量子化されたDCT係数情報20は二分岐され、一方では第1の可変長符号化回路21により可変長符号化され、他方では逆量子化回路22により逆量子化される。逆量子化回路22の出力は、逆離散コサイン変換(逆DCT)回路23により逆離散コサイン変換される。すなわち、逆量子化回路22および逆DCT回路23では量子化回路19およびDCT回路17と逆の処理が行われ、逆DCT回路23の出力には予測残差信号16に近似した信号が得られる。逆DCT回路23の出力は、加算回路24において予測回路12からの予測信号14と加算され、局部復号信号25が生成される。この局部復号信号25はフレームメモリ13に参照画像信号として記憶される。   The quantized DCT coefficient information 20 from the quantization circuit 19 is bifurcated, and on the one hand, variable length coding is performed by the first variable length coding circuit 21, and on the other hand, dequantization is performed by the inverse quantization circuit 22. . The output of the inverse quantization circuit 22 is subjected to inverse discrete cosine transform by an inverse discrete cosine transform (inverse DCT) circuit 23. That is, the inverse quantization circuit 22 and the inverse DCT circuit 23 perform processing reverse to that of the quantization circuit 19 and the DCT circuit 17, and a signal approximate to the prediction residual signal 16 is obtained at the output of the inverse DCT circuit 23. The output of the inverse DCT circuit 23 is added to the prediction signal 14 from the prediction circuit 12 in the addition circuit 24 to generate a local decoded signal 25. This local decoded signal 25 is stored in the frame memory 13 as a reference image signal.

予測回路12からは、予測に関わる情報として予測モード/動きベクトル情報26が出力され、可変長符号化回路27により可変長符号化される。可変長符号化回路21,27から出力される符号列は、マルチプレクサ30により多重化されるとともに、上位階層符号列31および下位階層符号列32に分けられ、図示しない伝送路/蓄積媒体へ出力される。すなわち、上位階層符号列31は伝送/蓄積による誤りが生じる確率が比較的低い伝送路/蓄積媒体に出力され、下位階層符号列32は伝送/蓄積による誤りが生じる確率が比較的高い伝送路/蓄積媒体に出力される。   Prediction mode / motion vector information 26 is output from the prediction circuit 12 as information related to prediction, and variable length coding is performed by the variable length coding circuit 27. The code sequences output from the variable-length encoding circuits 21 and 27 are multiplexed by the multiplexer 30 and divided into an upper layer code sequence 31 and a lower layer code sequence 32, and output to a transmission path / storage medium (not shown). The That is, the upper layer code string 31 is output to a transmission line / storage medium with a relatively low probability of transmission / accumulation error, and the lower layer code string 32 is a transmission line / storage medium with a relatively high probability of transmission / accumulation error. Output to the storage medium.

ここで、マルチプレクサ30での上位階層符号列31と下位階層符号列32の切り分けは、例えば図6に示すように可変長符号化回路22からの予測回路12での予測モードを表わすモード情報、動きベクトル情報(MV)および可変長符号回路21からの可変長符号化されたDCT係数情報のうちの低域DCT係数情報を上位階層符号列31に当て、可変長符号回路21からの可変長符号化されたDCT係数情報のうちの残った高域DCT係数情報を下位階層符号列32に当てるというように行う。   Here, the separation of the upper layer code string 31 and the lower layer code string 32 in the multiplexer 30 is performed by, for example, mode information indicating a prediction mode in the prediction circuit 12 from the variable length coding circuit 22 as shown in FIG. The low-frequency DCT coefficient information of the vector information (MV) and the variable-length coded DCT coefficient information from the variable-length code circuit 21 is applied to the upper layer code string 31, and the variable-length coding from the variable-length code circuit 21 is performed. The remaining high-frequency DCT coefficient information in the DCT coefficient information is applied to the lower layer code string 32.

このような従来の階層的動画像符号化装置には、以下のような問題がある。まず、誤りが生じると画質が大きく劣化する動きベクトル情報が各予測領域毎に一つずつしか無いために、動きベクトル情報に誤りが生じると、その予測領域については動き情報を全く復号化できなくなり、大きな画質劣化を生じるという点である。このような画質劣化を少なくするためには、図6(a)に示すように動きベクトル情報(MV)は全て上位階層符号列31に当てればよい。しかし、一般に各階層の符号列の符号量が全階層の符号列の総符号量中で取り得る割合には制限があり、このように全ての動きベクトル情報を上位階層符号列31に含めた場合には、この制限を越えてしまうことがある。これを防ぐために動きベクトル情報を下位階層符号列32に当てると、誤り耐性が大幅に低下してしまうという問題が発生する。   Such a conventional hierarchical video encoding apparatus has the following problems. First, since there is only one motion vector information for each prediction region that causes image quality to deteriorate greatly if an error occurs, if an error occurs in the motion vector information, no motion information can be decoded for that prediction region. That is, the image quality is greatly deteriorated. In order to reduce such image quality degradation, all the motion vector information (MV) may be applied to the upper layer code string 31 as shown in FIG. However, in general, there is a limit to the ratio that the code amount of the code sequence of each layer can take in the total code amount of the code sequence of all layers, and when all the motion vector information is included in the upper layer code sequence 31 in this way May exceed this limit. In order to prevent this, if the motion vector information is applied to the lower layer code string 32, there arises a problem that the error resistance is greatly lowered.

また、伝送/蓄積される符号列31,32の各符号語は可変長符号化回路21,27で作成される可変長符号により構成されているので、誤りによって復号化の際に可変長符号の同期外れが起こることがある。ところが、従来の動画像符号化装置では図6に示すように各階層の符号列31,32内に、誤りが生じると復号化画像に大きな劣化を生じるモード情報、動きベクトル情報といった重要な予測に関わる情報と、誤りが生じてもそれほど大きな劣化を生じない予測残差信号のDCT係数情報等が混在して多重化されている。このため、重要でない情報が乗っている符号語の復号化中に同期外れが生じると、重要な情報が乗っている符号語にも誤りを波及させてしまうことがあり、復号画像に大きな劣化を生じさせる。このような場合には、同期符号が現れるまでは同期回復を図ることができないため、それまでの復号画像の情報は全て誤ったものとなり、画面内の広範囲にわたって大きな劣化が生じてしまうという問題がある。   In addition, since each code word of the code strings 31 and 32 to be transmitted / stored is composed of a variable length code created by the variable length coding circuits 21 and 27, the variable length code is decoded at the time of decoding due to an error. Out of sync may occur. However, in the conventional moving picture coding apparatus, as shown in FIG. 6, in the code strings 31 and 32 of each layer, if an error occurs, the decoded picture is greatly degraded, such as mode information and motion vector information. Information related to the information and DCT coefficient information of a prediction residual signal that does not cause a great deterioration even if an error occurs are mixed and multiplexed. For this reason, if a loss of synchronization occurs during decoding of a codeword on which unimportant information is placed, an error may be propagated to the codeword on which important information is placed. Cause it to occur. In such a case, since it is impossible to recover the synchronization until the synchronization code appears, all the information of the decoded image up to that time is incorrect, and a large deterioration occurs over a wide range in the screen. is there.

上述したように従来の動画像符号化装置においては、誤りが生じると復号画像の品質を大きく低下させてしまう動きベクトル情報のような予測に関わる情報が各予測領域毎に一つずつしか符号化されていないため、誤り耐性が低い。   As described above, in the conventional moving image encoding apparatus, only one piece of information related to prediction such as motion vector information that greatly deteriorates the quality of a decoded image when an error occurs is encoded for each prediction region. Since it is not, error tolerance is low.

誤り耐性を高めるためには、全ての予測に係る情報を誤り確率の低い伝送路/蓄積媒体によって伝送/蓄積しなければならないが、各階層の符号列の符号量が全階層の符号列の総符号量中で取り得る割合に制限があるため、結果的に誤り確率の異なる複数の伝送路/蓄積媒体を用いて符号列の伝送/蓄積を行うことで誤りによる画質劣化を緩和するという階層的符号化の特徴を生かせないという問題が起こる。   In order to increase error resilience, information related to all predictions must be transmitted / stored via a transmission path / storage medium with a low error probability, but the code amount of each layer of code sequences is the sum of the code sequences of all layers. Since there is a limit on the ratio that can be taken in the code amount, as a result, the transmission / accumulation of the code string using a plurality of transmission paths / accumulation media having different error probabilities reduces the image quality degradation due to errors. The problem of not being able to take advantage of the characteristics of encoding occurs.

また、従来の動画像符号化装置では予測に関わる情報のような比較的重要な情報と、それ以外の比較的重要でない情報が混在して符号列中に含まれているために、重要でない情報で生じた誤りが重要な情報に波及して大きな画質劣化を生じるという問題があった。   In addition, in the conventional video encoding apparatus, relatively important information such as information related to prediction and other relatively unimportant information are included in the code string in a mixed manner. There is a problem that the error generated in the process spreads to important information and causes a large deterioration in image quality.

従って、本発明は誤り耐性の高い動画像復号化装置及び動画像復号化方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a moving picture decoding apparatus and a moving picture decoding method with high error tolerance.

上記の課題を解決するため、本発明は入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べた符号列を入力する手段と、入力された前記符号列を復号化して元の動画像信号を再生する手段とを具備したことを特徴とする。   In order to solve the above problems, the present invention provides a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intraframe prediction mode for each of a plurality of blocks obtained by dividing an input image constituting an input moving image signal. And the prediction residual signal that is an error signal between the prediction signal generated when the prediction is performed in the motion compensation prediction mode and the input moving image signal, or the prediction is performed in the intra-frame prediction mode. A code sequence including DCT coefficient information quantized with respect to the input video signal, wherein information indicating a prediction mode of the frame is arranged in a picture header of each frame of the input image, and the motion compensation prediction mode is When selected, information indicating the prediction mode related to each block and motion vector information are encoded for a plurality of blocks, and the plurality of blocks are encoded. Means for inputting a code string in which information indicating a prediction mode combined for a plurality of blocks is arranged behind the picture header, with the information indicating the prediction mode combined for each block being the most important information. Means for decoding the code string and reproducing the original moving image signal.

また、本発明は入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べて多重化した符号列を入力する手段と、入力された符号列を復号化して元の動画像信号を再生する手段とを具備したことを特徴とする。   Further, the present invention performs prediction by a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each of a plurality of blocks obtained by dividing an input image forming an input moving image signal, A prediction residual signal which is an error signal between a prediction signal generated when prediction is performed in the motion compensation prediction mode and the input moving image signal, or the input moving image when prediction is performed in the intra-frame prediction mode. A code string including DCT coefficient information quantized for a signal, information indicating a prediction mode of the frame is arranged in a picture header of each frame of the input image, and the motion compensation prediction mode is selected Predicting the prediction mode related to each block and motion vector information by encoding them for multiple blocks. The information indicating the mode is the most important information, and means for inputting a code string in which information indicating the prediction mode combined for the plurality of blocks is arranged behind the picture header and multiplexed, and the input code string is And a means for decoding and reproducing the original moving image signal.

本発明によれば誤り耐性の高い、つまり符号化列の伝送/蓄積の際に生じる誤りによる復号画像の画質劣化が小さい動画像復号化装置及び動画像復号化方法を提供することができる。   According to the present invention, it is possible to provide a moving picture decoding apparatus and a moving picture decoding method that have high error tolerance, that is, little deterioration in the image quality of a decoded picture due to errors that occur during transmission / accumulation of a coded sequence.

以下、図面を参照して本発明の実施形態を説明する。図1は、本発明による動画像符号化装置の一実施形態のブロック図であり、動き補償適応予測とDCTを組み合わせた動画像符号化装置に本発明を適用した例を示している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an embodiment of a moving picture coding apparatus according to the present invention, showing an example in which the present invention is applied to a moving picture coding apparatus that combines motion compensated adaptive prediction and DCT.

図1において、入力動画像信号101はまず予測回路102での予測に供される。すなわち、予測回路102においては入力動画像信号101とフレームメモリ103に蓄えられている既に符号化/局部復号化によって得られた参照画像信号との間の動きベクトルが検出され、この動きベクトルに基づいて動き補償予測信号が作成される。予測回路102は、動き補償予測モード(フレーム間予測モード)と入力動画像信号101をそのまま符号化するフレーム内予測モードを持っており、符号化に最適な予測モードを選択して、それぞれのモードに対応する予測信号104を出力する。すなわち、予測回路102は動き補償予測モードでは動き補償予測信号、フレーム内予測モードでは“0”を予測信号104としてそれぞれ出力する。   In FIG. 1, an input moving image signal 101 is first subjected to prediction by a prediction circuit 102. That is, the prediction circuit 102 detects a motion vector between the input moving image signal 101 and the reference image signal already obtained by encoding / local decoding stored in the frame memory 103, and based on this motion vector. Thus, a motion compensated prediction signal is generated. The prediction circuit 102 has a motion compensation prediction mode (interframe prediction mode) and an intraframe prediction mode in which the input moving image signal 101 is encoded as it is, and selects a prediction mode optimal for encoding and selects each mode. The prediction signal 104 corresponding to is output. That is, the prediction circuit 102 outputs a motion compensation prediction signal in the motion compensation prediction mode and “0” as the prediction signal 104 in the intraframe prediction mode.

減算器105では、入力動画像信号101から予測信号104が減算されることにより予測残差信号106が生成される。予測残差信号106は、離散コサイン変換(DCT)回路107において一定の大きさのブロック単位で離散コサイン変換され、DCT係数情報108となる。DCT係数情報108は、量子化回路109で量子化される。なお、フレーム内予測モードでは、予測信号104は“0”であるから、減算器105からは予測残差信号106として入力動画像信号101がそのまま出力される。   In the subtractor 105, the prediction residual signal 106 is generated by subtracting the prediction signal 104 from the input moving image signal 101. The prediction residual signal 106 is subjected to discrete cosine transform in units of blocks having a certain size in a discrete cosine transform (DCT) circuit 107, and becomes DCT coefficient information 108. The DCT coefficient information 108 is quantized by the quantization circuit 109. In the intraframe prediction mode, since the prediction signal 104 is “0”, the subtractor 105 outputs the input moving image signal 101 as it is as the prediction residual signal 106.

量子化回路109からの量子化されたDCT係数情報110は二分岐され、一方では第1の可変長符号化回路111により可変長符号化され、他方では逆量子化回路112により逆量子化される。逆量子化回路112の出力は逆離散コサイン変換(逆DCT)回路113により逆離散コサイン変換される。すなわち、逆量子化回路112および逆DCT回路113では量子化回路109およびDCT回路107と逆の処理が行われ、逆DCT回路113の出力に予測残差信号106に近似した信号が得られる。逆DCT回路113の出力は加算回路114において予測回路102からの予測信号104と加算され、局部復号信号115が生成される。この局部復号信号115は、フレームメモリ103に参照画像信号として記憶される。   The quantized DCT coefficient information 110 from the quantization circuit 109 is bifurcated, and on the one hand, variable length coding is performed by the first variable length coding circuit 111, and on the other hand, dequantization is performed by the inverse quantization circuit 112. . The output of the inverse quantization circuit 112 is subjected to inverse discrete cosine transform by an inverse discrete cosine transform (inverse DCT) circuit 113. That is, the inverse quantization circuit 112 and the inverse DCT circuit 113 perform processing reverse to that of the quantization circuit 109 and the DCT circuit 107, and a signal approximate to the prediction residual signal 106 is obtained at the output of the inverse DCT circuit 113. The output of the inverse DCT circuit 113 is added to the prediction signal 104 from the prediction circuit 102 in the addition circuit 114, and a local decoded signal 115 is generated. This local decoded signal 115 is stored in the frame memory 103 as a reference image signal.

予測回路102からは後述するように、予測に関わる情報として大領域予測モード/動きベクトル情報116および小領域予測モード/動きベクトル情報117が出力され、可変長符号化回路118および119によりそれぞれ可変長符号化される。可変長符号化回路111,118および119から出力される符号列は、マルチプレクサ120により多重化されるとともに、上位階層符号列121および下位階層符号列122に分けられ、図示しない伝送路/蓄積媒体へ出力される。   As will be described later, the prediction circuit 102 outputs large area prediction mode / motion vector information 116 and small area prediction mode / motion vector information 117 as information related to prediction, and variable length encoding circuits 118 and 119 respectively have variable lengths. Encoded. The code sequences output from the variable-length encoding circuits 111, 118, and 119 are multiplexed by the multiplexer 120 and are divided into an upper layer code sequence 121 and a lower layer code sequence 122 to a transmission path / storage medium (not shown). Is output.

ここで、符号列を誤り確率が異なる複数の伝送路/蓄積媒体を介して伝送/蓄積を行うことが可能な条件下では、上位階層符号列121についてはより誤り確率の低い伝送路/蓄積媒体を介して伝送/蓄積を行い、下位階層符号列122についてはこれより誤り確率の高い伝送路/蓄積媒体を介して伝送/蓄積を行うことにより、上位階層符号列121にはできるだけ誤りが生じにくいようにする。また、符号化列121,122に対して誤り訂正符号化を行う場合には、上位階層符号化列121は下位階層符号化列122に比べて誤り率が低くなるように、より強力な誤り訂正符号化を行う。   Here, under the condition that the code string can be transmitted / stored via a plurality of transmission paths / storage media having different error probabilities, the transmission path / storage medium having a lower error probability is provided for the upper layer code string 121. The lower layer code string 122 is transmitted / stored via a transmission path / storage medium having a higher error probability, so that the upper layer code string 121 is less likely to cause errors. Like that. In addition, when error correction coding is performed on the coded sequences 121 and 122, stronger error correction is performed so that the higher layer coded sequence 121 has a lower error rate than the lower layer coded sequence 122. Encoding is performed.

次に、図2を参照して予測回路102の構成および動作を詳細に説明する。予測回路102においては、入力動画像信号101を上位段階から下位段階にわたって順次より多くの領域に段階的に分割し、各段階で分割された領域毎に入力動画像信号に対する動き補償予測を行って予測信号を生成する。図2の例では、予測回路102での領域分割および予測を2段階としている。すなわち、予測回路102は第1段階では入力動画像信号101を図2中実線の領域(大領域という)で示すように大きく分割し、これらの大領域について粗い画素精度で動き補償予測を行い、次いで第2段階では必要に応じて大領域を図中破線の領域(小領域という)に示すようにさらに細かく分割し、これらの小領域について細かな画素精度で動き補償予測を行う。   Next, the configuration and operation of the prediction circuit 102 will be described in detail with reference to FIG. In the prediction circuit 102, the input moving image signal 101 is divided into a larger number of regions sequentially from the upper level to the lower level, and motion compensation prediction is performed on the input moving image signal for each of the divided regions. Generate a prediction signal. In the example of FIG. 2, the region division and prediction in the prediction circuit 102 are performed in two stages. That is, in the first stage, the prediction circuit 102 divides the input moving image signal 101 into large areas as indicated by solid line areas (referred to as large areas) in FIG. 2, performs motion compensation prediction with coarse pixel accuracy for these large areas, Next, in the second stage, if necessary, the large area is further divided as indicated by the broken line area (referred to as a small area) in the figure, and motion compensation prediction is performed with fine pixel accuracy for these small areas.

そして、可変長符号化回路118,119により、予測回路102から出力される大領域についての予測に関する情報のみでなく、小領域についても大領域についての予測に関する情報を符号化する。このようにすることにより、もし小領域についての予測に関する情報が誤りにより失われた場合でも、復号化装置では大領域についての予測に関する情報が誤り無く復号化されれば、大まかな精度で予測を行うことができ、復号画像の画質の大きな劣化を防ぐことができる。   Then, the variable length encoding circuits 118 and 119 encode not only the information related to the prediction for the large area output from the prediction circuit 102 but also the information related to the prediction for the large area for the small area. In this way, even if the information about the prediction for the small area is lost due to an error, if the information about the prediction for the large area is decoded without error in the decoding device, the prediction can be performed with a rough accuracy. This can be performed, and the deterioration of the image quality of the decoded image can be prevented.

予測回路102から出力される予測に関わる情報は、予測モードを示す情報と動きベクトルを示す情報からなる。大領域の予測モードを示す情報と動きベクトル(図2中実線の矢印で示す)を示す情報、すなわち大領域予測モード/動きベクトル情報116は、可変長符号化回路118で可変長符号化される。この際、動きベクトル情報については、隣接する既に符号化した大領域の動きベクトル情報との差分を可変長符号化してもよいし、差分をとらずにそのまま固定長符号化しても良い。また、ある間隔の領域毎に動きベクトル情報を固定長符号化し、それ以外の領域の動きベクトル情報を可変長符号化するようにしても良い。   The information related to prediction output from the prediction circuit 102 includes information indicating a prediction mode and information indicating a motion vector. The information indicating the large region prediction mode and the information indicating the motion vector (indicated by the solid line arrow in FIG. 2), that is, the large region prediction mode / motion vector information 116 are variable length encoded by the variable length encoding circuit 118. . At this time, the motion vector information may be variable-length encoded with respect to the difference from the adjacent already-encoded large-area motion vector information, or may be fixed-length encoded as it is without taking the difference. Alternatively, the motion vector information may be fixed-length encoded for each region at a certain interval, and the motion vector information of other regions may be variable-length encoded.

一方、小領域の予測モードを示す情報と動きベクトル(図2中破線の矢印で示す)を示す情報、すなわち小領域予測モード/動きベクトル情報117は、可変長符号化回路119で可変長符号化される。この場合、各小領域毎に動きベクトル情報と大領域動きベクトル情報との差分をとって可変長符号化しても良いし、各大領域毎にまとめてブロック符号化、ベクトル量子化等を用いて符号化を行っても良い。差分値を可変長符号化する場合、大領域動きベクトルが小領域動きベクトルを基に可逆の関数(例えば平均値)で表せるようにすれば、小領域動きベクトルの中のある一つについては大領域動きベクトルと他の小領域動きベクトルを基に計算により求めることが可能であるため、特に符号化の必要はない。   On the other hand, the information indicating the small region prediction mode and the information indicating the motion vector (indicated by the broken arrow in FIG. 2), that is, the small region prediction mode / motion vector information 117 are variable length encoded by the variable length encoding circuit 119. Is done. In this case, the difference between the motion vector information and the large region motion vector information may be taken for each small region and variable length coding may be performed, or block coding, vector quantization, etc. may be used for each large region collectively. Encoding may be performed. When variable length coding is performed on the difference value, if a large area motion vector can be expressed by a reversible function (for example, an average value) based on the small area motion vector, one of the small area motion vectors is large. Since it can be obtained by calculation based on the region motion vector and other small region motion vectors, there is no need for encoding.

図3は、上位階層符号列121および下位階層符号列122の構成例を示したものである。図3(a)に示す上位階層符号列121には、1符号化フレーム毎またはある領域単位毎に、先頭に一意に復号化可能な同期符号を入れる。PSCがフレーム単位の同期符号を示している。この同期符号PSCの後ろには、当該フレームの符号化情報を示すピクチャヘッダをつける。ピクチャヘッダは、当該フレームの時間的位置を示すフレーム番号、当該フレームの予測モードを示す情報(モード情報)、当該フレームの上位階層および下位階層それぞれの符号列の長さを示す情報(符号量)からなる。   FIG. 3 shows a configuration example of the upper layer code sequence 121 and the lower layer code sequence 122. In the upper layer code string 121 shown in FIG. 3A, a synchronous code that can be uniquely decoded is placed at the head for each encoded frame or for each region unit. PSC indicates a frame-by-frame synchronization code. A picture header indicating the encoding information of the frame is attached after the synchronization code PSC. The picture header includes a frame number indicating the temporal position of the frame, information indicating the prediction mode of the frame (mode information), and information (code amount) indicating the lengths of the code sequences of the upper and lower layers of the frame. Consists of.

さらに、図3(a)に示すようにピクチャヘッダに大領域および小領域の大きさと動き補償の画素精度を示す情報(大領域MC精度、小領域MC精度)を追加すれば、動き補償の精度をフレーム単位に可変化して動きベクトル情報の符号量を制御することが可能になる。これにより、伝送路/蓄積媒体等の制約で上位階層符号列121と下位階層符号列122の符号量の割合が規定されている場合にも、それに対応した符号量振り分けが可能である。また、各フレームの動きベクトル情報の総符号量の制御もできるため、動き補償精度と動きベクトル情報の符号量の関係からみて最適な動き補償精度を選択することが可能であり、それによって符号化効率の向上を図ることができる。   Furthermore, as shown in FIG. 3A, if information (large region MC accuracy, small region MC accuracy) indicating the sizes of large regions and small regions and pixel accuracy of motion compensation is added to the picture header, the accuracy of motion compensation Can be varied in units of frames to control the amount of code of motion vector information. Thereby, even when the ratio of the code amount of the upper layer code sequence 121 and the lower layer code sequence 122 is defined by the restrictions of the transmission path / storage medium, the code amount corresponding to the code amount can be allocated. In addition, since it is possible to control the total code amount of the motion vector information of each frame, it is possible to select the optimal motion compensation accuracy in view of the relationship between the motion compensation accuracy and the code amount of the motion vector information. Efficiency can be improved.

図3(a)に示す上位階層符号列121のピクチャヘッダの後ろには、各領域の符号化情報が重要度の高い情報から順番に並べられている点が特徴的である。ここで重要度の高い情報とは、誤りが生じると復号画像に大きな劣化が生じてしまう情報のことである。すなわち、上位階層符号列121のピクチャヘッダの後ろには、まず最も重要度の高い予測モードを示す情報(モード情報)、つまり予測回路102から出力される大領域予測モード/動きベクトル情報116および小領域予測モード情報117を可変長符号化回路118で符号化して得られた符号列のうちの予測モード情報の符号列を入れる。   Characteristically, the encoded information of each region is arranged in order from the most important information behind the picture header of the upper layer code sequence 121 shown in FIG. Here, information having a high degree of importance is information that causes a large deterioration in the decoded image if an error occurs. That is, after the picture header of the upper layer code sequence 121, first, information (mode information) indicating a prediction mode having the highest importance, that is, the large region prediction mode / motion vector information 116 output from the prediction circuit 102 and the small information. The code sequence of the prediction mode information among the code sequences obtained by encoding the region prediction mode information 117 by the variable length encoding circuit 118 is inserted.

次に、フレーム内予測モードが選択された領域のDCT係数情報のDC成分 (イントラDC)、つまり予測残差信号106をDCT回路107および量子化回路109を通して得たDCT係数情報を可変長符号化回路111で符号化して得られた符号列のうちのDC成分の符号列を入れる。さらに、動き補償予測モードが選択された領域では、大まかな動き情報を示す大領域動きベクトル情報(大領域MV)、つまり予測回路102から出力される大領域予測モード/動きベクトル情報116を可変長符号化回路118で符号化して得られた符号列のうちの動きベクトル情報の符号列を入れる。   Next, the DC component (intra DC) of the DCT coefficient information in the region where the intra-frame prediction mode is selected, that is, the DCT coefficient information obtained by passing the prediction residual signal 106 through the DCT circuit 107 and the quantization circuit 109 is variable-length encoded. The DC component code string of the code string obtained by encoding by the circuit 111 is inserted. Further, in the region in which the motion compensation prediction mode is selected, the large region motion vector information (large region MV) indicating rough motion information, that is, the large region prediction mode / motion vector information 116 output from the prediction circuit 102 is variable length. A code string of motion vector information in the code string obtained by encoding by the encoding circuit 118 is input.

一方、図3(b)に示す下位階層符号列122には、小領域の動きベクトル情報(小領域MV)、つまり予測回路102から出力される小領域予測モード/動きベクトル情報117を可変長符号化回路119で符号化して得られた符号列のうちの動きベクトル情報の符号列を入れ、さらにその後ろにDCT係数情報の高周波成分、つまり予測残差信号106をDCT回路107および量子化回路109を通して得たDCT係数情報を可変長符号化回路111で符号化して得られた符号列のうちの高周波成分の符号列を入れる。   On the other hand, in the lower layer code sequence 122 shown in FIG. 3B, the small area motion vector information (small area MV), that is, the small area prediction mode / motion vector information 117 output from the prediction circuit 102 is variable length code. The code sequence of the motion vector information in the code sequence obtained by the encoding circuit 119 is inserted, and the high-frequency component of the DCT coefficient information, that is, the prediction residual signal 106 is further added to the DCT circuit 107 and the quantization circuit 109. The code sequence of the high-frequency component in the code sequence obtained by encoding the DCT coefficient information obtained through the variable length encoding circuit 111 is inserted.

このように動き補償予測を階層化して行い、予測モードを示すモード情報や大まかな予測情報を示す大領域動きベクトル情報を上位階層符号列121に、また精細な動きベクトル情報を下位階層符号列122にそれぞれ割り当てている。従って、伝送路/蓄積媒体での誤りによって下位階層符号列122に含まれる小領域動きベクトル情報が失われた場合でも、動画像復号化装置では上位階層符号列121に含まれる大領域動きベクトル情報を用いて大まかな精度で動き補償予測を行うことができるため、復号画像に大幅な画質劣化が生じる確率を低くすることができる。   In this way, motion compensation prediction is performed in a hierarchical manner, and mode information indicating a prediction mode and large region motion vector information indicating rough prediction information are stored in the upper layer code sequence 121, and fine motion vector information is stored in the lower layer code sequence 122. Assigned to each. Therefore, even when the small region motion vector information included in the lower layer code sequence 122 is lost due to an error in the transmission path / storage medium, the moving image decoding apparatus uses the large region motion vector information included in the upper layer code sequence 121. Therefore, it is possible to perform motion compensation prediction with rough accuracy, so that the probability of significant image quality degradation in the decoded image can be reduced.

また、本実施形態では上位および下位の各階層符号列121,122内でも符号列を重要な情報の順に並べているため、重要でない情報で生じた誤りが重要な情報にまで波及することが無く、大幅な画質劣化を防ぐことができる。   Further, in the present embodiment, since the code sequences are arranged in the order of important information in the upper and lower hierarchical code sequences 121 and 122, an error caused by unimportant information does not spread to important information, Significant image quality degradation can be prevented.

次に、本発明による動画像復号化装置の一実施形態について説明する。図4は、図1の動画像符号化装置に対応した動画像復号化装置の構成を示すブロック図である。   Next, an embodiment of the moving picture decoding apparatus according to the present invention will be described. FIG. 4 is a block diagram showing a configuration of a moving picture decoding apparatus corresponding to the moving picture encoding apparatus of FIG.

図4において、図1の動画像符号化装置から出力される上位階層符号列121および下位階層符号列122が伝送路/蓄積媒体を介して入力されてきた上位階層符号列201および下位階層符号列202は、デマルチプレクサ203により量子化DCT係数情報の可変長符号204、大領域予測モード/動きベクトル情報の可変長符号205および小領域予測モード/動きベクトル情報の可変長符号206に分離された後、可変長復号化回路207,208および209にそれぞれ入力される。   In FIG. 4, the upper layer code sequence 201 and the lower layer code sequence that are input via the transmission path / storage medium with the upper layer code sequence 121 and the lower layer code sequence 122 output from the moving picture encoding apparatus of FIG. 202 is separated by the demultiplexer 203 into a variable length code 204 of quantized DCT coefficient information, a variable length code 205 of large area prediction mode / motion vector information, and a variable length code 206 of small area prediction mode / motion vector information. Are input to variable length decoding circuits 207, 208 and 209, respectively.

可変長復号化回路207は、可変長符号204を可変長復号化することにより量子化DCT係数情報210を出力する。この量子化DCT係数情報210は、逆量子化回路213により逆量子化され、さらに逆DCT回路214で逆離散コサイン変換されることにより予測残差信号215が生成される。この予測残差信号215は、加算回路216で予測回路217からの予測信号219と加算され、再生画像信号221が生成される。再生画像信号221は、動画像復号化装置の外部へ出力されるとともに、フレームメモリ218に参照画像信号として記憶される。   The variable length decoding circuit 207 outputs quantized DCT coefficient information 210 by variable length decoding the variable length code 204. The quantized DCT coefficient information 210 is inversely quantized by an inverse quantization circuit 213 and further subjected to inverse discrete cosine transform by an inverse DCT circuit 214 to generate a prediction residual signal 215. The prediction residual signal 215 is added to the prediction signal 219 from the prediction circuit 217 by the addition circuit 216, and a reproduced image signal 221 is generated. The reproduced image signal 221 is output to the outside of the moving image decoding apparatus and is stored in the frame memory 218 as a reference image signal.

一方、可変長復号化回路208,209では可変長符号205,206から大領域予測モード/動きベクトル情報211および小領域予測モード/動きベクトル情報212が可変長復号化される。これらの情報211,212は、予測回路217へ入力される。予測回路217は、フレームメモリ218に記憶されている参照画像信号と大領域予測モード/動きベクトル情報211および小領域予測モード/動きベクトル情報212から動画像信号の予測を行い、予測信号219を生成する。   On the other hand, the variable length decoding circuits 208 and 209 perform variable length decoding of the large region prediction mode / motion vector information 211 and the small region prediction mode / motion vector information 212 from the variable length codes 205 and 206. These pieces of information 211 and 212 are input to the prediction circuit 217. The prediction circuit 217 predicts a moving image signal from the reference image signal stored in the frame memory 218, the large region prediction mode / motion vector information 211, and the small region prediction mode / motion vector information 212, and generates a prediction signal 219. To do.

誤り判定回路220は、デマルチプレクサ203および可変長復号化回路207,208,209の状態に基づいて上位階層符号列201および下位階層符号列202の誤りの有無を判定し、その判定結果を予測回路217に与える。誤り判定回路220で上位および下位階層符号列201,202のいずれにも誤りが検出されなかった場合、予測回路217はフレームメモリ218に記憶されている参照画像信号を基にして、図1における予測信号104と同一の予測信号219を出力する。   The error determination circuit 220 determines whether or not there is an error in the upper layer code sequence 201 and the lower layer code sequence 202 based on the states of the demultiplexer 203 and the variable length decoding circuits 207, 208, and 209, and the determination result is a prediction circuit. 217. When the error determination circuit 220 detects no error in any of the upper and lower layer code sequences 201 and 202, the prediction circuit 217 predicts the prediction in FIG. 1 based on the reference image signal stored in the frame memory 218. The same prediction signal 219 as the signal 104 is output.

以上の処理は、図1の動画像符号化装置に対応して画像信号を再生する処理であり、逆量子化回路213、逆DCT回路214、加算回路216、フレームメモリ218が行う処理は、それぞれ図1における逆量子化回路112、逆DCT回路113、加算回路114、フレームメモリ103の処理と基本的に同一である。また、可変長復号化回路207,208,209、マルチプレクサ203は、それぞれ図1における可変長符号化回路111,118,119、マルチプレクサ120の処理の逆の処理を行う。   The above processing is processing for reproducing an image signal corresponding to the moving image encoding apparatus in FIG. 1. The processing performed by the inverse quantization circuit 213, the inverse DCT circuit 214, the addition circuit 216, and the frame memory 218 is respectively The processing of the inverse quantization circuit 112, the inverse DCT circuit 113, the addition circuit 114, and the frame memory 103 in FIG. In addition, the variable length decoding circuits 207, 208, and 209 and the multiplexer 203 perform processing reverse to the processing of the variable length encoding circuits 111, 118, and 119 and the multiplexer 120 in FIG.

一方、誤り判定回路220で上位および下位階層符号列201,202の少なくとも一方に誤りが検出された場合は、例えば以下のように誤りが検出された情報よりも重要度の高い情報を用いて再生画像が作成される。   On the other hand, when an error is detected in at least one of the upper and lower layer code sequences 201 and 202 by the error determination circuit 220, for example, reproduction is performed using information having higher importance than information in which an error is detected as follows. An image is created.

すなわち、(1)下位階層符号列122に含まれる動き補償予測が行われたブロックのDCT係数情報に誤りが検出された場合は、そのブロックの予測残差信号を0とし、正しく復号化されたモード情報、大領域動きベクトル情報および小領域動きベクトル情報を用いて得られた動き補償予測信号を予測信号219として再生画像信号221を得る。   That is, (1) when an error is detected in the DCT coefficient information of a block subjected to motion compensation prediction included in the lower layer code sequence 122, the prediction residual signal of that block is set to 0 and decoded correctly A reproduced image signal 221 is obtained using a motion compensated prediction signal obtained using the mode information, the large area motion vector information, and the small area motion vector information as a prediction signal 219.

また、(2)小領域動きベクトル情報に誤りが生じた場合には、その小領域については大領域動きベクトル情報を用いて得られた動き補償予測信号を予測信号219として再生画像信号221を得る。   Also, (2) when an error occurs in the small area motion vector information, the reproduced image signal 221 is obtained using the motion compensated prediction signal obtained using the large area motion vector information for the small area as the prediction signal 219. .

さらに、(3)大領域動きベクトル情報に誤りが生じた場合には、その大領域については周囲の領域や既に復号化されたフレームの動きベクトル情報からその大領域の動き補償予測をできる時にはその推定値を用い、周囲の動きベクトル情報にも誤りが生じている場合には既に復号化されたフレームの画像信号をそのまま再生画像信号221として用いる。   Further, (3) when an error occurs in the large area motion vector information, when the large area motion compensation prediction can be performed for the large area from the surrounding area or the motion vector information of the already decoded frame, If the estimated value is used and there is an error in the surrounding motion vector information, the image signal of the already decoded frame is used as it is as the reproduced image signal 221.

(4)フレーム内予測モードが選択されたブロックのDCT係数情報のAC成分に誤りが生じた場合には、DCT係数情報のDC成分と周囲ブロックの正しく復号化された画像信号からそのブロックの画像信号を予測して再生画像信号221とするか、既に復号化されたフレームの画像信号から周囲ブロックの正しく復号化された画像信号の予測信号を用いてそのブロックの画像信号を予測して再生画像信号221とする。   (4) When an error occurs in the AC component of the DCT coefficient information of the block for which the intra-frame prediction mode is selected, the image of that block is determined from the DC component of the DCT coefficient information and the image signal correctly decoded from the surrounding blocks. The signal is predicted to be the reproduced image signal 221 or the image signal of the block is predicted from the image signal of the already decoded frame using the prediction signal of the image signal correctly decoded in the surrounding blocks, and the reproduced image Signal 221 is assumed.

ところで、各種情報の符号化に可変長符号を用いている場合、誤りにより同期外れが起こり、同期符号検出等により同期回復が図られるまで後続の符号に誤りが波及することがある。そのような場合は後続の符号は復号化には用いない。例えば、下位階層符号列122中の小領域動きベクトル情報に誤りが生じた場合、その小領域以降の動きベクトル情報とそれに続くDCT係数情報に誤りが波及することがあるが、そのような場合には誤りの波及している情報は復号化には用いない。このような同期外れが生じた場合でも、符号列には重要度の高い順に符号語が並べられているため、重要度の低い情報で生じた誤りが重要度の高い情報にまで波及することがなく、再生画像の大幅な劣化を防ぐことができる。   By the way, when a variable length code is used for encoding various types of information, loss of synchronization may occur due to an error, and the error may spread to subsequent codes until synchronization recovery is achieved by synchronization code detection or the like. In such a case, subsequent codes are not used for decoding. For example, if an error occurs in the small area motion vector information in the lower layer code sequence 122, the error may spread to the motion vector information after the small area and the DCT coefficient information that follows. Does not use the information spreading the error for decoding. Even when such out-of-synchronization occurs, codewords are arranged in the code sequence in descending order of importance, so that an error caused by information of low importance may spread to information of high importance. Therefore, it is possible to prevent the reproduction image from being greatly deteriorated.

誤り判定部220で符号列201,202に誤りが発生していることを検出する具体的な方法としては、以下の方法を挙げることができる。   As a specific method for detecting that an error has occurred in the code strings 201 and 202 by the error determination unit 220, the following method can be cited.

第1は、パリティ符号、CRC符号等の誤り検出符号を用いる方法である。この場合、図1に示した動画像符号化装置のマルチプレクサ120において可変長符号に対して誤り検出符号化を行い、図4に示す動画像復号化装置のデマルチプレクサ203において誤り検出処理を行い、その検出結果を誤り判定部220に与える。   The first is a method using an error detection code such as a parity code or a CRC code. In this case, error detection coding is performed on the variable-length code in the multiplexer 120 of the video encoding device shown in FIG. 1, and error detection processing is performed in the demultiplexer 203 of the video decoding device shown in FIG. The detection result is given to the error determination unit 220.

第2は、可変長復号化回路207,208,209において、入力の符号語と出力値との対応関係を表わした符号語テーブル中に存在しない符号語が検出された場合に、それを誤りと判定する方法である。特に、可変長符号を用いている場合には、誤りが検出された部分だけでなくその前後の符号列中にも誤りが波及していることがあるので、当該符号語全てに対して誤り検出処理を行う。   Second, if a variable-length decoding circuit 207, 208, or 209 detects a codeword that does not exist in the codeword table that represents the correspondence between the input codeword and the output value, this is regarded as an error. It is a method of determination. In particular, when variable-length codes are used, errors may be spread not only in the part where the error is detected but also in the code string before and after that, so error detection is performed for all the codewords. Process.

第3は、復号化された符号語を基に再生された動きベクトル情報、予測信号、DCT係数情報、予測残差信号、再生画像信号等が動画像の符号化において生じ得ない信号であるか否かを判定することにより誤り判定を行う方法である。この方法を用いることは本発明において特徴的であるため、より詳細に説明する。   Third, whether motion vector information, prediction signal, DCT coefficient information, prediction residual signal, reproduction image signal, and the like reproduced based on the decoded codeword cannot be generated in moving picture encoding. This is a method of performing error determination by determining whether or not. Since this method is characteristic in the present invention, it will be described in more detail.

例えば、動きベクトル情報に示される動きベクトルが予め規定された探索範囲を超えていたり、画面外へはみ出している場合には誤りと判定する。   For example, if the motion vector indicated by the motion vector information exceeds the search range defined in advance or protrudes outside the screen, it is determined as an error.

また、逆量子化回路213で逆量子化されたDCT係数情報を判定することにより、誤りを検出することも可能である。入力画像信号101の画素値の取り得る範囲を0〜D−1、DCTブロックサイズをN×Nとすると、DCT係数は以下の範囲内の値をとる。   It is also possible to detect an error by determining the DCT coefficient information inversely quantized by the inverse quantization circuit 213. Assuming that the pixel value range of the input image signal 101 can be 0 to D-1 and the DCT block size is N × N, the DCT coefficient takes a value within the following range.

<フレーム内予測モード> DC成分:0〜N×D AC成分:−(N/2×D)〜(N/2×D) <フレーム間予測モード> −(N/2×D)〜(N/2×D) そこで、復号化されたDCT係数の値がこの範囲外の値を取った場合には誤りと判定する。この場合、誤りが検出されたブロックについてはその全てあるいは一部のDCT係数を0とするか、復号値を周囲のブロックの復号値から推定すれば良い。   <Intraframe prediction mode> DC component: 0 to N × D AC component: − (N / 2 × D) to (N / 2 × D) <Interframe prediction mode> − (N / 2 × D) to (N Therefore, when the value of the decoded DCT coefficient takes a value outside this range, it is determined as an error. In this case, all or a part of DCT coefficients of a block in which an error is detected may be set to 0, or a decoded value may be estimated from the decoded values of surrounding blocks.

さらに、再生画像信号221の画素値で誤りを判定することも可能である。入力画像信号101の画素値の取り得る範囲を0〜D−1、DCTブロックサイズをN×N、量子化幅をQ(線形量子化の場合)とすると、再生画像信号221の画素値の取り得る範囲は −N×Q〜D+N×Q となる。そこで、復号化された再生画像信号221の画素値がこの範囲を超えた場合には誤りと判定する。その場合、例えばフレーム間予測モード(動き補償予測モード)では予測残差信号215を“0”とし、フレーム内予測モードでは逆DCT回路214への入力のDCT係数のうち一部を“0”として逆DCTを行って再生画像信号221を得るようにするか、または再生画像信号221の周囲のブロックの画素値から推定を行えば良い。   Further, it is possible to determine an error based on the pixel value of the reproduced image signal 221. Assuming that the pixel value range of the input image signal 101 is 0 to D-1, the DCT block size is N × N, and the quantization width is Q (in the case of linear quantization), the pixel value of the reproduced image signal 221 is captured. The range obtained is −N × Q to D + N × Q. Therefore, when the pixel value of the decoded reproduced image signal 221 exceeds this range, it is determined as an error. In this case, for example, in the inter-frame prediction mode (motion compensation prediction mode), the prediction residual signal 215 is set to “0”, and in the intra-frame prediction mode, a part of the DCT coefficients input to the inverse DCT circuit 214 is set to “0”. Inverse DCT may be performed to obtain the reproduced image signal 221, or estimation may be performed from pixel values of blocks around the reproduced image signal 221.

以上のように、本発明では動画像復号化装置における誤り判定部220での誤り判定に、再生された情報や信号が伝送路/蓄積媒体において生じ得ない情報や信号であるか否かの判定も加えることによって、より正確な誤り判定を行うことができるようになる。このため、誤りが生じた情報や信号を誤り処理をせずにそのまま動画像信号の再生に用いることによって生じる再生画像の品質劣化を抑えることができる。   As described above, according to the present invention, it is determined whether or not the reproduced information or signal is information or signal that cannot be generated in the transmission path / storage medium in the error determination in the error determination unit 220 in the video decoding device. In addition, more accurate error determination can be performed. For this reason, it is possible to suppress quality degradation of a reproduced image that occurs when information or a signal in which an error has occurred is directly used for reproducing a moving image signal without error processing.

本発明は、種々変形して実施することができる。例えば、上記実施形態では動画像符号化装置から出力される符号列を2階層に分ける例を示したが、3階層以上に分けて符号化を行っても良い。例えば、フレーム同期符号(PSC)、ピクチャヘッダ、モード情報を最上位の第1階層とし、フレーム内予測モードでのDCT係数情報のDC成分(イントラDC)と大領域動きベクトル情報を第2階層、小領域動きベクトル情報を第3階層、第1階層に割り当てたDCT係数情報以外のDCT係数情報を第4階層にそれぞれ割り当ててもよい。また、DCT係数を低域成分と高域成分というようにさらにいくつかの階層に分けて符号化を行っても良い。   The present invention can be implemented with various modifications. For example, in the above-described embodiment, an example in which the code string output from the video encoding device is divided into two layers has been described, but encoding may be performed by dividing into three or more layers. For example, the frame synchronization code (PSC), the picture header, and the mode information are set to the highest first layer, and the DC component (intra DC) of the DCT coefficient information and the large area motion vector information in the intra-frame prediction mode are set to the second layer, DCT coefficient information other than the DCT coefficient information assigned to the third layer and the first layer may be assigned to the fourth layer. The DCT coefficient may be further divided into several layers such as a low-frequency component and a high-frequency component, and encoding may be performed.

また、大領域動きベクトル情報の符号化において、前記のように固定長符号化を行う動きベクトル情報と、この固定長符号化を行う動きベクトル情報との差分を可変長符号化する動きベクトル情報の2通りに分けて符号化する場合には、同期外れによって後ろの符号列に誤りが波及することがない固定長符号化された動きベクトル情報をフレームないしはある領域単位にまとめて先に入れ、その後ろに可変長符号化された動きベクトル情報を入れるようにすることが有効である。このようにすると、可変長符号化部分で誤りが発生して同期外れが起こっても、可変長符号化された動きベクトル情報には誤りが波及しないため、復号化の際に固定長符号化された動きベクトル情報を基に誤りが生じた動きベクトルを推定して大まかな精度で予測信号を作成することが可能であるため、誤りによる再生画像の画質劣化を小さくすることができる。   Also, in the coding of large area motion vector information, the motion vector information for variable length coding the difference between the motion vector information to be fixed length coding and the motion vector information to be fixed length coding as described above. In the case of encoding in two ways, fixed-length encoded motion vector information that does not cause an error to propagate to the subsequent code string due to loss of synchronization is put together into a frame or a certain area unit first, It is effective to insert variable length encoded motion vector information behind. In this way, even if an error occurs in the variable length coding part and loss of synchronization occurs, the error is not propagated to the variable length coded motion vector information. Since it is possible to estimate a motion vector in which an error has occurred based on the motion vector information and create a prediction signal with rough accuracy, it is possible to reduce degradation in the quality of a reproduced image due to the error.

なお、図4の動画像復号化装置において再生された情報が動画像符号化において生じ得ない情報であるか否かを判定する方法は、階層符号化された符号列に限らず、一般の動画像符号化装置により得られた符号列から元の画像信号を復号化する動画像復号化装置にも適用することが可能である。   Note that a method for determining whether or not the information reproduced in the moving picture decoding apparatus in FIG. 4 is information that cannot be generated in moving picture coding is not limited to a hierarchically encoded code string, and is a general moving picture. The present invention can also be applied to a moving image decoding apparatus that decodes an original image signal from a code string obtained by an image encoding apparatus.

本発明による動画像符号化装置の一実施形態を示すブロック図The block diagram which shows one Embodiment of the moving image encoder by this invention 図1の動画像符号化装置における動き補償領域とそれに対応する動きベクトルを示す図The figure which shows the motion compensation area | region and motion vector corresponding to it in the moving image encoder of FIG. 図1の動画像符号化装置から出力される上位階層および下位階層符号列の例を示す図The figure which shows the example of the high-order hierarchy and the low-order hierarchy code sequence output from the moving image encoder of FIG. 図1の動画像符号化装置に対応する動画像復号化装置の一実施形態を示すブロック図The block diagram which shows one Embodiment of the moving image decoding apparatus corresponding to the moving image encoding apparatus of FIG. 従来の動画像符号化装置の例を示すブロック図Block diagram showing an example of a conventional video encoding device 図5の動画像符号化装置から出力される符号列の例を示す図The figure which shows the example of the code sequence output from the moving image encoder of FIG.

符号の説明Explanation of symbols

101…入力画像信号
102…予測回路
103…フレームメモリ
104…予測信号
105…減算器
106…予測残差信号
107…離散コサイン変換回路
108…DCT係数情報
109…量子化回路
110…量子化DCT係数情報
111…可変長符号化回路
112…逆量子化回路
113…逆離散コサイン変換回路
114…加算器
115…局部復号信号
116…大領域予測モード/動きベクトル情報
117…小領域予測モード/動きベクトル情報
118,119…可変長符号化回路
120…マルチプレクサ
121…上位階層符号列
122…下位階層符号列
201…上位階層符号列
202…下位階層符号列
203…デマルチプレクサ
204〜206…可変長符号
207〜209…可変長符号化回路
210…量子化DCT係数
211…大領域予測モード/動きベクトル情報
212…小領域予測モード/動きベクトル情報
213…逆量子化回路
214…逆離散コサイン変換回路
215…予測残差信号
216…加算器
217…予測回路
218…フレームメモリ
219…予測信号
220…誤り判定回路
221…再生画像信号
DESCRIPTION OF SYMBOLS 101 ... Input image signal 102 ... Prediction circuit 103 ... Frame memory 104 ... Prediction signal 105 ... Subtractor 106 ... Prediction residual signal 107 ... Discrete cosine transform circuit 108 ... DCT coefficient information 109 ... Quantization circuit 110 ... Quantization DCT coefficient information DESCRIPTION OF SYMBOLS 111 ... Variable length encoding circuit 112 ... Inverse quantization circuit 113 ... Inverse discrete cosine transform circuit 114 ... Adder 115 ... Local decoded signal 116 ... Large area prediction mode / motion vector information 117 ... Small area prediction mode / motion vector information 118 , 119 ... variable length coding circuit 120 ... multiplexer 121 ... upper layer code string 122 ... lower layer code string 201 ... upper layer code string 202 ... lower layer code string 203 ... demultiplexer 204 to 206 ... variable length code 207 to 209 ... Variable length coding circuit 210... Quantized DCT coefficient 21 ... large area prediction mode / motion vector information 212 ... small area prediction mode / motion vector information 213 ... inverse quantization circuit 214 ... inverse discrete cosine transform circuit 215 ... prediction residual signal 216 ... adder 217 ... prediction circuit 218 ... frame memory 219 ... Prediction signal 220 ... Error determination circuit 221 ... Reproduced image signal

Claims (4)

入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べた符号列を入力する手段と、
入力された前記符号列を復号化して元の動画像信号を再生する手段とを具備したことを特徴とする動画像復号化装置。
Prediction is performed in a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intraframe prediction mode for each of a plurality of blocks obtained by dividing an input image forming an input moving image signal. The prediction residual signal, which is an error signal between the prediction signal generated when prediction is performed and the input video signal, or the input video signal is quantized when prediction is performed in the intra-frame prediction mode. A code string including DCT coefficient information,
Information indicating the prediction mode of the frame is arranged in the picture header of each frame of the input image, and when the motion compensation prediction mode is selected, a plurality of pieces of information indicating the prediction mode and motion vector information related to each block are provided. A code string in which the information indicating the prediction mode combined for the plurality of blocks is information having the highest importance, and the information indicating the prediction mode combined for the plurality of blocks is arranged behind the picture header. Means to input;
A moving picture decoding apparatus comprising: means for decoding the inputted code string and reproducing the original moving picture signal.
入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べて多重化した符号列を入力する手段と、
入力された符号列を復号化して元の動画像信号を再生する手段とを具備したことを特徴とする動画像復号化装置。
Prediction is performed in a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intraframe prediction mode for each of a plurality of blocks obtained by dividing an input image forming an input moving image signal. The prediction residual signal, which is an error signal between the prediction signal generated when prediction is performed and the input video signal, or the input video signal is quantized when prediction is performed in the intra-frame prediction mode. A code string including DCT coefficient information,
Information indicating the prediction mode of the frame is arranged in the picture header of each frame of the input image, and when the motion compensation prediction mode is selected, a plurality of pieces of information indicating the prediction mode and motion vector information related to each block are provided. A code obtained by coding blocks and encoding the information indicating the prediction mode combined for the plurality of blocks as the most important information and multiplexing the information indicating the prediction mode combined for the blocks after the picture header. A means of entering a column;
A moving picture decoding apparatus comprising: means for decoding an input code string and reproducing an original moving picture signal.
入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べた符号列を入力し、該入力した符号列を復号化して元の動画像信号を再生することを特徴とする動画像復号化方法。
Prediction is performed in a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intraframe prediction mode for each of a plurality of blocks obtained by dividing an input image forming an input moving image signal. The prediction residual signal, which is an error signal between the prediction signal generated when prediction is performed and the input video signal, or the input video signal is quantized when prediction is performed in the intra-frame prediction mode. A code string including DCT coefficient information,
Information indicating the prediction mode of the frame is arranged in the picture header of each frame of the input image, and when the motion compensation prediction mode is selected, a plurality of pieces of information indicating the prediction mode and motion vector information related to each block are provided. A code string in which the information indicating the prediction mode combined for the plurality of blocks is information having the highest importance, and the information indicating the prediction mode combined for the plurality of blocks is arranged behind the picture header. A moving picture decoding method, comprising: inputting, decoding the inputted code string, and reproducing an original moving picture signal.
入力動画像信号をなす入力画像を分割した複数のブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号について量子化したDCT係数情報を含む符号列であって、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、前記動き補償予測モードが選択された場合には各ブロックに関わる予測モードを示す情報と動きベクトル情報をそれぞれ複数ブロック分まとめて符号化し、該複数ブロック分まとめた予測モードを示す情報を最も重要度の高い情報として、該複数ブロック分まとめた予測モードを示す情報を前記ピクチャヘッダの後ろに並べて多重化した符号列を入力し、該入力した符号列を復号化して元の動画像信号を再生することを特徴とする動画像復号化方法。
Prediction is performed in a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intraframe prediction mode for each of a plurality of blocks obtained by dividing an input image forming an input moving image signal. The prediction residual signal, which is an error signal between the prediction signal generated when prediction is performed and the input video signal, or the input video signal is quantized when prediction is performed in the intra-frame prediction mode. A code string including DCT coefficient information,
Information indicating the prediction mode of the frame is arranged in the picture header of each frame of the input image, and when the motion compensation prediction mode is selected, a plurality of pieces of information indicating the prediction mode and motion vector information related to each block are provided. A code obtained by coding blocks and encoding the information indicating the prediction mode combined for the plurality of blocks as the most important information and multiplexing the information indicating the prediction mode combined for the blocks after the picture header. A video decoding method, comprising: inputting a sequence, decoding the input code sequence, and reproducing an original video signal.
JP2005335964A 2005-11-21 2005-11-21 Moving picture decoding apparatus and moving picture decoding method Expired - Lifetime JP4302094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005335964A JP4302094B2 (en) 2005-11-21 2005-11-21 Moving picture decoding apparatus and moving picture decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005335964A JP4302094B2 (en) 2005-11-21 2005-11-21 Moving picture decoding apparatus and moving picture decoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003203772A Division JP3756900B2 (en) 2003-07-30 2003-07-30 Moving picture decoding apparatus and moving picture decoding method

Publications (2)

Publication Number Publication Date
JP2006121732A JP2006121732A (en) 2006-05-11
JP4302094B2 true JP4302094B2 (en) 2009-07-22

Family

ID=36539106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005335964A Expired - Lifetime JP4302094B2 (en) 2005-11-21 2005-11-21 Moving picture decoding apparatus and moving picture decoding method

Country Status (1)

Country Link
JP (1) JP4302094B2 (en)

Also Published As

Publication number Publication date
JP2006121732A (en) 2006-05-11

Similar Documents

Publication Publication Date Title
KR100564896B1 (en) Image coding method and apparatus, and storage medium
JP2004007753A (en) Image decoding method and device
JP3415319B2 (en) Moving picture coding apparatus and moving picture coding method
JP3756897B2 (en) Moving picture coding apparatus and moving picture coding method
US6356661B1 (en) Method and device for robust decoding of header information in macroblock-based compressed video data
JP4302093B2 (en) Moving picture coding apparatus and moving picture coding method
JP3245496B2 (en) Image encoding method, image encoding circuit, image encoding device, and playback device
JP4302094B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756900B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756902B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756899B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756901B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474859B2 (en) Moving picture coding apparatus and moving picture coding method
JP3756898B2 (en) Moving picture coding apparatus and moving picture coding method
JP3474862B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474861B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474860B2 (en) Moving picture coding apparatus and moving picture coding method
KR100312418B1 (en) Intra mode code selection method in video coder
JP2007151163A (en) Image decoding method and apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

EXPY Cancellation because of completion of term