JP2009290630A - Video coding device - Google Patents

Video coding device Download PDF

Info

Publication number
JP2009290630A
JP2009290630A JP2008141905A JP2008141905A JP2009290630A JP 2009290630 A JP2009290630 A JP 2009290630A JP 2008141905 A JP2008141905 A JP 2008141905A JP 2008141905 A JP2008141905 A JP 2008141905A JP 2009290630 A JP2009290630 A JP 2009290630A
Authority
JP
Japan
Prior art keywords
image
encoding
scene change
reduced image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008141905A
Other languages
Japanese (ja)
Other versions
JP5147546B2 (en
JP2009290630A5 (en
Inventor
Shigeki Mochizuki
成記 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008141905A priority Critical patent/JP5147546B2/en
Publication of JP2009290630A publication Critical patent/JP2009290630A/en
Publication of JP2009290630A5 publication Critical patent/JP2009290630A5/ja
Application granted granted Critical
Publication of JP5147546B2 publication Critical patent/JP5147546B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent images before and after scene change from being mixed due to a transmission error. <P>SOLUTION: A scene change detection device (16) detects the change of a video scene (scene change) from image data from an input terminal 10. Then, the scene change detection device (16) gives a reduced image generation device (30) a video timing as the reference image (I image or P image) of the first predicted coding after scene change. The reduced image generation device (30) creates the reduced image of an image instructed by the scene change detection device (16), and outputs it to a multiplex processor (26). The multiplex processor (26) multiplexes the reduced image with the encoded video data from an entropy coding device (24). The reduced image is used for error interpolation processing for a reference image in decoding. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、映像符号化装置に関する。   The present invention relates to a video encoding apparatus.

動画像の符号化方式の1つにMPEG−4 AVC(ISO/IEC 14496−10)があり、デジタル・テレビ放送や映像記録メディアに採用されている。MPEG−4 AVCでは、コンテキスト適応型のエントロピー符号化方式を採用することで符号化効率を高めている。コンテキスト適応型のエントロピー符号化方式には、コンテキスト適応型可変長符号化(CAVLC:Context-based Adaptive Variable Length Coding)や、コンテキスト適応型2値算術符号化(CABAC:Context-based Adaptive Binary Arithmetic Coding)がある。   MPEG-4 AVC (ISO / IEC 14496-10) is one of the moving image encoding systems, and is adopted in digital television broadcasting and video recording media. In MPEG-4 AVC, encoding efficiency is improved by adopting a context-adaptive entropy encoding method. Context-adaptive entropy coding methods include context-adaptive variable-length coding (CAVLC) and context-adaptive binary arithmetic coding (CABAC). There is.

こうしたコンテキスト適応型エントロピー符号化は、符号化対象マクロブロックの周辺マクロブロック情報に応じて符号化効率の良い符号化方式を適応的に選択する。そのため、復号化時には復号化対象マクロブロックの周辺マクロブロック情報が必要になる。何らかの要因により符号化データにエラーが発生した場合、同一スライス内ではそれ以降の復号化処理を行うことが極めて困難になる。   Such context adaptive entropy coding adaptively selects a coding scheme with good coding efficiency in accordance with the surrounding macroblock information of the macroblock to be coded. Therefore, peripheral macroblock information of the decoding target macroblock is necessary at the time of decoding. When an error occurs in the encoded data due to some factor, it is extremely difficult to perform subsequent decoding processing in the same slice.

こうした観点から、MPEG−4 AVCでは、エラー耐性を強化する種々のエラー耐性ツールセットが用意されている。例えば、ASO(ArbitrarySliceOrder)は、画面内のスライスを任意の順序で符号化・伝送を可能にする。FMO(FlexibleMacroblockOrdering)は、スライス内のマクロブロック順序を選択可能にする。RS(RedundantSlice)は、同じマクロブロックを複数回、符号化可能にする。こうしたエラー耐性ツールを採用することで、エラー耐性を向上させることが可能となる(非特許文献1参照)。   From this point of view, MPEG-4 AVC provides various error tolerance tool sets that enhance error tolerance. For example, ASO (Arbitrary Slice Order) enables encoding and transmission of slices in a screen in an arbitrary order. FMO (FlexibleMacroblockOrdering) makes it possible to select a macroblock order within a slice. RS (Redundant Slice) enables the same macroblock to be encoded a plurality of times. By adopting such an error tolerance tool, error tolerance can be improved (see Non-Patent Document 1).

また、特許文献1には、伝送路のエラー又は画像の動きに応じて、スライス形状を変化させる技術が記載されている。
特開2005−124041号公報 ISO/IEC 14496-10“Part-10 Advanced Video Coding”
Patent Document 1 describes a technique for changing a slice shape according to a transmission path error or an image motion.
JP 2005-124041 A ISO / IEC 14496-10 “Part-10 Advanced Video Coding”

エラー耐性のためとはいえ、過度にスライス分割を行うことは、符号化効率という観点からは得策ではない。   Although it is for error tolerance, excessive slice division is not a good idea from the viewpoint of coding efficiency.

上述のエラー耐性ツールは、符号化効率を大きく犠牲にすることがある。また、演算量が増大し、そしてエラー補間処理自体が複雑化し、更にはプロファイルやレベルによって対応が規定されているので、実際上、適用が困難な場合も多い。   The error resilience tools described above can greatly sacrifice coding efficiency. In addition, the amount of calculation increases, the error interpolation process itself becomes complicated, and the correspondence is prescribed by the profile and level, so that it is often difficult to apply in practice.

他方、一般的には、直前の参照画像にある画素を使用することで効果的なエラー補間処理を行うことが可能である。しかし、直前の参照画像の画素値を利用する場合、映像シーンの切り替わり目でエラーが発生したときには、以降の画面間予測符号化された画像への影響が大きい。特に、画面内符号化ピクチャであるIピクチャでエラーが発生した場合、GOP(Group Of Pictures)内でシーンチェンジ前後の画素が混ざり合った違和感のある再生映像となってしまうことがある。   On the other hand, in general, it is possible to perform an effective error interpolation process by using a pixel in the immediately preceding reference image. However, when the pixel value of the immediately preceding reference image is used, if an error occurs at the switching point of the video scene, the influence on the subsequent inter-screen predictive encoded image is great. In particular, when an error occurs in an I picture that is an intra-picture coded picture, a reproduced video with a sense of incongruity in which pixels before and after a scene change are mixed in a GOP (Group Of Pictures) may be generated.

このような状況で、実装が容易で、且つ、シーンチェンジに影響されない効果的な映像符号化技術が望まれる。   Under such circumstances, an effective video coding technique that is easy to implement and is not affected by scene changes is desired.

本発明は、このような要望を満たす映像符号化装置を提示することを目的とする。   It is an object of the present invention to provide a video encoding device that satisfies such a demand.

本発明に係る映像符号化装置は、画面内符号化と参照画像との差分を符号化する予測符号化を使って映像信号を符号化する映像符号化装置であって、前記画面内符号化では前記映像信号と先行して符号化された周辺画素から生成される予測画像との差分を示す残差信号を出力し、前記予測符号化では前記映像信号と参照画像との差分を示す残差信号を出力する予測処理手段と、前記予測処理手段の出力を符号化する符号化手段と、前記符号化手段による中間符号データを復号化する局所復号化手段と、前記局所復号化手段で復号化された画像を前記参照画像として記憶するメモリと、前記映像信号のシーンチェンジを検出するシーンチェンジ検出手段と、前記シーンチェンジ検出手段による前記シーンチェンジの検出に応じて、前記シーンチェンジ後に最初に前記予測符号化の参照画像となる画像の縮小画像を生成する縮小画像生成手段と、前記符号化手段の出力に前記縮小画像を多重化する多重化処理手段とを具備することを特徴とする。   A video encoding apparatus according to the present invention is a video encoding apparatus that encodes a video signal using predictive encoding that encodes a difference between intra-picture encoding and a reference image. In the intra-picture encoding, Outputs a residual signal indicating a difference between the video signal and a predicted image generated from surrounding pixels encoded in advance, and in the predictive encoding, a residual signal indicating a difference between the video signal and a reference image Is decoded by the local decoding means, the encoding means for encoding the output of the prediction processing means, the local decoding means for decoding the intermediate code data by the encoding means, and the local decoding means A memory for storing the captured image as the reference image, a scene change detecting means for detecting a scene change of the video signal, and the scene change according to the detection of the scene change by the scene change detecting means. A reduced image generating means for generating a reduced image of an image that will be a reference image for the predictive encoding first after being changed, and a multiplexing processing means for multiplexing the reduced image on the output of the encoding means. Features.

本発明によれば、シーンチェンジ検出後に最初に参照画像として符号化される画像の縮小画像を補間用に伝送するので、復号化時に容易な処理でシーンチェンジの影響を受けないエラー補間処理が可能になる。   According to the present invention, since a reduced image of an image that is first encoded as a reference image is transmitted for interpolation after a scene change is detected, an error interpolation process that is not affected by a scene change can be performed with a simple process at the time of decoding. become.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例であるMPEG−4 AVC方式の映像符号化装置の概略構成ブロック図を示す。本実施例では、映像信号を1920×1088画素の4:2:0コンポーネント信号に符号化するものとする。   FIG. 1 shows a schematic block diagram of an MPEG-4 AVC video encoding apparatus according to an embodiment of the present invention. In this embodiment, it is assumed that the video signal is encoded into a 4: 2: 0 component signal of 1920 × 1088 pixels.

本実施例の映像符号化装置は、符号化対象画面を16×16画素ブロックに分割したマクロブロック単位で映像信号を符号化する。16×16画素ブロック単位の画像データが、入力端子10から予測方法決定装置12、予測処理装置14及びシーンチェンジ検出装置16に入力する。   The video encoding apparatus according to the present exemplary embodiment encodes a video signal in units of macroblocks obtained by dividing an encoding target screen into 16 × 16 pixel blocks. Image data in units of 16 × 16 pixel blocks is input from the input terminal 10 to the prediction method determination device 12, the prediction processing device 14, and the scene change detection device 16.

予測方法決定装置12は、符号化対象画面内の各マクロブロックに対して、符号化効率が最適となる予測方法を決定する。具体的には、予測方法決定装置12は、入力端子10からの画像データと、先行して符号化及び復号化された画像データとから、入力端子10からの画像データに適用すべき予測方式を決定する。メモリ18には、先行して符号化及び復号化された画像データと、この画像データにデブロッキングフィルタ処理を適用した画像データが格納されている。   The prediction method determination device 12 determines a prediction method with the optimal encoding efficiency for each macroblock in the encoding target screen. Specifically, the prediction method determination device 12 determines a prediction method to be applied to the image data from the input terminal 10 from the image data from the input terminal 10 and the image data previously encoded and decoded. decide. The memory 18 stores previously encoded and decoded image data and image data obtained by applying a deblocking filter process to the image data.

具体的には、符号化対象マクロブロックが画面内符号化されるべきIスライスの場合、予測方法決定装置12は、画面内予測画素ブロックサイズ及び画面内予測モード等の画面内予測符号化用パラメータを決定する。符号化対象マクロブロックが片方向予測符号化されるべきPスライス、又は、両方向予測符号化されるべきBスライスの場合、予測方法決定装置12は、画面内予測と画面間予測の内の符号化効率の高い方を選択する。画面内予測に対しては、画面内予測画素ブロックサイズ及び画面内予測モード等の画面内予測符号化用パラメータを決定する。画面間予測に対しては、参照画像フレーム、マクロブロック分割パターン及び動きベクトル等の画面間予測符号化用パラメータを決定する。予測方法決定装置12は、こうして決定された予測符号化用パラメータを予測処理装置14に供給する。   Specifically, when the encoding target macroblock is an I slice to be intra-coded, the prediction method determination device 12 uses the intra-frame prediction encoding parameters such as the intra-frame prediction pixel block size and the intra-frame prediction mode. Decide. When the encoding target macroblock is a P slice to be unidirectionally predicted encoded or a B slice to be unidirectionally predicted encoded, the prediction method determination device 12 encodes one of intra prediction and inter prediction. Choose the one with the highest efficiency. For intra prediction, parameters for intra prediction encoding such as intra prediction pixel block size and intra prediction mode are determined. For inter prediction, inter prediction encoding parameters such as a reference image frame, a macroblock division pattern, and a motion vector are determined. The prediction method determination device 12 supplies the prediction coding parameter determined in this way to the prediction processing device 14.

予測処理装置14は、予測方法決定装置12からの予測符号化用パラメータに従い、メモリ18に記憶される画像データから予測画像(又は予測画像データ)を生成し、入力端子10からの符号化対象画像データと予測画像との差分となる予測残差信号を生成する。予測処理装置14は、生成した予測残差信号を直交変換・量子化装置20に供給し、生成した予想画像データを局所復号化装置22に供給する。具体的に、予測処理装置14は、画面内符号化では、入力端子10からの画像データに含まれる符号化対象ブロックと、先行して符号化された周辺画素から生成される予測画像との差分を示す残差信号を出力する。また、参照画像を用いた画面間の予測符号化では、入力端子10からの画像データに含まれる符号化対象ブロックと、参照画像との差分を示す残差信号を出力する。   The prediction processing device 14 generates a prediction image (or prediction image data) from the image data stored in the memory 18 in accordance with the prediction encoding parameter from the prediction method determination device 12, and the encoding target image from the input terminal 10 A prediction residual signal that is a difference between the data and the predicted image is generated. The prediction processing device 14 supplies the generated prediction residual signal to the orthogonal transform / quantization device 20 and supplies the generated predicted image data to the local decoding device 22. Specifically, in the intra-screen coding, the prediction processing device 14 calculates the difference between the encoding target block included in the image data from the input terminal 10 and the predicted image generated from the peripheral pixels encoded in advance. Is output as a residual signal. Further, in the predictive encoding between the screens using the reference image, a residual signal indicating a difference between the encoding target block included in the image data from the input terminal 10 and the reference image is output.

直交変換・量子化装置20は、指定された画素ブロック単位(例えば、8×8画素、又は4×4画素ブロック単位)で、予測残差信号に整数精度離散コサイン変換による直交変換処理を行う。16×16画素ブロック単位で画面内予測処理が行われた輝度信号と色差信号の、離散コサイン変換係数のDC成分(直流成分)に対して、更に、離散アダマール変換が行われる。直交変換・量子化装置20は、直交変換された変換係数を指定された量子化パラメータに応じた量子化ステップで量子化し、その結果をエントロピー符号化装置24に出力する。   The orthogonal transform / quantization apparatus 20 performs orthogonal transform processing on the prediction residual signal by integer precision discrete cosine transform in a designated pixel block unit (for example, 8 × 8 pixel or 4 × 4 pixel block unit). Discrete Hadamard transform is further performed on the DC component (DC component) of the discrete cosine transform coefficient of the luminance signal and color difference signal subjected to the intra-screen prediction processing in units of 16 × 16 pixel blocks. The orthogonal transform / quantization apparatus 20 quantizes the transform coefficient subjected to the orthogonal transform at a quantization step corresponding to the designated quantization parameter, and outputs the result to the entropy encoding apparatus 24.

エントロピー符号化装置24は、直交変換・量子化装置20からの量子化された変換係数データにCAVLC又はCABACによるエントロピー符号化する。エントロピー符号化装置24は、エントロピー符号化処理で得られる符号化データを多重化処理装置26に出力する。   The entropy encoding device 24 performs entropy encoding on the quantized transform coefficient data from the orthogonal transform / quantization device 20 by CAVLC or CABAC. The entropy encoding device 24 outputs encoded data obtained by entropy encoding processing to the multiplexing processing device 26.

直交変換・量子化装置20で量子化された変換係数データは、中間符号データとして、局所復号化装置22にも供給される。局所復号化装置22は、まず、直交変換・量子化装置20からのデータを逆量子化及び逆直交変換して、予測残差信号を復元する。局所復号化装置22は、得られた予測残差信号に予測処理装置14からの予測画像データを加算して、画像データを復元する。このようにして、予測処理装置14及び直交変換・量子化装置20により符号化された画像データが、ローカルで復号化される。   The transform coefficient data quantized by the orthogonal transform / quantization device 20 is also supplied to the local decoding device 22 as intermediate code data. First, the local decoding device 22 performs inverse quantization and inverse orthogonal transform on the data from the orthogonal transform / quantization device 20 to restore the prediction residual signal. The local decoding device 22 adds the predicted image data from the prediction processing device 14 to the obtained prediction residual signal, and restores the image data. In this way, the image data encoded by the prediction processing device 14 and the orthogonal transform / quantization device 20 is locally decoded.

局所復号化装置22は、こうして復号化した画像データをメモリ18に格納すると共に、デブロッキングフィルタ処理装置28に供給する。デブロッキングフィルタ処理装置28は、局所復号化装置22からの画像データにデブロッキングフィルタ処理を施し、メモリ18に書き込む。メモリ18に格納される局所復号化装置22の出力画像データは、以降の画面内予測処理に利用される。また、メモリ18に格納されるデブロッキングフィルタ処理装置28の出力画像データは、以降の画面間予測処理に利用される。   The local decoding device 22 stores the decoded image data in the memory 18 and supplies it to the deblocking filter processing device 28. The deblocking filter processing device 28 performs deblocking filter processing on the image data from the local decoding device 22 and writes it in the memory 18. The output image data of the local decoding device 22 stored in the memory 18 is used for subsequent intra-screen prediction processing. The output image data of the deblocking filter processing device 28 stored in the memory 18 is used for the subsequent inter-screen prediction processing.

シーンチェンジ検出装置16は、入力端子10からの画像データから映像シーンの替わり目(シーンチェンジ)を検出する。そして、シーンチェンジ検出装置16は、シーンチェンジ後の最初の予想符号化の参照画像(Iピクチャ又はPピクチャ)となる映像タイミングを縮小画像生成装置30に指示する。シーンチェンジ検出装置16におけるシーンチェンジ検出方法は、特定の方法に限定されない。例えば、予測方法決定装置12により算出される動きベクトルを用いてシーンチェンジを検出しても良いし、画面内の画素値のヒストグラムを用いてシーンチェンジを検出しても良い。   The scene change detection device 16 detects a video scene change point (scene change) from the image data from the input terminal 10. Then, the scene change detection device 16 instructs the reduced image generation device 30 to determine the video timing of the reference image (I picture or P picture) of the first predictive encoding after the scene change. The scene change detection method in the scene change detection device 16 is not limited to a specific method. For example, a scene change may be detected using a motion vector calculated by the prediction method determination device 12, or a scene change may be detected using a histogram of pixel values in the screen.

例えば、図2に示すような映像で、フレーム番号3でシーンチェンジが検出されたとする。図2に示すピクチャタイプの順序例では、フレーム番号3のフレームより後で最初にIピクチャ又はPピクチャとなるのは、フレーム番号4のフレームである。従って、シーンチェンジ検出装置16は、フレーム番号4のフレームに対して縮小画像の生成を縮小画像生成装置30に指示する。   For example, assume that a scene change is detected at frame number 3 in the video as shown in FIG. In the order example of the picture types shown in FIG. 2, the frame having the frame number 4 first becomes the I picture or the P picture after the frame having the frame number 3. Accordingly, the scene change detection device 16 instructs the reduced image generating device 30 to generate a reduced image for the frame of frame number 4.

図2に示す符号化ピクチャタイプの順序例では、仮にフレーム番号2のフレームでシーンチェンジが検出されたとしても、シーンチェンジ検出後で最初にIピクチャ又はPピクチャとなるのは、フレーム番号4のフレームである。従って、この場合も、シーンチェンジ検出装置16は、フレーム番号4のフレームに対して縮小画像の生成を縮小画像生成装置30に指示する。   In the order example of the coded picture type shown in FIG. 2, even if a scene change is detected in the frame with frame number 2, the first I picture or P picture after the scene change is detected is frame number 4. It is a frame. Accordingly, in this case as well, the scene change detection device 16 instructs the reduced image generating device 30 to generate a reduced image for the frame of frame number 4.

縮小画像生成装置30は、シーンチェンジ検出装置16から指示されたタイミングに従って縮小画像を生成し、多重化処理装置26に出力する。即ち、縮小画像生成装置30は、シーチェンジ検出後に最初にIピクチャ又はPピクチャとなるフレームの縮小画像を生成する。   The reduced image generation device 30 generates a reduced image according to the timing instructed from the scene change detection device 16 and outputs the reduced image to the multiplexing processing device 26. That is, the reduced image generating apparatus 30 generates a reduced image of a frame that first becomes an I picture or P picture after detecting a sea change.

縮小画像生成装置30が生成する縮小画像は、復号化における参照画像に対するエラー補間処理を目的として生成される画像であり、原画像(又は主画像)を水平方向、垂直方向又はその両方で縮小した画像である。例えば、図3に示すように、原画像に対して、輝度信号を水平及び垂直方向のそれぞれに16分の1に縮小し、色差信号を水平及び垂直方向のそれぞれに8分の1に縮小した画像である。縮小処理自体は、サブサンプリングでも、平均化フィルタ処理でもよい。また、原画像の画面内予測処理(画面内予測モード)を16×16画素単位の平均値(DC)に統一することで、予測処理装置14で生成される予測画像の画素値を使用することが可能である。この場合、縮小画像生成装置30は、予測処理装置14から予測画像のマクロブロック毎に1画素のデータを受け取り、縮小画像として出力すれば良い。これにより、縮小画像の輝度信号及び色差信号の1画素が原画像の1マクロブロックに対応する縮小画像が生成される。   The reduced image generated by the reduced image generation apparatus 30 is an image generated for the purpose of error interpolation processing for a reference image in decoding, and the original image (or main image) is reduced in the horizontal direction, the vertical direction, or both. It is an image. For example, as shown in FIG. 3, with respect to the original image, the luminance signal is reduced to 1/16 in each of the horizontal and vertical directions, and the color difference signal is reduced to 1/8 in each of the horizontal and vertical directions. It is an image. The reduction processing itself may be sub-sampling or averaging filter processing. In addition, the pixel value of the predicted image generated by the prediction processing device 14 is used by unifying the intra-screen prediction process (intra-screen prediction mode) of the original image into an average value (DC) in units of 16 × 16 pixels. Is possible. In this case, the reduced image generating device 30 may receive data of one pixel for each macroblock of the predicted image from the prediction processing device 14 and output it as a reduced image. Thereby, a reduced image in which one pixel of the luminance signal and the color difference signal of the reduced image corresponds to one macro block of the original image is generated.

多重化処理装置26には、エントロピー符号化装置24からの符号化映像データ、及び縮小画像生成装置30からの縮小画像データ以外に、図示しないシステム制御装置からのシステムデータが入力する。システムデータは、復号化装置の動作を制御するデータ、例えば、量子化スケール値及び動き補償の動きベクトル等からなる。多重化処理装置26は、これらのデータを多重化し、符号化データとして伝送路又は記録媒体等に出力する。   In addition to the encoded video data from the entropy encoding device 24 and the reduced image data from the reduced image generating device 30, system data from a system control device (not shown) is input to the multiplexing processing device 26. The system data includes data for controlling the operation of the decoding apparatus, such as a quantization scale value and a motion compensation motion vector. The multiplexing processing device 26 multiplexes these data and outputs them as encoded data to a transmission path or a recording medium.

MPEG−4 AVCでは、様々なネットワークでの利用が考慮されている。即ち、映像符号化処理を扱うビデオ符号化層(VCL:Video Coding Layer)と伝送・蓄積システムとの間にネットワーク抽象化層(NAL:Network Abstraction Layer)が規定されている。図4に示すように、NALは、NALヘッダとRBSP(Row Byte Sequence Payload)から構成されるNALユニットと呼ばれる単位でパケット化される。NALヘッダによりNALユニットの種類と、参照画像かどうかを識別できるようになっている。NALヘッダに続くRBSPに実際の符号化データが格納される。   In MPEG-4 AVC, utilization in various networks is considered. That is, a network abstraction layer (NAL) is defined between a video coding layer (VCL) that handles video coding processing and a transmission / storage system. As shown in FIG. 4, the NAL is packetized in units called NAL units composed of a NAL header and an RBSP (Row Byte Sequence Payload). The type of NAL unit and whether it is a reference image can be identified by the NAL header. The actual encoded data is stored in the RBSP following the NAL header.

NALユニットの種類又はタイプは、図5に示すように定義されている。シーケンス・パラメータ・セット(SPS:Sequence Parameter Set)は、映像符号化データのシーケンスに関する情報である。ピクチャ・パラメータ・セットPPS(Picture Parameter Set)は、映像符号化データのピクチャに関する情報である。サプリメンタル・エンハンスメント情報(SEI:Supplemental Enhancement Information)は、映像符号化データの復号化には必須ではない付加情報である。主として、映像符号化データ(スライス)、SPS、PPS又はSEI等のNALユニットが使用される。   The type or type of NAL unit is defined as shown in FIG. A sequence parameter set (SPS) is information relating to a sequence of video encoded data. A picture parameter set PPS (Picture Parameter Set) is information relating to a picture of video encoded data. Supplemental enhancement information (SEI) is additional information that is not essential for decoding video-encoded data. Mainly, NAL units such as video encoded data (slice), SPS, PPS, or SEI are used.

これらのNALユニットをピクチャ単位にまとめた単位をアクセス(Access)ユニットと呼ぶ。図6に示すように、アクセスユニットの先頭には、アクセス・ユニット・デリミタ(Access unit delimiter)と呼ばれるNALユニットが位置する。アクセス・ユニット・デリミタは、アクセスユニット内のピクチャタイプを識別する情報を含む。このNALユニットにSPS、PPS及びスライスデータなどの、ピクチャに必要なNALユニット群が続く。   A unit in which these NAL units are grouped into pictures is called an access unit. As shown in FIG. 6, an NAL unit called an access unit delimiter is located at the head of the access unit. The access unit delimiter includes information identifying the picture type in the access unit. This NAL unit is followed by a group of NAL units necessary for the picture, such as SPS, PPS, and slice data.

SEIには、ユーザ定義のシンタクスを使用可能なuser data SEI(ユーザデータSEI)が用意されている。ユーザデータSEIには、user data unregistered SEIと、user data registered by ITU−T Recommendation T.35 SEIが定義されている。ここでは、user data unregistered SEI(ユーザデータ未登録SEI)を利用して、縮小画像を多重化する。   In SEI, user data SEI (user data SEI) that can use user-defined syntax is prepared. The user data SEI includes user data unregistered SEI, user data registered by ITU-T Recommendation T., and so on. 35 SEI is defined. Here, the reduced image is multiplexed using user data unregistered SEI (user data unregistered SEI).

図7は、ユーザデータ未登録SEIのシンタクスを示す。図7におけるシンタクス要素の内、user_data_payload_byte領域に縮小画像を格納できる。ユーザデータ未登録SEIに縮小画像が格納されていることを、uuid_iso_iec_11578領域によりUUIDで識別できるようにしておく。user_data_payload_byte領域に縮小画像を格納するためのエラー補間用データを「esl_picture」と呼び、そのシンタクスの定義を図8に示す。図8で、num_sliceは、格納されている縮小画像のスライス数を示す。top_x、top_yは、主画像のスライスに対応した縮小画像の先頭画素の座標を示し、主画像に対するスライス先頭のマクロブロック座標に対応する。num_pixは縮小画像の画素数を示し、同様に主画像に対するマクロブロック数に対応する。pix_yは、縮小画像の輝度信号Yの画素値であり、pix_cb,pix_crはそれぞれ縮小画像の色差信号Cb,Crの画素値である。このシンタクスからも分かるように、主画像の1画面を複数スライスに分割して符号化した場合においても、任意スライスに対応する縮小画像を格納することが可能となっている。こうすることで、エラー補間用縮小画像のデータ量を抑えたい場合には、重要スライスとする縮小画像のみを格納することも可能である。   FIG. 7 shows the syntax of user data unregistered SEI. Of the syntax elements in FIG. 7, a reduced image can be stored in the user_data_payload_byte area. The fact that the reduced image is stored in the user data unregistered SEI can be identified by the UUID in the uuid_iso_iec_11578 area. Error interpolation data for storing a reduced image in the user_data_payload_byte area is called “esl_picture”, and the definition of the syntax is shown in FIG. In FIG. 8, num_slice indicates the number of slices of the stored reduced image. top_x and top_y indicate the coordinates of the first pixel of the reduced image corresponding to the slice of the main image, and correspond to the macroblock coordinates of the first slice of the main image. num_pix indicates the number of pixels of the reduced image, and similarly corresponds to the number of macroblocks for the main image. pix_y is a pixel value of the luminance signal Y of the reduced image, and pix_cb and pix_cr are pixel values of the color difference signals Cb and Cr of the reduced image, respectively. As can be seen from this syntax, even when one screen of the main image is divided into a plurality of slices and encoded, a reduced image corresponding to an arbitrary slice can be stored. In this way, when it is desired to reduce the data amount of the reduced image for error interpolation, it is also possible to store only the reduced image as the important slice.

例えば、図9に示すように1画面を垂直方向に均等に4分割したスライス構造を持つ画像を想定する。この画像の中心部に位置するスライス1及びスライス2の縮小画像を格納する場合を考えると、num_slice=2となる。スライス1に対応する縮小画像の先頭画素の座標位置は(top_x[0],top_y[0])=(0、17)、画素数は120×17=2040となる。num_pix[0]=2040が格納され、続いてスライス1に対応する縮小画像の画素データが輝度信号Y、色差信号Cb,Crの順で格納される。次に、スライス2に対応する縮小画像の先頭画素の座標位置は(top_x[1],top_y[1])=(0,34)、画素数は同様に2040となる。num_pix[1]=2040が格納され、続いてスライス2に対応する縮小画像の画素データが輝度信号Y,色差信号Cb,Crの順で格納される。尚、図9では、数値は16進数表記で示されている。   For example, as shown in FIG. 9, an image having a slice structure in which one screen is equally divided into four in the vertical direction is assumed. Considering the case where the reduced images of slice 1 and slice 2 located at the center of this image are stored, num_slice = 2. The coordinate position of the top pixel of the reduced image corresponding to slice 1 is (top_x [0], top_y [0]) = (0, 17), and the number of pixels is 120 × 17 = 2040. num_pix [0] = 2040 is stored, and subsequently the pixel data of the reduced image corresponding to slice 1 is stored in the order of the luminance signal Y and the color difference signals Cb and Cr. Next, the coordinate position of the top pixel of the reduced image corresponding to slice 2 is (top_x [1], top_y [1]) = (0, 34), and the number of pixels is 2040 similarly. num_pix [1] = 2040 is stored, and subsequently, pixel data of the reduced image corresponding to slice 2 is stored in the order of the luminance signal Y and the color difference signals Cb, Cr. In FIG. 9, the numerical values are shown in hexadecimal notation.

以上のようにして、ユーザデータ未登録SEIに任意スライスの縮小画像を格納する事が可能となり、これがサクセスユニット内に多重化される。   As described above, a reduced image of an arbitrary slice can be stored in the user data unregistered SEI, and this is multiplexed in the success unit.

こうして縮小画像が多重化された符号化データを受信する映像復号装置側では、esl_pictureを利用したエラー補間処理が可能となる。映像符号化装置と対応する映像復号化装置がネットワークで接続される場合、特に無線伝送では、映像復号化装置側での受信環境により符号化ストリーム内にエラーが発生する場合も少なくない。例えば、図10に示すように、スライス1の3マクロブロック目の符号化データをパースするときに、マクロブロック内のシンタクス要素が規格外の値を示すと、このマクロブロック以降の復号化はほぼ不可能となる。こうした場合、受信したSEIの内、ユーザデータ未登録SEIと、UUIDがesl_pictureを示すSEIとから、esl_pictureシンタクスに従ってスライス1に対応する縮小画像を抽出する。そして、輝度信号Yは、水平・垂直方向共に16倍に拡大し、色差信号Cb,Crは、水平・垂直方向共に8倍に拡大処理する。これにより、復号化できない4マクロブロック目以降のマクロブロックデータを補間することが可能となる。   The video decoding apparatus that receives the encoded data in which the reduced images are multiplexed in this way can perform error interpolation processing using esl_picture. When a video decoding apparatus and a corresponding video decoding apparatus are connected via a network, an error may occur in the encoded stream due to the reception environment on the video decoding apparatus side, particularly in wireless transmission. For example, as shown in FIG. 10, when the encoded data of the third macroblock of slice 1 is parsed, if the syntax element in the macroblock shows a non-standard value, decoding after this macroblock is almost complete. It becomes impossible. In such a case, a reduced image corresponding to slice 1 is extracted according to the esl_picture syntax from the SEI in which the user data is not registered and the SEI in which the UUID indicates esl_picture in the received SEI. The luminance signal Y is enlarged by 16 times in both the horizontal and vertical directions, and the color difference signals Cb and Cr are enlarged by 8 times in both the horizontal and vertical directions. As a result, it is possible to interpolate macro block data after the fourth macro block that cannot be decoded.

図11及び図12を参照して、こうしたエラーがシーンチェンジ境界のIピクチャで発生した場合のエラー補間処理による再生映像の状態を説明する。図11は、エラーの発生したIピクチャを1つ前のPピクチャで補間する例を示す。図12は、本実施例により、エラーの発生したIピクチャを縮小画像で補間する例を示す。図11に示すように、直前のPピクチャの画素を利用してIピクチャを補間する場合、シーンチェンジ前の画像が、Iピクチャと参照関係にあるフレーム内で影響し、再生画像の乱れが発生する可能性がある。しかし、図12に示すように、本実施例により縮小画像を利用してIピクチャを補間することで、比較的違和感のない再生画像が得られる。   With reference to FIG. 11 and FIG. 12, the state of a reproduced video by error interpolation processing when such an error occurs in an I picture at a scene change boundary will be described. FIG. 11 shows an example in which an errored I picture is interpolated by the previous P picture. FIG. 12 shows an example in which an I picture in which an error has occurred is interpolated with a reduced image according to this embodiment. As shown in FIG. 11, when the I picture is interpolated using the pixel of the immediately preceding P picture, the image before the scene change is affected in the frame having a reference relationship with the I picture, and the reproduced image is disturbed. there's a possibility that. However, as shown in FIG. 12, a reproduced image having a relatively uncomfortable feeling can be obtained by interpolating an I picture using a reduced image according to this embodiment.

以上の説明から容易に理解できるように、本実施例では、シーンチェンジ検出後の、最初の参照画像符号化タイミングで縮小画像を生成し、SEIメッセージとして主画像の符号化データに多重化する。これにより、映像復号化装置側で参照画像にエラーが発生した場合であっても、容易な方法で違和感の少ないエラー補間処理を行うことが可能となる。   As can be easily understood from the above description, in this embodiment, a reduced image is generated at the first reference image encoding timing after the scene change is detected, and is multiplexed as encoded data of the main image as an SEI message. As a result, even when an error occurs in the reference image on the video decoding device side, it is possible to perform error interpolation processing with less discomfort by an easy method.

本発明の一実施例の概略構成ブロック図である。It is a schematic block diagram of one Example of this invention. 本実施例の縮小画像生成タイミング例を示す模式図である。It is a schematic diagram which shows the example of a reduced image generation timing of a present Example. 主画像と縮小画像の関係を示す模式図である。It is a schematic diagram which shows the relationship between a main image and a reduced image. NALユニットの構造を示す図である。It is a figure which shows the structure of a NAL unit. NALユニットタイプを示す図である。It is a figure which shows a NAL unit type. アクセスユニットの構造を示す図である。It is a figure which shows the structure of an access unit. ユーザデータ未登録SEIのシンタクスを示す図である。It is a figure which shows the syntax of user data unregistered SEI. esl_pictureのシンタクスを示す図である。It is a figure which shows the syntax of esl_picture. esl_pictureシンタクスの適用例を示す図である。It is a figure which shows the example of application of esl_picture syntax. esl_pictureを用いたエラー補間処理例を示す図である。It is a figure which shows the example of an error interpolation process using esl_picture. エラーの発生したIピクチャを1つ前のPピクチャで補間する例を示す模式図である。It is a schematic diagram which shows the example which interpolates the I picture in which the error generate | occur | produced by the 1 previous P picture. 本実施例により、エラーの発生したIピクチャを縮小画像で補間する例を示す模式図である。It is a schematic diagram which shows the example which interpolates the I picture in which the error generate | occur | produced with the reduced image by a present Example.

符号の説明Explanation of symbols

10:映像入力端子
12:予測方法決定装置
14:予測処理装置
16:シーンチェンジ検出装置
18:メモリ
20:直交変換・量子化装置
22:局所復号化装置
24:エントロピー符号化装置
26:多重化処理装置
28:デブロッキングフィルタ処理装置
30:縮小画像生成装置
10: Video input terminal 12: Prediction method determination device 14: Prediction processing device 16: Scene change detection device 18: Memory 20: Orthogonal transformation / quantization device 22: Local decoding device 24: Entropy coding device 26: Multiplexing processing Device 28: Deblocking filter processing device 30: Reduced image generation device

Claims (4)

画面内符号化と参照画像との差分を符号化する予測符号化を使って映像信号を符号化する映像符号化装置であって、
前記画面内符号化では前記映像信号と先行して符号化された周辺画素から生成される予測画像との差分を示す残差信号を出力し、前記予測符号化では前記映像信号と参照画像との差分を示す残差信号を出力する予測処理手段と、
前記予測処理手段の出力を符号化する符号化手段と、
前記符号化手段による中間符号データを復号化する局所復号化手段と、
前記局所復号化手段で復号化された画像を前記参照画像として記憶するメモリと、
前記映像信号のシーンチェンジを検出するシーンチェンジ検出手段と、
前記シーンチェンジ検出手段による前記シーンチェンジの検出に応じて、前記シーンチェンジ後に最初に前記予測符号化の参照画像となる画像の縮小画像を生成する縮小画像生成手段と、
前記符号化手段の出力に前記縮小画像を多重化する多重化処理手段
とを具備することを特徴とする映像符号化装置。
A video encoding device that encodes a video signal using predictive encoding that encodes a difference between in-screen encoding and a reference image,
In the intra-frame coding, a residual signal indicating a difference between the video signal and a predicted image generated from surrounding pixels encoded in advance is output. In the predictive coding, the video signal and a reference image are output. Prediction processing means for outputting a residual signal indicating the difference;
Encoding means for encoding the output of the prediction processing means;
Local decoding means for decoding intermediate code data by the encoding means;
A memory for storing the image decoded by the local decoding means as the reference image;
Scene change detecting means for detecting a scene change of the video signal;
In response to detection of the scene change by the scene change detection unit, a reduced image generation unit that generates a reduced image of an image that becomes a reference image of the predictive encoding first after the scene change;
A video encoding apparatus comprising: a multiplexing processing unit that multiplexes the reduced image on an output of the encoding unit.
前記画面内符号化と前記予測符号化は、画面を構成する複数のスライスの各スライスを単位として決定され、
前記縮小画像生成手段は、前記スライスの単位で前記縮小画像を生成する
ことを特徴とする請求項1に記載の映像符号化装置。
The intra coding and the predictive coding are determined in units of each slice of a plurality of slices constituting the screen,
The video encoding apparatus according to claim 1, wherein the reduced image generation unit generates the reduced image in units of the slices.
前記多重化処理手段は、MPEG−4 AVC方式におけるSEI ( Supplemental Enhancement Information ) として前記縮小画像を多重化することを特徴とする請求項1又は2に記載の映像符号化装置。   3. The video encoding apparatus according to claim 1, wherein the multiplexing processing unit multiplexes the reduced image as SEI (Supplemental Enhancement Information) in the MPEG-4 AVC system. 前記縮小画像は、MPEG−4 AVC方式における画面内予測モードを平均値とした予測画像から生成されることを特徴とする請求項3に記載の映像符号化装置。   4. The video encoding apparatus according to claim 3, wherein the reduced image is generated from a prediction image having an intra-screen prediction mode in the MPEG-4 AVC system as an average value.
JP2008141905A 2008-05-30 2008-05-30 Video encoding device and video decoding device Expired - Fee Related JP5147546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008141905A JP5147546B2 (en) 2008-05-30 2008-05-30 Video encoding device and video decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008141905A JP5147546B2 (en) 2008-05-30 2008-05-30 Video encoding device and video decoding device

Publications (3)

Publication Number Publication Date
JP2009290630A true JP2009290630A (en) 2009-12-10
JP2009290630A5 JP2009290630A5 (en) 2011-07-07
JP5147546B2 JP5147546B2 (en) 2013-02-20

Family

ID=41459372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008141905A Expired - Fee Related JP5147546B2 (en) 2008-05-30 2008-05-30 Video encoding device and video decoding device

Country Status (1)

Country Link
JP (1) JP5147546B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029884A1 (en) * 2010-09-03 2012-03-08 ソニー株式会社 Encoding device and encoding method, as well as decoding device and decoding method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238353A (en) * 1995-12-28 1997-09-09 Sony Corp Image coding method and device, image transmission method, and image recording medium
JPH1056563A (en) * 1996-08-09 1998-02-24 Kokusai Electric Co Ltd Method and equipment for pictorial communication
JP2003504988A (en) * 1999-07-19 2003-02-04 ノキア モービル フォーンズ リミテッド Image decoding method, image encoding method, image encoder, image decoder, wireless communication device, and image codec
JP2005348314A (en) * 2004-06-07 2005-12-15 Sony Corp Data recording apparatus, method and program, data reproducing apparatus, method and program, and recording medium
WO2006131700A1 (en) * 2005-06-08 2006-12-14 British Telecommunications Public Limited Company Video coding
WO2007003627A1 (en) * 2005-07-06 2007-01-11 Thomson Licensing Method and device for coding a video content comprising a sequence of pictures and a logo
JP2007110467A (en) * 2005-10-14 2007-04-26 Mitsubishi Electric Corp Image recording reproducing device, display method of image data, and image data displaying method of thumbnail image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238353A (en) * 1995-12-28 1997-09-09 Sony Corp Image coding method and device, image transmission method, and image recording medium
JPH1056563A (en) * 1996-08-09 1998-02-24 Kokusai Electric Co Ltd Method and equipment for pictorial communication
JP2003504988A (en) * 1999-07-19 2003-02-04 ノキア モービル フォーンズ リミテッド Image decoding method, image encoding method, image encoder, image decoder, wireless communication device, and image codec
JP2005348314A (en) * 2004-06-07 2005-12-15 Sony Corp Data recording apparatus, method and program, data reproducing apparatus, method and program, and recording medium
WO2006131700A1 (en) * 2005-06-08 2006-12-14 British Telecommunications Public Limited Company Video coding
WO2007003627A1 (en) * 2005-07-06 2007-01-11 Thomson Licensing Method and device for coding a video content comprising a sequence of pictures and a logo
JP2007110467A (en) * 2005-10-14 2007-04-26 Mitsubishi Electric Corp Image recording reproducing device, display method of image data, and image data displaying method of thumbnail image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029884A1 (en) * 2010-09-03 2012-03-08 ソニー株式会社 Encoding device and encoding method, as well as decoding device and decoding method
JPWO2012029884A1 (en) * 2010-09-03 2013-10-31 ソニー株式会社 Encoding apparatus, encoding method, decoding apparatus, and decoding method
JP2016015767A (en) * 2010-09-03 2016-01-28 ソニー株式会社 Decoder, decoding method, program and recording medium
US9667941B2 (en) 2010-09-03 2017-05-30 Sony Corporation Encoding device, encoding method, decoding device, and decoding method

Also Published As

Publication number Publication date
JP5147546B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
JP5238523B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, and moving picture decoding method
US9838685B2 (en) Method and apparatus for efficient slice header processing
US20140056356A1 (en) Method and apparatus for efficient signaling of weighted prediction in advanced coding schemes
JP6497423B2 (en) Video decoding apparatus, video decoding method, and program
KR102324462B1 (en) Method and apparatus for scalable video coding using intra prediction mode
US20150092862A1 (en) Modified hevc transform tree syntax
JP5706771B2 (en) Moving picture predictive coding apparatus, control method therefor, and computer program
WO2012096146A1 (en) Video encoding device, video decoding device, video encoding method, video decoding method, and program
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
CN115004700A (en) Method and apparatus for video encoding
JP4133346B2 (en) Intra coding of video data blocks by selection of prediction type
JP2022168226A (en) Encoder, decoder, and program
JP2010050911A (en) Encoding apparatus
JP2008166916A (en) Intra prediction encoder and intra prediction coding method
CN116325723B (en) Method, computer device and medium for video decoding
JP2023553996A (en) Derivation of offset in inter-component transform coefficient level restoration
JP5147546B2 (en) Video encoding device and video decoding device
JPWO2010055675A1 (en) Video encoding apparatus and video decoding apparatus
CN116783888B (en) Intra-frame prediction method, apparatus, and computer-readable medium
JP4926912B2 (en) Video encoding apparatus and method
KR20240112882A (en) DIMD mode based intra prediction method and device
JP2023543586A (en) Skip conversion flag encoding
CN116998153A (en) Cross channel prediction based on multiple prediction modes
CA3210537A1 (en) Chroma from luma prediction using neighbor luma samples
CN116458159A (en) Skip transform flag coding

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R151 Written notification of patent or utility model registration

Ref document number: 5147546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees