JP2004040446A - Image-coding device - Google Patents

Image-coding device Download PDF

Info

Publication number
JP2004040446A
JP2004040446A JP2002194337A JP2002194337A JP2004040446A JP 2004040446 A JP2004040446 A JP 2004040446A JP 2002194337 A JP2002194337 A JP 2002194337A JP 2002194337 A JP2002194337 A JP 2002194337A JP 2004040446 A JP2004040446 A JP 2004040446A
Authority
JP
Japan
Prior art keywords
unit
reference image
evaluation value
error evaluation
macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002194337A
Other languages
Japanese (ja)
Inventor
Shinichiro Yoshitani
葭谷 慎一郎
Motoharu Ueda
上田 基晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2002194337A priority Critical patent/JP2004040446A/en
Publication of JP2004040446A publication Critical patent/JP2004040446A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image-coding device that can more efficiently code images in without visual nonconformities. <P>SOLUTION: A reference image generating section 131 generates reference images of a plurality of predictive modes. An error-evaluating value calculating section 132 calculates a first error evaluating value. A reference image generating section 134 generates a reference image, based on the incidental information of an adjacent macro block. Another error evaluating value calculating section 135 calculates a second error-evaluating value, by using the reference image generated by the reference image generating section 134 and an input image. Prediction mode discriminating sections 133 and 136 discriminate a prediction mode, based on the first and second error evaluating values. When the discriminated prediction mode is a mode for generating a reference image, based on the incidental information of the adjacent macro block, the incidental information of the present macro block is replaced by the incidental information of the adjacent macro block. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、MPEG2によって映像信号を符号化する映像符号化装置に関する。
【0002】
【従来の技術】
2000年12月から放送が開始されたBSデジタル放送では、MPEG2によって映像信号を圧縮して放送を行っている。2003年に放送開始が予定されている地上波デジタル放送でも、MPEG2を用いた放送が行われる。MPEG2では、映像の時間的な相関性や空間的な相関性、人間の視覚的な特性を基にしてデータ圧縮を行う。
【0003】
地上波デジタル放送では、周波数帯域の割り当ての制限によりBSデジタル放送よりも狭い周波数帯域で運用されるので、低ビットレートでの運用が想定されている。また、これからの放送方式としては、HDTVを伝送したり複数のチャンネルを同時に伝送してチャンネル数を増やすことが、視聴者にとって魅力のある放送方式とするために必須である。
【0004】
ところで、MPEG2で実際に規定されているのは、復号化の際のフォーマットのみであり、映像符号化装置は、MPEG2の規格に沿うよう符号化すればよい。従って、映像符号化装置による符号化方法(符号化アルゴリズム)には非常に高い自由度があり、符号化の際のデータ量と画質は映像符号化装置そのものの性能で決まることとなる。
【0005】
映像符号化装置は、動きベクトル検出部と動き補償予測部とを備えることは周知である。従来の動き補償予測部は、図3のように構成される。図3に示すように、動き補償予測部は、各予測モードの参照画像を生成する参照画像生成部31と、各予測モードの誤差評価値を算出する誤差評価値算出部32と、モード判別部33と、付帯情報保持部38を備える。
【0006】
参照画像生成部31には、動きベクトル検出部(図示せず)より出力された動きベクトルと、局部復号画像が入力される。参照画像生成部31は、入力された動きベクトルと局部復号画像とに基づいて各予測モード毎に参照画像を生成する。誤差評価値算出部32は、入力された各予測モード毎の参照画像から予測ブロックを抜き出し、入力画像との差分を取りながら、誤差評価値を算出する。誤差評価値算出部32で算出した各予測モード毎の誤差評価値は、モード判別部33に入力される。
【0007】
モード判別部33は、誤差評価値算出部32より入力された各予測モード毎の誤差評価値を基にして予測モードを判別する。モード判別部33より出力された付帯情報は、付帯情報保持部38に入力されて保持される。付帯情報保持部38から出力された付帯情報は、図示していない可変長符号化部へと供給される。また、モード判別部33は、予測モードに応じた予測画像を、入力画像との差分を取るための図示していない減算器に供給する。
【0008】
このようにして、動き補償予測部は、入力された動きベクトルを使用するか否か、また、どのように使用するかを決定し、符号化に使用する動きベクトルと、予測モード,フレームマクロブロック/フィールドマクロブロックのタイプからなる付帯情報を可変長符号化部に供給する。
【0009】
【発明が解決しようとする課題】
従来の映像符号化装置は、符号化データと付帯情報を多重化している。映像信号は空間上での相関があり、隣接するマクロブロック同士では全く同じ付帯情報を有する場合が多い。このような場合でも従来の符号化装置ではそれぞれのマクロブロック毎に付帯情報を生成して伝送するため、結果として符号化の効率が悪いという問題点があった。
【0010】
本発明はこのような問題点に鑑みなされたものであり、より効率的で視覚上不具合のない符号化を行うことができる映像符号化装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明は、上述した従来の技術の課題を解決するため、動きベクトルを検出する動きベクトル検出部(12)と、動き補償予測部(13)とを有する映像符号化装置において、前記動き補償予測部は、動きベクトルと前記映像符号化装置内で符号化及び復号化した局部復号画像とを基にして、複数の予測モードの参照画像を生成する第1の参照画像生成部(131)と、前記複数の予測モードの参照画像と入力画像とを用いて第1の誤差評価値を算出する第1の誤差評価値算出部(132)と、現マクロブロックに隣接する隣接マクロブロックの付帯情報を基にして、参照画像を生成する第2の参照画像生成部(134)と、前記第2の参照画像生成部で生成された参照画像と入力画像とを用いて第2の誤差評価値を算出する第2の誤差評価値算出部(135)と、前記第1の誤差評価値と前記第2の誤差評価値に基づいて予測モードを判別する予測モード判別部(133,136)と、現マクロブロック及び隣接マクロブロックの付帯情報を記憶する付帯情報保持部(138)と、前記予測モード判別部で判別された予測モードが、隣接マクロブロックの付帯情報を基にして参照画像を生成するモードであった場合、現マクロブロックの付帯情報を隣接マクロブロックの付帯情報に置き換えて出力する付帯情報置換手段(137)とを備えることを特徴とする映像符号化装置を提供するものである。
【0012】
【発明の実施の形態】
以下、本発明の映像符号化装置について、添付図面を参照して説明する。図1は本発明の映像符号化装置の全体構成例を示すブロック図、図2は本発明の映像符号化装置の要部の一実施形態を示すブロック図である。
【0013】
まず、本発明の映像符号化装置の全体構成例について説明する。図1において、符号化の対象となっている映像信号は、バッファメモリ/プリプロセス部1に入力される。バッファメモリ/プリプロセス部1は、具体的には、フレームバッファの後段に、フィルタ処理やダウンサンプリング処理等を行うプリプロセス部を設けた構成である。
【0014】
バッファメモリ/プリプロセス部1に一旦蓄積された第nフレームの映像信号は、マクロブロック毎に減算器2に入力される。マクロブロックは動き補償予測に用いられる単位で、MPEG2では16×16または16×8の画素で構成されている。減算器2は、後述するフレームメモリ11に蓄えられ、動き補償予測部13によって動き補償予測された第n−iまたは第n+j(i,j≠0)フレームの局部復号されたデータとの差分をとる。これにより、時間的な冗長性が除去される。
【0015】
減算器2の出力は、離散コサイン変換部(DCT)3に入力されて周波数領域の信号に変換され、さらに、量子化部4に入力されて量子化(ビット変換)される。量子化部4の出力は、可変長符号化部5に入力される。
【0016】
量子化部4の出力は逆量子化部8にも入力され、逆量子化される。そして、逆量子化部8の出力は逆離散コサイン変換部(IDCT)9に入力されて離散コサイン変換前の状態に戻される。逆離散コサイン変換部9の出力は加算器10に入力される。加算器10は、逆離散コサイン変換部9の出力と、動き補償予測部13の出力である局部復号されたデータ(局部復号画像)とを加算し、加算結果をフレームメモリ11に供給する。
【0017】
動きベクトル検出部12は、バッファメモリ/プリプロセス部1の出力とフレームメモリ11の出力とを基にして動きベクトルを検出し、動き補償予測部13に供給する。
【0018】
動き補償予測部13より出力された付帯情報と、量子化部4より出力された量子化信号は、可変長符号化部5に入力されて可変長符号化される。可変長符号化部5の出力はマルチプレクサ(MUX)6に入力される。マルチプレクサ6は、可変長符号化部5の出力がMPEG2の規格に合致したデータ構造になるように多重化を行う。また符号量制御部7は、マルチプレクサ6からの情報を基にして、符号化データの単位時間当たりのデータ量が適切な範囲に収まるよう、量子化部4における量子化に必要な係数を設定する。
【0019】
次に、図2を用いて、動き補償部13の具体的構成及び動作について説明する。図2に示すように、動き補償予測部13は、各予測モードの参照画像を生成する参照画像生成部131と、各予測モードの誤差評価値を算出する誤差評価値算出部132と、モード判別部133と、隣接マクロブロックの付帯情報を基にして参照画像を生成する参照画像生成部134と、誤差評価値を算出する誤差評価値算出部135と、モード判別部136と、付帯情報更新部137と、付帯情報保持部138を備える。
【0020】
参照画像生成部131には、動きベクトル検出部12より出力された動きベクトルと、フレームメモリ11より出力された局部復号画像とが入力される。参照画像生成部131は、入力された動きベクトルと局部復号画像とに基づいて各予測モード毎に参照画像を生成する。各予測モードとは以下に示す通りである。
【0021】
Iピクチャの場合には、フレーム内符号化マクロブロック(Intra MB)であり、Pピクチャの場合には、Intra MB,順方向予測動き補償マクロブロック(Forward MC MB),順方向フレーム間予測マクロブロック(No MC MB)である。Bピクチャの場合には、Intra MB,Forward MC MB,逆方向予測動き補償マクロブロック(Backward MC MB),双方向予測動き補償マクロブロック(Average MC MB)である。
【0022】
誤差評価値算出部132は、入力された各予測モード毎の参照画像から予測ブロックを抜き出し、入力画像との差分を取りながら、誤差評価値を算出する。誤差評価値算出部132で算出した各予測モード毎の誤差評価値は、モード判別部133に入力される。モード判別部133は、誤差評価値算出部132より入力された各予測モード毎の誤差評価値を基にして予測モードを判別する。
【0023】
参照画像生成部134には、付帯情報保持部138から隣接マクロブロックの付帯情報が入力される。隣接マクロブロックとは、最も好ましくは、現マクロブロックの左隣のマクロブロックである。参照画像生成部134は、入力された隣接マクロブロックの付帯情報(予測モード,動きベクトル,フレームマクロブロック/フィールドマクロブロックのタイプ)とフレームメモリ11内の局部復号画像を基にして参照画像を生成する。
【0024】
誤差評価値算出部135は、参照画像生成部134より出力された参照画像を基にして入力画像との差分を取りながら誤差評価値を算出する。誤差評価値算出部135で算出した誤差評価値は、モード判別部136に入力される。モード判別部136は、誤差評価値算出部135より入力された誤差評価値とモード判別部133から入力された予測モードを基にして予測モードを判別し、その予測モードの予測画像を減算器2へと供給する。
【0025】
ここで、判別した予測モードが隣接マクロブロックと同じ予測モードであれば、付帯情報更新部137は、現マクロブロックの付帯情報を隣接マクロブロックの付帯情報に置き換える。付帯情報保持部138は、現マクロブロックの付帯情報と隣接マクロブロックの付帯情報とを記憶して保持する。付帯情報保持部138から出力された付帯情報は、可変長符号化部5へと供給される。
【0026】
以上により、現マクロブロックの付帯情報が隣接マクロブロックの付帯情報と同じであり、かつ、DCT部3及び量子化部4での処理の後の係数が全て0の場合、現マクロブロックは可変長符号化部5でスキップマクロブロックと判定されることとなる。スキップマクロブロックと判定された場合、可変長符号化部5ではマクロブロックの付帯情報を付加せずに出力する。
【0027】
これにより、付帯情報の分の符号量を削減することができる。スキップマクロブロックと判定されない場合でも、動きベクトルの差分が0であるため、動きベクトルの分の符号量を削減することができ、可変長符号化部5での可変長符号化の効率がよくなる。また、MPEG2の規定により、復号装置において、付帯情報のないマクロブロックについては1つ前のマクロブロックの付帯情報をそのまま使うものとされており、前述のように付帯情報を付加せずに出力しても再生画像に影響はない。従って、限られたデータ量においても、より適切な符号化を行うことが可能となる。
【0028】
【発明の効果】
以上詳細に説明したように、本発明の映像符号化装置は、動き補償予測部を、動きベクトルと映像符号化装置内で符号化及び復号化した局部復号画像とを基にして、複数の予測モードの参照画像を生成する第1の参照画像生成部と、複数の予測モードの参照画像と入力画像とを用いて第1の誤差評価値を算出する第1の誤差評価値算出部と、現マクロブロックに隣接する隣接マクロブロックの付帯情報を基にして、参照画像を生成する第2の参照画像生成部と、第2の参照画像生成部で生成された参照画像と入力画像とを用いて第2の誤差評価値を算出する第2の誤差評価値算出部と、第1の誤差評価値と第2の誤差評価値に基づいて予測モードを判別する予測モード判別部と、現マクロブロック及び隣接マクロブロックの付帯情報を記憶する付帯情報保持部と、予測モード判別部で判別された予測モードが、隣接マクロブロックの付帯情報を基にして参照画像を生成するモードであった場合、現マクロブロックの付帯情報を隣接マクロブロックの付帯情報に置き換えて出力する付帯情報置換手段とを備える構成としたので、より効率的で視覚上不具合のない符号化を行うことができる。
【図面の簡単な説明】
【図1】本発明の全体構成例を示すブロック図である。
【図2】本発明の要部の一実施形態を示すブロック図である。
【図3】従来例を示すブロック図である。
【符号の説明】
1 バッファメモリ/プリプロセス部
2 減算器
3 離散コサイン変換部
4 量子化部
5 可変長符号化部
6 マルチプレクサ
7 符号量制御部
8 逆量子化部
9 逆離散コサイン変換部
10 加算器
11 フレームメモリ
12 動きベクトル検出部
13 動き補償予測部
131,134 参照画像生成部
132,135 誤差評価値算出部
133,136 モード判別部
137 付帯情報更新部(付帯情報置換手段)
138 付帯情報保持部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video encoding device that encodes a video signal by MPEG2.
[0002]
[Prior art]
In BS digital broadcasting, which started broadcasting in December 2000, a video signal is compressed by MPEG2 and broadcasted. Even terrestrial digital broadcasting scheduled to start broadcasting in 2003, broadcasting using MPEG2 is performed. In MPEG2, data compression is performed on the basis of temporal correlation and spatial correlation of video, and human visual characteristics.
[0003]
Since terrestrial digital broadcasting is operated in a narrower frequency band than BS digital broadcasting due to the limitation of frequency band allocation, operation at a low bit rate is assumed. Also, as a future broadcasting system, it is essential to transmit HDTV or simultaneously transmit a plurality of channels to increase the number of channels in order to make the broadcasting system attractive to a viewer.
[0004]
By the way, what is actually defined in MPEG2 is only the format at the time of decoding, and the video encoding device may perform encoding in accordance with the MPEG2 standard. Therefore, the encoding method (encoding algorithm) by the video encoding device has a very high degree of freedom, and the data amount and the image quality at the time of encoding are determined by the performance of the video encoding device itself.
[0005]
It is well known that a video encoding device includes a motion vector detection unit and a motion compensation prediction unit. The conventional motion compensation prediction unit is configured as shown in FIG. As shown in FIG. 3, the motion compensation prediction unit includes a reference image generation unit 31 that generates a reference image of each prediction mode, an error evaluation value calculation unit 32 that calculates an error evaluation value of each prediction mode, and a mode determination unit. 33 and an accompanying information holding unit 38.
[0006]
The reference image generator 31 receives the motion vector output from the motion vector detector (not shown) and the local decoded image. The reference image generation unit 31 generates a reference image for each prediction mode based on the input motion vector and the locally decoded image. The error evaluation value calculation unit 32 extracts a prediction block from the input reference image for each prediction mode and calculates an error evaluation value while obtaining a difference from the input image. The error evaluation value for each prediction mode calculated by the error evaluation value calculation unit 32 is input to the mode determination unit 33.
[0007]
The mode determination unit 33 determines the prediction mode based on the error evaluation value for each prediction mode input from the error evaluation value calculation unit 32. The incidental information output from the mode determining unit 33 is input to and held in the incidental information holding unit 38. The additional information output from the additional information holding unit 38 is supplied to a variable length encoding unit (not shown). In addition, the mode determination unit 33 supplies a predicted image according to the prediction mode to a subtracter (not shown) for obtaining a difference from the input image.
[0008]
In this way, the motion compensation prediction unit determines whether or not to use the input motion vector and how to use it, and determines the motion vector used for encoding, the prediction mode, the frame macroblock Supplementary information consisting of the type of / field macroblock is supplied to the variable length coding unit.
[0009]
[Problems to be solved by the invention]
A conventional video encoding device multiplexes encoded data and incidental information. Video signals have spatial correlation, and adjacent macroblocks often have exactly the same incidental information. Even in such a case, the conventional encoding device generates and transmits the additional information for each macroblock, and as a result, there is a problem that the encoding efficiency is low.
[0010]
The present invention has been made in view of such a problem, and an object of the present invention is to provide a video encoding device that can perform encoding more efficiently and without any visual defects.
[0011]
[Means for Solving the Problems]
The present invention provides a video encoding apparatus having a motion vector detection unit (12) for detecting a motion vector and a motion compensation prediction unit (13), in order to solve the above-mentioned problems of the conventional technology. A first reference image generation unit (131) configured to generate a reference image in a plurality of prediction modes based on the motion vector and the locally decoded image encoded and decoded in the video encoding device; A first error evaluation value calculation unit (132) for calculating a first error evaluation value using the reference images of the plurality of prediction modes and an input image, and additional information of an adjacent macroblock adjacent to the current macroblock. A second reference image generation unit (134) for generating a reference image, and a second error evaluation value calculated using the reference image and the input image generated by the second reference image generation unit Second error evaluation A calculation unit (135); a prediction mode determination unit (133, 136) for determining a prediction mode based on the first error evaluation value and the second error evaluation value; If the additional information holding unit (138) for storing information and the prediction mode determined by the prediction mode determining unit are modes for generating a reference image based on additional information of an adjacent macro block, the current macro block And a supplementary information replacing means (137) for replacing the supplementary information with the supplementary information of an adjacent macroblock and outputting the supplementary information.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a video encoding device according to the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing an example of the overall configuration of a video encoding device according to the present invention, and FIG. 2 is a block diagram showing an embodiment of a main part of the video encoding device according to the present invention.
[0013]
First, an example of the overall configuration of the video encoding device of the present invention will be described. In FIG. 1, a video signal to be encoded is input to a buffer memory / preprocessing unit 1. Specifically, the buffer memory / preprocessing unit 1 has a configuration in which a preprocessing unit that performs a filtering process, a downsampling process, and the like is provided at a subsequent stage of the frame buffer.
[0014]
The video signal of the n-th frame once stored in the buffer memory / preprocessing unit 1 is input to the subtracter 2 for each macroblock. A macroblock is a unit used for motion compensation prediction, and is composed of 16 × 16 or 16 × 8 pixels in MPEG2. The subtracter 2 calculates the difference between the locally decoded data of the (n−i) th or (n + j) th (i, j ≠ 0) frame, which is stored in a frame memory 11 described later and motion compensated and predicted by the motion compensation prediction unit 13. Take. This eliminates temporal redundancy.
[0015]
The output of the subtracter 2 is input to a discrete cosine transform unit (DCT) 3 and converted into a frequency-domain signal, and further input to a quantization unit 4 and quantized (bit-converted). The output of the quantization unit 4 is input to the variable length coding unit 5.
[0016]
The output of the quantization unit 4 is also input to the inverse quantization unit 8 and is inversely quantized. Then, the output of the inverse quantization unit 8 is input to the inverse discrete cosine transform unit (IDCT) 9 and returned to the state before the discrete cosine transform. The output of the inverse discrete cosine transform unit 9 is input to the adder 10. The adder 10 adds the output of the inverse discrete cosine transform unit 9 and the locally decoded data (locally decoded image) output from the motion compensation prediction unit 13, and supplies the addition result to the frame memory 11.
[0017]
The motion vector detection unit 12 detects a motion vector based on the output of the buffer memory / preprocessing unit 1 and the output of the frame memory 11, and supplies the motion vector to the motion compensation prediction unit 13.
[0018]
The incidental information output from the motion compensation prediction unit 13 and the quantized signal output from the quantization unit 4 are input to the variable length coding unit 5 and are variable length coded. The output of the variable length coding unit 5 is input to a multiplexer (MUX) 6. The multiplexer 6 performs multiplexing so that the output of the variable-length encoding unit 5 has a data structure conforming to the MPEG2 standard. Further, the code amount control unit 7 sets coefficients necessary for the quantization in the quantization unit 4 based on the information from the multiplexer 6 so that the data amount of the encoded data per unit time falls within an appropriate range. .
[0019]
Next, a specific configuration and operation of the motion compensation unit 13 will be described with reference to FIG. As shown in FIG. 2, the motion compensation prediction unit 13 includes a reference image generation unit 131 that generates a reference image of each prediction mode, an error evaluation value calculation unit 132 that calculates an error evaluation value of each prediction mode, and a mode discrimination. Unit 133, a reference image generation unit 134 that generates a reference image based on the additional information of the adjacent macroblock, an error evaluation value calculation unit 135 that calculates an error evaluation value, a mode determination unit 136, and an additional information update unit 137 and an additional information holding unit 138.
[0020]
The motion vector output from the motion vector detection unit 12 and the locally decoded image output from the frame memory 11 are input to the reference image generation unit 131. The reference image generation unit 131 generates a reference image for each prediction mode based on the input motion vector and the locally decoded image. Each prediction mode is as shown below.
[0021]
In the case of an I picture, it is an intra-coded macroblock (Intra MB), and in the case of a P picture, it is Intra MB, a forward prediction motion compensation macroblock (Forward MC MB), or a forward interframe prediction macroblock. (No MC MB). In the case of a B picture, it is an Intra MB, a Forward MC MB, a backward prediction motion compensation macroblock (Backward MC MB), or a bidirectional prediction motion compensation macroblock (Average MC MB).
[0022]
The error evaluation value calculation unit 132 extracts a prediction block from the input reference image for each prediction mode and calculates an error evaluation value while obtaining a difference from the input image. The error evaluation value for each prediction mode calculated by the error evaluation value calculation unit 132 is input to the mode determination unit 133. The mode determination unit 133 determines the prediction mode based on the error evaluation value for each prediction mode input from the error evaluation value calculation unit 132.
[0023]
The supplementary information of the adjacent macroblock is input from the supplementary information holding unit 138 to the reference image generation unit 134. The adjacent macroblock is most preferably the macroblock to the left of the current macroblock. The reference image generation unit 134 generates a reference image based on the incidental information (prediction mode, motion vector, type of frame macroblock / field macroblock) of the input adjacent macroblock and the locally decoded image in the frame memory 11. I do.
[0024]
The error evaluation value calculation unit 135 calculates an error evaluation value based on the reference image output from the reference image generation unit 134 while obtaining a difference from the input image. The error evaluation value calculated by the error evaluation value calculation unit 135 is input to the mode determination unit 136. The mode determination unit 136 determines a prediction mode based on the error evaluation value input from the error evaluation value calculation unit 135 and the prediction mode input from the mode determination unit 133, and subtracts a prediction image of the prediction mode from the subtractor 2 To supply.
[0025]
Here, if the determined prediction mode is the same prediction mode as the adjacent macroblock, the incidental information updating unit 137 replaces the incidental information of the current macroblock with the incidental information of the adjacent macroblock. The additional information holding unit 138 stores and holds the additional information of the current macroblock and the additional information of the adjacent macroblock. The additional information output from the additional information holding unit 138 is supplied to the variable length coding unit 5.
[0026]
As described above, when the supplementary information of the current macroblock is the same as the supplementary information of the adjacent macroblock, and all the coefficients after the processing in the DCT unit 3 and the quantization unit 4 are 0, the current macroblock has a variable length. The encoding unit 5 determines that the block is a skip macro block. If it is determined that the macroblock is a skipped macroblock, the variable-length encoding unit 5 outputs the macroblock without adding the additional information of the macroblock.
[0027]
This makes it possible to reduce the code amount for the additional information. Even when it is not determined that the macroblock is a skipped macroblock, since the difference between the motion vectors is 0, the amount of code for the motion vector can be reduced, and the efficiency of variable-length coding in the variable-length coding unit 5 is improved. Further, according to the rules of MPEG2, in a decoding device, for a macroblock having no supplementary information, the supplementary information of the immediately preceding macroblock is used as it is, and the decoding is performed without adding the supplementary information as described above. This does not affect the reproduced image. Therefore, it is possible to perform more appropriate encoding even with a limited data amount.
[0028]
【The invention's effect】
As described above in detail, the video encoding device of the present invention provides a motion compensation prediction unit that performs a plurality of predictions on the basis of a motion vector and a locally decoded image encoded and decoded in the video encoding device. A first reference image generation unit for generating a reference image of the mode, a first error evaluation value calculation unit for calculating a first error evaluation value using the reference images of the plurality of prediction modes and the input image, A second reference image generation unit that generates a reference image based on incidental information of an adjacent macroblock adjacent to the macroblock, and a reference image generated by the second reference image generation unit and an input image. A second error evaluation value calculation unit that calculates a second error evaluation value; a prediction mode determination unit that determines a prediction mode based on the first error evaluation value and the second error evaluation value; Stores incidental information of adjacent macroblock If the prediction mode determined by the additional information holding unit and the prediction mode determination unit is a mode for generating a reference image based on the additional information of the adjacent macroblock, the additional information of the current macroblock is added to the adjacent macroblock. Since the configuration includes the additional information replacing means for replacing the additional information with the additional information and outputting the information, it is possible to perform the encoding more efficiently and without any visual defect.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of the overall configuration of the present invention.
FIG. 2 is a block diagram showing an embodiment of a main part of the present invention.
FIG. 3 is a block diagram showing a conventional example.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 buffer memory / preprocessing unit 2 subtracter 3 discrete cosine transform unit 4 quantizer 5 variable length encoder 6 multiplexer 7 code amount controller 8 inverse quantizer 9 inverse discrete cosine transform unit 10 adder 11 frame memory 12 Motion vector detection unit 13 Motion compensation prediction unit 131, 134 Reference image generation unit 132, 135 Error evaluation value calculation unit 133, 136 Mode discriminating unit 137 Additional information updating unit (additional information replacement unit)
138 Additional information storage unit

Claims (1)

動きベクトルを検出する動きベクトル検出部と、動き補償予測部とを有する映像符号化装置において、
前記動き補償予測部は、
動きベクトルと前記映像符号化装置内で符号化及び復号化した局部復号画像とを基にして、複数の予測モードの参照画像を生成する第1の参照画像生成部と、前記複数の予測モードの参照画像と入力画像とを用いて第1の誤差評価値を算出する第1の誤差評価値算出部と、
現マクロブロックに隣接する隣接マクロブロックの付帯情報を基にして、参照画像を生成する第2の参照画像生成部と、
前記第2の参照画像生成部で生成された参照画像と入力画像とを用いて第2の誤差評価値を算出する第2の誤差評価値算出部と、
前記第1の誤差評価値と前記第2の誤差評価値に基づいて予測モードを判別する予測モード判別部と、
現マクロブロック及び隣接マクロブロックの付帯情報を記憶する付帯情報保持部と、
前記予測モード判別部で判別された予測モードが、隣接マクロブロックの付帯情報を基にして参照画像を生成するモードであった場合、現マクロブロックの付帯情報を隣接マクロブロックの付帯情報に置き換えて出力する付帯情報置換手段とを備えることを特徴とする映像符号化装置。
In a video encoding device having a motion vector detection unit that detects a motion vector, and a motion compensation prediction unit,
The motion compensation prediction unit,
A first reference image generation unit that generates a reference image in a plurality of prediction modes based on a motion vector and a locally decoded image encoded and decoded in the video encoding device; A first error evaluation value calculation unit that calculates a first error evaluation value using the reference image and the input image;
A second reference image generation unit that generates a reference image based on incidental information of an adjacent macroblock adjacent to the current macroblock;
A second error evaluation value calculation unit that calculates a second error evaluation value using the reference image generated by the second reference image generation unit and the input image;
A prediction mode determining unit that determines a prediction mode based on the first error evaluation value and the second error evaluation value;
An additional information holding unit that stores additional information of the current macroblock and adjacent macroblocks;
When the prediction mode determined by the prediction mode determination unit is a mode for generating a reference image based on the additional information of the adjacent macroblock, the additional information of the current macroblock is replaced with the additional information of the adjacent macroblock. A video encoding device, comprising: an additional information replacing unit that outputs.
JP2002194337A 2002-07-03 2002-07-03 Image-coding device Pending JP2004040446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002194337A JP2004040446A (en) 2002-07-03 2002-07-03 Image-coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002194337A JP2004040446A (en) 2002-07-03 2002-07-03 Image-coding device

Publications (1)

Publication Number Publication Date
JP2004040446A true JP2004040446A (en) 2004-02-05

Family

ID=31703063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002194337A Pending JP2004040446A (en) 2002-07-03 2002-07-03 Image-coding device

Country Status (1)

Country Link
JP (1) JP2004040446A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115171328A (en) * 2022-06-30 2022-10-11 国网北京市电力公司 Firework identification method, device, equipment and medium based on video compression coding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115171328A (en) * 2022-06-30 2022-10-11 国网北京市电力公司 Firework identification method, device, equipment and medium based on video compression coding
CN115171328B (en) * 2022-06-30 2023-11-10 国网北京市电力公司 Smoke and fire identification method, device, equipment and medium based on video compression coding

Similar Documents

Publication Publication Date Title
JP4132664B2 (en) Transcoding
JP4927207B2 (en) Encoding method, decoding method and apparatus
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
US20050002458A1 (en) Spatial scalable compression
KR100694137B1 (en) Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof
JP2004336369A (en) Moving image encoder, moving image decoder, moving image encoding method, moving image decoding method, moving image encoding program and moving image decoding program
JP4401336B2 (en) Encoding method
US20060133475A1 (en) Video coding
JP2007251758A (en) Moving image coding apparatus, and method
KR20060109290A (en) Image decoding device, image decoding method, and image decoding program
US6847684B1 (en) Zero-block encoding
JP3415319B2 (en) Moving picture coding apparatus and moving picture coding method
JP4357560B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP4120934B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP2007235989A (en) Image processing apparatus and image processing method, program, and recording medium
JP3756897B2 (en) Moving picture coding apparatus and moving picture coding method
KR20100082700A (en) Wyner-ziv coding and decoding system and method
JP2004040446A (en) Image-coding device
JP4302093B2 (en) Moving picture coding apparatus and moving picture coding method
JP4211023B2 (en) Moving image processing method and moving image processing apparatus
JP3756902B2 (en) Moving picture decoding apparatus and moving picture decoding method
JPH10164594A (en) Compression encoding method for moving image and device therefor
JP3756898B2 (en) Moving picture coding apparatus and moving picture coding method
JP2002374536A (en) Encoder
JP2005278051A (en) Video encoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070302