JP2010268505A - Block motion video coding and decoding - Google Patents

Block motion video coding and decoding Download PDF

Info

Publication number
JP2010268505A
JP2010268505A JP2010160883A JP2010160883A JP2010268505A JP 2010268505 A JP2010268505 A JP 2010268505A JP 2010160883 A JP2010160883 A JP 2010160883A JP 2010160883 A JP2010160883 A JP 2010160883A JP 2010268505 A JP2010268505 A JP 2010268505A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
data
based
block
motion
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010160883A
Other languages
Japanese (ja)
Inventor
Robert N Hurst
ハースト,ロバート,エヌ.
Original Assignee
Akikaze Technologies Llc
アキカゼ・テクノロジーズ,リミテッド・ライアビリティ・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image, e.g. from bit-mapped to bit-mapped creating a different image
    • G06T3/40Scaling the whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Abstract

<P>PROBLEM TO BE SOLVED: To provide a coding method with which transcoding is performed without inverse transform. <P>SOLUTION: During transform-based video compression processing, motion vectors, which are identified during motion estimation and then used during motion-compensated inter-frame differential operation, are constrained to conform to block boundaries in the reference data. Constraining motion vectors in this way enables the resulting encoded video bitstream to be further processed in the transform domain without having to apply inverse and forward transforms. An existing input bitstream is partially coded to recover the motion vectors and prediction error. Because the motion vectors conform to block boundaries in the reference data, motion-compensated inter-frame difference addition operation can then be performed in the transform domain to generate transform data for subsequent processing. Because motion compensation can be performed in the transform domain, the bitstream data is further processed in the transform domain and without having to apply expensive and lossy inverse and forward transforms. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、ビデオ圧縮及び伸長アルゴリズムに関する。 This invention relates to video compression and decompression algorithms.

(優先権の主張) (Claim of priority)
この出願は、1998年9月29日に出願された米国仮出願No. This application was filed on September 29, 1998, US Provisional Application No. 60/102,214及び1999年2月25日に出願された米国仮出願No. Filed 60 / 102,214 and February 25, 1999, US Provisional Application No. 60/121,531の出願日に基づく利益を請求するものである。 It is intended to claim the benefit under filing date of 60 / 121,531.

Moving Picture Experts Group(MPEG)ファミリのアルゴリズムに対応するような典型的な変換ベースのビデオ圧縮アルゴリズムにおいては、離散コサイン変換(DCT)のようなブロックベースの変換が、例えば、動き補正されたインターフレーム差別体系に基づいて発生された画素値又は画素差のいずれかに対応した像データのブロックに施される。 Moving Picture In a typical transform-based video compression algorithms, such as corresponding to Experts Group (MPEG) family of algorithms, block-based transform such as discrete cosine transform (DCT), for example, inter-frame motion compensation It is applied to the block of image data corresponding to one pixel value or pixel difference generated on the basis of the discrimination system. それぞれのブロックに対する得られた変換係数は、次いで、引き続くコード化(例えば、可変長さコード化によってフォローされるラン長さコード化)のために一般的に量子化されてコード化されたビデオビットストリームを発生させる。 The transform coefficients obtained for each block, then subsequent coding (e.g., run-length encoding which is followed by a variable-length coding) generally are quantized coded video bit for to generate a stream.

特定のビデオ圧縮アルゴリズムに応じて、像は、圧縮処理のために以下のような種々のフレームとして指定できる。 Depending on the particular video compression algorithm, the image can be specified as a variety of frames, such as the following for compression processing.

・イントラフレーム圧縮技術のみを用いてコード化されるイントラ(I)フレーム、 Intra (I) frame is encoded using intra-frame compression technique only,
・予測される(P)フレームであって、予めI又はPフレームに対応する基準フレームに基づいてイントラフレーム圧縮技術を用いてコード化されるとともにそれ自身一つ又はそれ以上のその他のフレームをコード化するための基準フレームを発生するのに用いることができる予測される(P)フレーム、及び、 - a predicted (P) frame, a code itself one or more other frames with encoded using intra-frame compression techniques based on the reference frame corresponding to the previously I or P-frame predicted (P) frames can be used to generate a reference frame for reduction and,
・(i)予めのI又はPフレーム、(ii)引き続くI又はPフレーム、(iii)両方の組み合わせのいずれかから(i)順方向、(ii)逆方向、又は、(iii)双方向予測に基づいてインターフレーム圧縮技術を用いてコード化され、及び、それ自身はその他のフレームのコード化には使えない双方向(B)フレーム。 · (I) previously I or P-frame, (ii) subsequent I or P frame, (iii) from any of a combination of both (i) forward, (ii) reverse, or, (iii) bi-directional prediction interframe coded using a compression technique, and, itself bidirectional not work for coding of other frames (B) frame based on.

P及びBフレームにおいて、像データの一つ又はそれ以上のブロックは、イントラフレーム圧縮技術を用いてコード化できる。 In P and B frames, one or more blocks of image data can be encoded using the intra-frame compression technique.

いずれにしても、得られたコード化されたビデオビットストリームをデコード化するために、特定の圧縮処理が、逆転又は反転されなければならない。 Anyway, in order to decode the resulting encoded video bitstream, a particular compression process has to be reversed or inverted. 例えば、可変長さデコード化が、ラン長さデコード化に引き続いてビットストリームに施すことができて、次いで、非量子化によって非量子化された変換係数のブロックが発生する。 For example, variable length decoding is to be able to apply to the bitstream subsequent to the run length decoding, then the non-quantized transform coefficient block generated by the non-quantization. 反転変換が、次いで、非量子化された変換係数のブロックに施され、(1)デコード化された画素データ又は(2)画素差データのいずれかが発生する(像データの対応するブロックが、当初に、それぞれ、(1)イントラフレーム又は(2)インターフレーム圧縮技術を用いてコード化されたかどうかに応じて)。 Inversion transform is then applied to the block of non-quantized transform coefficients, (1) decoding pixel data, or (2) any pixel difference data is generated (corresponding block of image data, initially, each, depending on whether it has been coded using a (1) intra-frame or (2) inter-frame compression techniques). 動き補正されたインターフレーム圧縮技術が使われるとき、次いで、イントラフレーム追加が、動き補正された基準フレームデータを用いる画素差データに施されてデコード化された画素データを発生させ、ここで、動き補正の量は、圧縮処理中にビットストリームにコード化される動きベクトルによって決定される。 When motion-compensated inter-frame compression techniques are used, then intraframe added, it is subjected to the pixel difference data using motion compensated reference frame data to generate a decoded pixel data, wherein the motion the amount of correction is determined by the motion vector is encoded into the bit stream during the compression process. 動き補正された基準フレームデータは、デコード化された像データの予測であると考えられ、画素差データは、その予測における誤差であると考えられる。 Motion compensated reference frame data is considered to be predictive of decoded by image data, the pixel difference data is considered to be the error in the prediction. このようにして、動き補正されたインターフレーム圧縮追加過程は、予測の補正に対応する。 In this way, motion-compensated inter-frame compression additional step corresponds to the correction of the prediction.

いくつかのアプリケーションにおいて、追加的な処理が、コード化されたビデオビットストリームが発生された後に施される。 In some applications, additional processing, coded video bit stream is subjected after being generated. 典型的に、コード化されたビデオビットストリームは、別の、多分離れて位置するプロセッサによって予め発生されており、必要な追加の処理の目的で入力として取り扱われる。 Typically, coded video bitstream, another is pre generated by a processor located perhaps apart, it is treated as input for the purpose of additional processing required. 例えば、「トランスコーディング(transcoding)」が実行できることが好ましく、これは、一つのビデオ圧縮/伸長(コーデック)アルゴリズムに適合する存在するコード化ビデオビットストリームが、異なるビデオコーデックアルゴリズムに適合する対応するコード化されたビデオビットストリームに変換されることである。 For example, it is preferable to be executed is "transcoding (transcoding)", which is coded video bit stream present conforms to one of the video compression / decompression (codec) algorithms, corresponds conform to different video codec algorithm code reduction has been is transformed into a video bit stream. このような 「トランスコーディング」操作が実行できる一つの「暴力的な(brute force)」アプローチは、入力ビットストリームを第1のビデオコーデックアルゴリズムに基づいてデコード化された画素領域に完全にデコード化し、次いで、得られたデコード化画素データを第2のビデオコーデックアルゴリズムに基づいて出力ビットストリームに完全にコード化することである。 Such "transcoding" operation One "violent (brute force)" you can perform approach, fully decoded into decoded pixel region was based on the input bit stream to the first video codec algorithm, then to completely coded into the output bitstream based on the obtained decoding pixel data in the second video codec algorithm.

その他の可能なアプリケーションは、存在するコード化ビデオビットストリームへのウォータマークの挿入である。 Other possible applications are the insertion of a watermark into coded video bit stream present. ここで、またウォータマーク挿入への一つの暴力的なアプローチは、入力ビットストリームをデコード化される画素領域に完全にデコード化し、画素領域内のデコード化される画素データを処理して必要なウォータマークを挿入し、次いで、修正された画素データを完全に再コード化し、必要な処理を受けた出力コード化ビデオビットストリームを発生することである。 Here, also one violent approach to watermark insertion fully decoded into the pixel area to be decoded input bit stream, necessary to process the pixel data to be decoded in the pixel area water insert the mark, then fully recoded the modified pixel data is to generate an output coded video bitstream that has received the necessary processing.

典型的な変換ベースのビデオコーデックアルゴリズムにおいて、進行方向及び逆方向変換過程は、コード化の複雑さと処理時間の両方のために比較的コスト高である。 In a typical transform-based video codec algorithm, the traveling direction and the reverse conversion process is the relatively high cost for both complexity and processing time of coding. さらに、損失のある変換において、存在するコード化されたビデオビットストリームの乱暴な強行な処理中における逆方向変換の適用と、次に順方向変換の再適用は、入力ビットストリームに含まれる情報の損失を一般的に招き、処理されたビットストリームにおけるデコード化された画質に劣化をもたらす。 Further, in the conversion with a loss, and the application of the reverse conversion during a violent forced processing encoded video bitstream exists, then reapply the forward transform, the information contained in the input bit stream loss generally lead to results in deterioration in the decoded image quality in the processed bit stream. このようにして、最初にビットストリームを完全にデコード化せずに入力ビットストリームにある処理操作(例えば、トランスコーディングやウォータマーク挿入のような)を行なえることが望ましい。 In this manner, first in the input bit stream without completely decoding the bit stream processing operations (e.g., such as transcoding and watermark insertion) is desirably performed a. このような処理操作が情報の大きな損失無しに変換領域において実行できるときは、コスト高で損失の大きな逆方向及び順方向変換過程は、回避される。 When such processing operations can be performed in the transform domain to the great loss without information, a large reverse and forward conversion process losses in high cost, it is avoided.

この発明は、ビデオ圧縮及び伸長技術に関するものであって、入力ビットストリームを最初に完全にデコード化することなく存在するコード化ビデオビットストリームをさらに処理することを可能にする技術に関する。 This invention relates to a video compression and decompression technology, a technique which allows to further process the coded video bit stream present without first completely decode the input bit stream. 特に、この発明は、入力ビットストリームに含まれている情報の大きな損失のない、又は、できればまったく損失のない変換領域における部分的にデコード化されたビデオデータを処理することを可能にするものである。 In particular, the present invention is no significant loss of information contained in the input bit stream, or, as it makes it possible to handle the partially decoded video data in exactly the lossless transform domain if is there. このようにして、この発明は、存在する入力ビットストリームの処理中にコスト高で損失の大きな逆方向及び順方向変換過程を施すことを回避する。 In this way, the invention avoids applying a large reverse and forward conversion process losses costly during the processing of the input bit stream present.

この発明によれば、コード化された入力ビデオビットストリームを発生させるのに用いられる動き補正されたインターフレームビデオ圧縮技術は、ブロック境界に一致する動きベクトルに基づくものに限定される。 According to the present invention, motion-compensated inter-frame video compression techniques used to generate the coded input video bit stream is limited to one based on the motion vector that matches the block boundaries. 例えば、(8×8)DCT変換に基づいたMPEGビデオ圧縮アルゴリズムにおいて、動きベクトル成分は、整数×8(整数は、正、負又は0であることができる)に限定される。 For example, in the MPEG video compression algorithm based on (8 × 8) DCT transformation, motion vector component is an integer × 8 (integer, positive, can be a negative or 0) is limited to. その結果、処理操作が、大きな情報の損失のない(又は、できればまったく損失のない)変換領域において部分的にデコード化されたビデオデータに適用できる。 As a result, the processing operations, without loss of significant information (or, without totally lost if possible) can be applied to the partially decoded video data in the transform domain. 典型的なMPEGビデオコーデックアルゴリズムに対して、可変長さデコード化、ラン長さデコード化が、コード化された入力ビデオビットストリームに施すことができて、次いで、非量子化によってDCT係数データが発生される。 For a typical MPEG video codec algorithm, variable length decoding, run length decoding is to be able to apply the coded input video bit stream, then, DCT coefficient data generated by the dequantization It is. 動きベクトルはブロック境界との一致に限定されるので、動き補正されたインターフレーム追加が、次いで、逆方向DCT変換を最初に適用することなくDCT変換領域において実行される。 Since the motion vector is limited to match with block boundaries, inter-frame addition to the motion-correction is then carried out in the DCT transform domain without applying the inverse DCT transform first. 得られた動き補正された変換データは、次いで、変換領域において特別の必要な処理操作(例えば、トランスコーディング操作、ウォータマークの挿入)を受けることができる。 Conversion data motion compensation is obtained, then special processing required operations in the transform domain (e.g., transcoding operations, insertion of the watermark) can receive. 適用の仕方に対応して、得られた処理されたDCT係数データは、次に動き推定、動き補正されたインターフレーム減算、再量子化、ラン長さ再コード化、及び、可変長さ再コード化の少なくとも一部分を受けることができて逆方向及び順方向DCT変換過程を別々に展開することなく必要な処理された出力コード化ビデオビットストリームを発生させる。 In response to how the application, DCT coefficient data which has been processed is obtained, then the motion estimation, inter-frame subtraction is motion corrected, re-quantization, run-length recoding, and a variable length Is recoding of generating an output coded video bit stream processing required without expanding at least a portion can receive with the reverse and forward DCT transform process separately.

一つの実施例によれば、この発明は、ビデオデータを圧縮する方法であって、 According to one embodiment, the invention provides a method for compressing video data,
(a)対応する基準データに基づいてビデオデータのフレームについて動き推定を行なってそのフレームに対する動きベクトルの組を識別し、その際前記動き推定が、前記基準データにおけるブロック境界と一致するブロックベースの動きベクトルのみの識別に制限され、及び、ブロックベースの動きベクトルの少なくとも一つが、非ゼロ動きベクトルであり、 (A) the frame of video data based on the corresponding reference data by performing motion estimation to identify the set of motion vectors for that frame, where the motion estimation, a block-based matching the block boundary in the reference data It is limited to the identification of the motion vectors only, and at least one block-based motion vector is a non-zero motion vector,
(b)前記基準データ及び前記ブロックベースの動きベクトルに基づいた前記ビデオデータに対して動き補正されたインターフレーム差別を行なってインターフレーム差データを発生させ、及び、 (B) the reference data and to generate inter-frame difference data by performing inter-frame discrimination is motion corrected to the video data based on the motion vector of the block-based, and,
(c)前記インターフレーム差データに一つ又はそれ以上のビデオ圧縮過程を与えて前記ビデオデータに対応するコード化されたビデオビットストリームに対してコード化されたデータを発生させる過程からなるものである。 (C) made of a process of generating the encoded data to the inter-frame difference coded video bitstream giving one or more video compression process corresponding to the video data to the data is there.

この発明の他の実施例によれば、この発明は、存在する入力コード化ビデオビットストリームを処理する方法であって、 According to another embodiment of the invention, the invention provides a method for processing an input coded video bit stream that is present,
(a)一つ又はそれ以上のデコード化過程を入力ビットストリームに施して変換領域内における変換係数データ及び対応するブロックベースの動きベクトルを回復し、その際前記ブロックベースの動きベクトルが、対応する基準データにおけるブロック境界との一致に制限され、 (A) recovering the one or more transform coefficient data and the corresponding block-based motion vector in a decoding process by performing the input bit stream conversion region, whereby said block-based motion vector, the corresponding is limited to match with the block boundary in the reference data,
(b)前記ブロックベースの動きベクトルと前記基準データに基づいて変換領域内において動き補正されたインターフレーム追加を実行して予測エラー補正された(PEC)変換係数データを発生させ、及び、 (B) said generate predicted error correction by performing the inter-frame additional to the motion-corrected (PEC) transform coefficient data in the block-based transform domain based on the motion vector and the reference data, and,
(c)変換領域内において前記PEC変換係数データの引き続いての処理を実行するようにした過程からなるものである。 (C) is made of a process which is adapted to perform the subsequent processing of the PEC transform coefficient data in the transform domain.

この発明のさらに他の実施例によれば、この発明は、ビデオデータを圧縮する方法であって、 According to another embodiment of the invention, the invention provides a method for compressing video data,
(a)対応する基準データに基づいてビデオデータのフレームについて動き推定を行なってそのフレームに対する動きベクトルの組を識別し、その際前記動き推定が、前記基準データにおけるブロック境界と一致するブロックベースの動きベクトルのみの識別に制限され、及び、ブロックベースの動きベクトルのすべてが、0動きベクトルであり、 (A) the frame of video data based on the corresponding reference data by performing motion estimation to identify the set of motion vectors for that frame, where the motion estimation, a block-based matching the block boundary in the reference data It is limited to the identification of the motion vectors only, and all the block-based motion vector is 0 motion vector,
(b)前記基準データ及び前記ブロックベースの動きベクトルに基づいた前記ビデオデータに対して動き補正されたインターフレーム差別を行なってインターフレーム差データを発生させ、及び、 (B) the reference data and to generate inter-frame difference data by performing inter-frame discrimination is motion corrected to the video data based on the motion vector of the block-based, and,
(c)前記インターフレーム差データに一つ又はそれ以上の追加のビデオ圧縮過程を与えて前記ビデオデータに対応するコード化されたビデオビットストリームに対してコード化されたデータを発生させ、その際前記コード化されたビデオビットストリームが、MPEGコーデックアルゴリズムに適合する過程からなるものである。 (C) said one or more giving additional video compression process to the inter-frame difference data to generate coded data for encoded video bitstream corresponding to the video data, in which the coded video bitstream, is made of the process conforming to the MPEG codec algorithm.

この発明によれば、入力ビットストリームを最初に完全にデコード化することなく存在するコード化ビデオビットストリームをさらに処理することができる。 According to the present invention, it is possible to further process the coded video bit stream present without first completely decode the input bit stream.

この発明のその他の構成、特徴、及び、利点は、以下の詳細な説明、付属する特許請求の範囲、及び、添付の図面から完全に明らかになろう。 Other configurations of the present invention, features and advantages, the following detailed description, the scope of the appended claims to, and will become fully apparent from the accompanying drawings.
この発明の一つの実施例における動き補正されたインターフレームビデオ圧縮処理のブロック図である。 It is a block diagram of a motion-compensated inter-frame video compression processing in one embodiment of the present invention. 従来周知の動き推定処理(図2)を示している。 It shows well-known motion estimation process (Figure 2). (8×8)ブロックの像データに対するこの発明による動き推定処理(図3)の差を示している。 It shows the difference between the motion estimation process (FIG. 3) according to (8 × 8) The invention with respect to the image data of the block. この発明の他の実施例における動き補正されたインターフレームビデオ圧縮処理のブロック図である。 It is a block diagram of a motion-compensated inter-frame video compression processing according to another embodiment of the present invention. この発明の一つの実施例における部分的なデコード化処理のブロック図である。 It is a block diagram of a partial decoding process in one embodiment of the present invention.

図1は、この発明の一つの実施例における動き補正されたインターフレームビデオ圧縮処理のブロック図である。 Figure 1 is a block diagram of a motion-compensated inter-frame video compression processing in one embodiment of the present invention. この実施例により、動きベクトルが、ブロック境界と一致するものに限定される。 This embodiment, motion vector is limited to match the block boundaries.

特に、ブロックベースの動き推定102が、適切な基準データに対して入力像データに施される。 In particular, block-based motion estimation 102 is performed on the input image data to the appropriate reference data. インターフレームビデオ圧縮処理が(i)順方向予測、(ii)逆方向予測、又は、(iii)双方向予測に基づいているかどうかにより、基準データが、それぞれ、(i)予めのフレーム、(iii)引き続くフレーム、(iii)両方の組み合わせ(例えば、予めのフレームと引き続くフレームの平均)のいずれかに基づいて発生される。 Interframe video compression process (i) forward prediction, (ii) the backward prediction, or by whether based on (iii) bi-directional prediction, the reference data, respectively, (i) in advance of the frame, (iii ) subsequent frame is generated based on either (iii) a combination of both (e.g., the average of the frame and subsequent advance of the frame). いずれにせよ、動き推定処理は、なんらかの適切な同様の尺度(例えば、絶対的な画素差の和(SAD))に基づいて像データのその時点でのブロックに極めて密に一致する基準データのブロックを識別しようとするものである。 In any case, the motion estimation process, any suitable same scale (e.g., sum of absolute pixel difference (SAD)) of the reference data that matches very closely to the block at the time of the image data based on the block it is intended to identify. この発明によれば、動き推定処理中に用いられる基準データのブロックの組は、ブロック境界に一致するものに限定される。 According to the invention, a set of blocks of the reference data used in the motion estimation process is limited to one that matches the block boundaries. 従来周知の動き推定処理においては、このような制限は存在せず、従って、動き推定処理に使うことができる基準データのブロックは、特定のサーチ範囲内の画素(又はサブ画素)位置に対応する。 In well-known motion estimation process, such a limitation does not exist, therefore, block of the reference data that can be used for motion estimation processing corresponds to the pixel (or subpixel) locations within a specified search range .

図2及び図3は、従来周知の動き推定処理(図2)及び(8×8)ブロックの像データに対するこの発明による動き推定処理(図3)の差を示している。 Figures 2 and 3 show the differences in well-known motion estimation process (FIG. 2) and (8 × 8) motion estimation process according to the present invention with respect to the image data of the block (Fig. 3). 図2及び図3は、像データの特定の(8×8)ブロックに対する基準データのサーチ領域を示しており、基準データにおけるその対応する位置は、ブロックの中央に対する(0,0)の動きベクトルを備えた太い(8×8)ブロックにより図において示されている。 2 and 3 show a search area of ​​the reference data for a particular (8 × 8) blocks of image data, the corresponding position in the reference data, a motion vector of (0,0) relative to the center of the block It is shown in the figure by a thick (8 × 8) blocks with. 図2及び図3におけるサーチ領域は、その成分が8画素の大きさにそれぞれ制限されている動きベクトルに基づいている(すなわち、動きベクトル成分は、−8から+8に独立に変動する)。 Search area in FIG. 2 and FIG. 3 is based on a motion vector whose components are limited respectively to the size of 8 pixels (i.e., motion vector component varies independently from -8 to +8).

図2に示されているように、従来周知の整数画素ベースの動き推定処理では、−8から+8までの17の異なる整数成分値の組み合わせに基づく289の異なる整数ベースの動きベクトルに対応する基準データの289の異なる使用可能な(8×8)ブロックが存在する。 As shown in FIG. 2, in the conventional known integer pixel-based motion estimation process, the reference corresponding to 289 different integer-based motion vector based on a combination of 17 different integer component values ​​from -8 to +8 different possible uses (8 × 8) 289 of the data block exists. 「フラクショナル画素」に基づいた動き推定体系においては、それ以上の基準データのブロックを使うことができる。 In "fractional pixel" motion estimation scheme based may be used any more reference data block.

他方、図3に示されるように、この発明によるブロックベースの動き推定処理のこのような特定の実施例に対して、使用可能な基準データのブロックは、ブロック境界に対応して9ブロックに限定される(すなわち、−8,0,+8の3個の異なる成分値の組み合わせに基づいた9個の動きベクトルの一つを備えた)。 On the other hand, as shown in FIG. 3, with respect to this particular embodiment of the block-based motion estimation process according to the invention, the block of available reference data, limited to 9 block corresponding to the block boundary is the (i.e., -8,0, with one of the nine motion vectors based on a combination of three different component values ​​of + 8). このブロックベースの動き推定処理体系から得られた典型的な予測は、従来周知の画素ベースの動き推定処理体系よりも精度が低いが、多くのアプリケーションにおいて、ブロックベースの動き推定処理予測の精度は、許容し得るものであろう。 Typical predictions obtained from the block-based motion estimation process scheme, but less accurate than the conventionally known pixel-based motion estimation process system, in many applications, the accuracy of the block-based motion estimation processing prediction It would be one acceptable.

使用可能な基準データのブロックの数は所定のサーチ範囲に対して非常に小さいので(例えば、図2及び図3の実施例において289から9に)、この発明によるブロックベースの動き推定処理は、より迅速に実行が可能である。 Since the number of blocks of reference data available is very small for a given search range (e.g., 289 from 9 in the embodiment of FIG. 2 and FIG. 3), block-based motion estimation process according to the invention, it is possible to more quickly perform. その上、サーチ範囲は、従来周知の画素ベースの動き推定処理体系よりも動き推定に対して必要な処理時間が少ないのにもかかわらず、非常に拡張されている。 Furthermore, search range, despite the small processing time necessary for the motion estimation than the conventionally known pixel-based motion estimation process scheme, are very extensible. 例えば、±8の代わりに±24にサーチ範囲を拡大しても処理されるべき基準データは49(8×8)ブロックを残すのみである。 For example, the reference data to be processed even when a larger search range ± 24 instead of ± 8 is only leaving 49 (8 × 8) blocks. 実際のところ、サーチ範囲は、同一の数の基準ブロック(すなわち、289)が±8に制限されているサーチ範囲を備えた画素ベースの動き推定に使えるようになる前に、±64に拡大可能である。 In fact, the search range is the same number of reference blocks (i.e., 289) is before you can use the pixel-based motion estimation comprising the search range is limited to ± 8, expandable to ± 64 it is.

特別なビデオ圧縮アルゴリズム及びフレームのタイプ(例えば、P又はB)に対応して、ブロック102における動き推定処理は、像データのブロックのそれぞれに対して3個の、順方向光予測、逆方向予測及び双方向予測からなる異なるブロックベースの動きベクトルを識別できる。 Special video compression algorithms and frame type (e.g., P or B) in response to the motion estimation process in the block 102, three for each of the blocks of image data, forward optical prediction, backward prediction and identify the different block-based motion vector consisting of bidirectional prediction. モード制御処理104が、動き推定後に実行され、イントラフレームコード化技術を用いてコード化する可能性を含んで、その時点での像データにおけるブロックのコード化の仕方を決定する。 Mode control process 104 is performed after motion estimation, including the possibility of coded using intra-frame coding techniques to determine how to encode the block in the image data at that time. このコード化モード制御の結果に応じて、イントラフレーム差別化106が、次いで、対応する動き補正された基準データを用いる像データに実行されてブロック動き補正されたインターフレーム画素差データを発生させる。 This according to the coding mode control results, the intra-frame differentiation 106, then, generates a corresponding runs on the image data using motion compensated reference data block motion compensated inter-frame pixel difference data.

いずれにせよ、(8×8)DCTブロック変換のような変換108が、次いで、画素領域データのブロックに適用され、110で量子化され、112でラン長さコード化され、114で可変長さコード化される変換係数のブロックを発生してコード化されたビデオビットストリームの一部分を発生させる。 In any case, the (8 × 8) converts 108 as DCT block transform, then applied to a block of pixel area data is quantized by 110, the run is long encoded at 112, variable length in 114 generate a block of coded are transform coefficients to generate a portion of coded video bitstream. 図1には示されていないが、可能ならば、像データのブロックをコード化するために使われる動きベクトルは、また、ビットストリーム内でコード化される。 Although not shown in FIG. 1, if possible, the motion vector used to code the block of image data is also encoded in the bitstream.

ラン長さコード化112及び可変長さコード化114は典型的な損失の少ないコード化過程であるので、図1における圧縮アルゴリズムの一部分(すなわち、図1の上方部分)であるデコード化処理は、ビデオコーデックアルゴリズムに対する信頼性を損なうことなく量子化ブロック110によって発生させられる量子化係数とともにスタートできる。 Since the run length coded 112 and variable length coding 114 is a small encoding process of a typical loss, a portion of the compression algorithm in FIG. 1 (i.e., the upper portion of FIG. 1) decoding process is the can start with quantized coefficients is generated by the quantization block 110 without impairing the reliability of the video codec algorithm. 特に、ブロック110からの量子化された変換係数は、116で非量子化され、118で逆方向に変換され、及び、もし可能ならば、動き補正されたインターフレーム追加120が施されて、像データにおけるその他の組のコード化において使われる可能性のある基準データを発生させる。 In particular, the quantized transform coefficients from the block 110, the non-quantized at 116, is converted into the opposite direction at 118, and, if possible, with inter-frame additional 120 that is motion compensation is performed, the image generating a reference data that might be used in other sets of coded in the data.

この発明によるブロックベースの動き推定に対するものを除いて、図1の処理過程のその他が、MPEG標準に適合するような従来周知のビデオ圧縮技術に基づいて展開できるものであることは、当該技術に通常の知識を有する者には明らかなことであろう。 Except for those for the block-based motion estimation according to the present invention, it others of process of Figure 1, in which can be developed based on the well-known video compression techniques to fit MPEG standard in the art it will be apparent to those of ordinary skill.

図4は、この発明の他の実施例における動き補正されたインターフレームビデオ圧縮処理のブロック図である。 Figure 4 is a block diagram of a motion-compensated inter-frame video compression processing according to another embodiment of the present invention. 図1の実施例と同じように、動きベクトルは、ブロック境界に一致するものに限定される。 As with the embodiment of FIG. 1, a motion vector is limited to one that matches the block boundaries. しかしながら、図4において、変換401が、動き推定402の前に未処理の像データに施される。 However, in FIG. 4, the conversion 401 is performed on the image data not yet processed before motion estimation 402. このようにして、ブロック限定の動き推定402、モード制御404、及び、動き補正されたインターフレーム差別化406が、図1の実施例におけるような画素領域においてではなく、変換領域においてすべて実行される。 In this way, motion estimation 402 of the block only, the mode control 404, and, inter-frame differentiation 406 motion compensation, rather than in the pixel region as in the embodiment of FIG. 1, is executed every in the transform domain . 動き推定及び補正が変換領域において実行されるので、コード化フィードバック路において生じる動き補正されたインターフレーム追加420の過程は、また、変換領域において実行される。 Since the motion estimation and compensation are performed in the transform domain, the motion compensated process of inter-frame additional 420 occurs in coding the feedback path, also performed in the transform domain. その結果、逆方向変換は、コード化処理の間はまったく実行されない。 As a result, the reverse transformation during the coding process is not executed at all. 量子化110、ラン長さコード化412、可変長さコード化414、非量子化416は、図1に示されている実施例における過程と類似した過程で実行される。 Quantization 110, run-length coded 412, variable length coded 414, dequantization 416, is executed in the process similar to processes in the embodiment shown in FIG.

図5は、この発明の一つの実施例における部分的なデコード化処理のブロック図である。 Figure 5 is a block diagram of a partial decoding process in one embodiment of the present invention. 図5の部分的なデコード化処理は、図1におけるブロックベースの動き補正されたインターフレームビデオ圧縮アルゴリズムを用いて発生される存在するコード化されたビデオビットストリームで動作するように設計されている。 Partial decoding process of FIG. 5 is designed to operate in a coded video bit stream present is generated using inter-frame video compression algorithms block-based motion compensation in FIG. 1 . 特に、部分的なデコード化処理が、入力ビットストリームを受け入れて部分的にデコード化して出力非量子化変換データを発生させる。 In particular, partial decoding processing is partially and decoded to generate an output dequantized transform data receives an input bit stream. 追加の処理過程(例えば、トランスコーディングやウォータ挿入に関連し、図5には示されていない)が、次いで、変換領域内において非量子化された変換データに適用されて処理された変換データを発生し、次いで、さらにコード化されて、必要な処理をされたコード化されたビデオビットストリームを発生させる。 Additional process (e.g., associated with transcoding and water insert, not shown in FIG. 5) is then converted data processed is applied to the non-quantized transform data in transform domain occurs, then further encoded to generate a coded video bit stream is a necessary process.

特に、動きベクトルデコード化502、モードデコード化504、及び、可変長さデコード化/ラン長さデコード化/非量子化506は、入力ビットストリームに適用され、それぞれ、(1)ブロックベース動きベクトル、(2)モード制御情報(すなわち、いずれのブロックが、順方向、逆方向又は双方向(すなわち、内挿された)予測に基づいてイントラフレーム技術又はインターフレーム技術を用いてコード化されたか)、及び、(3)変換領域における予測誤差に対応する非量子化された変換(例えば、DCT)を回復する。 In particular, the motion vector decoding 502, the mode decoding 504 and, variable length decoding / run length decoding / de-quantization 506 is applied to the input bit stream, respectively, (1) block-based motion vector, (2) the mode control information (i.e., either block, forward, backward or bidirectional (i.e., interpolated) or coded using intra-frame techniques or interframe techniques based on the predicted) and, to recover (3) transformations unquantized corresponding to the prediction error in the transform domain (e.g., DCT).

もし可能ならば、メモリA508は、引き続くフレームに対応する変換領域基準データ(例えば、非量子化されたDCT係数)を保持し、他方で、メモリB510は、先行するフレームに対応する変換領域基準データを保持している。 If possible, the memory A508 is subsequent transform domain reference data corresponding to the frame (e.g., non-quantized DCT coefficients) holds, on the other hand, the memory B510 is transform domain reference data corresponding to the previous frame It holds. メモリA及びBからの基準データの対応するブロックは、デコード化ブロック502によって回復されたブロックベースの動きベクトルによって識別されるように、平均化ノード512によって平均化されて双方向予測のための内挿された基準データを形成する。 Corresponding block of the reference data from the memory A and B, as identified by the block-based motion vector restored by the decoding block 502, among for bidirectional prediction is averaged by the averaging node 512 forming a reference data inserted.

4位置スイッチ514の状態は、ブロック504からのデコード化モード制御データによって指令される。 4 states the position switch 514 is commanded by the decoding mode control data from block 504. モード制御データが「後方予測」を指示しているとき、スイッチ514は、メモリAから加算ノード516への適切な(すなわち、動き補正された)引き続くフレーム基準データを送るように配置されている。 When the mode control data indicates "backward prediction", the switch 514 is appropriate from memory A to the summing node 516 is arranged to send (i.e., motion compensated) subsequent frame reference data. モード制御データが「前方予測」を指示しているとき、スイッチ514は、メモリBから加算ノード516への適切な先行フレーム基準データを送るように配置されている。 When the mode control data indicates "forward prediction", the switch 514 is arranged to send the appropriate previous frame reference data from the memory B to the summing node 516. モード制御データが「双方向予測」を指示しているとき、スイッチ514は、平均化ノード512から加算ノード516への適切な内挿された基準データを送るように配置されている。 When the mode control data indicates "bidirectional prediction", the switch 514 is arranged to send reference data interpolated appropriate from averaging the node 512 to the summing node 516. 最後に、モード制御データが「イントラコード化」を指示しているとき、スイッチ514は、0を加算ノード516へ送る「接地」に配置されている。 Finally, when the mode control data indicates "intra-coded", the switch 514 is arranged in "ground" Send 0 to summing node 516.

いずれにせよ、加算ノード516において、ブロック506からの非量子化されたDCT係数が、スイッチ514から選択された変換領域基準データに加えられてすべて変換領域内にある予測誤差とともに予測を補正する。 In any case, the summing node 516, the non-quantized DCT coefficients from the block 506 corrects the prediction with the prediction error in all is applied to the transform domain reference data selected from the switch 514 transform domain. もし適切ならば(すなわち、現時点でのフレームがI又はPフレームであるとき)、加算ノード516からの変換データは、一つ又はそれ以上のその他のビデオフレームをコード化するために基準データとして使うためにメモリA又はBにフィードバックされる。 If appropriate (i.e., when the frame at the present time is an I or P-frame), converting data from the adding node 516, used as reference data for encoding one or more other video frames It is fed back to the memory A or B in order.

動きベクトルはブロック境界に一致するものに限定されるとともにDCTのような変換が直線的であるために、加算ノード516における動き補正されたインターフレーム追加は、変換領域において、逆方向変換を最初に行なわずに実行できる。 For motion vector conversion such as DCT with is limited to one that matches the block boundary is linear, interframe added to the motion-corrected in the adding node 516, in the transform domain, the first reverse conversion It can be performed without. このようにして、量子化損失などを除いて、加算ノード516において発生された得られた動き補正された変換データは、原像データに直接変換を施したときに得られるであろう変換データに対応する。 In this way, with the exception of such quantization loss, it converts data to the generated obtained motion compensation at summing node 516, the conversion data that would be obtained when subjected to direct conversion to the original image data corresponding. 追加の処理(図5には示されていない)が、次いで、逆方向変換を施さずに得られた補正された変換データに対して実行される。 Additional processing (not shown in FIG. 5) is then carried out with respect to the corrected transformed data obtained without performing the reverse conversion. この追加の処理は、典型的に、必要な処理を受けた出力コード化ビデオビットストリームを発生させるのに必要な過程を含んでいる。 This additional processing typically includes the step required to generate an output coded video bitstream that has received the necessary processing. その場合、追加の処理は、変換領域における動き推定及び動き補正、再量子化、ラン長さ再コード化、及び、可変長さ再コード化過程を含むことができる。 In that case, additional processing, motion estimation and motion compensation in the transform domain, re-quantization, run-length recoding, and may include a variable length Is recoding process. 適当な状況において、変換領域における動き推定及び/又は動き補正過程は、省略することができる。 In appropriate circumstances, the motion estimation and / or motion compensation processes in the transform domain may be omitted. 例えば、入力ビットストリームからの動きベクトルが再使用されるときは、動き推定が省略できる。 For example, when the motion vector from the input bitstream is re-used, motion estimation can be omitted. 動き補正なしに出力ビットストリームが発生されるときは、動き推定及び動き補正の両方が省略できる。 When motion output bit stream without correction is generated, both motion estimation and motion compensation can be omitted.

MPEGビデオコーデックアルゴリズムに加えて、この発明は、その他の適切なビデオコーデックアルゴリズムに展開することができ、それらには、(8×8)DCT変換以外の変換に基づいたアルゴリズム及び/又はラン長さコード化及び可変長さコード化過程を含まず及び/又は追加のその他の量子化後コード化過程を含むアルゴリズムが含まれる。 In addition to the MPEG video codec algorithm, the present invention may contain other can be deployed to the appropriate video codec algorithms and include, (8 × 8) algorithms and / or run length based on the conversion of non-DCT transform free of coding and variable length coding process and / or contains algorithms include additional other quantized coding process.

この発明は、単一の集積回路への適用可能性を含む回路ベースの処理として展開できる。 The present invention can be deployed as a circuit-based processes, including the applicability to a single integrated circuit. 当該技術に通常の知識を備えた者には明らかなように、回路部材の種々の機能が、ソフトウェアプログラムにおける処理過程としてデジタル領域において展開できる。 The art as will be apparent to those having ordinary skill, various functions of circuit member can be expanded in the digital domain as processing steps in a software program. このようなソフトウェアは、例えば、デジタル信号プロセッサ、マイクロコントローラ、又は、汎用のコンピュータにおいて使える。 Such software, for example, a digital signal processor, microcontroller, or used in general-purpose computer.

この発明は、方法の形で具体化され、さらに、それらの方法を実施する装置の形で具体化できる。 The present invention is embodied in the form of methods, further, it is embodied in the form of an apparatus for practicing those methods. この発明は、また、フロッピー(登録商標)ディスク、CD−ROM、ハードドライブ、又は、その他の機械読み取り可能な記憶媒体のような実体的な媒体において実現されるプログラムコードの形で具体化され、その際プログラムコードがコンピュータのような機械によって装填されるとともに実行されるとき、この機械は、この発明を具体化する装置となる。 The present invention is also a floppy disk, CD-ROM, hard drive, or be embodied in the form of program code embodied in tangible media, such as other machine-readable storage medium, when the time program code is executed while being loaded by a machine, such as a computer, the machine becomes an apparatus embodying the invention. この発明は、また、例えば、記憶媒体に記憶され、機械に装填され及び/又は機械によって実行され、又は、光学繊維を介して、又は、電磁放射線を経由して電線又はケーブルのようなものからなるいくつかの通信媒体又はキャリヤにまたがって搬送されるプログラムコードの形で具体化可能であり、その際プログラムコードがコンピュータのような機械に装填され及び実行されるとき、この機械は、この発明を具体化する装置となる。 This invention also, for example, stored in a storage medium, executed by being loaded into the machine and / or machine, or via an optical fiber, or, from such things as wire or cable through the electromagnetic radiation comprising several are embodied possible in the form of a program code that is conveyed across the communication medium, or carrier, that time when the program code is machine loaded and executed, such as a computer, the machine, the invention a device embodying the. 汎用のプロセッサのために実行されるとき、プログラムコードセグメントは、プロセッサに組み合わせられて特定の論理回路をアナログ的に作動させるユニークな装置を構成する。 When implemented for the general-purpose processor, the program code segments configure the unique device for analog actuated specific logic circuits are combined to the processor.

この発明の性質を説明するために記述され、図示された細部、材料、部品の配置の様々な変化が、特許請求の範囲に表現されているような発明の原理及び範囲を逸脱することなく当該技術に通常の知識を備えた者にとって容易に行ない得ることは明らかであろう。 Is described in order to explain the nature of the invention, the details illustrated, the material, various changes in the arrangement of parts, the without departing from the principles and scope of the invention as expressed in the appended claims it will be obvious that the same may readily be performed for those having ordinary knowledge in the art.

Claims (12)

  1. ビデオデータを圧縮する方法において、 A method of compressing video data,
    (a)対応する基準データに基づいてビデオデータのフレームについて動き推定を行なってそのフレームに対する動きベクトルの組を識別し、その際前記動き推定が、前記基準データにおけるブロック境界と一致するブロックベースの動きベクトルのみの識別に制限され、及び、ブロックベースの動きベクトルの少なくとも一つが、非ゼロ動きベクトルであり、 (A) the frame of video data based on the corresponding reference data by performing motion estimation to identify the set of motion vectors for that frame, where the motion estimation, a block-based matching the block boundary in the reference data It is limited to the identification of the motion vectors only, and at least one block-based motion vector is a non-zero motion vector,
    (b)前記基準データ及び前記ブロックベースの動きベクトルに基づいた前記ビデオデータに対して動き補正されたインターフレーム差別を行なってインターフレーム差データを発生させ、及び、 (B) the reference data and to generate inter-frame difference data by performing inter-frame discrimination is motion corrected to the video data based on the motion vector of the block-based, and,
    (c)前記インターフレーム差データに一つ又はそれ以上のビデオ圧縮過程を与えて前記ビデオデータに対応するコード化されたビデオビットストリームに対してコード化されたデータを発生させるようにした方法。 (C) method so as to generate one or coded data for encoded video bitstream giving more video compression process corresponding to the video data to the inter-frame difference data.
  2. 過程(a)及び(b)が、画素領域において実行され、及び、過程(c)が、 Process (a) and (b) is performed in the pixel region, and, step (c) is,
    (1)前記インターフレーム差データに変換を加えて変換領域に変換係数データを発生させ、及び、 (1) the conversion to the inter-frame difference data to generate transform coefficient data in the transform domain in addition, and,
    (2)前記変換係数データを量子化して量子化された変換係数データを発生させる過程からなるようにした特許請求の範囲第1項に記載の方法。 (2) The method according transform coefficient data in the first term scope of claims to be a process of generating the transform coefficient data quantized by the quantization.
  3. 前記コード化されたビデオビットストリームが、MPEGコーデックアルゴリズムに適合し、及び、前記変換が、離散コサイン変換(DCT)であるようにした特許請求の範囲第2項に記載の方法。 The coded video bitstream, to conform to the MPEG codec algorithm, and the conversion method described in paragraph 2 range was set to a discrete cosine transform (DCT) claims.
  4. 過程(a)が、さらに、画素データに変換を加えて変換領域において変換係数データを発生させ、その際前記動き推定が、変換領域において前記基準データに基づいて前記変換係数データに加えられるようにした過程を含むようにした特許請求の範囲第1項に記載の方法。 Process (a) is further to generate transform coefficient data in the transform domain by adding converted into pixel data, so that time the motion estimation is applied to the transform coefficient data based on the reference data in the transform domain the method according to paragraph 1 the scope of the claims to include the process.
  5. コード化されたプログラムコードを含む機械読み取り可能な媒体であって、前記プログラムコードが機械によって実行されるとき、前記機械が、 A machine-readable medium comprising encoded program code, when said program code is executed by a machine, the machine,
    (a)対応する基準データに基づいてビデオデータのフレームについて動き推定を行なってそのフレームに対する動きベクトルの組を識別し、その際前記動き推定が、前記基準データにおけるブロック境界と一致するブロックベースの動きベクトルのみの識別に制限され、及び、ブロックベースの動きベクトルの少なくとも一つが、非ゼロ動きベクトルであり、 (A) the frame of video data based on the corresponding reference data by performing motion estimation to identify the set of motion vectors for that frame, where the motion estimation, a block-based matching the block boundary in the reference data It is limited to the identification of the motion vectors only, and at least one block-based motion vector is a non-zero motion vector,
    (b)前記基準データ及び前記ブロックベースの動きベクトルに基づいた前記ビデオデータに対して動き補正されたインターフレーム差別を行なってインターフレーム差データを発生させ、及び、 (B) the reference data and to generate inter-frame difference data by performing inter-frame discrimination is motion corrected to the video data based on the motion vector of the block-based, and,
    (c)前記インターフレーム差データに一つ又はそれ以上のビデオ圧縮過程を与えて前記ビデオデータに対応するコード化されたビデオビットストリームに対してコード化されたデータを発生させることからなる過程を展開するようにした機械読み取り可能な媒体。 The (c) the consists in generating the one or coded data for encoded video bitstream giving more video compression process corresponding to the video data to the inter-frame difference data process machine-readable medium so as to deploy.
  6. 存在する入力コード化ビデオビットストリームを処理する方法において、 A method for processing an input coded video bit stream that is present,
    (a)一つ又はそれ以上のデコード化過程を入力ビットストリームに施して変換領域内における変換係数データ及び対応するブロックベースの動きベクトルを回復し、その際前記ブロックベースの動きベクトルが、対応する基準データにおけるブロック境界との一致に制限され、 (A) recovering the one or more transform coefficient data and the corresponding block-based motion vector in a decoding process by performing the input bit stream conversion region, whereby said block-based motion vector, the corresponding is limited to match with the block boundary in the reference data,
    (b)前記ブロックベースの動きベクトルと前記基準データに基づいて変換領域内において動き補正されたインターフレーム追加を実行して予測エラー補正された(PEC)変換係数データを発生させ、及び、 (B) said generate predicted error correction by performing the inter-frame additional to the motion-corrected (PEC) transform coefficient data in the block-based transform domain based on the motion vector and the reference data, and,
    (c)変換領域内において前記PEC変換係数データの引き続いての処理を実行するようにした方法。 (C) method so as to execute the subsequent processing of the PEC transform coefficient data in the transform domain.
  7. 前記ブロックベースの動きベクトルの少なくとも一つが、非ゼロ動きベクトルであるようにした特許請求の範囲第6項に記載の方法。 Said at least one block-based motion vector, the method described in paragraph 6 scope of the claims to be non-zero motion vector.
  8. 前記コード化されたビデオビットストリームが、MPEGコーデックアルゴリズムに適合し、及び、前記変換領域が、DCT変換領域に対応するようにした特許請求の範囲第6項に記載の方法。 The coded video bitstream, to conform to the MPEG codec algorithm, and method according to the transform domain, paragraph 6 scope of claims to correspond to the DCT transform domain.
  9. 前記過程(c)が、一つ又はそれ以上のビデオ圧縮過程を施して処理された出力コード化ビデオビットストリームを発生させる過程を含むようにした特許請求の範囲第6項に記載の方法。 Wherein step (c) is one or method according to paragraph 6 claims further has an output coded video bit stream processed by performing video compression process to include a process of generating.
  10. 前記一つ又はそれ以上のビデオ圧縮過程が、動き補正されたインターフレーム差別を変換領域において処理された変換係数に行なって変換係数差データを発生させるようにした特許請求の範囲第9項に記載の方法。 The one or more video compression process, according to claim Section 9 of the motion compensated claims in which the inter-frame discrimination to generate a transform coefficient difference data by performing the transform coefficients are processed in the transform domain the method of.
  11. コード化されたプログラムコードを含む機械読み取り可能な媒体であって、前記プログラムコードが機械によって実行されるとき、前記機械が、 A machine-readable medium comprising encoded program code, when said program code is executed by a machine, the machine,
    (a)一つ又はそれ以上のデコード化過程を存在する入力コード化ビデオビットストリームに施して変換領域内における変換係数データ及び対応するブロックベースの動きベクトルを回復し、その際前記ブロックベースの動きベクトルが、対応する基準データにおけるブロック境界との一致に制限され、 (A) one or more by subjecting the input coded video bit stream present a decoding process to recover the transform coefficient data and the corresponding block-based motion vector in the transform domain, where said block-based motion vector, is limited to match with the block boundary in the corresponding reference data,
    (b)前記ブロックベースの動きベクトルと前記基準データに基づいて変換領域内において動き補正されたインターフレーム追加を実行して予測エラー補正された(PEC)変換係数データを発生させ、及び、 (B) said generate predicted error correction by performing the inter-frame additional to the motion-corrected (PEC) transform coefficient data in the block-based transform domain based on the motion vector and the reference data, and,
    (c)変換領域内において前記PEC変換係数データの引き続いての処理を実行するようにした機械読み取り可能な媒体。 (C) a machine-readable medium to execute the subsequent processing of the PEC transform coefficient data in the transform domain.
  12. ビデオデータを圧縮する方法において、 A method of compressing video data,
    (a)対応する基準データに基づいてビデオデータのフレームについて動き推定を行なってそのフレームに対する動きベクトルの組を識別し、その際前記動き推定が、前記基準データにおけるブロック境界と一致するブロックベースの動きベクトルのみの識別に制限され、及び、ブロックベースの動きベクトルのすべてが、0動きベクトルであり、 (A) the frame of video data based on the corresponding reference data by performing motion estimation to identify the set of motion vectors for that frame, where the motion estimation, a block-based matching the block boundary in the reference data It is limited to the identification of the motion vectors only, and all the block-based motion vector is 0 motion vector,
    (b)前記基準データ及び前記ブロックベースの動きベクトルに基づいた前記ビデオデータに対して動き補正されたインターフレーム差別を行なってインターフレーム差データを発生させ、及び、 (B) the reference data and to generate inter-frame difference data by performing inter-frame discrimination is motion corrected to the video data based on the motion vector of the block-based, and,
    (c)前記インターフレーム差データに一つ又はそれ以上のビデオ圧縮過程を与えて前記ビデオデータに対応するコード化されたビデオビットストリームに対してコード化されたデータを発生させ、その際前記コード化されたビデオビットストリームが、MPEGコーデックアルゴリズムに適合するようにした方法。 (C) the inter-frame difference data to generate coded data for encoded video bitstream giving one or more video compression process corresponding to the video data in the code at that time method of video bit stream, and to fit the MPEG codec algorithm.
JP2010160883A 1998-09-29 2010-07-15 Block motion video coding and decoding Pending JP2010268505A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10221498 true 1998-09-29 1998-09-29
US12153199 true 1999-02-25 1999-02-25
US09388701 US6188728B1 (en) 1998-09-29 1999-09-02 Block motion video coding and decoding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000573099 Division

Publications (1)

Publication Number Publication Date
JP2010268505A true true JP2010268505A (en) 2010-11-25

Family

ID=27379311

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2000573099A Withdrawn JP2002526998A (en) 1998-09-29 1999-09-29 Coding and decoding of block motion video
JP2010160883A Pending JP2010268505A (en) 1998-09-29 2010-07-15 Block motion video coding and decoding

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2000573099A Withdrawn JP2002526998A (en) 1998-09-29 1999-09-29 Coding and decoding of block motion video

Country Status (3)

Country Link
EP (1) EP1118224A1 (en)
JP (2) JP2002526998A (en)
WO (1) WO2000019725A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2519289B (en) * 2013-10-11 2016-10-12 Canon Kk Method and apparatus for displacement vector component transformation in video coding and decoding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01300781A (en) * 1988-05-30 1989-12-05 Nec Corp Encoding and decoding system for moving image signal
JPH02181586A (en) * 1989-01-06 1990-07-16 Nec Corp Inter-movement compensation frame predictive coding system
JPH05501944A (en) * 1989-11-14 1993-04-08

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4245248A (en) * 1979-04-04 1981-01-13 Bell Telephone Laboratories, Incorporated Motion estimation and encoding of video signals in the transform domain
JP3089165B2 (en) * 1994-11-10 2000-09-18 株式会社グラフィックス・コミュニケーション・ラボラトリーズ The motion vector search apparatus
US5708732A (en) * 1996-03-06 1998-01-13 Hewlett-Packard Company Fast DCT domain downsampling and inverse motion compensation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01300781A (en) * 1988-05-30 1989-12-05 Nec Corp Encoding and decoding system for moving image signal
JPH02181586A (en) * 1989-01-06 1990-07-16 Nec Corp Inter-movement compensation frame predictive coding system
JPH05501944A (en) * 1989-11-14 1993-04-08

Also Published As

Publication number Publication date Type
JP2002526998A (en) 2002-08-20 application
WO2000019725A1 (en) 2000-04-06 application
EP1118224A1 (en) 2001-07-25 application

Similar Documents

Publication Publication Date Title
US6625215B1 (en) Methods and apparatus for context-based inter/intra coding mode selection
US20040252901A1 (en) Spatial scalable compression
US7010041B2 (en) Process for changing the syntax, resolution and bitrate of MPEG bitstreams, a system and a computer product therefor
US5398067A (en) Picture data processing apparatus
JPH05137131A (en) Inter-frame motion predicting method
CN1132983A (en) Process for coding or decoding motion vectors and coding or decoding device implementing said process
KR20040099086A (en) A image encoding/decoding methods and apparatus using residue prediction of image
KR20080064355A (en) Method and apparatus for prediction video encoding, and method and apparatus for prediction video decoding
JPH0662391A (en) Dynamic image predictive encoding method
US6188728B1 (en) Block motion video coding and decoding
CN101573985A (en) Method and apparatus for video predictive encoding and method and apparatus for video predictive decoding
CN1520179A (en) Method and appts. for coding/decoding interlaced scanning video signal
CN1933601A (en) Method of and apparatus for lossless video encoding and decoding
CN1574970A (en) Method and apparatus for encoding/decoding image using image residue prediction
US6847684B1 (en) Zero-block encoding
US6823015B2 (en) Macroblock coding using luminance date in analyzing temporal redundancy of picture, biased by chrominance data
CN1833259A (en) Video encoding and decoding methods and corresponding devices
US20050265442A1 (en) Apparatus for scalable encoding/decoding of moving image and method thereof
US20060133475A1 (en) Video coding
US20070025626A1 (en) Method, medium, and system encoding/decoding image data
US20050265444A1 (en) Moving image encoding/decoding apparatus and method
JP2000324494A (en) Animation encoding device
US20070025438A1 (en) Elastic storage
KR20090038278A (en) Method and apparatus for encoding and decoding image
CN1431828A (en) Optimum scanning method for change coefficient in coding/decoding image and video

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130107

A02 Decision of refusal

Effective date: 20130315

Free format text: JAPANESE INTERMEDIATE CODE: A02