JP2001523928A - Video information compression apparatus and method - Google Patents
Video information compression apparatus and methodInfo
- Publication number
- JP2001523928A JP2001523928A JP2000521650A JP2000521650A JP2001523928A JP 2001523928 A JP2001523928 A JP 2001523928A JP 2000521650 A JP2000521650 A JP 2000521650A JP 2000521650 A JP2000521650 A JP 2000521650A JP 2001523928 A JP2001523928 A JP 2001523928A
- Authority
- JP
- Japan
- Prior art keywords
- subband
- data
- transform coefficients
- macroblock
- subbands
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 169
- 238000007906 compression Methods 0.000 title description 12
- 230000006835 compression Effects 0.000 title description 12
- 230000033001 locomotion Effects 0.000 claims abstract description 205
- 239000013598 vector Substances 0.000 claims abstract description 75
- 230000001131 transforming effect Effects 0.000 claims abstract description 16
- 230000005540 biological transmission Effects 0.000 claims abstract description 12
- 230000008859 change Effects 0.000 claims description 52
- 238000013144 data compression Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 24
- 238000012856 packing Methods 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 8
- 230000000644 propagated effect Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 230000001902 propagating effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 2
- 238000012913 prioritisation Methods 0.000 abstract 1
- 238000012937 correction Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 22
- 230000003111 delayed effect Effects 0.000 description 21
- 238000013139 quantization Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000002829 reductive effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 241001420287 Strobilanthes maculata Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000003517 fume Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/619—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
- H04N19/64—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
- H04N19/645—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission by grouping of coefficients into blocks after the transform
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Complex Calculations (AREA)
Abstract
(57)【要約】 ビデオ画像を表しているデータを効率的に符合化して、それにより復号器へ移されなければならないデータ量を減らす方法と装置が開示されている。この方法は、残りを一方のサブバンドからもう一つのサブバンドへ伝送することができるテンソル積小波変換を利用してデータセットを変換することを含む。サブバンドの集合(マクロブロック形式になっている)が重みを付けられ、検出され、そして順序付けられて変換されたデータの優先順位付けを可能にする。動き補償技術が復号器へ伝送のためにビットストリーム・パケットに位置的に符合化される動きベクトルと予測誤差を生成するサブバンド・データで実行される。サブバンド・マクロブロックとゼロに等しいサブバンド・ブロックが復号器へ移されなければならないデータ量をさらに減らすためにビットストリーム・パケットにあるようなものとして識別される。 SUMMARY A method and apparatus are disclosed for efficiently encoding data representing a video image, thereby reducing the amount of data that must be transferred to a decoder. The method includes transforming the dataset using a tensor product wavelet transform that can transmit the remainder from one subband to another. A set of subbands (in the form of macroblocks) is weighted, detected, and allows for prioritization of the ordered and transformed data. Motion compensation techniques are performed on the motion vectors that are positionally encoded into bitstream packets for transmission to the decoder and the subband data that produces the prediction error. Subband macroblocks and subband blocks equal to zero are identified as being in the bitstream packet to further reduce the amount of data that must be transferred to the decoder.
Description
【0001】 関連出願についてのクロス・リファレンス 本願は、1997年11月14日出願の暫定出願番号60/066,638に
対する優先権を主張し、それは本明細書において引用して組入れられている。[0001] This application claims priority to provisional application number 60 / 066,638, filed November 14, 1997, which is incorporated herein by reference.
【0002】[0002]
本発明は、一般的にいえば装置とビデオ情報を符号化して、復号する方法に関
する。より詳しくはいえば、本発明は装置と変換ドメインにおける動き評価と動
き予測のための方法に関する。The present invention generally relates to devices and methods for encoding and decoding video information. More particularly, the invention relates to a method for motion estimation and motion estimation in an apparatus and in the transform domain.
【0003】[0003]
伝送路に利用可能な帯域幅が限られいるために、音声とビデオ情報を符号化す
るために限られた数のビットだけしか利用できない。ビデオ符号化技術が与えら
れた用途に必要とされる画質をなお、維持しながら、できるだけ少ないビットで
ビデオ情報を符号化しようとしている。したがって、ビデオ圧縮技術が冗長な情
報を除き、重要な特徴の損失を最少にして元の画像に近似したものを再構成でき
る最少のビットで残りの情報を表すことによってビデオ信号を伝えるに必要な帯
域幅を減らそうとしている。このようにして、圧縮データを元の画像データより
有効な方法で記憶又は伝送できる。Due to the limited bandwidth available on the transmission line, only a limited number of bits are available for encoding audio and video information. Video encoding techniques seek to encode video information with as few bits as possible, while still maintaining the image quality required for a given application. Therefore, video compression techniques are needed to convey the video signal by representing the remaining information with the fewest bits that can reconstruct an approximation of the original image with minimal loss of important features, excluding redundant information. Trying to reduce bandwidth. In this way, the compressed data can be stored or transmitted in a more efficient manner than the original image data.
【0004】 ビデオ信号から統計的冗長性を除くことによって符号化効率を改良する多くの
ビデオ符号化技術がある。多くの標準の画像圧縮方式は、離散的コサイン変換(
DCT)のような入力画像のブロック変換に基づいている。例えば、映画専門家
グループによって開発された周知のMPEGビデオ符号化技術は、空間ドメイン
(DCT使用して)における画素(ペル)間の相関と時間ドメイン(予測と動き
補償を使用して)の画像枠間の相関を利用することによってかなりのビットレー
ト削減を達成している。There are many video coding techniques that improve coding efficiency by removing statistical redundancy from video signals. Many standard image compression schemes use the discrete cosine transform (
DCT) based on the block transform of the input image. For example, a well-known MPEG video coding technique developed by a group of motion picture experts is the correlation between pixels (pels) in the spatial domain (using DCT) and the image in the time domain (using prediction and motion compensation). Significant bit rate reduction is achieved by utilizing the correlation between frames.
【0005】 システム(含めて重ねられた直交する変換の)を符号化して基礎を形成される
周知の直交及び二直交(サブバンド)変換において、画像がその画像を最初にブ
ロック化する必要なしに変換される。DCTに基づく変換符号器は、画像を最初
にブロック化する必要なしに変換する。DCTに基づく変換符号器は、主に二つ
の理由で画像をブロック化する、すなわち、1)経験によってDCTが画像の8
×8領域又は一連の差画像ついての既知の最適変換(カルーネン・ルーベ)に対
する良好な近似であることを知った、及び2)DCTの処理は、O(NlogN
)を増大させて、画像のブロック化によって計算努力が制限される、ということ
である。In the well-known orthogonal and bi-orthogonal (sub-band) transforms that are based on encoding systems (including the orthogonal transforms that are superimposed), an image can be obtained without having to first block the image. Is converted. Transform encoders based on DCT transform an image without having to first block. Transform encoders based on the DCT block images for two main reasons: 1) Experience shows that the DCT
We have found that it is a good approximation to the known optimal transform (Karhunen-Roube) for x8 regions or a series of difference images, and 2) the processing of the DCT is O (NlogN
) Is increased, so that the blocking of the image limits the computational effort.
【0006】 最終結果は、DCTをベースにした方法が、特に高められない限り、画像の8
x8領域によって(又は直ぐ外側に)コンパクトに支えられる基素機能を有する
。考慮中の直交及び二直交変換は、画像の有限の間隔内に主に支持される基素部
材を有するが、範囲を隣接した空間領域と共有する。サブバンド画像符号化技術
、例えば、1組のフィルタを用いて一つの入力画像を複数の空間周波数帯域に分
割し、各帯域又はチャネルを量子化する。サブバンド画像符号化技術の詳細な議
論については、SPIE第1666巻「人間の視力、視覚処理及びデジタル表示
III」、pp.241―52(1992年2月)のシー・ポディルチャック(
C.Podilchuck)及びエイ・ジャッキン(A.Jacquin)著「
動的ビット割当及び幾何学的ベクトル量子化でのサブバンド・ビデオ符号化」(
Subband Video Coding With Dynamic Bi
t Allocation and Geometric Vector Qu
antization)を参照されたい。サブバンド符号化方法の各段階で、信
号は、画像の低域通過近似とその近似を作ることによって失われた細部を表す高
域項に分割される。[0006] The end result is that unless the DCT-based method is specifically enhanced, the 8
It has a base function that is compactly supported by (or just outside) the x8 region. The orthogonal and bi-orthogonal transforms under consideration have elementary members that are primarily supported within a finite interval of the image, but share the extent with adjacent spatial regions. One input image is divided into a plurality of spatial frequency bands using a subband image coding technique, for example, a set of filters, and each band or channel is quantized. For a detailed discussion of subband image coding techniques, see SPIE Vol. 241-52 (February 1992) Sea Podiruchak (
C. Podilchuk) and A. Jacquin
Subband Video Coding with Dynamic Bit Allocation and Geometric Vector Quantization "(
Subband Video Coding With Dynamic Bi
t Allocation and Geometric Vector Qu
See, for example, At each stage of the subband encoding method, the signal is divided into a low-pass approximation of the image and a high-pass term representing the details lost by making that approximation.
【0007】 それに加えて、DCTベース変換符号器は、ベース部材が8×8ブロック全体
にわたって伸びる支えを有するという意味で変換不変量である。これは、動き補
償が変換ドメインにおいて能率的に行われないようにする。したがって、使用中
の大部分の動き補償技術は、8x8ブロックに符号化された変換である誤差項を
作るために隣接画像フレームを一時的に利用する。結果として、これらの技術は
、基準フレームを周波数領域から時間領域に与えるために行われるべき逆変換を
必要とする。このようなシステムの例は、鈴木ほかの米国特許第5,481,5
53号と村上ほかの米国特許第5,025,482 号にある。In addition, DCT-based transform encoders are transform-invariant in the sense that the base member has supports that extend over an 8 × 8 block. This prevents motion compensation from being performed efficiently in the transform domain. Thus, most motion compensation techniques in use temporarily utilize adjacent image frames to create an error term that is a transform encoded into an 8x8 block. As a result, these techniques require an inverse transform to be performed to provide a reference frame from the frequency domain to the time domain. An example of such a system is described in US Pat. No. 5,481,5, Suzuki et al.
No. 53 and U.S. Pat. No. 5,025,482 to Murakami et al.
【0008】 図1は、DCTを使用している従来の標準ビデオ圧縮方法の略ブロック図を示
す。ブロック10において、画像シーケンス内の変化は、予測モードにあるとき
MPEGにおいて使用される一つの技術のような動き検出技術によって能率的に
表される。特に、前のフレームが基準フレームとして使われ、前向き予測におい
て、次のフレームが時間的冗長性をなくして、度合に従ってそれらの間の差に順
位を付けるために前のフレームと比較される。このステップは、次のフレームの
動き予測の段階を設定するとともに次のフレームのデータの大きさを小さくする
。FIG. 1 shows a schematic block diagram of a conventional standard video compression method using DCT. At block 10, changes in the image sequence are efficiently represented by motion detection techniques, such as one technique used in MPEG when in prediction mode. In particular, the previous frame is used as a reference frame, and in forward prediction, the next frame is compared with the previous frame to eliminate temporal redundancy and rank the differences between them according to degree. This step sets the stage of motion prediction for the next frame and reduces the size of the data for the next frame.
【0009】 ブロック12において、判定が画像のどの部分が動いたかについてなされる。ブ
ロック10によって与えられたデータセットを使用して、MPEGの例を続ける
と、フレーム間の動き予測は、動き補償技術を基準フレームと次のフレームに適
用することによって実施される。結果として生じる予測は、予測誤差/フレーム
を生成するために次のフレームから引かれる。その後で、ブロック14において
、変化は特徴に変換される。MPEGにおいて、これは2次元の8x8のDCT
を使用している予測誤差を圧縮することによって行われる。At block 12, a determination is made as to which portion of the image has moved. Continuing with the MPEG example using the data set provided by block 10, motion estimation between frames is performed by applying motion compensation techniques to the reference frame and the next frame. The resulting prediction is subtracted from the next frame to generate a prediction error / frame. Thereafter, at block 14, the changes are converted to features. In MPEG, this is a two-dimensional 8x8 DCT
This is done by compressing the prediction error using
【0010】 DCT又はサブバンド・符号器に基づく大部分のビデオ圧縮技術は、変換段階
において正確さを失うことなくビデオ情報を符号化しようとする高精度技術に集
中した。そのような高精度符号化技術は、比較的費用のかかるマイクロプロセッ
サ(例えばインテル社PENTIUM(商標)プロセッサ)に依存する。そして
、それは、浮動小数点演算の操作において助けとなり、それによって高精度を維
持することに対するペナルティーを少なくする専用のハードウェアを有している
。[0010] Most video compression techniques based on DCT or subband encoders have focused on high precision techniques that attempt to encode video information without losing accuracy in the transform stage. Such high-precision encoding techniques rely on relatively expensive microprocessors (eg, Intel PENTIUM ™ processors). And it has dedicated hardware that helps in the operation of floating point arithmetic, thereby reducing the penalty for maintaining high accuracy.
【0011】 しかし、多くのアプリケーションの場合、そのような比較的高価なハードウェ
アは、実際的でないか又は価値があると認められていない。したがって、安くて
受け入れ可能な画像品質水準をも維持する具体化が必要である。しかし、低価格
のハードウェアで実行できる既知の限られた精密変換は、符号化プロセスが「損
失のある」性質であるために、低い精度を示す傾向がある。ここで使用している
ように、「損失のある」システムは、符号器の種々の段階を通して精度を失って
、それにより復号のとき変換係数からの入力をほぼ復元する能力を欠いているシ
ステムに関する。これらの低精度変換によって示された精度低減を補償すること
ができないことは、そのような変換を使用することに対して障害であった。However, for many applications, such relatively expensive hardware has not proven to be practical or valuable. Therefore, there is a need for an embodiment that maintains a cheap and acceptable image quality level. However, known limited precision transforms that can be performed on low cost hardware tend to exhibit low accuracy due to the "lossy" nature of the encoding process. As used herein, a "lossy" system refers to a system that loses precision through the various stages of the encoder, thereby lacking the ability to substantially recover the input from the transform coefficients when decoding. . The inability to compensate for the accuracy reduction exhibited by these low-precision transforms was an obstacle to using such transforms.
【0012】 前述のことからみて、変換ドメイン内で動き補償を行い、それにより符号器に
おける逆変換の必要をなくして、ソフトウェアとハードウェア装置のための単純
な制御構造を可能にするビデオ符号器が要求されている。また、低価格のハード
ウェアと高速ソフトウェア装置を可能にする制御構造を含む低精度具体化に適し
ている変換のクラスを有するビデオ符号器のための技術的要求もある。In view of the foregoing, a video encoder that performs motion compensation in the transform domain, thereby eliminating the need for an inverse transform in the encoder and allowing a simple control structure for software and hardware devices Is required. There is also a technical need for a video encoder having a class of transforms suitable for low-precision implementations, including control structures that allow for low-cost hardware and high-speed software devices.
【0013】[0013]
本発明は、データを圧縮するための新規で独特な装置と方法を目的とする。さ
らに詳しくいえば、本装置と方法は、例えば、ビデオ画像を表すデータをより能
率的に符号化し、それにより復号器へ移されなければならないデータ量を減らす
ように適応されて構成される。The present invention is directed to a new and unique apparatus and method for compressing data. More specifically, the apparatus and method are adapted and configured, for example, to more efficiently encode data representing a video image, thereby reducing the amount of data that must be transferred to a decoder.
【0014】[0014]
本発明は、第1のデータセット及び第2のデータセットを含むデータを圧縮す
る方法に関する。この方法は、第1及び第2のデータセットを対応する第1及び
第2の変換係数セットに変換することを含んでいる。その後で、第1及び第2の
変換係数セット間の差を表すデータが生成される。生成されたデータは、次に復
号器に伝達するために符号化される。The present invention relates to a method for compressing data comprising a first data set and a second data set. The method includes transforming the first and second data sets into corresponding first and second transform coefficient sets. Thereafter, data representing the difference between the first and second sets of transform coefficients is generated. The generated data is then encoded for transmission to a decoder.
【0015】 第1及び第2のデータセットを変換することは、テンソル積小波変換を利用し
て実行されてもよい。さらに、変換方法から生ずる残りは、一つのサブバンドか
らもう一つのサブバンドへ送ることができる。Transforming the first and second data sets may be performed using a tensor product wavelet transform. Further, the remainder resulting from the transform method can be sent from one subband to another.
【0016】 第1及び第2の変換係数セット間の差を表すデータは、動きベクトルを与える
ように第1及び第2の変換係数セット間の差を評価することによって生成される
。動きベクトルは、第2の変換係数セットの予測を作るために第1の変換係数セ
ットに適用される。その予測は、第2の変換係数セットから引かれて1組の予測
誤差を生ずる。第1及び第2の変換係数セットは、符号器と復号器の間の同期を
確実にするために誤差を修正されることができる。Data representing the difference between the first and second sets of transform coefficients is generated by evaluating the difference between the first and second sets of transform coefficients to provide a motion vector. The motion vector is applied to the first set of transform coefficients to make a prediction of the second set of transform coefficients. The prediction is subtracted from the second set of transform coefficients to produce a set of prediction errors. The first and second sets of transform coefficients can be error corrected to ensure synchronization between the encoder and the decoder.
【0017】 第1及び第2の変換係数セット間の差を評価する際に、検索領域が第1及び第
2の変換係数セットの一方から変換係数のサブセットの回りに生成される。その
後で、変換係数の関連のサブセットが第1及び第2の変換係数セットのもう一方
から検索領域に加えられる。次に、変換係数の関連のサブセットは、最良増分一
致を表す位置へ検索領域内を増分的に横に動かされる。次に、前記関連のサブセ
ットは、最良分数一致を表す位置へ検索領域内を分数的に横に動かすことができ
る。In evaluating the difference between the first and second sets of transform coefficients, a search region is generated around a subset of the transform coefficients from one of the first and second sets of transform coefficients. Thereafter, an associated subset of the transform coefficients is added to the search area from the other of the first and second sets of transform coefficients. Next, the relevant subset of transform coefficients is incrementally traversed within the search area to a position representing the best incremental match. The relevant subset can then be moved fractionally laterally within the search area to a position that represents the best fractional match.
【0018】 第1のデータセットと第2のデータセットを含むデータを圧縮する方法のもう
一つの実施例は、第1及び第2のデータセットをサブバンドの対応する第1及び
第2の集合に変換することを含む。次に、サブバンドの第1及び第2の集合間の
差を表すデータを生ずる。このデータは、例えば、動き補償技術を実施すること
によって生成できる。動き補償技術は、動きベクトル及び予測誤差などの出力を
与えることができる。その後で、生成されたデータは、復号器に伝達するために
符号化される。[0018] Another embodiment of a method of compressing data comprising a first data set and a second data set comprises converting the first and second data sets to corresponding first and second sets of subbands. Including converting to Next, data is generated that represents the difference between the first and second sets of subbands. This data can be generated, for example, by implementing a motion compensation technique. Motion compensation techniques can provide outputs such as motion vectors and prediction errors. Thereafter, the generated data is encoded for transmission to a decoder.
【0019】 一つの実施例がまた、サブバンド・マクロブロック・グルーピングを形成する
ようにマクロブロック・パッキングされた第2の集合であってもよい。その後で
、生成されたデータを次のように動き補償技術によって得ることができる。サブ
バンドの第1の集合とサブバンド・マクロブロック・グルーピングの間の差は、
動きベクトルを与えるために評価される。動きベクトルは、サブバンドの第1の
集合に加えられてサブバンドの第2の集合の予測を作る。この予測は、それから
サブバンドの第2の集合から引かれて1組の予測誤差を生ずる。One embodiment may also be a second set macroblock packed to form a subband macroblock grouping. Thereafter, the generated data can be obtained by a motion compensation technique as follows. The difference between the first set of subbands and the subband macroblock grouping is
Evaluated to give the motion vector. The motion vectors are added to the first set of subbands to make a prediction of the second set of subbands. This prediction is then subtracted from the second set of subbands to produce a set of prediction errors.
【0020】 これらの差は、次のようにサブバンドとサブバンド・サブバンド・グルーピン
グの第1の集合の間で次のように評価することができる。検索領域がサブバンド
の第1の集合から変換係数のサブセットの周りに生成される。サブバンドマクロ
ブロック・グルーピングからの変換係数の関連サブセットが検索領域に適用され
る。変換係数の関連サブセットは、次に最良増分一致を表す位置へ検索領域内を
増分的に横に動かされる。次に、変換係数の関連サブセットは、最良分数一致を
表す位置へ検索領域内で分数的に横に動かされる。[0020] These differences can be evaluated between the first set of subbands and subbands and subband groupings as follows. A search region is generated around the subset of transform coefficients from the first set of subbands. A relevant subset of transform coefficients from the sub-band macroblock grouping is applied to the search region. The relevant subset of the transform coefficients is then incrementally traversed within the search area to the position representing the best incremental match. Next, the relevant subset of transform coefficients is fractionally moved within the search area to a position that represents the best fractional match.
【0021】 画像の変換から得られるサブバンドの集合のサブバンド・ブロックを編成する
サブバンド・マクロブロック・パッキング方法もまた、開示される。この方法は
、画像内の画像マクロブロックに対応するサブバンドの集合から1組の関連のサ
ブバンド・ブロックを分離することを含む。関連のサブバンド・ブロックの組は
、サブバンド・マクロブロックと一つとしてパックされる。分離及びパックキン
グに関連したサブバンド・ブロックのステップは、サブバンド・マクロブロック
・グルーピングを形成するためにサブバンドの集合における関連サブバンド・ブ
ロックの各セットに対して繰り返される。A subband macroblock packing method for organizing subband blocks of a set of subbands resulting from transforming an image is also disclosed. The method includes separating a set of related subband blocks from a set of subbands corresponding to image macroblocks in the image. The set of related subband blocks is packed as one with the subband macroblock. The sub-band block steps related to separation and packing are repeated for each set of related sub-band blocks in the set of sub-bands to form a sub-band macroblock grouping.
【0022】 マクロブロック・パッキングの方法は、サブバンド・ブロックがサブバンドの
集合において占めるのと同じ相対位置にサブバンド・マクロブロック内の関連サ
ブバンド・ブロックの組を配列することによってさらに精密にできる。この方法
はまた、対応する画像マクロブロックが画像マクロブロック・グルーピングの中
で位置するのと同じ空間位置にサブバンド・マクロブロック・グルーピング内の
サブバンド・マクロブロックの位置を決めることを含む。The method of macroblock packing is further refined by arranging the set of related subband blocks within a subband macroblock in the same relative position as the subband block occupies in the set of subbands. it can. The method also includes locating the sub-band macroblock within the sub-band macroblock grouping at the same spatial location where the corresponding image macroblock is located within the image macroblock grouping.
【0023】 マクロブロック・パッキングの後、変化を第1のサブバンド・マクロブロック
・グルーピング(基準)と次の第2のサブバンド・マクロブロック・グルーピン
グの間で検出できる。検出ステップは、次の形の一般式 ここで: ec=基準Rに対するゆがみの測定値、 Wi=適用された重み、 G=第2のサブバンド・マクロブロック・グルーピングの変換係数、 及び R=基準(例えば第1のサブバンド・マクロブロック・グルーピング)
に従うゆがみ計算に基づく。After macroblock packing, a change can be detected between a first subband macroblock grouping (reference) and the next second subband macroblock grouping. The detection step is a general expression of the form Where: ec = measured distortion with respect to reference R, Wi = applied weight, G = transform coefficient of second subband macroblock grouping, and R = reference (eg first subband macroblock) ·grouping)
Based on the distortion calculation.
【0024】 ゆがみを評価するための方程式のより特殊な形は、次の形のものである A more specific form of the equation for evaluating distortion is of the form
【0025】 本発明のもう一つの実施例が一つのデータセットを変換係数に変換するための
有限精密法として記述されており、その方法では、データセットがテンソル積小
波対を利用して変換され、そこから出ている残りは、反対側のフィルタ経路に伝
搬される。さらに詳しくいえば、この実施例は画像の低域通過構成要素と高域通
過構成要素を決定することを含むことができる。低域通過構成要素は、低域通過
正規化出力と第1の残り(rl)を生成するために正規化される。同様に、高域
通過構成要素は、高域通過正規化出力と第2の残り(rh)を生成するために正
規化される。第1の演算(g(rl,rh))が第1及び第2の残り(rl(r
h))について行われ、それから出る結果が近似に加えられる。そして、第2の
演算(f(rl,rh))もまた、第1及び第2の残り(rl(rh))につい
て行われて、それから出ている結果が詳細部に加えられる。残り(誤差の伝達)
の伝搬をいかなる変換においても使うことができるが、ただテンソル積にはでき
ない点に注意することが重要である。Another embodiment of the present invention is described as a finite precision method for transforming a data set into transform coefficients, wherein the data set is transformed using a tensor product wavelet pair. , The remainder coming out of it is propagated to the opposite filter path. More specifically, this embodiment can include determining the low-pass and high-pass components of the image. The low-pass component is normalized to produce a low-pass normalized output and a first remainder (rl). Similarly, the high-pass component is normalized to produce a high-pass normalized output and a second remainder (rh). The first operation (g (rl, rh)) is performed by the first and second remainder (rl (r
h)), and the resulting result is added to the approximation. Then, a second operation (f (rl, rh)) is also performed on the first and second remainders (rl (rh)), and the resulting result is added to the detail. Remaining (error propagation)
It is important to note that the propagation of can be used in any transformation, but not just a tensor product.
【0026】 上記の有限精密法によると、画像の表現が完全過ぎるものになる。この方法は
、変換ドメイン内の画像を表す必要かつ充分な変換係数を得るために高域通過と
低域通過構成要素の、ダウンサンプリング、例えば二つだけ、をすることを含む
ことができる。According to the finite precision method described above, the representation of an image is too complete. The method may include down-sampling the high-pass and low-pass components to obtain the necessary and sufficient transform coefficients representing the image in the transform domain, eg, only two.
【0027】 有限の精密法の実施例が値−1、2、6、2、−1を有する低域通過フィルタ
及び値ー1,2、−1を有する高域フィルタを備えている。 第1の演算(g(rl,rh))と第2の演算(f(rl,rh))は、以下の
関数を有する、 g(rl,rh)=rh、 及び f(rl,rh)=floor(rh+/2)、 ここでnh =1/2。An embodiment of the finite precision method comprises a low-pass filter having the values -1, 2, 6, 2, -1 and a high-pass filter having the values -1, 2, -1. The first operation (g (rl, rh)) and the second operation (f (rl, rh)) have the following functions: g (rl, rh) = rh, and f (rl, rh) = floor (rh / 2), where nh = 1/2.
【0028】 上記を含んでいるテンソル積小波変換の特定の例は、次式を有する 及び ここで X2i=入力データ、 X2i−1=入力データX21に先行するデータ X2i+1=あとに続くデータは、dataX2、 Di=詳細部項(高域フィルタ出力の10分の1を取った)、 Di+1=詳細部項Dのあとに続く詳細部項、 及び Ai=近似項(低域フィルタ出力の10分の1を取った))。A specific example of a tensor product wavelet transform that includes the above has the formula as well as Where X 2i = input data, data following the data X 2i + 1 = after preceding the X 2i-1 = input data X21 is (took one tenth of the high-pass filter output) dataX2, Di = detailed part section , D i + 1 = detail part term following D, and A i = approximate term (takes one-tenth of low-pass filter output).
【0029】 また、変換ドメインにある一連のフレーム間の変化を予測する符号器装置が開
示される。この装置は、一連のフレームの第1及び第2フレームを受けるように
構成され、さらに、それから各々が1組の変換係数を支援する対応するサブバン
ドの第1及び第2の集合を生成するように構成された入力を有する変換装置を備
えている。変換装置に連結された入力を有する動き補償装置は、サブバンドの第
1及び第2の集合を受けるように構成されて、さらにサブバンドの第1及び第2
の集合間の差を効率よく表すように構成されている。また、変換装置に連結され
た入力と動き補償装置の出力に連結された入力を有する差ブロックが含まれる。
動き補償装置から受けられる入力は、差ブロックにあるサブバンドの第2の集合
から引かれ、それにより予測誤差を生成する。[0029] Also disclosed is an encoder apparatus for predicting a change between a series of frames in a transform domain. The apparatus is configured to receive first and second frames of a series of frames, and further generates first and second sets of corresponding subbands, each supporting a set of transform coefficients. And a conversion device having an input configured as described above. A motion compensator having an input coupled to the transform device is configured to receive the first and second sets of subbands, and further comprises the first and second subbands.
Are configured to efficiently represent the difference between the sets. Also included is a difference block having an input connected to the transform device and an input connected to the output of the motion compensator.
The input received from the motion compensator is subtracted from the second set of subbands in the difference block, thereby producing a prediction error.
【0030】 動き補償装置は、サブバンドの第1及び第2の集合を比較するように構成され
た動き評価装置を備えている。動きベクトルの集合がそこから生成され、それは
サブバンドの第1及び第2の集合間の差を近似的に表す。動き補償装置はまた、
入力を動き評価装置に連結されて、サブバンドの動きベクトルと第1の集合を受
けるように構成されて、さらにそこからサブバンドの第2の集合の予測を表す予
測グルーピングを生成するように構成された動き予測装置を備えている。サブバ
ンドの第2の集合の予測は、差ブロック内のサブバンドの第2集合から引かれて
予測誤差を得る。[0030] The motion compensator comprises a motion estimator configured to compare the first and second sets of subbands. A set of motion vectors is generated therefrom, which approximately represents the difference between the first and second sets of subbands. The motion compensator also
An input is coupled to the motion estimator and is configured to receive the motion vector of the sub-band and the first set, and further configured to generate a prediction grouping therefrom that represents a prediction of the second set of sub-bands. A motion prediction device. The prediction of the second set of subbands is subtracted from the second set of subbands in the difference block to obtain a prediction error.
【0031】 画像フレームを変換ドメインに変換する有限精密変換装置もまた、開示されて
いる。この装置は、並列配列されて画像フレームを受けるように構成された入力
を共有する低域通過構成要素と高域通過構成要素を備えている。低域通過構成要
素の出力を受けるように構成された入力を有しさらに、低域通過正規化出力及び
第2の残り(rl)を作るようにさらに構成された低域通過正規化装置が設けら
れている。高域通過正規化装置が高域通過構成要素の出力を受けるように構成さ
れた入力を有しさらに、高域通過正規化出力及び第2の残り(rl)を作るよう
にさらに構成されている。第1の演算装置が入力を第1の残り(rl)と第2の
残り(rh)を受けるように構成されて、さらに、第1の計算(g(rl,rh
))を計算するように構成され、それによって第1の計算結果を生成する。第2
の演算装置が入力を第1の残り(rl)と第2の残り(rh)を受けるように構
成されて、さらに、第2の計算(f(rl,rh))を計算するように構成され
、それによって第1の計算結果を生成する。なお、第1の加算器が低域通過正規
化出力と第1の算出結果を受けるように構成された入力を有し、前記第1の加算
器はサブバンド近似を生成する。同様に、第2の加算器が低域通過正規化出力と
第2の計算結果を受けるように構成された入力を有し、第2の加算器がサブバン
ド詳細部を生成する。A finite precision transform device for transforming an image frame into a transform domain is also disclosed. The apparatus comprises a low-pass component and a high-pass component sharing an input arranged in parallel and configured to receive an image frame. A low-pass normalizer is provided having an input configured to receive an output of the low-pass component and further configured to produce a low-pass normalized output and a second remainder (rl). Have been. The high-pass normalizer has an input configured to receive an output of the high-pass component, and is further configured to produce a high-pass normalized output and a second remainder (rl). . The first computing device is configured to receive an input of a first residue (rl) and a second residue (rh), and further comprises a first calculation (g (rl, rh)
)), Thereby generating a first calculation result. Second
Is configured to receive an input of a first remainder (rl) and a second remainder (rh), and further configured to calculate a second calculation (f (rl, rh)). , Thereby generating a first calculation result. Note that a first adder has a low-pass normalized output and an input configured to receive a first calculation result, wherein the first adder generates a sub-band approximation. Similarly, a second adder has a low-pass normalized output and an input configured to receive the second calculation result, and the second adder generates a subband detail.
【0032】 有限精密変換装置は、さらに低域通過出力での第1のダウンサンプラ(標本化
数を下げて標本化する回路)と高域通過出力での第2のダウンサンプラを含む。
2のダウンサンプリング(標本数を下げて標本化すること)は、復号器において
入力画像を復元するために充分かつ必要な変換係数を与える。The finite precision conversion device further includes a first downsampler (a circuit for sampling with a reduced sampling number) at a low-pass output and a second downsampler at a high-pass output.
Downsampling of two (sampling with a reduced number of samples) provides enough and necessary transform coefficients to reconstruct the input image at the decoder.
【0033】 本明細書において開示した装置と方法のこれら及びその他のユニークな特徴は
、図面とともに行われる以下の詳細な説明からさらに容易に明らかになるだろう
。[0033] These and other unique features of the devices and methods disclosed herein will become more readily apparent from the following detailed description, taken in conjunction with the drawings.
【0034】[0034]
本発明の実施例が限られた精密変換技術を用いてディジタルビデオ信号を圧縮
する装置及び方法を与える。その実施例は、従来の無損失又は有損失変換に基づ
いた技術について、従来技術におけるような時間ドメインではなく、変換ドメイ
ンにおいて、動き補償、例えば、動きを評価して予測すること、によって改良す
る。こうして、改良された画質をより安価なハードウェアにおいて達成できる。Embodiments of the present invention provide an apparatus and method for compressing a digital video signal using limited precision conversion techniques. The embodiment improves upon techniques based on conventional lossless or lossy transforms by motion compensation, eg, evaluating and predicting motion in the transform domain, rather than in the time domain as in the prior art. . Thus, improved image quality can be achieved with less expensive hardware.
【0035】 用語「動き補償」は、最も広義に定義されることを意図している。換言すれば
、動き補償が本明細書において一群の画素の動き評価と動き予測を含むものとし
て記載されて、図示されていることが多いが、例えば、回転とスケールを包含す
るということも理解されべきである。それに加えて、例えば、用語「動き補償」
は、2セットのデータ間の差を表わすデータを簡単に生成することを含んでいて
もよい。The term “motion compensation” is intended to be defined in the broadest sense. In other words, although motion compensation is often described and illustrated herein as including motion estimation and motion estimation of a group of pixels, it is also understood that motion compensation encompasses, for example, rotation and scale. Should. In addition, for example, the term "motion compensation"
May include simply generating data representing the difference between the two sets of data.
【0036】 圧縮効率が画像を特徴に変換することと最初に特徴を図にすることの両方によ
って得られる。本明細書における開示は、それが一連の画像又はビデオ・フレー
ムに関するとして示されている。そのような画像シーケンスは、容易に、互い整
列して置かれて、時間又は何らかの他のパラメータによって割出される空間的に
配位されたデータ要素(スカラ−、ベクトル又は関数的のいずれか)であると理
解できる。画像シーケンスは直角座標系にあるようにできるが、従来技術におけ
る他の座標系を用いることもできる。The compression efficiency is obtained both by converting the image into features and first mapping the features. The disclosure herein is shown as it relates to a sequence of images or video frames. Such image sequences are easily aligned with each other and with spatially aligned data elements (either scalar, vector or functional) determined by time or some other parameter. I understand that there is. The image sequence can be in a rectangular coordinate system, but other coordinate systems in the prior art can be used.
【0037】 なお、現在の装置と方法は、非ビデオ・アプリケーション(例えばスピーチ、
音声及び心電図圧縮)において利用できる。すなわち、たとえ本明細書において
開示された発明が二次元のシステム(2D)(すなわちビデオ圧縮)に図示され
ているとしても、教示が一般にデータ圧縮の技術を進めるために他のいかなる次
元のシステムにも適用できることを意図している。It should be noted that current devices and methods are for non-video applications (eg, speech,
Voice and ECG compression). That is, even though the invention disclosed herein is illustrated in a two-dimensional system (2D) (ie, video compression), the teachings generally apply to any other dimensional system to advance the art of data compression. It is also intended to be applicable.
【0038】 例えば、教示は、超音波イメージングなどの1−1/2の次元のシステム(1
−1/2D)に適用できる。また、教示は、3次元のシステム(3D)(例えば
磁気共鳴イメージング(MRI))に適用することもできる。For example, the teachings relate to a 1-1 / 2 dimensional system (1
-1 / 2D). The teachings can also be applied to three-dimensional systems (3D) (eg, magnetic resonance imaging (MRI)).
【0039】 下記の説明の全体にわたって、用語「フレーム」は、単一画像の形に関係なく
、すなわち、それが時間領域、周波数領域にあるか又はそれになされたどんな他
の処理のものであるかどうかに関係なく、符号器に送られた一連の画像中の単一
画像に関する。その他に、用語「ペル」は、時間領域の画素に関して使われ、用
語「係数」と「変換係数」は、例えば、ペルが前方小波変換を通過したあとに発
生されるペルの表示に関して使われる。これらの用語は、実施例の説明を容易に
するために用いて、決して本発明の範囲を制限することを目的としていない。Throughout the following description, the term “frame” is independent of the shape of a single image, ie, whether it is in the time domain, the frequency domain, or any other processing performed on it. Regardless, whether for a single image in a sequence of images sent to the encoder. In addition, the term “pel” is used for pixels in the time domain, and the terms “coefficient” and “transform coefficient” are used, for example, for the representation of a pel that occurs after the pel has passed the forward wavelet transform. These terms are used to facilitate the description of the examples and are in no way intended to limit the scope of the invention.
【0040】 同様な参照番号が本発明の同様の要素を識別している図面を、ここで参照する
と、図2において一連の画像又は一連のフレームを圧縮するための実施例の略ブ
ロック図で示されている。この線図は、本明細書において開示されるいくつかの
実施例のうちの一つである。より詳細な実施例を以下の節において論ずる。Reference is now made to the drawings, in which like reference numbers identify like elements of the present invention, and shown in FIG. 2 in a schematic block diagram of an embodiment for compressing a series of images or a series of frames. Have been. This diagram is one of several embodiments disclosed herein. More detailed examples are discussed in the following sections.
【0041】 図2において、一つの画像がブロック20において変換ドメイン内の特徴の集
合に変換される。その画像に対して有意であると決定された特徴(すなわち、過
去又は基準フレームからかなり変化したと決定されるそれらの特徴)は、ブロッ
ク22において選ばれる。有意な特徴は、ブロック24において効率的に表され
て、その後で、基準フレーム内の特徴を更新するために復号器に送られる。In FIG. 2, an image is transformed at block 20 into a set of features in the transform domain. Features determined to be significant for the image (ie, those features that have been determined to have changed significantly from the past or reference frame) are selected at block 22. Significant features are efficiently represented at block 24, and are then sent to a decoder to update features in the reference frame.
【0042】 例えば、元の画像は、ブロック20において変換されて、変換係数セットによ
って表される。係数セットの変換係数は、次に種々の重み付け及び評価技術よっ
てそれらの有意性を決定するためにブロック22において評価され、次に重みに
従って順位を付けられる。その後で、ブロック24において、現在のフレームと
過去又は基準フレームの間の動き補償が起こる。動き補償は、1組の動きベクト
ルを生成するためにフレーム間の変化を評価する動きを含むでいてもよい。その
後で、動きベクトルは、動き予測ステップの間に基準フレームに適用される。動
き予測からの結果は、その予測の誤差を決定するために変換係数セットから引か
れる。予測誤差は、次に任意選択的に拡大・縮小されて、復号器に伝送のための
動きベクトルとともに最後に位置的に符号化される。For example, the original image is transformed at block 20 and represented by a set of transform coefficients. The transform coefficients of the coefficient set are then evaluated at block 22 to determine their significance by various weighting and evaluation techniques, and then ranked according to the weights. Thereafter, at block 24, motion compensation between the current frame and the past or reference frame occurs. Motion compensation may include motion evaluating changes between frames to generate a set of motion vectors. Thereafter, the motion vector is applied to the reference frame during the motion estimation step. The results from the motion prediction are subtracted from a set of transform coefficients to determine the error in the prediction. The prediction error is then optionally scaled and finally positionally encoded with the motion vector for transmission to the decoder.
【0043】 図3を参照すると、略ブロック線図が図2に関して記載された実施例のより詳
しい構成を示している。例えば、カルテック中間フォーマット(Caltech
Intermediate Format(CIF))において符号化された
画像シーケンス又は一連のビデオ・フレーム26がコンバータ28に送られる。
CIFフームは、288x352ペルを有する。コンバータ28において、フレ
ームは、4分の1CIF(QCIF)、例えば図4(a)に図示したようなQC
IF画像30、に変換される。QCIF画像は、144x176ペルを有する。
CIFは、水平方向と垂直方向の両方において二つだけ低域通過フィルタリング
して10分の1を取ることによってQCIFに変換される。処理を容易にするた
めに、144×176ペルは、各々16x16ペルを有する画像マクロブロック
(IMBx,x)に分割される。QCIFが、例としてだけ本明細書において使
われて、本発明に関する限界として全く考えられていない。後述の技術は、容易
にその他の画像(及び非画像)フォーマットに当業者にとって公知の方法で適応
できる。Referring to FIG. 3, a schematic block diagram illustrates a more detailed configuration of the embodiment described with respect to FIG. For example, Caltech intermediate format (Caltech
An image sequence or series of video frames 26 encoded in the Intermediate Format (CIF) is sent to a converter 28.
The CIF fume has 288x352 pels. In the converter 28, the frame is a quarter CIF (QCIF), for example, a QCIF as shown in FIG.
IF image 30. The QCIF image has 144 × 176 pels.
The CIF is converted to QCIF by low pass filtering by two in both the horizontal and vertical directions and taking one tenth. For ease of processing, 144 × 176 pels are divided into image macroblocks (IMBx, x) each having 16 × 16 pels. QCIF is used herein by way of example only and is not considered at all as a limitation on the present invention. The techniques described below can easily be adapted to other image (and non-image) formats in ways known to those skilled in the art.
【0044】 図3と4を参照すると、QCIF画像30は、画像の特徴への写像が起こる図
2のブロック20を形成するブロック32と36に送られる。さらに具体的には
、QCIF画像30(図4(a))は、前方小波変換が各フレームをサブバンド
の集合34(図4(b))に変換するブロック32に送られる。変換された画像
(すなわちサブバンドの集合34)のこの編成は、例えば、動き評価、動き予測
と予測誤差の決定のためなどに後で使用するためにメモリーに記憶される。本発
明のために使ようできる適当な前方小波変換は、本明細書において更に詳細に以
下に論じる。Referring to FIGS. 3 and 4, a QCIF image 30 is sent to blocks 32 and 36 which form block 20 of FIG. 2 where mapping to image features occurs. More specifically, the QCIF image 30 (FIG. 4 (a)) is sent to a block 32 where the forward wavelet transform converts each frame into a set of subbands 34 (FIG. 4 (b)). This organization of the transformed image (ie, the set of subbands 34) is stored in memory for later use, for example, for motion estimation, motion estimation and determination of prediction error. Suitable forward wavelet transforms that can be used for the present invention are discussed in further detail herein below.
【0045】 サブバンドの集合34は、サブバンド・マクロブロック・パッキングのための
ブロック36に送られる。サブバンド・マクロブロック・パッキングの間に、特
定の画像マクロブロックに対応するサブバンド・ブロックは、サブバンド・マク
ロブロック(SMBx,x)を形成するように編成される。その後で、各サブバ
ンド・マクロブロックは、それが関係するので表す画像マクロブロックの空間的
に常駐する。特定のフレームのための全てのサブバンド・マクロブロックの集合
は、サブバンド・マクロブロック・グルーピング40と呼ばれている。The set of subbands 34 is sent to a block 36 for subband macroblock packing. During subband macroblock packing, subband blocks corresponding to a particular image macroblock are organized to form a subband macroblock (SMBx, x). Thereafter, each subband macroblock is spatially resident of the picture macroblock it represents as it pertains. The set of all subband macroblocks for a particular frame is called a subband macroblock grouping 40.
【0046】 図5は、サブバンド・マクロブロック・パッキングの方法を示す。サブバンド
・マクロブロック・パッキングの間、サブバンド34(図5(a))の集合内の
全関連サブバンド・ブロックは、図5(a)に示したようなサブバンド・マクロ
ブロック38を形成するためにサブバンド・マクロブロック・パッキングの間に
再編成される。FIG. 5 shows a method of subband macroblock packing. During subband macroblock packing, all relevant subband blocks in the set of subbands 34 (FIG. 5 (a)) form a subband macroblock 38 as shown in FIG. 5 (a). To be reorganized during subband macroblock packing.
【0047】 例えば、図4(a)の画像マクロブロック2,4(1MB2,4)に対応する
図5(a)の影付きサブバンド・ブロックは、図5(b)に示したようなサブバ
ンド・マクロブロックSMB2,4を形成するためにブロック36(図3)にお
けるサブバンド・マクロブロック・パッキングの間に再構成される。サブバンド
・マクロブロック38(SMB0,0乃至SMB8,10)は、次に、各サブバ
ンドマクロブロックがQCIF画像30の中の対応する画像マクロブロック(I
MBx,x)の空間位置によって裏付けられるように、サブバンド・マクロブロ
ック38(図5(c))に図示したように、サブバンド・マクロブロック・グル
ーピング40に構成される。この例では、SMB2,4は、図4(a)と図5(
c)に示されたように、1MB2,4の空間的位置によって有意に裏付けられて
いることが分かる。For example, the shaded subband block in FIG. 5A corresponding to the image macroblocks 2 and 4 (1 MB 2,4 ) in FIG. 4A is as shown in FIG. 5B. Reconstructed during subband macroblock packing in block 36 (FIG. 3) to form subband macroblocks SMB2,4. The sub-band macroblocks 38 (SMB 0,0 to SMB 8,10 ) are then each sub-band macroblock whose corresponding image macroblock (I
As supported by the spatial position of MBx, x), the subband macroblocks are configured into subband macroblock groupings 40 as shown in the subband macroblocks 38 (FIG. 5C). In this example, SMBs 2 and 4 correspond to FIGS. 4 (a) and 5 (
As shown in c), it can be seen that it is significantly supported by the spatial position of 1 MB 2,4 .
【0048】 本明細書において記載されている実施例がQCIFで表されたフレーム画像だ
けに言及しているが、当業者は、他のフォーマットを本発明の教示から逸れるこ
となく使うことができると容易に理解するだろうことを再び特記することが重要
である。各サブバンド・マクロブロックにおけるサブバンド・ブロックの特定の
グルーピングが図示された特定の小波を適応させるために用いられる点に注意す
ることもまた、重要である。他の小波に対してより適当であるサブバンド・デー
タの他のグルーピングが存在する。Although the embodiments described herein refer only to frame images represented in QCIF, those skilled in the art will recognize that other formats can be used without departing from the teachings of the present invention. It is important to reiterate what you will easily understand. It is also important to note that a particular grouping of sub-band blocks in each sub-band macroblock is used to adapt the particular wavelets shown. There are other groupings of subband data that are more appropriate for other wavelets.
【0049】 画像マクロブロックの集合30(図4(a))、サブバンドの集合34(図4
(b))及びサブバンド・マクロブロック・グルーピング40(図5(c))の
上記の説明から多少の画像マクロブロック、サブバンド・ブロックとサブバンド
・マクロブロックの間に相関があることは、容易に明らかなはずである。そのよ
うな相関の例は、次の通りである:(a)画像マクロブロック2,4(1MB2
,4)。それは、影を付けられて、更に図4(a)の画像マクロブロック106
として識別される、(b)図4(b)の影付サブバンド・ブロック(例えばサブ
バンド00(SB00)内のサブバンド・ブロック116及びサブバンド33(
SB33)内のサブバンド・ブロック118)の全て及び、(c)図5(c)に
おいて、影を付けられるとともにサブバンド・マクロブロック117として識別
されたサブバンド・マクロブロック2,4(SMB2,4)。上に例示されたも
ののような関係を有する係数を含むこの明細書の説明が「関連の」あるとしてい
るといわれることがある。A set 30 of image macroblocks (FIG. 4A) and a set of subbands 34 (FIG. 4A)
(B)) and the above description of the sub-band macroblock grouping 40 (FIG. 5 (c)) shows that there is some correlation between image macroblocks, sub-band blocks and sub-band macro blocks. It should be readily apparent. Examples of such correlations are as follows: (a) Image macroblocks 2, 4 (1 MB2
, 4). It is shaded and the image macroblock 106 of FIG.
4 (b) (eg, sub-band block 116 and sub-band 33 (in sub-band 00 (SB 00 )) in FIG.
All of the sub-band blocks 118) in SB 33) and (c) the sub-band macro blocks 2, 4 (SMB 2 ) shaded and identified as sub-band macro block 117 in FIG. , 4 ). Descriptions of this specification that include coefficients having relationships such as those exemplified above may be said to be "related."
【0050】 図3を再び参照すると、サブバンド・マクロブロック・グルーピング40が図
2にあるブロック22を形成するブロック42、46、48及び52に送られる
。図2では、特徴又はサブバンド・マクロブロック(SMB0,0乃至SMB8
,10)が変わったことを決める。特に、重みがサブバンド・マクロブロックの
知覚的重要性をならす量だけサブバンド・マクロブロック・グルーピング40に
ある各サブバンド・マクロブロックを拡大・縮小するために適用されるブロック
42に送られる。重み付けブロック42の出力は、重み付きグルーピング44で
ある。Referring again to FIG. 3, subband macroblock grouping 40 is sent to blocks 42, 46, 48 and 52 forming block 22 in FIG. In FIG. 2, the features or subband macroblocks (SMB0,0 to SMB8
, 10) has changed. In particular, the weights are sent to a block 42 that is applied to scale up or down each subband macroblock in the subband macroblock grouping 40 by an amount that evens out the perceptual significance of the subband macroblock. The output of the weighting block 42 is a weighted grouping 44.
【0051】 重み付けによる知覚重要性を、例えば、Mean Opinion Scor
e研究によって決めることもできるし、又は、Consultative Co
mmittee for International Telegraph
and Telephone(CCITT )(それの規格は、本明細書におい
て参照することによって組み入れられている)のH.261とH.263にある
ような他の符号化システムにおいて用いられた重みからも決定できる。Mean
Opinion Scoringの検討のために、本明細書に参照することに
よって組み入れられたケイ・アール・ラオ(K.R.Rao)ケイ・アール及び
ピー・イップ(P.Yip)著「離散的コサイン変換」(Discrete C
osine Transform)、アカデミック・プレス社(pp.165−
74(1990))を参照のこと。重みが各サブバンド・マクロブロックを拡大
・縮小するためにブロック42において適用されたあと、重み付きグルーピング
44は、変化検出ブロック46に送られて、そこで処理され、起こった変化の相
対量を決定される。この変化は、また、「有意性」又は、ビデオの場合には、重
み付きグルーピング44のゆがみと呼ばれる。有意性を与えられた基準(例えば
ゼロ又は過去の重み付きグルーピング)に関して決定できる。変化・検出ブロッ
ク46から伸びているループは、過去の重み付きグルーピングを基準として使用
するために変化・検出ブロック46に返すフレーム・ディレー48を備えている
。変化・検出ブロック46の出力は、変化を検出されたグルーピング50である
。The importance of perception by weighting is determined, for example, by Mean Opinion Score.
e can be determined by research or by the Consultative Co.
mmittee for International Telegraph
and Telephone (CCITT), the specifications of which are incorporated herein by reference. 261 and H.E. 263 can also be determined from the weights used in other encoding systems. Mean
"Discrete Cosine Transform" by K. R. Rao, K. R. and P. Yip, incorporated herein by reference for discussion of Opinion Scoring. (Discrete C
Osine Transform), Academic Press (pp. 165-
74 (1990)). After the weights have been applied in block 42 to scale each subband macroblock, the weighted grouping 44 is sent to a change detection block 46 where it is processed to determine the relative amount of change that has occurred. Is done. This change is also referred to as "significance" or, in the case of video, distortion of the weighted grouping 44. Significance can be determined for given criteria (eg, zero or past weighted groupings). The loop extending from the change / detection block 46 includes a frame delay 48 that is returned to the change / detection block 46 to use past weighted groupings as a reference. The output of the change / detection block 46 is a grouping 50 in which a change has been detected.
【0052】 ゼロ基準が、例えば、符号器を通じてフレームを最初に伝えるとき、変化・検
出ブロック46において使われる。この場合、フレーム全体は、ゼロに照合され
る。これは、また、フレーム内照合として知られている。上記の通りに、過去の
マクロブロック・グルーピングが上記の通りにブロック42において重みを付け
られ、その後で、基準として使用するために変化・検出ブロック46の遅延ブロ
ック48において遅らされる重み付きグルーピングもまた使うとができる。また
、フレーム間照合として知られているこの後者の方法は、冗長な及び/又は重要
でない情報を復号器に繰り返し送ることをなくす。A zero criterion is used in the change and detection block 46, for example, when first transmitting a frame through the encoder. In this case, the entire frame is matched to zero. This is also known as intra-frame matching. As described above, the past macroblock groupings are weighted in block 42 as described above, and then delayed in delay block 48 of change and detection block 46 for use as a reference. Can also be used. Also, this latter method, known as inter-frame matching, avoids repeatedly sending redundant and / or insignificant information to the decoder.
【0053】 ゼロフレーム照合の択一的使用が、システムの動作中、復号器での比較的正確
な基準画像を再生して、維持するために行われる。一つの方法は、ゼロ基準を標
準の30フレーム/秒の割合で8番目ごとのフレームの全部に周期的に適用する
ことを使う。代わりに、画像は、サブバンド・ブロックをゼロにランダムに又は
整然として照合することによるなどで確率的にリフレッシュできる。フレームの
全て又は一部分をゼロに照合するいかなる方法もを容易にするために、ゼロ照合
されたサブバンド・ブロックは、変化をもたらされたブロックについて行われる
べき動き補償演算(後述)を妨げるためのようなものとして識別される。したが
って、識別されたサブバンド・ブロックは、場合により、そのブロック内の基準
全体又は基準の一部分をリフレッシュするために復号器において全部再生される
。An alternative use of zero frame matching is made during operation of the system to reproduce and maintain a relatively accurate reference image at the decoder. One method uses periodically applying the zero criterion to all of every eighth frame at a standard rate of 30 frames / second. Alternatively, the image can be refreshed probabilistically, such as by randomly or orderly matching subband blocks to zero. To facilitate any method of matching all or a portion of a frame to zero, the zero-matched sub-band blocks prevent motion compensation operations (described below) to be performed on the affected blocks. Is identified as something like Thus, the identified subband block is optionally replayed at the decoder to refresh the entire reference or a portion of the reference within the block.
【0054】 図3を再度参照すると、メモリーに以前に記憶されたサブバンドの集合34と
変化を検出されたグルーピング50のサブバンド・マクロブロックは、各サブバ
ンド・ブロックが変化したと決められた量、すなわちそれらの有意性と一致して
いる量、に従ってブロック52において順序付けされる。順序付けは、ブロック
42と46にあるサブバンド・マクロブロックにそれぞれ重みを付けるのと検出
するのを行うことによって先に割り当てられた値に基づいている。ブロック52
の出力は、線55を通して送られる順序付サブバンド・グルーピング53と順序
付サブバンド・マクロブロック・グルーピング54を備えている。Referring again to FIG. 3, the set of subbands 34 previously stored in memory and the subband macroblocks of the grouping 50 in which the change was detected were determined to have changed in each subband block. Ordered in block 52 according to the quantities, ie, the quantities that are consistent with their significance. The ordering is based on the values previously assigned by weighting and detecting the subband macroblocks in blocks 42 and 46, respectively. Block 52
Output comprises an ordered subband grouping 53 and an ordered subband macroblock grouping 54 sent over line 55.
【0055】 図3の参照を続けると、順序付サブバンド・グルーピング53と順序付サブバ
ンド・マクロブロック・グルーピング54は、変更マクロブロックは、効率的に
表されている図2のブロック24と対応するブロック56、60、62、68、
72及び76へ選択的に送られる。特に、順序付サブバンド・マクロブロック・
グルーピング54(「現在の」フレーム)は、動き評価のためのブロック56に
送られる。順序付サブバンド・グルーピング53は遅延ブロック62に送られ、
そのあと、ブロック56と60の動き評価と動き予測のために遅延した順序付サ
ブバンド・グルーピング57(「照合」フレーム)を線64に与える。動きベク
トル58の集合が、以下に記載する方法で、動き評価ブロック56において生成
され、動き予測のためのブロック60に送られるとともに、位置的符号化のため
のブロック76にも送られる。With continued reference to FIG. 3, ordered subband grouping 53 and ordered subband macroblock grouping 54 correspond to block 24 of FIG. 2 where the modified macroblocks are represented efficiently. Blocks 56, 60, 62, 68,
72 and 76 selectively. In particular, ordered subbands, macroblocks,
The grouping 54 ("current" frame) is sent to a block 56 for motion estimation. The ordered subband grouping 53 is sent to the delay block 62,
A delayed ordered subband grouping 57 ("match" frame) is then provided on line 64 for motion estimation and motion estimation of blocks 56 and 60. A set of motion vectors 58 is generated in the motion estimation block 56 and sent to the block 60 for motion estimation and also sent to the block 76 for positional encoding in the manner described below.
【0056】 動き予測ブロック60に送られた動きベクトル58は、予測されたグルーピン
グ66を生成するために遅延順序付サブバンド・グルーピング57を変更するの
に用いられる。差ブロック68は、順序付サブバンド・グルーピング53を受け
て、そこから予測されたグルーピング66を引き、グルーピング差70(すなわ
ち予測誤差)を得る。グルーピング差70は、さらに、ブロック72において拡
大・縮小され、拡大・縮小されたグルーピング差74になる。当業者は、非ゼロ
グルーピング差70の数が少なければ少ないほど、動きベクトル58の集合が現
在のフレームと基準フレームの間の変化をより正確に予測したことを認めるであ
ろう。そして、差が少なければ少ないほど、動き評価における不備を補正するた
めに復号器に送られなければならないビットは少ない。The motion vector 58 sent to the motion prediction block 60 is used to modify the delay ordered subband grouping 57 to generate a predicted grouping 66. Difference block 68 receives ordered subband grouping 53 and subtracts predicted grouping 66 therefrom to obtain grouping difference 70 (ie, prediction error). The grouping difference 70 is further enlarged / reduced in a block 72 to become an enlarged / reduced grouping difference 74. Those skilled in the art will recognize that the smaller the number of non-zero grouping differences 70, the more accurately the set of motion vectors 58 predicted changes between the current frame and the reference frame. And the smaller the difference, the fewer bits that need to be sent to the decoder to correct the deficiencies in the motion estimation.
【0057】 拡大・縮小ブロック72からの拡大・縮小されたグルーピング差74と動き評
価ブロック56からの動きベクトル58の集合は、ブロック76のマクロブロッ
クとして位置的に符号化される。そこにおいて、データは効率的にビットストリ
ームに編成される。符号化されたビットストリーム・グルーピング78は、ブロ
ック76から出力され、逆処理のための復号器82に伝送線80を通して伝送さ
れる。伝送を様々な媒体、例えば電子的、電磁的又は光学的媒体を通じてできる
。The set of the enlarged / reduced grouping difference 74 from the enlargement / reduction block 72 and the motion vector 58 from the motion evaluation block 56 is positionally encoded as a macroblock of the block 76. There, the data is efficiently organized into bitstreams. The encoded bitstream grouping 78 is output from block 76 and transmitted over transmission line 80 to a decoder 82 for inverse processing. Transmission can be through a variety of media, for example, electronic, electromagnetic or optical media.
【0058】 ビットストリーム書式設定に関して、ビットストリームの書式を設定する技術
には周知のいくつかの標準的方法がある。H.263 ベースの符号器システム
において使用される書式は1例である。ビットストリームが基本的にビット・パ
ケットの直列ストリングである。各パケットはデータの特定の部類を表している
。With respect to bitstream formatting, there are several well-known standard techniques for formatting bitstreams. H. The format used in a H.263-based encoder system is one example. A bitstream is basically a serial string of bit packets. Each packet represents a particular class of data.
【0059】 例えば、ビット・パケットは、システムレベル・データ、ビデオ、制御及び音
声データを含むことができる。データがブロック76の位置的符号化のために受
けられると、それは使用中の書式に従ってビット・パケットに構成される。一般
に、ビデオ・フレームを表しているビット・パケットの集合は、それを新しいフ
レームと識別するビットで始まる。量子化の量及びその他の制御コードは、一般
にあとに続く。その後で、拡大・縮小されたグルーピング差74を表しているマ
クロブロックのリストが符号化される。QCIFの場合、マクロブロックの数は
、99に等しい。(図5(c)を参照のこと。)For example, a bit packet may include system level data, video, control and audio data. When data is received for the positional encoding of block 76, it is organized into bit packets according to the format in use. Generally, a set of bit packets representing a video frame begins with bits that identify it as a new frame. The amount of quantization and other control codes generally follow. Thereafter, the list of macroblocks representing the scaled grouping difference 74 is encoded. For QCIF, the number of macroblocks is equal to 99. (See FIG. 5 (c).)
【0060】 より効率的なデータ転送を容易にするために、各マクロブロックがマクロブロ
ックにゼロでないデータの有無を示すマクロブロック・ゼロビット(MBZer
o−bit)によって先行される。マクロブロックが存在する場合、動きベクト
ル58の関連の集合を含んでいるマクロブロックのための制御情報が送られ、そ
の後にサブバンド・データ、すなわち関連の拡大・縮小されたグルーピング差7
4が続く。そのような情報を含むことは、マクロブロックの欠如がゼロに等しい
マクロブロック係数の全ストリングを識別するのに必要である全ビットの代わり
に単一の記号によって表されるので、伝送線80を通して送られるビットの数を
著しく減らす。To facilitate more efficient data transfer, a macroblock zero bit (MBZer) indicating that each macroblock has non-zero data in the macroblock
o-bit). If a macroblock is present, control information for the macroblock containing the associated set of motion vectors 58 is sent, followed by subband data, ie, the associated scaled grouping difference 7.
4 follows. Including such information is through transmission line 80 because the absence of a macroblock is represented by a single symbol instead of all the bits required to identify the entire string of macroblock coefficients equal to zero. Significantly reduce the number of bits sent.
【0061】 それ以上の効率をもつことができるもう一つの状況は、サブバンド・マクロブ
ロック内のサブバンド・ブロックのほんの幾つかだけがゼロであるときである。
ある実施例は、ゼロに等しい係数を有するサブバンドにサブバンド・ゼロフラグ
(SBZero flag)を立てるステップを含む。拡大・縮小されたグルー
ピング差74からのゼロである係数を持つサブバンドは、順序付サブバンド・グ
ルーピング53の対応するサブバンド・ブロックと予測されたグルーピング66
との間に変化があると分らなかったことを示す。ゼロに等しくなっている各係数
を別々に表すより、SBZeroフラグを表すに必要なビットの方が著しく少い
。もちろん、復号器は、ブロック76における位置的符号化の間に導入された記
号を解釈するためにMBZero−bitとSBZeroフラグの両方を認識す
るようにプログラムされる。Another situation that can have more efficiency is when only a few of the subband blocks within a subband macroblock are zero.
Some embodiments include raising a sub-band zero flag (SBZero flag) for sub-bands having a coefficient equal to zero. The subbands with zero coefficients from the scaled grouping difference 74 are the corresponding subband blocks of the ordered subband grouping 53 and the predicted grouping 66
Indicates that there was no change between Significantly fewer bits are required to represent the SBZero flag than to represent each coefficient equal to zero separately. Of course, the decoder is programmed to recognize both the MBZero-bit and SBZero flags to interpret the symbols introduced during the positional coding in block 76.
【0062】 ゼロのストリングを象徴化するためのゼロ・ランレングス符号の例は、以下の
通りである。 An example of a zero run-length code for symbolizing a string of zeros is as follows.
【0063】 図3を続けて参照すると、符号化されたビットストリーム・グルーピング78
は、伝送ライン80を経た復号器82によって受けられて、位置的符号化ブロッ
ク76の効果を逆にする位置的復号化ブロック86に送られる。動きベクトルの
集合58は、ビットストリーム・グルーピング78から抽出されて、予測ブロッ
ク98に送られる。サブバンド形式(図4(b))になっている復号されて拡大
縮小されたグルーピング差88は、量子化回復ブロック90に与えられる。量子
化回復ブロック90において、過去の変換係数及び過去と現在の量子化解除項が
量子化された変換係数の値を回復するために用いられる、すなわち、それらはグ
ルーピング差70を再生するために用いられる。With continued reference to FIG. 3, an encoded bitstream grouping 78
Is received by a decoder 82 via a transmission line 80 and sent to a positional decoding block 86 which reverses the effect of the positional coding block 76. The set of motion vectors 58 is extracted from the bitstream grouping 78 and sent to the prediction block 98. The decoded and scaled grouping difference 88 in the subband format (FIG. 4B) is provided to a quantization recovery block 90. In a quantization recovery block 90, the past transform coefficients and the past and current dequantization terms are used to recover the quantized transform coefficient values, ie, they are used to recover the grouping difference 70. Can be
【0064】 サブバンドの集合92(符号器基準フレーム)が遅延ブロック94に送られる
。サブバンドの遅延集合96は、遅延ブロック94から予測ブロック98に送ら
れる。符号器の動き予測ブロック60において実施されたプロセスと同様に、動
きベクトルの集合58は、予測ブロック98のサブバンドの遅延集合96に適用
される。そこにおいて、サブバンドの遅延集合96は、予測されたグルーピング
100(すなわちグルーピング差70を含まない更新された画像のサブバンド表
現)を生成するために変更される。グルーピング差70と予測されたグルーピン
グ100は、サブバンドの集合92(すなわち新しい基準フレーム)を生成する
加算器ブロック102において加えられる。最後に、逆小波変換がサブバンドの
集合92についてブロック104において行われる。このステップは、本質的に
は簡単に上述した順方向小波変換32の逆であり、本明細書において以下により
詳細にする。ブロック104からの結果として生じる出力は、復元された画像1
05である。The set of subbands 92 (coder reference frames) is sent to a delay block 94. The subband delay set 96 is sent from the delay block 94 to the prediction block 98. Similar to the process performed in the motion prediction block 60 of the encoder, the set of motion vectors 58 is applied to a delay set 96 of the subbands of the prediction block 98. There, the delay set 96 of subbands is modified to generate a predicted grouping 100 (ie, a subband representation of the updated image that does not include the grouping difference 70). The grouping difference 70 and the predicted grouping 100 are added in an adder block 102 that generates a set 92 of subbands (ie, a new reference frame). Finally, an inverse wavelet transform is performed on the set of subbands 92 at block 104. This step is essentially the reverse of the forward wavelet transform 32 described briefly above and will be described in more detail herein below. The resulting output from block 104 is the restored image 1
05.
【0065】 前に説明し、図3及び図4において示したように、QCIF画像30(図4(
a))は、各ビデオ・フレームを変換してサブバンドの集合34(図4(b))
を形成する順方向小波変換32に送られる。変換ブロック32の実施例は、テン
ソル積小波変換を利用する。テンソル積小波が変換するの詳細な論議のために、
本明細書に参照して取り入れられているジョウエル・ラウジエンヌ(Joel
Rosiene)とイアン・グリーンシールド(Ian Greenshiel
ds)著、「画像の標準小波基礎圧縮」(Standard Wavelet
Basis Compression of Images)、オプチカル・エ
ンジニアリング(Optical Engineering)第33巻、第8号
(1994年8 月)を参照されたい。周知のMallat、GenLOT又は
Harr変換のような他の有限精度変換を利用もできる。そのような適切な代替
小波変換の論議のために、本明細書に参照することによって組み入れられている
ジー・ストラング(G.Strang)及びティー・ニュイアン(T.Nguy
en)著、「小波及びフィルタバンク」(Wavelets and Filt
er Banks)、Wellesley−Cambridge Press
(1997)を参照のこと。As previously described and shown in FIGS. 3 and 4, the QCIF image 30 (FIG. 4 (
a)) converts each video frame to a set of subbands 34 (FIG. 4 (b)).
To the forward wavelet transform 32 which forms An embodiment of the transform block 32 utilizes a tensor product wavelet transform. For a detailed discussion of the tensor product wavelet transform,
Joel Lauzienne, which is incorporated herein by reference.
Rossiene and Ian Greenshield
ds), "Standard Wavelet Basic Compression of Images" (Standard Wavelet)
Basis Compression of Images, Optical Engineering, Vol. 33, No. 8, August 1994. Other finite precision transforms such as the well-known Mallat, GenLOT or Harr transforms can also be used. For a discussion of such suitable alternative wavelet transforms, G. Strang and T. Nguyy, which are incorporated herein by reference.
en), "Short Waves and Filter Banks" (Wavelets and Filter)
er Banks), Wellesley-Cambridge Press
(1997).
【0066】 図4(b)を参照すると、順方向小波変換32が通過した後のサブバンド34
の集合が示されている。前に指摘したように、順方向小波変換プロセスは、テン
ソル積小波変換又は本明細書において修正された他の周知の有限精密変換を利用
して有限精密実動化の効果を減らす。一般に、変換プロセスは、(m+1)x(
n+1)サブバンドを作るためにmxn段階から成るだろう。図6と共同して以
下で論ずる一つの実施例において、変換プロセスは合計16のサブバンドを作る
ために3x3段階から成る。本発明の範囲内にある他の実施例を本明細書におい
て与えられた開示に従って作ることができる。Referring to FIG. 4B, the subband 34 after the forward wavelet transform 32 has passed.
Is shown. As noted earlier, the forward wavelet transform process utilizes a tensor product wavelet transform or other well-known finite precision transforms modified herein to reduce the effects of finite precision production. In general, the transformation process is (m + 1) x (
n + 1) will consist of mxn steps to create subbands. In one embodiment discussed below in conjunction with FIG. 6, the conversion process consists of 3 × 3 steps to create a total of 16 subbands. Other embodiments within the scope of the invention can be made in accordance with the disclosure provided herein.
【0067】 図6(a)を参照すると、順方向小波変換プロセスがQCIF画像フレーム3
0を1列ずつベースで3 段階を使用してフィルタする。各段階は、低域フィル
タ108と高域フィルタ110を含む。一つの実施例において、各低域フィルタ
108は、−1、2、6、2の値を有し、各高域フィルタが−1,2、−1の値
を有する。Referring to FIG. 6 (a), the forward wavelet conversion process is performed by the QCIF image frame 3
Filter 0s on a column-by-column basis using three stages. Each stage includes a low pass filter 108 and a high pass filter 110. In one embodiment, each low pass filter 108 has a value of -1, 2, 6, 2 and each high pass filter has a value of -1, 2, -1.
【0068】 フィルタした後に、低域通過成分と高域通過成分は、基準化されるか、それぞ
れ、デシメータ112と114によって各段階で10分の1を取られるか又は抽
出数を減らされ、それによって離散信号を含むサンプル値の成分は除去される。
例示の実施例において、入力画像は一つおきのサンプルを捨てるために抽出数を
半分にされる。20分の1を取ることは、最終的に入力の正確な再生を可能にす
るために必要にしてかつ十分な変換係数を得ることになる。その後で、低域通過
成分と高域通過成分の抽出数を減らされた値は、図7に関して本明細書において
以下に更に詳細に説明する方法で各段階において正規化される。第1段階の出力
は、低域フィルタ成分AOR と高域フィルタ成分DORを含む。低域フィルタ
AORは2回目に分解され、次に、3回目に追加の列詳細D1R及びD2R並び
に列平均A2Rを得る。After filtering, the low-pass and high-pass components are scaled, respectively, taken down or reduced by a factor of 10 at each stage by decimators 112 and 114, respectively. As a result, the components of the sample values including the discrete signal are removed.
In the illustrated embodiment, the input image is halved in number to discard every other sample. Taking the twentieth will ultimately provide the necessary and sufficient transform coefficients to allow for accurate reproduction of the input. Thereafter, the reduced number of low-pass and high-pass component extractions are normalized at each stage in a manner described in greater detail herein below with respect to FIG. The output of the first stage includes a low pass filter component AOR and a high pass filter component DOR. The low pass filter AOR is decomposed a second time, and then a third time obtains additional column details D1R and D2R and a column average A2R.
【0069】 図6(a)に示された列段階の列出力DOR、D1R、D2RとA2Rは、次
に図6(b)に示された段階に行ごとベースで適用される。図6(b)に示され
る3段階の各々は、図6(a)とともに上で示したのと同じ方法で適用されるフ
ィルタ対、ダウンサンプリング及び正規化プロセスを備えている。変換出力は、
図3に関して上述し、図4(b)に図示したようなサブバンドの集合34である
。The column outputs D OR , D 1R , D 2R and A 2R in the column stages shown in FIG. 6 (a) are then applied on a row-by-row basis to the stages shown in FIG. 6 (b). . Each of the three stages shown in FIG. 6 (b) comprises a filter pair, downsampling and normalization process applied in the same manner as shown above in conjunction with FIG. 6 (a). The conversion output is
A set 34 of subbands as described above with respect to FIG. 3 and illustrated in FIG. 4 (b).
【0070】 図4(b)をここで参照すると、識別目的のために、各サブバンドがサブバン
ド記号SBi,jによって識別される。ここで各列に対してi=0、1、2又は
3及び各行に対してj=0、1、2又は3である。影付きサブバンド・ブロック
(例えばSB00内のサブバンド・ブロック116とSB33内のサブバンド・
ブロック118)は、図4(a)のQCIF画像30の1MB24に対応する。
上述の10分の1の抽出プロセスのために、各対応するサブバンド・ブロックは
、例えば、SB00のサブバンド・ブロック116が8×8の係数を含み、SB 33 のサブバンド・ブロック112が2x2の係数を含むように比例して減らさ
れる。上述のように、関連のサブバンド・ブロック(例えばサブバンド位置2,
4にある各サブバンド(SB00乃至SB33)にあるサブバンド・ブロック)
は、若干の処理ステップを容易にするために、ブロック36(図3と5)におけ
るサブバンド・マクロブロック・パッキングのステップの間に集められる。Referring now to FIG. 4 (b), for identification purposes, each sub-band is
Is identified by the symbol SBi, j. Where i = 0, 1, 2 or
J = 0, 1, 2, or 3 for 3 and each row. Shadowed subband block
(For example, SB00Subband block 116 and SB33Subbands within
Block 118) is a block of 1 MB of the QCIF image 30 shown in FIG.24Corresponding to
Due to the 1/10 extraction process described above, each corresponding subband block is
, For example, SB00Sub-band block 116 contains 8 × 8 coefficients and SB 33 Sub-band block 112 is proportionally reduced to include 2 × 2 coefficients.
It is. As described above, the associated subband block (eg, subband position 2,
4 each subband (SB00Or SB33Subband block in))
Is used in block 36 (FIGS. 3 and 5) to facilitate some processing steps.
Collected during the sub-band macroblock packing step.
【0071】 図7を次に参照すると、開示された実施例の特徴によればによれば、サブバン
ド符号化プロセスの各段階の間の残りは、有限精密変換のために導入された誤差
を補償するために反対側のフィルタ経路に伝搬される。伝搬された残りは、精度
の失われるのを償うように反対側のフィルタ経路で係数を調整するために利用さ
れる。このプロセスは、非線形変換に結果としてなる。さらに、フィルタを変更
するプロセスは、それらを2直交にも直交にもしない。Referring now to FIG. 7, according to a feature of the disclosed embodiment, the remainder between each stage of the sub-band encoding process is based on the error introduced for the finite precision transform. Propagated to the opposite filter path to compensate. The propagated residue is used to adjust the coefficients in the opposite filter path to compensate for the loss of accuracy. This process results in a non-linear transformation. Further, the process of modifying the filters does not make them two orthogonal or orthogonal.
【0072】 図7は、図6(a)に示された列変換の第1段階の対向フィルタ・チャネルに
残りを伝搬するための実動化を例示している。同様の実動化が列段階と行段階各
々にで含まれている。入力フレーム30の係数は、通常の方法で低域フィルタ1
08と高域フィルタ110においてフィルタされる。結果は、それぞれ、サンプ
ラ112と114において減数抽出される。低域フィルタ108の分解された結
果は、低域通過正規化出力122と低域通過残りrlを作る低域通過正規化プロ
セス120において正規化される。高域フィルタ110の分解された結果は、高
域通過正規化出力126高域通過残りrhを生成する高域通過正規化プロセス1
24において正規化される。各正規化プロセス120と124からそれぞれ生じ
ている残りrlとrhは、各々図示されたように関数g(rl,rh)128と
f(rl,rh)130を通される。関数g(rl,rh)128の結果は、加
算器132において低域通過正規化出力122に加えられてAOR(第1の段階
平均)になる。関数f(rl,rh)130の結果は、加算器133において高
域通過正規化出力126に加えられてDOR(第1の段階脱落細部)になる。FIG. 7 illustrates the implementation for propagating the remainder to the opposite filter channel in the first stage of the column transformation shown in FIG. 6 (a). Similar production is included in each of the column and row phases. The coefficients of the input frame 30 are calculated using the low-pass filter 1
08 and the high-pass filter 110. The results are subtracted in samplers 112 and 114, respectively. The decomposed result of the low-pass filter 108 is normalized in a low-pass normalization process 120 that produces a low-pass normalized output 122 and a low-pass residual rl. The decomposed result of the high-pass filter 110 is the high-pass normalized output 126 The high-pass normalization process 1 that produces the high-pass residual rh
It is normalized at 24. The remaining rl and rh resulting from each normalization process 120 and 124, respectively, are passed through functions g (rl, rh) 128 and f (rl, rh) 130 as shown. The result of the function g (rl, rh) 128 is added to the low-pass normalized output 122 in an adder 132 to be AOR (first step average). The result of the function f (rl, rh) 130 is added to the high-pass normalized output 126 in adder 133 to become a DOR (first stage missing detail).
【0073】 フィルタL={−1、2、6,2、−1}及びH={−1,2、−1}の場合
、残りの関数の一つの実施例が次の通りである。nh=1/2であるf(rl,
rh)=floor(rh+1/2)及びg(rl,rh)=rh。残りの上述
の操作は各フィルタ対に対して繰り返され、変換出力におけるビット割当が少な
くする。For the filters L = {− 1, 2, 6, 2, −1} and H = {− 1, 2, −1}, one embodiment of the remaining functions is as follows. f (rl, nh = 1/2)
rh) = floor (rh + /) and g (rl, rh) = rh. The remaining above operations are repeated for each filter pair, reducing the bit allocation in the transform output.
【0074】 テンソル積小波対の実施例は、次式のものである: ここで:X2i =入力データ X2i−1=入力データX2iに先行するX=データ、 X2i+1=入力データX2iに続くデータ、 Di =詳細部項(10分の1を取った高域フィルタ出力)、 Di+1 =詳細部項Diに続く詳細部項、 Ai =近似項(10分の1を取った低域フィルタ出力)。An example of a tensor product wavelet pair is Where: X 2i = input data X 2i-1 = X data preceding input data X 2i , X 2i + 1 = data following input data X 2i , D i = detailed section (1/10 height pass filter output), D i + 1 = More unit section Di to the following detailed part section, a i = the low pass filter output took 1 approximation term (10 minutes).
【0075】 テンソル積小波変換の上述の説明は、高域通過(詳細部)と低域通過(近似)
成分への2方向分割を示している。それに加えて、その説明は、第1のバンドか
ら第2のバンドへ、第2のバンドから第1のバンドへ、又は、第1のバンドから
第2のバンドへと第2のバンドから第2のバンドへの両方向へ伝搬する可能性を
示している。上述の実施例は、本発明の基礎概念を示すことを目的として、本発
明の有効範囲を制限すると決して解釈されてはならない。The above description of the tensor product wavelet transform refers to high-pass (details) and low-pass (approximate)
The two-way split into components is shown. In addition, the description may refer to the first band to the second band, the second band to the first band, or the first band to the second band, and the second band to the second band. The possibility of propagating in both directions to this band. The above-described embodiments should not be construed as limiting the scope of the present invention in any way for the purpose of illustrating the basic concept of the present invention.
【0076】 例えば、テンソル積小波が3方向分割が高域フィルタ、中域フィルタと低域フ
ィルタを含んでいる第1段階持つことができる。次に、低域フィルタの出力を繰
り返すことができる、すなわち、3方向分割を有する第2段階を低域フィルタの
出力に適用して合計5サブバンドにすることができる。そのような実施例におい
て、残りを低域フィルタと高域フィルタから中域フィルタへ伝搬させることがで
きるだろう。この実施例は、テンソル積小波変換が変えられてなお、開示された
発明の範囲および精神を保ち続けることのできる方法のまさに一例である。当業
者は、入力が各段階で分割されて繰返されることのできる多数の他の方法がある
こととともに、残りがサブバンド間を伝搬させられることができる多数の他の方
法がにあるということを容易に理解するだろう。For example, a tensor product wavelet can have a first stage where the three-way split includes a high pass filter, a mid pass filter and a low pass filter. The output of the low-pass filter can then be repeated, that is, the second stage with the three-way split can be applied to the output of the low-pass filter, for a total of 5 subbands. In such an embodiment, the rest could be propagated from the low-pass and high-pass filters to the mid-pass filter. This embodiment is just one example of how the tensor product wavelet transform can be varied and still maintain the scope and spirit of the disclosed invention. Those skilled in the art will recognize that there are many other ways in which the input can be split and repeated at each stage, as well as many other ways in which the rest can be propagated between subbands. Will understand easily.
【0077】 それに加えて、残りの伝搬に関する上述の説明は、その使用をテンソル積小波
変換に制限することを目的としない。それをいかなる変換とも一緒に使うことが
できる。例えば、残りの伝搬を離散コサイン変換(DCT)と一緒に使うことが
できる。また、残りの伝搬を損失なし又は損失の多い方法で使用できる。In addition, the above description of the remaining propagation is not intended to limit its use to tensor product wavelet transforms. You can use it with any transformation. For example, the remaining propagation can be used with a discrete cosine transform (DCT). Also, the remaining propagation can be used in a lossless or lossy manner.
【0078】 本明細書において上述したように、順方向小波変換32の出力は、QCIF画
像30の完全な表現又は過完全な表現である可能性がある。QCIF画像30の
完全な表現は、画像の内容を表示するのにちょうど十分であるサブバンドの集合
を含んでいる。QCIF画像30の過完全表現が、本明細書において後述する動
き補償を容易にするために、完全な表現及び冗長、選択的又は付加的なサブバン
ド表現を含んでいる。各表現は、開示された実施例における値を有する。例えば
、過完全表現は、様々な画像変化(例えば並進的動き、回転動き及び拡大縮小)
を含むことができる。これらの変化は、動き補償の間、必要に応じて撤回されて
、画像変化を表しているという問題を索引手法の一つに縮減することができる。As described herein above, the output of the forward wavelet transform 32 may be a full or over-complete representation of the QCIF image 30. The complete representation of the QCIF image 30 includes a set of subbands that is just enough to display the contents of the image. The over-complete representation of the QCIF image 30 includes a complete representation and a redundant, selective or additional sub-band representation to facilitate motion compensation as described later herein. Each expression has a value in the disclosed embodiment. For example, over-complete representations can include various image changes (eg, translational motion, rotational motion, and scaling).
Can be included. These changes can be withdrawn as needed during motion compensation, reducing the problem of representing image changes to one of the indexing approaches.
【0079】 上述の順方向小波変換に関して、本明細書において例示された変換画像フレー
ム構造がルマ(luma)成分のためのものであるが、その構造はまたクロマ(
chroma)成分に対しても適用できるので、別に記載されていなかったこと
を特記しておく。With respect to the forward wavelet transform described above, the transformed image frame structure exemplified herein is for a luma component, but the structure is also a chroma (
It should be noted that it is not described separately because it can be applied to the chroma) component.
【0080】 図3に関してより上に本明細書において記載されている変化・検出ブロック4
6に関して、ゼロの基準又は他の若干の基準(例えば遅延48通して出力される
過去の重み付きグルーピング)が重み付きグルーピング44変化量を検出するた
めに用いられてもよい点特記しておく。変化・検出ブロック46の実施例が下記
の一般式の変化検出計量(重み付きグルーピング44が適用されることになって
いる)を含んでいる。The change and detection block 4 described herein above with respect to FIG.
With respect to 6, it is noted that a zero criterion or some other criterion (eg, past weighted groupings output through delay 48) may be used to detect weighted grouping 44 change. An embodiment of the change / detection block 46 includes a change detection metric of the general formula (weighted grouping 44 is to be applied):
【0081】 ここで、ec=基準Rに対するゆがみの測定、 Wi=適用した重み、 G =サブバンド変換係数の現在のグルーピング、 及び R =基準(例えばゼロ又は遅延ブロック48を通して得
られたサブバンド係数の前のグルーピング) 変化検出計量が以下のより特殊な形を取ってもよい [0081] Where e c = measured distortion relative to reference R, W i = applied weight, G = current grouping of sub-band transform coefficients, and R = reference (eg, zero or sub-band coefficients obtained through delay block 48). Previous grouping) Change detection metric may take the following more specific form
【0082】 なお、変化・検出46は、何かが変化・検出46から出力されるには、ビット
割当てに関して、高過ぎると決定されれば、重み付きグルーピング44の若干の
重み付きマクロブロックを除去するために、符号化ビットストリーム・グルーピ
ング78からの帰還132(図3)によって与えられる情報を利用できる。さら
に、変化検出ブロック46は、それがもう一つの特徴(例えばサブバンド・ブロ
ック)をその特徴をさらによく表すと思われるもう一つのものと取替えることが
できる。The change / detection 46 removes some weighted macroblocks of the weighted grouping 44 if the bit allocation is determined to be too high for something to be output from the change / detection 46. To do so, the information provided by feedback 132 (FIG. 3) from coded bitstream grouping 78 can be utilized. Further, the change detection block 46 can replace another feature (eg, a sub-band block) with another that would appear to better represent that feature.
【0083】 本明細書において上述され、図3に示されているように、順序付サブバンド・
グルーピング53と順序付サブバンド・マクロブロック・グルーピング54は、
それぞれ遅延ブロック62と動き評価ブロック56に動き評価のための線55を
介して送られる。ブロック56で、比較プロセスが順序付サブバンド・マクロブ
ロック・グルーピング54(すなわち「現在の」フレーム)のサブバンド・ブロ
ックと遅延順序付サブバンド・グルーピング57(すなわち「基準」フレーム)
の関連した検索領域との間で実施される。当業者は、現在のフレーム用の順序付
サブバンド・マクロブロック・グルーピング54を、そして基準フレーム用の遅
延順序付サブバンド・グルーピング57を利用することにある程度の利点を認め
るだろう。しかし、本発明の教示を守っている他のグルーピングと組合せを利用
できることもまた認められるべきである。ブロック56において実施された比較
プロセスは、本明細書において簡単に上述されているように、動き予測のための
ブロック60へ及びビットストリーム中に位置的符号化するためのブロック76
に送られる動きベクトルの集合58を作る。As described herein above and shown in FIG. 3, ordered subbands
Grouping 53 and ordered subband macroblock grouping 54
They are sent to a delay block 62 and a motion estimation block 56, respectively, via a line 55 for motion estimation. At block 56, the comparison process determines whether the subband blocks of the ordered subband macroblock grouping 54 (ie, the “current” frame) and the delayed ordered subband grouping 57 (ie, the “reference” frame).
With the associated search area. Those skilled in the art will recognize some advantages in utilizing an ordered subband macroblock grouping 54 for the current frame and a delayed ordered subband grouping 57 for the reference frame. However, it should also be appreciated that other groupings and combinations that adhere to the teachings of the present invention can be utilized. The comparison process performed in block 56 is to block 60 for motion estimation and block 76 for positionally encoding in the bitstream, as described briefly herein above.
, A set 58 of motion vectors sent to
【0084】 図8と9を参照して、ブロック56の動き評価及び動きベクトルの集合58の
生成を次にさらに詳しく説明する。図8には、遅延順序付サブバンド・グルーピ
ング57が示されている。遅延順序付サブバンド・グルーピング57は、図4(
b)において示されたサブバンドの集合34と同様であるが、ブロック52(図
3)において順序付けられたそれのサブバンド・ブロックを持つこと及び遅延ブ
ロック62において少なくとも1フレームだけ遅延させられたことによってさら
に処理された。個々の動きベクトルを決定するのを容易にするために、検索領域
がサブバンド(SB00乃至SB33)のうちの少なくとも一つにあるサブバン
ド・ブロックの周りに定められている。周りに検索領域を定められるように選ば
れた各サブバンド内のサブバンド・ブロックは、変化・検出ブロック46におい
て有意として定められたものである。それは、動きベクトルをSB00内の有意
なサブバンド・ブロックに基づいて作リ出すのに十分なことが多い。With reference to FIGS. 8 and 9, the motion estimation of the block 56 and the generation of the set of motion vectors 58 will now be described in more detail. FIG. 8 shows a delay-ordered subband grouping 57. The delay-ordered subband grouping 57 is shown in FIG.
b) Similar to the set of subbands 34 shown in b), but having its subband blocks ordered in block 52 (FIG. 3) and being delayed by at least one frame in delay block 62 Was further processed by To facilitate determining the individual motion vectors are determined around at least one in subband blocks in the search region is a subband (SB 00 to SB 33). The sub-band blocks in each sub-band selected to define a search area around them have been defined as significant in the change / detection block 46. It is often sufficient to produce work Li based motion vectors to a significant subband blocks in SB 00.
【0085】 図8を続けて参照すると、QCIF画像30(図4(a))の画像マクロブロ
ック2,4(1MB2,4)に対応する各サブバンド・ブロックの周りに作り出
された検索領域が示されている。検索領域の大きさは、変えられてもよい。しか
し、サブバンド・ブロックの周りの検索領域は、それらと画像の分数関係に常に
比例するであろう。例えば、136に示されているように、QCIF画像30(
図3)のPxPペルの基本検索領域がP/2xP/2のSB00(図8)のサブ
バンド・ブロック137の周りの検索領域へ及び139に指示されているように
P/4xP/2のSB01のサブバンド・ブロック140の周りの検索領域へ移
動する。With continued reference to FIG. 8, a search area created around each subband block corresponding to image macroblocks 2 and 4 (1 MB 2 , 4 ) of the QCIF image 30 (FIG. 4A) It is shown. The size of the search area may be changed. However, the search area around the subband blocks will always be proportional to the fractional relationship between them and the image. For example, as shown at 136, the QCIF image 30 (
The basic search area of the PxP pel of FIG. 3) is to the search area around the subband block 137 of SB 00 (FIG. 8) of P / 2 × P / 2 and of P / 4 × P / 2 as indicated at 139. moves to a search area around the subband block 140 of SB 01.
【0086】 本明細書において以下に与えられる動き評価の例の場合、図13のPxP検索
領域107は、32×32ペル(それは16x16ペルを有する1MB2,4の
大きさの4倍である)を含むことになっている。したがって、P/2xP/2検
索領域136(図8)は、サブバンド・ブロック137(8x8係数)の大きさ
の4倍である16の×16の係数を含む。そして、P/4xP/2検索領域13
9は、サブバンド・ブロック140(8x4係数)の大きさの4倍である16x
8の係数を含む。本明細書においてさらに後述するように、サブバンド・検索領
域は、サブバンド(SB00乃至SB33)のいくつか又は全ての各有意なサブ
バンド・ブロック(0,0乃至8,10)のための動きベクトルを決定するのを
容易にするために用いられる。For the example of motion estimation given below in this specification, the PxP search area 107 of FIG. To be included. Therefore, the P / 2xP / 2 search area 136 (FIG. 8) includes 16 × 16 coefficients that are four times the size of the subband block 137 (8 × 8 coefficients). Then, the P / 4 × P / 2 search area 13
9 is 16 ×, which is four times the size of subband block 140 (8 × 4 coefficients)
Includes a coefficient of eight. As described further below in this specification, the sub-band search region is the motion for some or all significant sub-band blocks (0,0 to 8,10) of the sub-bands (SB00 to SB33). Used to help determine the vector.
【0087】 検索領域の基準寸法(PxP)は、例えばフレームとの間に予期される動きの
量を考慮して、経験的又は統計的解析によって決定できる。また、与えられた検
索領域の検索を実施するために必要とされる計算努力を考慮しなければならない
。検索領域が大きければ大きいほど、固定プロセッサのためにより多くの計算資
源、したがって、より多くのフレーム間遅延を必要とすることが当業者によって
容易に理解される。逆に、検索領域が小さければ小さいほど、画質を犠牲にする
ことを除いて少ない計算資源でよい。これは、特に高い画像−動き周期の間あて
はまる。すなわち、動きの一部分が検索領域の外に位置し、したがって、正確な
動きベクトル選択を妨げる可能性があるので、画像の品質は落とされる。The reference size (P × P) of the search area can be determined by empirical or statistical analysis, for example, in consideration of the amount of movement expected from a frame. Also, the computational effort required to perform a search for a given search area must be considered. It will be readily appreciated by those skilled in the art that the larger the search area, the more computational resources are required for the fixed processor, and therefore more interframe delay. Conversely, the smaller the search area, the less computational resources are required except for sacrificing image quality. This is especially true during high image-motion periods. That is, the quality of the image is degraded since a portion of the motion is located outside the search area, and thus may prevent accurate motion vector selection.
【0088】 上述のように、順序付サブバンド・グルーピング53と順序付サブバンドマク
ロブロック・グルーピング54は、ブロック52からそれぞれ遅延ブロック62
と動き評価ブロック56へ線55を通して送られる。本明細書における下記の例
の場合、検索領域が遅延順序付サブバンド・グルーピング57(図8)のSB0 0 のサブバンド・ブロック2,4のまわりに配置される。そして、順序付サブバ
ンド・マクロサブバンド・グルーピング54(図5(c)のサブバンドブロック
116を参照)内のサブバンドマクロブロック2,4にあるSB00のサブバン
ド・ブロックが変化するために検索領域を横に動くために用いられる。しかし、
上述のように、サブバンドのいかなる選択もすなわちサブバンドの全てを下記の
方法に続いて使用してもよい。As described above, the ordered subband grouping 53 and the ordered subband macroblock grouping 54 are each composed of a delay block 62 from the block 52.
To the motion estimation block 56 via line 55. In the example below herein, the search area is disposed around the sub-band blocks 2 and 4 SB 0 0 subband grouping 57 with the delay sequence (Figure 8). Then, in order to subband blocks SB 00 in the subband macroblocks 2 and 4 in the ordered subband macro subband grouping 54 (see sub-band block 116 in FIG. 5 (c)) changes Used to move the search area sideways. But,
As mentioned above, any selection of sub-bands, ie all of the sub-bands, may be used following the method described below.
【0089】 図3、8と9を次に参照すると、上述の通り、順序付サブバンド・グルーピン
グ53は、遅延順序付サブバンド・グルーピング57(「基準」フレーム)を生
成する遅延62において遅らされる。遅延順序付サブバンド・グルーピング57
は、動き評価ブロック56に送られ、そこでは、検索領域136がサブバンド・
ブロック137の周りにSB00内のP/2xP/2領域を有するとして識別さ
れている。この例の場合、検索領域は、16x16係数に等しい。順位付サブバ
ンド・マクロブロック・グルーピング54(「現在の」フレーム)もまた、動き
評価ブロック56に送られ、そこでは、図5(c)のサブバンド・ブロック11
6の影付き領域と同様のサブバンド・ブロック138(図9(a))が後述の比
較プロセスにおいて使用するために検索される。Referring now to FIGS. 3, 8 and 9, as described above, ordered subband grouping 53 is delayed in delay 62 to generate delayed ordered subband grouping 57 (“reference” frame). Is done. Delayed ordered subband grouping 57
Is sent to the motion estimation block 56, where the search area 136 is
It has been identified as having a P / 2xP / 2 regions in SB 00 around the block 137. In this example, the search area is equal to a 16 × 16 coefficient. The ranked subband macroblock grouping 54 (the "current" frame) is also sent to a motion estimation block 56, where subband block 11 in FIG.
The sub-band block 138 (FIG. 9 (a)), similar to the shaded region of FIG. 6, is retrieved for use in the comparison process described below.
【0090】 特に図9(a)乃至(d)を次に参照すると、動きベクトル(MVx,x)が
図3の動き評価ブロック56において決定されるプロセスが示されている。下記
の例において、動きベクトルは一つのサブバンド・ブロック(すなわちSB00
のサブバンド・ブロック2,4)に対して決定される。しかし、動きベクトルを
各サブバンド(SB00乃至SB33)の各有意なサブバンド・ブロックのため
に決定できる。Referring now specifically to FIGS. 9 (a) through 9 (d), there is shown the process by which the motion vector (MVx, x) is determined in the motion estimation block 56 of FIG. In the example below, the motion vector is one sub-band block (ie, SB00
Are determined for the sub-band blocks 2, 4) of the sub-band. However, it determines motion vectors for each significant subband blocks in each subband (SB 00 to SB 33).
【0091】 図9(a)を参照すると、順序付サブバンド・マクロブロック・グルーピング
54のサブバンド・ブロック138が遅延順序付サブバンド・グルーピング57
(図8)の検索領域136の中にある。サブバンド・ブロック138は、遅延順
序付サブバンド・グルーピング57のサブバンド・ブロック137の上にほとん
ど重ね合わされる。上述のように、順序付サブバンド・マクロブロック・グルー
ピング54は、図5(c)において示されたサブバンド・マクロブロック・グル
ーピング40と同様の構造を有する。そして、遅延順序付サブバンド・グルーピ
ング57は、図4(b)に示されたサブバンド34の集合と同様の構造を有する
。Referring to FIG. 9A, the sub-band block 138 of the ordered sub-band macroblock grouping 54 has a delay-ordered sub-band grouping 57.
It is in the search area 136 (FIG. 8). Subband block 138 is almost superimposed on subband block 137 of delay ordered subband grouping 57. As described above, the ordered subband macroblock grouping 54 has the same structure as the subband macroblock grouping 40 shown in FIG. The delay-ordered subband grouping 57 has the same structure as the set of subbands 34 shown in FIG.
【0092】 図9(a)を再度参照すると、検索領域136の係数141(各々に「x」の
ついた4つの円として示されている)とサブバンド・ブロック138 の係数1
42(4つの円として示されている)が動きベクトルを決定する方法を図示する
のを容易にするために本明細書において使われる。係数141と142は、値に
おいてほぼ等しいこと及び残りの係数(図示せず)は、係数141と142と異
なるが互いにほぼ等しい値のものであることをこの例に対して仮定している。係
数141と142の位置の差は、二つのビデオ・フレーム(の間の変化例えば並
進的移動)を表わしている。Referring again to FIG. 9A, the coefficient 141 of the search area 136 (shown as four circles with an “x” each) and the coefficient 141 of the subband block 138
42 (shown as four circles) is used herein to facilitate illustrating how to determine the motion vector. It is assumed for this example that coefficients 141 and 142 are approximately equal in value and that the remaining coefficients (not shown) are different from coefficients 141 and 142 but of values approximately equal to each other. The difference between the positions of the coefficients 141 and 142 is indicative of (a change between, for example, a translational movement) between the two video frames.
【0093】 図9(b)を参照すると、ブロック138が横に動く、すなわち、予め定めた
段階的パターンで検索し、検索領域136は、サブバンド・ブロック138と検
索領域136の間の各ステップで総絶対差を決定しようとする。当業者は、種々
の横移動パターンを使用できること認めるであろう。なお、総絶対差以外の基準
を比較のための基礎として使うことができる。初めの比較は、サブバンド・ブロ
ック138 の増分的又は全ステップ移動を利用して最良の一致を見出そうとす
る。増分的移動がx又はy方向どちらかにおいて、全シフト又はステップである
。例えば、検索領域136全体を探索する際に、サブバンド・ブロック138は
x方向に±4増分、すなわち、変換係数、だけ及びy方向で±4増分だけ検索領
域136内でシフトする。サブバンド・ブロック138が8×8係数を有し、一
方検索領域136が16×16係数を有するので、サブバンド・ブロック138
は、xとy方向に±4増分をシフトする。Referring to FIG. 9B, the block 138 moves sideways, that is, searches are performed in a predetermined stepwise pattern, and the search area 136 includes the steps between the subband block 138 and the search area 136. Try to determine the total absolute difference. One skilled in the art will recognize that various lateral movement patterns can be used. Note that criteria other than the total absolute difference can be used as a basis for comparison. The first comparison seeks to find the best match using incremental or full-step movement of subband block 138. An incremental movement is a full shift or step in either the x or y direction. For example, in searching the entire search region 136, the subband block 138 shifts within the search region 136 by ± 4 increments in the x direction, ie, only the transform coefficients, and ± 4 increments in the y direction. Since subband block 138 has 8 × 8 coefficients, while search area 136 has 16 × 16 coefficients, subband block 138
Shifts ± 4 increments in the x and y directions.
【0094】 図9(b)を続けて参照すると、増分的検索を行った後に、最良の一致が、正
のx方向に3全増分移動と正のy方向に2全増分移動であると分かる。その後で
、図9(c)に見られるように、分数差がサブバンド・ブロック138と検索領
域136の間の差をより正確に表すために決定される。このプロセスを容易にす
るために、特定のサブバンドに適当な分数の動きを表すマスクがサブバンド・ブ
ロック138に適用される。With continued reference to FIG. 9 (b), after performing an incremental search, it can be seen that the best matches are 3 full incremental moves in the positive x direction and 2 full incremental moves in the positive y direction. . Thereafter, as seen in FIG. 9 (c), a fractional difference is determined to more accurately represent the difference between the subband block 138 and the search area 136. To facilitate this process, a mask representing the appropriate fractional motion for a particular subband is applied to subband block 138.
【0095】 例えば、SB00は、元の画像(図4(a)の1MB2,4を参照のこと)に
ある関連したマクロブロックの大きさの1/4なので、サブバンド・ブロック1
38が1MB2,4のより細かい動きをより正確に再生させることができる4
分数移動がある。すなわち、サブバンド・ブロック138は、x方向の増分の±
1/2とy方向の増分の±1/2を動かすことができる。したがって、四っの分
数マスク143は、最良の一致を捜してサブバンド・ブロック138を変更する
ために用いられる。For example, SB 00 is 4 of the size of the associated macroblock in the original image (see 1 MB2, 4 in FIG. 4 (a)), so subband block 1
38 can reproduce 1MB2, 4 finer movements more accurately 4
There is a fractional move. That is, the sub-band block 138 has ±
One-half and ± 1/2 increments in the y-direction can be moved. Therefore, the four fraction mask 143 is used to modify the subband block 138 in search of the best match.
【0096】 図9(c)の参照を続けると、四つのマスク143は、サブバンド・ブロック
138に適用される。各マスクの適用の間に、サブバンド・ブロック138と検
索領域136にある係数間の総絶対差は決定される。より良い一致が見出されれ
ば、上記の増分検索の間に決定されたものと比較して、分数マスクは、動きベク
トルに加算される。この例において、最良の一致は、正のx方向に+1/2の分
数動きであると決定される。動きベクトルの結果として生じるxとy成分は、そ
れぞれ+3・1/2と+2である。当業者は、上述の例において示したのと同程
度に正確な一致を得ることは普通でないと認めるであろう。この意味で、サブバ
ンド・ブロックの係数と検索領域の係数との間の「最良一致」は、二つの間の「
最も近い近似」としてより正確に記載されることがある。動き予測は、このよう
な精度の不足を補償するために後で用いられる。With continued reference to FIG. 9C, four masks 143 are applied to subband block 138. During each mask application, the total absolute difference between the coefficients in subband block 138 and search area 136 is determined. If a better match is found, the fractional mask is added to the motion vector as compared to that determined during the above incremental search. In this example, the best match is determined to be + / fractional motion in the positive x direction. The resulting x and y components of the motion vector are +31/2 and +2, respectively. One skilled in the art will recognize that it is unusual to obtain as exact a match as shown in the example above. In this sense, the "best match" between the subband block coefficients and the search area coefficients is the "best match" between the two.
It may be more accurately described as "closest approximation." Motion estimation is used later to compensate for this lack of accuracy.
【0097】 図9(d)を参照すると、動きベクトルのxとy成分は、それの符号を逆にさ
れて拡大・縮小される。さらに詳しくは、xとy成分の各々に−1を掛けること
、及びSB00が動き評価のために使われているこの例においては、xとy成分
の各々に2を掛けることである。xとy成分の符号は、動きベクトルが動き予測
(更に詳細に以下に論じる)の間、遅延順序付サブバンド・グルーピング57に
適用されるとき、適当な係数が「前の」フレーム位置から「現在の」フレーム位
置へ動かされるように逆にされる。そして、xとy成分は、元のQCIF画像(
1MB2、4)の関連マクロブロックに関して、上で決定された移動(x=3・
1/2(y=2))を表すために拡大される。拡大・縮小することは、動き予測
の間、サブバンドSB00乃至SB33における適当な係数をシフトする際に使
用されるxとy成分の決定をより簡単にできるようにする。Referring to FIG. 9D, the x and y components of the motion vector are scaled up and down with their signs reversed. More particularly, applying a -1 in each of the x and y components, and SB 00 is in this example being used for motion estimation is to place a 2 in each of the x and y components. The sign of the x and y components is such that when the motion vector is applied to the delayed ordered subband grouping 57 during motion estimation (discussed in more detail below), the appropriate coefficients are "from" the previous frame position. Inverted to be moved to the "current" frame position. Then, the x and y components are converted to the original QCIF image (
For the relevant macroblock of 1 MB 2 , 4 ), the movement determined above (x = 3 ·
(Y = 2)). To scaling during the motion estimation, to be able to determine the x and y components used to shift the appropriate coefficient in the subband SB 00 to SB 33 more easily.
【0098】 この例において、SMB2,4内のサブバンド・ブロックの動きを識別してい
る結果として生じる動きベクトルは、x=−7とy=−4(MV2,4)である
。MV2,4は、動きベクトルの集合58を記憶される。MV2,4は、したが
って、遅延順序付サブバンド・グルーピング57(「基準」フレーム)の各サブ
バンドからの係数の若干の集合順序付サブバンド・グルーピング53(「現在の
」フレーム)を予測するためのそれらの新しい位置への移動を表している。上記
のプロセスは、例えば、SB00の各有意なサブバンド・ブロックに対して繰り
返される。処理は、一般的にランキング順で、すなわち、最大量の移動を有する
マクロブロックから最小量の移動、を有するものへ進む。完全に無意味なサブバ
ンド・ブロックは、全く考えられないので、動きベクトルを割り当てられないだ
ろう。これは、例えば、フレーム間のの位置における変化が無意味又は無いとき
に起こるだろう。サブバンド・ブロックが、本明細書において上述のように、ゼ
ロと照合されたときにもそれは起こる可能性がある。In this example, the resulting motion vectors identifying the motion of the subband blocks in SMB 2 , 4 are x = −7 and y = −4 (MV 2 , 4 ). MV 2 , 4 stores a set 58 of motion vectors. MV 2 , 4 therefore predicts a small set of ordered coefficients subband grouping 53 (“current” frame) from each subband of delay ordered subband grouping 57 (“reference” frame). To represent their move to a new position. The above process, for example, is repeated for each significant subband blocks SB 00. Processing generally proceeds in ranking order, ie, from the macroblock with the largest amount of movement to the one with the smallest amount of movement. A completely meaningless subband block would not be assigned a motion vector since it is completely unthinkable. This may occur, for example, when there is no or no change in position between frames. It can also occur when a subband block is matched to zero, as described herein above.
【0099】 異なるサブバンドを動きベクトルを計算するために用いるべき場合、増分的動
き及び分数動きは、QCIF画像30に関して特定のサブバンドの比例関係を使
用して上述のものと類似の方法で決定されるだろう。例えば、SB01のサブバ
ンド・ブロックが動きベクトルを作り出すために用いられる場合、以下の基準を
適用する。領域サイズ=16×8係数、x分数のマスク=1/4、±1/2及び
±3/4増分、y分数のマスク=±1/2増分、xスケーリング=4、及びyス
ケーリング=2。If different subbands are to be used to calculate the motion vector, the incremental and fractional motions are determined in a manner similar to that described above using the specific subband proportionality for the QCIF image 30 Will be done. For example, if the subband block of SB 01 is used to create a motion vector, applying the following criteria. Region size = 16 × 8 coefficients, x-fraction mask = 、, ± 1 / and ± 3 increments, y-fraction mask = ±± increment, x scaling = 4, and y scaling = 2.
【0100】 上記の方法を使用する利点は、その分離できるフィルタを使用できるというこ
とである。換言すれば、一つのサブバンド・ブロックの増分及び分数移動のため
に使用するフィルタをもう一つのサブバンド・ブロックの増分及び分数のために
使用できる。例えば、SB00のサブバンド・ブロックは、x=±1/2及びy
=±1/2の四つの可能な分数移動を有する。そして、SB01のサブバンド・
ブロックは、x=±1/4、±1/2と±3/4及びy=±1/2の可能な分数
移動を有する。SB00とSB01におけるx=±1/2及びy=±1/2の共
通分数移動のため、単一の分離できるフィルタを両方のサブバンドにおけるx=
+1/2、x=−1/2、y=+1/2及びy=−1/2の分数移動のために使
用できる。この方法を遅延順序付サブバンド・グルーピング57にある全ての共
通の分数移動に使用できる。分離できるフィルタの同じ有利な使用法を動き予測
ブロック60において実施できる。The advantage of using the above method is that its separable filter can be used. In other words, the filter used for incrementing and fractional movement of one subband block can be used for incrementing and fractionalizing another subband block. For example, the sub-band block of SB 00 has x = ± 1/2 and y
== 1 / 1/2 with four possible fractional movements. And the sub-band of SB 01
The blocks have possible fractional movements of x = ± 1 /, ± 1 / and ± 3, and y = ± 1 /. Due to the common fractional shift of x = ± 1 / and y = ± 1 / in SB 00 and SB 01 , a single separable filter is used for x = ± in both subbands.
It can be used for fractional moves of +1/2, x = -1 / 2, y = + 1/2 and y = -1 / 2. This method can be used for all common fractional moves in the delay ordered subband grouping 57. The same advantageous use of separable filters can be implemented in the motion estimation block 60.
【0101】 図10を参照すると、全ての有意なサブバンド・ブロックが動き評価ブロック
56において処理されたあと、動きブロックの集合58は、動き予測ブロック6
0と位置的符合化ブロック76に出力される。動き予測ブロック60において、
動きベクトルは、係数のある数の集合の遅延順序付サブバンド・グルーピング5
7(「基準」フレーム)の各サブバンドから順序付サブバンド・グルーピング5
3(「現在の」フレーム)を予測するためのそれらの新しい位置へのシフトを計
算するために用いられる。Referring to FIG. 10, after all significant sub-band blocks have been processed in the motion estimation block 56, the motion block set 58 becomes the motion prediction block 6
It is output to the position coding block 76 with 0. In the motion prediction block 60,
The motion vector is a delayed ordered subband grouping 5 of a set of coefficients.
7 ("reference" frame) ordered subband grouping 5 from each subband
3 (the "current" frame) is used to calculate the shift to their new position to predict.
【0102】 そのようなシフトを生成するためにどのマスクを使用するべきかについて決定
するために、xとy成分は、各サブバンド・ブロックの対応するモジュロの逆数
を掛けられる。例えば、SB00の2,4位置に動いたと決定された係数148
の8×8集合をシフトするためのxとy成分を決定するために、MV2,4のx
とy成分は、各々対応するモジュロ2の逆数を掛けられる。この計算結果は、x
=−31/2とy=−2になる。したがって、x=−3の増分移動用マスク、x
=−1/2の分数移動用マスク、及びy=−2の増分移動用マスクが8×8係数
148に適用される。To determine which mask to use to generate such a shift, the x and y components are multiplied by the corresponding modulo reciprocal of each subband block. For example, the coefficient 148 determined to have moved to the 2,4 position of SB 00
X of MV 2,4 to determine the x and y components for shifting the 8 × 8 set of
And the y component are each multiplied by the inverse of the corresponding modulo-2. The result of this calculation is x
= -31 / 2 and y = -2. Therefore, x = -3 incremental movement mask, x
A fractional moving mask of = -1 / 2 and an incremental moving mask of y = -2 are applied to the 8x8 coefficients 148.
【0103】 第2の例として、SB01の2,4位置に動いと決定された係数149の8×
4集合をシフトするためのxとy成分を決定するために、MV2,4のx成分は
モジュロ4の逆数を掛けられ、MV2,4のy成分はモジュロ2の逆数を掛けら
れる。この計算結果は、x=−1・3/4及びy=−2になる。したがって、x
=−1の増分移動用マスク、x=−3/4の分数の移動用マスク及びy=−2の
増分移動用マスクが適用される。As a second example, 8 × of the coefficient 149 determined to move to the position 2 and 4 of SB 01
4 in order to determine the x and y components for shifting the set, x component of the MV 2, 4 is multiplied with inverse modulo 4, the y-component of the MV 2, 4 is multiplied by the reciprocal of the modulo 2. The result of this calculation is x = -1.3 / 4 and y = -2. Therefore, x
==-1 incremental movement mask, x = -3 / 4 fractional movement mask, and y = -2 incremental movement mask.
【0104】 図10は、係数の全集合のSMB2,4に対応するサブバンド・ブロックへの
移動を示す。動きベクトル58の集合からの動きベクトル(MVx,x)を遅延
順序付サブバンド・グルーピング57(「基準」フレーム)に適用すると順序付
サブバンド・グルーピング53(「現在の」フレーム)の予測が得られ、予測さ
れたグルーピング66(図3)という。FIG. 10 shows the movement of the entire set of coefficients to subband blocks corresponding to SMB 2 , 4 . Applying a motion vector (MVx, x) from the set of motion vectors 58 to a delayed ordered subband grouping 57 ("reference" frame) yields a prediction of an ordered subband grouping 53 ("current" frame). And is referred to as a predicted grouping 66 (FIG. 3).
【0105】 フレーム間の分数移動を決定するための上述のマスキング・プロセスの代替実
施例が3x3係数マスクを使用することを含んでいる。これらのマスクは、選択
された係数を囲んでいる係数の重み付き平均を取る。代替方法において、増分移
動だけを含む動きベクトル58の集合が各サブバンド(SB00乃至SB33)
又は選択数のサブバンド(例えばSB00だけ)にある各有意なサブバンド・ブ
ロックに対して上述し図9(a)と9(b)に示されたように決定される。動き
ベクトル58の集合は、動き予測ブロック60に送られる。An alternative embodiment of the masking process described above for determining fractional movement between frames involves using a 3 × 3 coefficient mask. These masks take a weighted average of the coefficients surrounding the selected coefficient. In an alternative method, the set of motion vectors 58 containing only the incremental movement is divided into each sub-band (SB 00 to SB 33 ).
Or it is determined as shown in above FIG. 9 (a) and 9 (b) for each significant subband block in a selected number of sub-bands (e.g., SB 00 only). The set of motion vectors 58 is sent to the motion prediction block 60.
【0106】 動き予測ブロック60において、動きベクトル58の集合は、図10において
図で示されたものに類似している方法で適用され、遅延順序付サブバンド・グル
ーピング57の有意なサブバンド・ブロックを増分的にシフトさせる。その後で
、係数の各シフトされた集合の各係数は、3×3マスクをそれに適用される。適
用されるマスクは、各シフトされた係数を囲んでいる係数の重み付き平均を決定
する。その計算の結果は、シフトされた係数の予測すなわち係数の新しい値であ
る。In the motion prediction block 60, the set of motion vectors 58 is applied in a manner similar to that shown in FIG. Is shifted incrementally. Thereafter, each coefficient of each shifted set of coefficients has a 3 × 3 mask applied to it. The applied mask determines a weighted average of the coefficients surrounding each shifted coefficient. The result of the calculation is a prediction of the shifted coefficient, ie a new value of the coefficient.
【0107】 動きベクトル58の集合からの動きベクトルの全てが遅延順序付サブバンド・
グルーピング57に適用されて、動きベクトルによってシフトされた係数の全て
がそれらに3x3マスクを適用された後に、結果は、予測されたグルーピング6
6としての動き予測ブロック60から出力される。もちろん、このプロセスは、
動き予測ブロック60において行われたマスキング・プロセスを模写するために
復号器82の予測ブロック98において繰り返される。All of the motion vectors from the set of motion vectors 58 are delayed ordered subbands.
After all of the coefficients shifted by the motion vectors applied to grouping 57 and having applied a 3x3 mask to them, the result is the predicted grouping 6
6 is output from the motion prediction block 60. Of course, this process
It is repeated in the prediction block 98 of the decoder 82 to replicate the masking process performed in the motion prediction block 60.
【0108】 予測が上述の方法のどちらかによって決定された後で、予測されたグルーピン
グ66が順序付サブバンド・グルーピング53と予測されたグルーピング66の
間の差が決定される差ブロック68に渡される。上述の通りに、差ブロック68
は、グルーピング差70を生成する。After the prediction has been determined by either of the methods described above, the predicted grouping 66 is passed to a difference block 68 where the difference between the ordered subband grouping 53 and the predicted grouping 66 is determined. It is. As described above, the difference block 68
Generates a grouping difference 70.
【0109】 本明細書において記載された動き補償法がテンソル積小波と連動して機能する
として例示されているが、その方法を他の形式の変換とともに利用できることを
特記しておくことは重要である。これは、動き補償法を時間領域又は変換ドメイ
ンのいずれかにおける他の変換とともに利用することを含む。例えば、DCTに
おいて変換されたデータを上述したものと同様の方法で動き補正できる。すなわ
ち、DCTの8×8ブロックの各々にある64の変換係数は、テンソル積小波の
SB00の8x8サブバンド・ブロックの各々にある64の変換係数を動き補正
するために使用されたものと同様の方法で動き補正できる。Although the motion compensation method described herein is illustrated as working in conjunction with tensor product wavelets, it is important to note that the method can be used with other forms of transformation. is there. This involves using motion compensation methods with other transforms in either the time domain or the transform domain. For example, data converted by DCT can be motion corrected in the same manner as described above. That is, transform coefficients 64 in each of the 8 × 8 block of DCT is similar to that used to transform coefficients 64 in each of the 8x8 sub-band blocks SB 00 tensor product wavelet to motion compensation The motion can be corrected by the following method.
【0110】 図11を次に参照すると、ビデオ符号器のもう一つの実施例が示されている。
上述され図3において示された実施例におけるように、動き評価と動き予測が、
それぞれ、ブロック150と152の変換ドメインにおいて行われる。また、実
施例の前部分は、上述し図3において示したものと同様である。さらに具体的に
いえば、CIF画像26は、コンバータ28においてQCIF画像30に変換さ
れる。QCIF画像30は、変換して、マッピング成分20を特徴づける画像に
よってサブバンド・マクロブロック・グルーピング40にコンバートされる。そ
して、サブバンド34の集合とサブバンド・マクロブロック・グルーピング40
は、それぞれ、22を変更した特徴を決定することと関連した成分によって、順
序付けされたサブバンド・グルーピング53と順序付けされたサブバンド・マク
ロブロック・グルーピング54に変換される。Referring now to FIG. 11, another embodiment of a video encoder is shown.
As in the embodiment described above and shown in FIG.
This is done in the transform domain of blocks 150 and 152, respectively. The front part of the embodiment is the same as that described above and shown in FIG. More specifically, the CIF image 26 is converted in a converter 28 into a QCIF image 30. The QCIF image 30 is transformed and converted into a subband macroblock grouping 40 by an image characterizing the mapping component 20. Then, a set of subbands 34 and a subband macroblock grouping 40
Are transformed into an ordered subband grouping 53 and an ordered subband macroblock grouping 54, respectively, by components associated with determining the modified features of 22.
【0111】 また、順序付サブバンド・マクロブロック・グルーピング54が動き評価ブロ
ック150へ送られ、順序付サブバンド・グルーピング53が差ブロック68に
送られることは、図3において示された実施例と同様である。しかし、基準枠と
して遅延順序付サブバンド・グルーピング57を利用する代わりに、累積誤差を
それに加えられた、誤差修正済みサブバンド・グルーピング171が遅延ブロッ
ク156に送られ、それによって、遅延サブバンド・グルーピング172(「基
準」フレーム)を生成する。量子化(又は拡大・縮小)が差ブロック68におい
て生成された予測誤差70をいちじるしく変更するほど大きいとき、そのような
変形が必要である。Also, the fact that the ordered subband macroblock grouping 54 is sent to the motion evaluation block 150 and the ordered subband grouping 53 is sent to the difference block 68 is the same as the embodiment shown in FIG. The same is true. However, instead of using the delay-ordered subband grouping 57 as a reference frame, an error-corrected subband grouping 171 with the cumulative error added thereto is sent to the delay block 156, whereby the delay subband Generate a grouping 172 ("reference" frame). Such a modification is necessary when the quantization (or scaling) is large enough to significantly alter the prediction error 70 generated in the difference block 68.
【0112】 誤差修正サブバンド・グルーピング171を作り出すために、システムがゼロ
に照合されるときに、例えば、システムが始められるとき又は復号器の基準がリ
フレッシュされるべきとき、1部の順序付サブバンド・グルーピング53が差ブ
ロック68を無変化で通されて、メモリに記憶される。その後で、次の各フレー
ムの予測誤差70が量子化ブロック158を通過するので、予測誤差70は累算
される、すなわち、基準に加えられる。更新された基準画像は、遅延ブロック1
56に送られ、それによって、遅延サブバンド・グルーピング172を生成する
。この方法を利用することによって、符号器の基準は、復号器の基準と同期した
ままになる。当業者は、かなりの量の拡大・縮小及び/又は量子化が、動き予測
と位置的符号化の間に行われるとき、そのような構成が符号器と復号器の間の同
期を維持する際に有効であることを認めるであろう。To create the error correction subband grouping 171, when the system is matched to zero, for example, when the system is started or when the decoder reference is to be refreshed, a partial ordered sub The band grouping 53 is passed unchanged through the difference block 68 and stored in memory. Thereafter, the prediction error 70 of each next frame passes through the quantization block 158, so that the prediction error 70 is accumulated, ie, added to the reference. The updated reference image is the delay block 1
56, thereby generating a delayed subband grouping 172. By utilizing this method, the encoder reference remains synchronized with the decoder reference. One skilled in the art will recognize that when a significant amount of scaling and / or quantization is performed between motion estimation and positional encoding, such an arrangement maintains synchronization between the encoder and the decoder. Would be effective.
【0113】 動き評価ブロック150と動き予測ブロック152が遅延ブロック156から
遅延サブバンド・グルーピング172を受けたあと、動き評価と動き予測は本明
細書において上述されたものと同様の手続きによって決定されて、図8乃至10
において図で示される。なお、順方向送り159は、変化検出46と量子化ブロ
ック158の間に設けられて、ブロックが変化した量に従い、特定のブロックに
行われることになっている量子化の量を調整する。多量の変化が変化検出46に
認められるときに、多数のビットが量子化ために割り当てられる。そして、逆に
、少量の変化が変化検出46に認められるときには、比例してより少数のビット
が量子化のために割り当てられる。After the motion estimation block 150 and the motion prediction block 152 have received the delayed subband grouping 172 from the delay block 156, motion estimation and motion prediction are determined by procedures similar to those described herein above. 8 to 10
Is shown in the figure. The forward feed 159 is provided between the change detection 46 and the quantization block 158, and adjusts the amount of quantization to be performed on a specific block according to the amount of change of the block. When a large amount of change is detected in change detection 46, a number of bits are allocated for quantization. And conversely, when a small change is detected in change detection 46, a proportionately smaller number of bits are allocated for quantization.
【0114】 図12を次に参照すると、ビデオ符号器のもう一つの実施例がなお示されてい
る。この実施例の前部分は、上述し、図3と11に図示した実施例と同様である
。しかし、上述の実施例とは異なり、動き評価が画像ドメインにおいて実施され
ている。この実施例は、若干のプロセッサに現在利用できる特殊なハードウェア
配置を利用している。Referring next to FIG. 12, another embodiment of the video encoder is still shown. The front part of this embodiment is similar to the embodiment described above and illustrated in FIGS. However, unlike the embodiments described above, motion estimation is performed in the image domain. This embodiment utilizes a special hardware arrangement currently available for some processors.
【0115】 図12において、CIF画像26がコンバータ・ブロック28内でQCIF画
像30に変換される。QCIF画像30は、変換されて、マッピング構成要素2
0を特徴づける画像によってサブバンド・マクロブロック・グルーピング40に
、コンバートされる。サブバンド・マクロブロック・グルーピング40は、サブ
バンド・マクロブロック・ランキングを決定するように変えられた構成要素22
を有する特徴を決定することと関連する構成要素によって処理される。その結果
は、サブバンド34の集合に適用されて順序付サブバンド・グルーピング53に
なる。その後で、順位付サブバンド・グルーピング53が差ブロック68に送ら
れる。QCIF画像30(また、「現在の」フレームと称する)は、また、動き
評価ブロック160と動きベクトル162の集合を決定するための遅延ブロック
166に送られる。さらに具体的にいえば、画像フレーム30は、遅延画像フレ
ーム167(また、「基準」フレームと称する)を生成する遅延ブロック166
において遅らされる。図13を参照すると、遅延画像フレーム167は、PxP
ペル検索領域が各有意な画像マクロブロックのまわりに創り出される動き評価ブ
ロック160に送られる。例えば、PxPペル検索領域107が画像マクロブロ
ック2,4(1MB2,4)のまわりに設置される。経験的解析に基づいて、3
2x32のペルの検索領域107が、QCIF画像フレームの16×16ペル画
像マクロブロックのまわりに検索領域として使われる。In FIG. 12, CIF image 26 is converted to QCIF image 30 in converter block 28. The QCIF image 30 is transformed and mapped to mapping component 2
The image is converted into a subband macroblock grouping 40 by an image characterizing 0. Sub-band macroblock grouping 40 is a component 22 that has been modified to determine sub-band macroblock ranking.
Is processed by components associated with determining a feature having The result is an ordered subband grouping 53 applied to the set of subbands 34. Thereafter, the ranked subband grouping 53 is sent to the difference block 68. The QCIF image 30 (also referred to as the “current” frame) is also sent to a motion estimation block 160 and a delay block 166 to determine a set of motion vectors 162. More specifically, image frame 30 is a delay block 166 that generates a delayed image frame 167 (also referred to as a “reference” frame).
Is delayed. Referring to FIG. 13, the delayed image frame 167 is a PxP
A pel search area is sent to a motion estimation block 160 that is created around each significant image macroblock. For example, a PxP pel search area 107 is set around image macroblocks 2 and 4 (1 MB2 and 4). Based on empirical analysis, 3
A 2x32 pel search area 107 is used as a search area around a 16x16 pel image macroblock of a QCIF image frame.
【0116】 動き評価ブロック160において、現在のQCIF画像30のフレームの各有
意な画像マクロブロック(IMBx,x)は、動きベクトルを決定するための遅
延画像フレーム167の対応する検索領域内にある。例えば、1MB2,4は、
QCIF画像30から検索されて、遅延画像フレーム167の検索領域107の
中に置かれる。このプロセスは、図8と9(a)において上述し図で示したよう
な変換ドメインにおいて実施されたものと類似している。In the motion estimation block 160, each significant image macroblock (IMBx, x) of the frame of the current QCIF image 30 is in the corresponding search area of the delayed image frame 167 for determining a motion vector. For example, 1MB2,4
Retrieved from the QCIF image 30 and placed in the retrieval area 107 of the delayed image frame 167. This process is similar to that implemented in the transform domain as described above and shown in FIGS. 8 and 9 (a).
【0117】 図9(b)において上述し、図で示したものに類似している方法で、1MB2 ,4は、1MB2,4と検索領域107の間の各ステップでの最小総絶対差を決
定しようとしている検索領域107を横に移動する。しかし、上述のサブバンド
探索とは異なり、検索が画像ドメインの中にあるとき、分数検索は不必要である
。したがって、1MB2,4の増分動きを決定した後に、x及びy座標は、逆に
され(−1を掛けられて)て、動きベクトル162の集合をメモリに記憶される
。動きベクトルは、動き予測ブロック154及び位置的符号化ブロック76に送
られる。その後で、動きベクトルは、図3及び11に関して上述され図10にお
いて示されたものと同様の方法で遅延サブバンド・グルーピング172に適用さ
れる。In a manner similar to that described above and shown in FIG. 9 (b), 1 MB 2 , 4 is the minimum total absolute difference at each step between 1 MB 2 , 4 and the search area 107. Is moved sideways in the search area 107 for which is to be determined. However, unlike the subband search described above, a fractional search is unnecessary when the search is in the image domain. Thus, after determining the incremental motion of 1 MB2,4, the x and y coordinates are reversed (multiplied by -1) and the set of motion vectors 162 is stored in memory. The motion vector is sent to the motion prediction block 154 and the positional coding block 76. Thereafter, the motion vectors are applied to the delay subband grouping 172 in a manner similar to that described above with respect to FIGS. 3 and 11 and shown in FIG.
【0118】 図14を次に参照すると、ビデオ・符号器のもう一つの実施例が示され、その
図において、前部分は、上述され図3、11及び12において例示された実施例
と同様である。しかし、上述の実施例とは異なり、動き評価及び動き予測は、画
像ドメインにおいて実施される。Referring now to FIG. 14, another embodiment of a video encoder is shown wherein the front portion is similar to the embodiment described above and illustrated in FIGS. is there. However, unlike the embodiments described above, motion estimation and motion estimation are performed in the image domain.
【0119】 図14において、動きベクトルの集合162が上述され図12及び13におい
て例示されたものと同様の方法で決定される。動きベクトルの集合162は、動
き予測のためのブロック164及び位置的符号化のためのブロック76に送られ
る。上述され図11及び12において例示されたものと同様の方法で、累積誤差
を加えられた誤差修正サブバンド・グルーピング171は、遅延ブロック156
に送られ、それによって、遅延サブバンド・グルーピング172(「基準フレー
ム」)を生成する。しかし、上述の実施例とは異なり、遅延サブバンド・グルー
ピング172は、それから逆小波変換ブロック174によって復元されて、復元
された画像176を形成する。復元された画像は、図4(a)に示されたQCI
F画像30と同様の構成を有する。In FIG. 14, a set of motion vectors 162 is determined in a manner similar to that described above and illustrated in FIGS. The set of motion vectors 162 is sent to a block 164 for motion estimation and a block 76 for position encoding. In a manner similar to that described above and illustrated in FIGS. 11 and 12, the error-corrected sub-band grouping 171 with the cumulative error added thereto includes a delay block 156.
, Thereby generating a delayed subband grouping 172 (“reference frame”). However, unlike the embodiment described above, the delayed subband grouping 172 is then reconstructed by an inverse wavelet transform block 174 to form a reconstructed image 176. The restored image is the QCI shown in FIG.
It has a configuration similar to that of the F image 30.
【0120】 代わりに、遅延サブバンド・グルーピング172をその全体を復元する代わり
に、グルーピングの一部分を復元しての率を上げることができる。例えば、3、
5のフィルタを用いて48x48ペルを有する復元された領域を得ることができ
る。いくつもの領域が、周りにそれらの領域が集められている画像マクロブロッ
ク(16x16)の重要性(すなわち、それらの領域の中で検出された変化)に
基づいて選ばれる。Alternatively, instead of restoring the entire delay subband grouping 172, the rate of restoring a portion of the grouping can be increased. For example, 3,
Using 5 filters, a reconstructed area with 48x48 pels can be obtained. A number of regions are selected based on the importance of the image macroblocks (16 × 16) around which those regions are gathered (ie, the changes detected in those regions).
【0121】 動き予測ブロック164において、動きベクトルの集合162が復元された画
像176(又は、数領域だけが逆数小波変換されたとすれば、復元された48×
48ペル領域)に適用される。動きベクトル162の集合は、QCIF画像のサ
ブバンド表現における変換係数の集合をシフトするために上述され図10におい
て例示されたものと同様の方法で復元された基準画像176に適用される。その
後で、予測178が予測されたグルーピング66を生成する順方向小波変換ブロ
ック180に送られる。予測されたグルーピング66は、それから差ブロック6
8における順序付サブバンド・グルーピング53から引かれて、グルーピング差
70になる。量子化がブロック158において実施され、誤差は基準(上記の通
りの)を維持するために累算されるとともに、位置的符号化ブロック76に前送
りされる。量子化された誤差及び動きベクトル162の位置的符号化が上述のよ
うに起こり、伝送線80を通して復号器に転送される。In the motion prediction block 164, the image 176 in which the set of motion vectors 162 is restored (or if only a few regions are subjected to inverse wavelet transform, the restored 48 ×
48 pel area). The set of motion vectors 162 is applied to the reconstructed reference image 176 in a manner similar to that described above and illustrated in FIG. 10 to shift the set of transform coefficients in the subband representation of the QCIF image. Thereafter, the prediction 178 is sent to the forward wavelet transform block 180, which generates the predicted grouping 66. The predicted grouping 66 is then the difference block 6
Subtracted from the ordered subband grouping 53 in FIG. Quantization is performed at block 158, and the errors are accumulated to maintain a reference (as described above) and forwarded to positional coding block 76. Positional encoding of the quantized error and motion vector 162 occurs as described above and is transferred over transmission line 80 to the decoder.
【0122】 ソフトウェア実動化として本明細書において例示されたが、本発明の実施例の
原理はまた、特定用途向け集積回路(ASIC)によって、ハードウェアにおい
て実現できるであろう。なるべくなら、必要なメモリ必要条件を含めて、ASI
C実動化は、(i)実施例と整合した電力消費を最小にするため、及び(ii)
13.5MHz未満のデータレートでフルカラー・ビデオ(例えば全CCIR6
01)の圧縮を可能にするためのペル・レートで動作する必要がある。電力消費
が従来のソフトウェアとプロセッサ実動化と比較して、ASICを利用すること
によって10倍のファクタだけ減らされることが見込まれる。Although illustrated herein as software implementation, the principles of embodiments of the present invention could also be implemented in hardware by means of an application specific integrated circuit (ASIC). If possible, include ASI, including necessary memory requirements
C production is (i) to minimize power consumption consistent with the embodiment; and (ii)
Full color video at data rates less than 13.5 MHz (eg, all CCIR6
01) must operate at the pel rate to allow compression. It is expected that power consumption will be reduced by a factor of ten by utilizing ASICs compared to conventional software and processor implementations.
【0123】 代わりに、光学的方法を電力をさらに削減するように使用できる。上記の通り
に、画像への近似が小波変換の各段階でつくられ、そして、この近似を作ること
によって失なわれた詳細部は記録される。光電子的又は光学的実動化において、
光が集められて関連の電荷が検出される方法を近似画像のサンプルの各々を集め
るように調整できる。これらの近似画像が並列に一緒に重ね合わされる場合、詳
細項はアナログ又はディジタルのどちらかの手段によってこれらの中間値から計
算できる。なるべくなら、アナログ手段が詳細項をアナログ段階の出力として計
算するために用いられるのがよい。Alternatively, optical methods can be used to further reduce power. As described above, an approximation to the image is made at each stage of the wavelet transform, and the details lost by making this approximation are recorded. In optoelectronic or optical production,
The manner in which light is collected and the associated charge is detected can be adjusted to collect each of the samples of the approximate image. If these approximate images are superimposed together in parallel, the detail terms can be calculated from their intermediate values by either analog or digital means. Preferably, analog means are used to calculate the detailed terms as the output of the analog stage.
【0124】 詳細項は、量子化方策を実行するビット直列のアナログ− デジタル変換器の
使用によって量子化できる。結果として生じるビットストリームは、圧縮される
。このようにして、光子/光デバイスは、画像データレート(ASICの場合の
ように)又はプロセッサ・データレート(従来のプロセッサの場合のように)で
ではなく圧縮データレートで動作する。これはごくわずかな電流しか消費しない
ので、電力の必要量の少ない実動化をもたらすであろう。光学的方法の実動化が
電力消費をASIC実動化のもののほぼ10倍のファクタだけさらに減らすだろ
うと見込まれる。The detail terms can be quantized by using a bit-serial analog-to-digital converter that implements a quantization strategy. The resulting bit stream is compressed. In this way, the photon / light device operates at a compressed data rate rather than an image data rate (as in an ASIC) or a processor data rate (as in a conventional processor). This will consume very little current and will result in a low power requirement production. It is expected that the implementation of the optical method will further reduce power consumption by a factor of nearly ten times that of the ASIC implementation.
【0125】 本明細書において図示され説明された実施例と変化形態が単に本発明の原理を
例示するだけであり、その種々の変更態様は本発明の範囲と精神から逸れること
なく当業者が実現できることを理解すべきである。The embodiments and variations illustrated and described herein are merely illustrative of the principles of the invention, and various modifications thereof will occur to those skilled in the art without departing from the scope and spirit of the invention. You should understand what you can do.
以下の図面を参照して本発明の代表的実施例について詳細に説明する。 Exemplary embodiments of the present invention will be described in detail with reference to the following drawings.
【図1】 動き補償が画像ドメインにおいて実施される離散的コサイン変換(D
CT)を使用している従来技術標準ビデオ圧縮方法の略ブロック図である。FIG. 1 shows a discrete cosine transform (D) in which motion compensation is performed in the image domain.
1 is a schematic block diagram of a prior art standard video compression method using CT).
【図2】 変換ドメインにおいて実施される動き補償のための機能を含んでいる
本発明の実施例の一般構成を図示している略ブロック図である。FIG. 2 is a schematic block diagram illustrating a general configuration of an embodiment of the present invention that includes features for motion compensation performed in the transform domain.
【図3】 図2において図示された実施例のより詳細な構成の略ブロック図であ
る。FIG. 3 is a schematic block diagram of a more detailed configuration of the embodiment illustrated in FIG. 2;
【図4(a)】 画像マクロブロック(IMBx,x)0、0乃至8、10を有
するQCIF画像を示す。4A shows a QCIF image having image macroblocks (IMBx, x) 0, 0 to 8, 10. FIG.
【図4(b)】 画像フレームが順方向小波変換によって変換されたあとのQC
IF画像のサブバンド表現を示す。FIG. 4 (b) is the QC after the image frame is transformed by the forward wavelet transform.
4 shows a subband representation of an IF image.
【図5(a)】 図4(b)において図示されたQCIF画像のサブバンド表現
を示す。FIG. 5 (a) shows a subband representation of the QCIF image illustrated in FIG. 4 (b).
【図5(b)】 図5(a)において図示されたサブバンド表現から生成された
サブバンド・マクロブロック(SMBx,x)の集合を示す。FIG. 5 (b) shows a set of sub-band macroblocks (SMBx, x) generated from the sub-band representation shown in FIG. 5 (a).
【図5(c)】 サブバンド・マクロブロック(SMBx,x)が図4(a)の
それらの関連画像マクロブロック(IMBx,x)と空間的に対応するように図
5(b)のサブバンド・マクロブロックの編成を示す。5 (c). The sub-band macroblocks (SMBx, x) in FIG. 5 (b) are spatially corresponding to their associated picture macroblocks (IMBx, x) in FIG. 4 (a). 4 shows the organization of band macroblocks.
【図6(a)と6(b)】 入力画像を変換して、10分の1を取るためのフィ
ルタバンク及び各フィルタバンクから作られるそれらのそれぞれの垂直及び水平
サブバンドを図で示している略ブロック図である。FIGS. 6 (a) and 6 (b) show diagrammatically the filter banks for transforming the input image and taking a tenth and their respective vertical and horizontal sub-bands produced from each filter bank. FIG.
【図7】 フィルタバンクにおける有限精密計算を広帯域から低帯域まで及び逆
に低帯域から高帯域まで移すためのアーキテクチャを示す。FIG. 7 shows an architecture for moving finite precision computations in a filter bank from wideband to lowband and vice versa.
【図8】 検索バンドがPxPペルであり、さらに、入力画像の大きさがQCI
Fであるときに、SB00の検索バンドに対する検索領域を詳述する画像ドメイ
ンにおける画像マクロブロック2,4(1MB2,4)に対応する各サブバンド
(SBij)のための変換ドメイン内の検索領域を示す。FIG. 8 shows a case where the search band is PxP pel and the size of the input image is QCI.
When F, the search area in the conversion domain for each subband (SBij) corresponding to image macroblocks 2 and 4 (1 MB2, 4) in the image domain is described in detail in the search domain for the search band of SB00. Show.
【図9(a)乃至9(b)】 動きが変換ドメインにおいて評価される方法を示
す。9 (a) -9 (b) show how motion is evaluated in the transform domain.
【図10】 動きが変換ドメインにおいて予測される方法を示す。FIG. 10 shows how motion is predicted in the transform domain.
【図11】 図2において示された実施例の詳細なもう一つの構成を図で示して
いる略ブロック図である。FIG. 11 is a schematic block diagram showing another detailed configuration of the embodiment shown in FIG. 2;
【図12】 動き評価が画像ドメインにおいて実施され、動き予測が変換ドメイ
ンにおいて実施されている本発明の詳細なもう一つの実施例を示している略ブロ
ック図である。FIG. 12 is a schematic block diagram illustrating another detailed embodiment of the present invention in which motion estimation is performed in the image domain and motion estimation is performed in the transform domain.
【図13】 入力大きさがQCIFであるとき、画像マクロブロック2,4 (
1MB2,4)の周りの画像ドメインにおいて検索するときのP×Pペル検索領
域を示す。FIG. 13: When the input size is QCIF, image macro blocks 2, 4 (
5 shows a P × P pel search area when searching in an image domain around 1 MB2, 4).
【図14】 動き評価と動き予測が画像ドメインにおいて実施される本発明の詳
細なもう一つの実施例を図で示している略ブロック図である。FIG. 14 is a schematic block diagram illustrating another detailed embodiment of the present invention in which motion estimation and motion prediction are performed in the image domain.
【手続補正書】[Procedure amendment]
【提出日】平成13年3月6日(2001.3.6)[Submission date] March 6, 2001 (2001.3.6)
【手続補正1】[Procedure amendment 1]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図1[Correction target item name] Fig. 1
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図1】 FIG.
【手続補正2】[Procedure amendment 2]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図2[Correction target item name] Figure 2
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図2】 FIG. 2
【手続補正3】[Procedure amendment 3]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図4[Correction target item name] Fig. 4
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図4】 FIG. 4
【手続補正4】[Procedure amendment 4]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図5[Correction target item name] Fig. 5
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図5】 FIG. 5
【手続補正5】[Procedure amendment 5]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図8[Correction target item name] Fig. 8
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図8】 FIG. 8
【手続補正6】[Procedure amendment 6]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図9[Correction target item name] Fig. 9
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図9】 FIG. 9
【手続補正7】[Procedure amendment 7]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図10[Correction target item name] FIG.
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図10】 FIG. 10
【手続補正8】[Procedure amendment 8]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図11[Correction target item name] FIG.
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図11】 FIG. 11
【手続補正9】[Procedure amendment 9]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図12[Correction target item name] FIG.
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図12】 FIG.
【手続補正10】[Procedure amendment 10]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図13[Correction target item name] FIG.
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図13】 FIG. 13
【手続補正11】[Procedure amendment 11]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図14[Correction target item name] FIG.
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図14】 FIG. 14
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IS,JP,KE,KG,KP, KR,KZ,LC,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,SL,TJ,TM,TR,TT,UA,UG,U S,UZ,VN,YU,ZW (72)発明者 ロージーン、ジョエル アメリカ合衆国コネチカット州06415 コ ルチェスター ハーバー ロード 66 Fターム(参考) 5C059 KK19 MA05 MA23 MA24 NN08 NN15 NN28 NN37 PP04 UA02──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GE, GH, GM, HR, HU, ID, IL, IS, JP, KE, KG, KP , KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU, ZW. 5C059 KK19 MA05 MA23 MA24 NN08 NN15 NN28 NN37 PP04 UA02
Claims (60)
セットに変換すること、 第1と第2の変換係数セット間の差を表すデータを発生すること 及び 伝達するために生成されたデータを符号化することを 備える第1及び第2のデータセットを含むデータ圧縮方法。Converting the first and second data sets into corresponding first and second sets of transform coefficients; generating data representing a difference between the first and second sets of transform coefficients; A data compression method comprising first and second data sets, comprising encoding data generated for transmission.
波変換を利用して実行される請求項1に記載のデータ圧縮方法。2. The data compression method according to claim 1, wherein converting the first and second data sets is performed using a -tensor product wavelet transform.
る請求項2に記載のデータ圧縮方法。3. The data compression method according to claim 2, wherein the remainder from one subband is transmitted to another subband.
が 動きベクトルを与えるために第1と第2の変換係数セット間の差を評価するこ
と、 第2の変換係数セットの予測を生成するために動きベクトルを第1の変換係数
セットに適用すること、及び 予測を一組の予測誤差に結果としてなる第2の変換係数から引くことを含む請
求項1に記載のデータ圧縮方法。Generating data representing a difference between the first and second sets of transform coefficients; evaluating the difference between the first and second sets of transform coefficients to provide a motion vector; Applying a motion vector to a first set of transform coefficients to generate a prediction of the set of transform coefficients, and subtracting the prediction from a second set of transform coefficients resulting in a set of prediction errors. 2. The data compression method according to 1.
のデータ圧縮方法。5. The data compression method according to claim 4, wherein the first and second sets of transform coefficients are corrected for errors.
れた変換係数の周りにマスクを適用することを更に含む請求項4に記載のデータ
圧縮方法。6. The method of claim 4, wherein applying a motion vector to the first set of transform coefficients further comprises applying a mask around each performed transform coefficient.
らサーチ領域を生成すること、 第1及び第2の変換係数セットのもう一方からサーチ領域へ変換係数の関連の
サブセットを適用すること、及び 増分的にサーチ領域内の最良増分一致を表す位置へ変換係数の関連のサブセッ
トを横に移動することを含む請求項4に記載のデータ圧縮方法。7. Estimating a difference between the first and second sets of transform coefficients generates a search area from one of the first and second sets of transform coefficients around a subset of the transform coefficients. Applying a relevant subset of transform coefficients from the other of the first and second sets of transform coefficients to the search region; and a relevant subset of transform coefficients incrementally to locations representing the best incremental match in the search region. 5. The data compression method according to claim 4, further comprising moving.
表す位置へ分数的に横に移動することを更に含む請求項7に記載のデータ圧縮方
法。8. The data compression method of claim 7, further comprising: moving the relevant subset of transform coefficients in the search area fractionally laterally to a position representing a best fractional match.
ブバンドの第1の集合として及び第2の変換係数セットをサブバンドの第2の集
合として生成する請求項1に記載のデータ圧縮方法。9. The method of claim 1, wherein transforming the first and second data sets generates the first set of transform coefficients as a first set of subbands and the second set of transform coefficients as a second set of subbands. Item 2. The data compression method according to Item 1.
サブバンドの第2の集合をパッキングしているマクロブロックを更に含む請求項
9に記載のデータ圧縮方法。10. The data compression method of claim 9, further comprising a macroblock packing a second set of subbands to form a subband macroblock grouping.
マクロブロックに重み付けを適用することを更に含む請求項10に記載のデータ
圧縮方法。11. The method of claim 11, wherein the subbands in the subband macroblock grouping are:
11. The data compression method according to claim 10, further comprising applying a weight to the macroblock.
化を検出することを更に含む請求項10に記載のデータ圧縮方法。12. The data compression method of claim 10, further comprising detecting a change between subband macroblock grouping and a reference.
を検出することが下記の形式の一般方程式 に従うゆがみ評価に基づいている請求項12に記載のデータ圧縮方法。13. The general equation of the form: detecting a change between a subband macroblock grouping and a reference comprises: 13. The data compression method according to claim 12, wherein the method is based on a distortion evaluation according to:
を検出することがより特殊な形式の方程式 に従うゆがみ評価に基づく請求項13に記載のデータ圧縮方法。14. A more specialized form of the equation for detecting changes between subband macroblock groupings and a reference. 14. A data compression method according to claim 13, wherein the method is based on a distortion evaluation according to:
とが 動きベクトルを与えるためにサブバンドの第1の集合とサブバンド・マクロブ
ロック・グルーピングの間の差を評価すること、 動きベクトルを第2の変換係数セットの予測を生成するためにサブバンドの第
1の集合に適用すること、及び 一組の予測誤差を得るためにサブバンドの第2集合から引くことを含む請求項
10に記載のデータ圧縮方法 。15. A method for generating data representative of a difference between a first and second set of transform coefficients, wherein the difference between the first set of subbands and the subband macroblock grouping to provide a motion vector. Evaluating the motion vector, applying the motion vector to the first set of subbands to generate a prediction of the second set of transform coefficients, and from the second set of subbands to obtain a set of prediction errors. The data compression method according to claim 10, further comprising subtraction.
ーピングの間の差を評価することが、 変換係数のサブセットの周りにサブバンドの第1の集合からサーチ領域を生成
すること、 サブバンドマクロブロック・グルーピングからサーチ領域へ変換係数の関連の
サブセットを適用すること、及び 増分的にサーチ領域内の最良増分一致を表す位置へ変換係数の関連のサブセット
を横に移動することを含む請求項15に記載のデータ圧縮方法。16. Evaluating a difference between the first set of subbands and the subband macroblock grouping generates a search region from the first set of subbands around a subset of transform coefficients. Applying the relevant subset of transform coefficients from the sub-band macroblock grouping to the search region; and incrementally laterally moving the relevant subset of transform coefficients to a position representing the best incremental match in the search region. The data compression method according to claim 15, comprising:
表す位置へ分数的に横に移動することを更に含む請求項16に記載のデータ圧縮
方法。17. The data compression method of claim 16, further comprising: moving a relevant subset of transform coefficients in the search area fractionally laterally to a position representing a best fractional match.
たデータのゼロに等しいサブセットを識別することを更に含む請求項1に記載の
データ圧縮方法。18. The data compression method of claim 1, wherein encoding the generated data for transmission further comprises identifying a subset of the generated data equal to zero.
び第2の変換係数セットに変換すること、 動きベクトルを与えるために第1及び第2の変換係数セット間の差を評価する
こと、 動きベクトルを第1の変換係数セットに適用することによって第2変換係数セ
ットを予測すること、 予測誤差を得るために予測された第2の変換係数セットを第2の変換係数セッ
トから引くこと、及び デコーダに移送するために予測誤差及び動きベクトルを符号化すること備える
第1及び第2のデータセットを含んでいるデータ圧縮方法。19. transforming the first data set and the second data set into a corresponding first and second set of transform coefficients; and providing a motion vector between the first and second set of transform coefficients. Estimating the difference; predicting a second set of transform coefficients by applying the motion vector to the first set of transform coefficients; transforming the predicted second set of transform coefficients to obtain a prediction error with a second transform A data compression method comprising first and second data sets comprising subtracting from a set of coefficients and encoding a prediction error and a motion vector for transfer to a decoder.
テンソル積小波変換を利用して実施される請求項19に記載のデータ圧縮方法。20. The data compression method according to claim 19, wherein converting the first data set and the second data set is performed using a tensor product wavelet transform.
領域を生成すること、 第1及び第2の変換係数セットのもう一方からサーチ領域へ変換係数の関連の
サブセットを適用すること、及び 増分的にサーチ領域内の最良増分一致を表す位置へ変換係数の関連のサブセッ
トを横に移動することを含む請求項19に記載のデータ圧縮方法。21. Evaluating a difference between the first and second sets of transform coefficients: generating a search area from one of the first and second sets of transform coefficients around a subset of the transform coefficients; Applying an associated subset of the transform coefficients from the other of the first and second sets of transform coefficients to the search region; and incrementally laterally translating the associated subset of the transform coefficients to a position representing the best incremental match in the search region. 20. The data compression method according to claim 19, comprising moving.
す位置へ分数的に横に移動することを更に含む請求項21に記載のデータ圧縮方
法。22. The data compression method of claim 21, further comprising: moving a relevant subset of transform coefficients in the search area fractionally laterally to a position representing a best fractional match.
係数をサブバンドの第1の集合として、第2の変換係数をサブバンドの第2の集
合として生成する請求項19に記載のデータ圧縮方法。23. Transformation of a first data set and a second data set generates a first transform coefficient as a first set of subbands and a second transform coefficient as a second set of subbands. The data compression method according to claim 19.
の第2の集合をパッキングしているマクロブロックを更に含む請求項23に記載
のデータ圧縮方法。24. The data compression method of claim 23, further comprising a macroblock packing a second set of subbands to form a subband macroblock classification.
マクロブロックに重み付けを適用することを更に含む請求項24に記載のデータ
圧縮方法。25. The method of claim 25, wherein the subbands in the subband macroblock grouping are
The data compression method according to claim 24, further comprising applying a weight to the macroblock.
化を検出することを更に含む請求項24に記載のデータ圧縮方法。26. The data compression method of claim 24, further comprising detecting a change between subband macroblock grouping and a reference.
を検出することが下記の形式の一般方程式 に従うゆがみ評価に基づいている請求項26 に記載のデータ圧縮方法。27. A method for detecting a change between a subband macroblock grouping and a reference comprises a general equation of the form 28. The data compression method according to claim 27, wherein the method is based on a distortion evaluation according to:
することが予測誤差のゼロに等しいサブセットを識別することを更に含む請求項
19に記載のデータ圧縮方法。28. The data compression method of claim 19, wherein encoding the prediction error and the motion vector for transport to a decoder further comprises identifying a subset of the prediction error equal to zero.
及び第2の変換係数セットに変換すること、 動きベクトルを与えるために第1と第2の変換係数セット間の差を評価するこ
と、 動きベクトルを第1の変換係数セットに適用することによって第2変換係数セ
ットを予測すること、及び 予測誤差を得るために予測された第2の変換係数セットを第2の変換係数セッ
トから引くことを含んでいる第1と第2のデータセットを圧縮するデータ圧縮方
法。29. A first data set and a second data set corresponding to a first
And estimating the difference between the first and second sets of transform coefficients to provide a motion vector, applying the motion vector to the first set of transform coefficients. Compressing the first and second data sets, including predicting two sets of transform coefficients, and subtracting the predicted second set of transform coefficients from the second set of transform coefficients to obtain a prediction error. Data compression method.
のデータ圧縮方法。30. The data compression method according to claim 29, wherein the first transform coefficient set is corrected for an error.
る第1及び第2の変換係数セットを生成すること、 動きベクトルを与えるために第1と第2の変換係数セット間の差を評価するこ
と、 動きベクトルを第1のデータセットに適用し、その後で予測結果を変換するこ
とによって第2変換係数セットを予測すること、及び 予測誤差を得るために変換された予測結果を第2の変換係数セットから引くこ
とを含んでいる デコーダへ移されるビットの数を減らすためのエンコーダ内のデータ圧縮方法。31. transforming the first data set and the second data set to generate a corresponding first and second set of transform coefficients; first and second transform coefficients to provide a motion vector. Estimating the difference between the sets, applying a motion vector to the first data set, and then predicting a second set of transform coefficients by transforming the prediction result, and transforming to obtain a prediction error. A data compression method in an encoder for reducing the number of bits transferred to a decoder, comprising subtracting a prediction result from a second set of transform coefficients.
第1の変換係数セットに与えることを更に含む請求31に記載のデータ圧縮方法
。32. The data compression method of claim 31, further comprising: inversely transforming the first set of transform coefficients and providing the first set of transform coefficients as a reference during prediction.
のデータ圧縮方法。33. The data compression method according to claim 32, wherein the first transform coefficient set is corrected for an error.
すること、 サブバンド・マクロブロックとして関連のサブバンド・ブロックのセットを一
緒にパッキングすること、及び サブバンド・マクロブロック・グルーピングを形成するためにサブバンドの集
合における関連のサブバンド・ブロックの各セットのために上記の分離とパッキ
ングのステップを繰り返すこと を含むデータセットのサブセットに対応するサブバンド・ブロック・パッキング
方法。34. separating a set of related subband blocks from a set of subbands, packing together a set of related subband blocks as subband macroblocks, and subband macroblocks. A subband block packing method corresponding to a subset of the data set, comprising repeating the above separating and packing steps for each set of related subband blocks in the set of subbands to form a grouping .
ブロックによって占めめられたのと同じ相対位置へサブバンド・マクロブロック
内の関連のサブバンド・ブロックのセットを配列することを含む請求項34に記
載のサブバンド・マクロブロック・パッキング方法。35. The method according to claim 35, wherein the packing step comprises subbands in the set of subbands.
35. The subband macroblock packing method of claim 34, comprising arranging a set of related subband blocks within the subband macroblock to the same relative position occupied by the block.
ング内のサブバンド・マクロブロックを対応するデータ・サブセットがデータセ
ット内で置かれているのと同じ空間的位置に置くことを含む請求項34に記載の
方法をサブバンド・マクロブロック・パッキング方法。36. The packing step includes placing the subband macroblocks in the subband macroblock grouping at the same spatial location as the corresponding data subset is located in the data set. 34. A subband macroblock packing method according to claim 34.
して一つのデータセットを変換すること、及び 変換の間に誘導された残りをフィルタ経路中の少なくとも二つの間で伝搬させ
ること を含むデータセットを変換係数に変換する方法。37. Converting a data set using a tensor product wavelet having at least two filter paths, and propagating the remainder induced during the conversion between at least two of the filter paths. How to convert a data set containing a to conversion coefficients.
が少なくとも二つのフィルタ経路の第2フィルタ経路に伝搬され、第2フィルタ
経路からの残りが第1フィルタ経路に伝搬される請求項37に記載の方法。38. The remainder of the at least two filter paths from the first filter path is propagated to the second filter path of the at least two filter paths, and the remainder from the second filter path is propagated to the first filter path. Item 38. The method according to Item 37.
るためのテンソル積小波対である請求項37に記載の方法。39. The method of claim 37, wherein the tensor product wavelet transform is a tensor product wavelet pair for determining a high pass component and a low pass component.
正規化すること、 高域通過正規化出力及び第2の残り(rh)を生成するために高域通過成分を
正規化すること、 第1及び第2の残りに第1の演算(g(rl,rh))を実行して、近似を生
成するためにそこから出る結果を低域通過正規化出力に加えること、及び 第1及び第2の残り(rl,rh)に第2の演算(f(rl,rh))を実行
して、詳細を生成するためにそこから出る結果を高域通過正規化出力に加えるこ
と、 を含む請求項39に記載の方法。40. The transform of the data set and the remaining propagation between the filter paths determine the low-pass and high-pass components of the data set; the low-pass normalized output and the first remainder (rl) Normalizing the low-pass component to generate; normalizing the high-pass component to generate a high-pass normalized output and a second residue (rh); first and second residues Perform a first operation (g (rl, rh)) and add the resulting results to a low-pass normalized output to generate an approximation; and a first and second remainder (rl, rh). 40. The method of claim 39, comprising performing a second operation (r (r, rh)) on (rh) and adding the resulting results to a high-pass normalized output to generate details. .
に備える請求項40に記載の方法。41. The method of claim 40, further comprising down-sampling the low-pass and high-pass components.
を利用して決定され、 高域通過成分は、値−1、2、−1を有するフィルタを利用して決定され 及び以下の関数 a(rl,rh)=rh 及び f(rl,rh)=floor(rh+1/2)、 ここでnh=1/2 を有する第1の演算(g(rl,rh))及び第2の演算(f(rl,rh))
を備える請求項39に記載の方法。42. The low-pass component is determined using a filter having the values -1, 2, 6, 2, -1; the high-pass component is a filter having the values -1, 2, and -1 And the following function a (rl, rh) = rh and f (rl, rh) = floor (rh + /), where nh = 1 / , Rh)) and a second operation (f (rl, rh))
40. The method of claim 39 comprising:
の間に誘導された残りをエンコーダの第1のフィルタ経路から第2のフィルタ経
路へ伝搬させること備えるデータ・セットを変換係数に符号化する方法 。44. A data set comprising transforming a data set utilizing an encoding technique and propagating a remainder derived during encoding from a first filter path to a second filter path of an encoder. How to encode into transform coefficients.
こと更に備えている請求項44に記載の符号化する方法。45. The encoding method according to claim 44, further comprising propagating the remainder from the second filter path to the first filter path.
号化する方法。46. The encoding method according to claim 44, wherein the encoding technique is a tensor product wavelet transform.
号化する方法。47. The encoding method according to claim 44, wherein the encoding technique is a discrete cosine transform.
分を決定すること、 第2のフィルタ経路におけるデータセットの第2のフィルタ成分を決定するこ
と、 正規化出力及び残りを生成するために第1のフィルタ成分を正規化すること、
及び 第2のフィルタ経路へ伝搬すろこと を備えるデータセットを符号化する方法。48. determining a first filter component of the data set in the first filter path; determining a second filter component of the data set in the second filter path; generating a normalized output and a remainder. Normalizing the first filter component to perform
And propagating to a second filter path.
セットの周りにサーチ領域を生成すること、 第1及び第2のデータセットのもう一方からサーチ領域へ関連のデータ・サブ
セットを適用すること、及び サーチ領域内の最良増分一致を表す位置へ関連のデータ・サブセットを横に増
分的に移動させること を備える第1のデータセットと第2のデータセットの間に発生した変化の評価方
法。49. Generating a search region around a data subset from one of the first and second data sets; and providing a search region from another of the first and second data sets to the search region. Applying a data subset, and incrementally moving an associated data subset laterally to a position representing a best incremental match in the search area. How to evaluate the changes that have occurred.
セットを横に分数的に移動させることを備える請求項49に記載の第1のデータ
セットと第2のデータセットの間に発生した変化の評価方法。50. The method of claim 49, further comprising: moving the relevant data subset laterally and fractionally to a position in the search area that represents a best incremental match. How to evaluate the changes that occurred between them.
を有し、さらにサブバンドの対応する第1及び第2の集合を生成するように構成
された変換装置、及び 入力を変換装置に連結された入力を有し、サブバンドの第1及び第2の集合を
受けるように構成され、さらにサブバンドの第1と第2の集合間の差を効率的に
表すように構成された動き補償装置 を備える符号化装置。51. A transforming device having an input configured to receive first and second sets of data, and further configured to generate corresponding first and second sets of subbands. And having an input coupled to the converter, configured to receive the first and second sets of subbands, and further efficiently representing the difference between the first and second sets of subbands. A coding device comprising the motion compensation device configured as described above.
2の集合に関する全ての操作を実施する請求項51に記載の符号化装置。52. The encoding apparatus according to claim 51, wherein the motion compensation apparatus performs all operations on the first and second sets of subbands in the transform domain.
の集合を受けるように構成され、さらに予測誤差を生成するために前記予測とサ
ブバンドの第2の集合の間の差を決定するように構成された差ブロックを更に含
む請求項51に記載の符号化装置。53. The prediction from the motion compensator and the second sub-band from the transformer.
52. The method of claim 51, further comprising: a difference block configured to receive the set of sub-bands and further configured to determine a difference between the prediction and a second set of subbands to generate a prediction error. Encoding device.
の集合を比較するように構成された動き評価デバイス、及び 動き評価装置及び変換装置に連結し、サブバンドの動きベクトル及び第1の集
合を受けるように構成され、さらにサブバンドの第2の集合の予測を生成するよ
うに構成された動き予測装置 を備える請求項51に記載の符号化装置。54. A motion compensator is coupled to the transformer, and the first and second subbands are used to generate a motion vector.
A motion estimation device configured to compare the set of sub-bands and configured to receive the motion vector of the sub-band and the first set, and a second set of sub-bands The encoding device according to claim 51, further comprising: a motion prediction device configured to generate a prediction of.
成された入力を有し、及び、さらにそこからサブバンドの第1の集合及びサブバ
ンドの第2の集合をそれぞれ生成するように構成された変換装置、及び 変換装置に連結されて、サブバンドの第1の集合及びサブバンドの第2の集合
を受けるように構成された入力を有し、さらに第1のサブバンド・マクロブロッ
ク表現及び第2のサブバンド・マクロブロック表現をそれぞれ生成するように構
成されたマクロブロック・パッキング装置 を備える変化検出符号化装置。55. An input configured to receive a first data set and a second data set, and further comprising a first set of sub-bands and a second set of sub-bands therefrom, respectively. A transform device configured to generate, and an input coupled to the transform device and configured to receive the first set of sub-bands and the second set of sub-bands; A change detection coding device comprising: a macroblock packing device configured to generate a band macroblock representation and a second subband macroblock representation, respectively.
されて、知覚的重要性に基づいて第1のサブバンド・マクロブロック表現及び第
2のサブバンド・マクロブロック表現を受けて、それから拡大・縮小するように
構成されている重み付け装置を更に含む請求項55に記載の符号化装置。56. A system configured to communicate an input with a macroblock packing device for receiving a first subband macroblock representation and a second subband macroblock representation based on perceptual significance. 56. The encoding device of claim 55, further comprising a weighting device configured to scale.
入力を有し、第1のサブバンド・マクロブロック表現と第2のサブバンド・マク
ロブロック表現を比較してそれらの間の変化を決定するように構成された変化検
出装置を更に備え、前記変化検出装置がさらに変化を反映する被変化検出グルー
ピングを生成するように構成されている請求項55に記載の符号化装置。57. An input having an input configured to communicate with a macroblock packing device, wherein the first subband macroblock representation and the second subband macroblock representation are compared and between them. The encoding device of claim 55, further comprising a change detection device configured to determine a change, wherein the change detection device is further configured to generate a change detection grouping that reflects the change.
を順序付けるように構成されたマクロブロック順位付け装置を更に含む請求項5
7に記載の符号化装置。58. The apparatus of claim 5, further comprising a macroblock ranker coupled to the input change-detector and configured to order the change detection grouping.
8. The encoding device according to 7.
マクロブロック表現の比較が一般方程式 に従うゆがみ評価に基づく請求項57に記載の符号化装置。59. A first subband macroblock representation and a second subband macroblock representation
Comparison of macroblock expressions is a general equation 58. The encoding device according to claim 57, wherein the encoding device is based on a distortion evaluation according to:
マクロブロック表現の比較がより特殊な形式の方程式 に従うゆがみ評価に基づく請求項59に記載の符号化装置。60. A first subband macroblock representation and a second subband macroblock representation.
A more specialized form of equation comparing macroblock expressions 60. The encoding device according to claim 59, wherein the encoding device is based on a distortion evaluation according to:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US6663897P | 1997-11-14 | 1997-11-14 | |
US60/066,638 | 1997-11-14 | ||
PCT/US1998/024189 WO1999026418A1 (en) | 1997-11-14 | 1998-11-13 | Apparatus and method for compressing video information |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008096670A Division JP2008289132A (en) | 1997-11-14 | 2008-04-03 | Method for transforming data set into transform coefficient |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001523928A true JP2001523928A (en) | 2001-11-27 |
JP4675477B2 JP4675477B2 (en) | 2011-04-20 |
Family
ID=22070754
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000521650A Expired - Fee Related JP4675477B2 (en) | 1997-11-14 | 1998-11-13 | Video information compression apparatus and method |
JP2008096670A Pending JP2008289132A (en) | 1997-11-14 | 2008-04-03 | Method for transforming data set into transform coefficient |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008096670A Pending JP2008289132A (en) | 1997-11-14 | 2008-04-03 | Method for transforming data set into transform coefficient |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP1031238A4 (en) |
JP (2) | JP4675477B2 (en) |
KR (1) | KR100614522B1 (en) |
CN (1) | CN1190084C (en) |
AU (1) | AU752219B2 (en) |
CA (1) | CA2310602C (en) |
WO (1) | WO1999026418A1 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100584495B1 (en) * | 1998-02-13 | 2006-06-02 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method and arrangement for video coding |
FR2813486B1 (en) * | 2000-08-31 | 2003-01-24 | Canon Kk | DATA TRANSFORMATION METHOD AND DEVICE |
KR100366382B1 (en) * | 2001-02-12 | 2002-12-31 | (주) 멀티비아 | Apparatus and method for coding moving picture |
FI111592B (en) * | 2001-09-06 | 2003-08-15 | Oulun Yliopisto | Method and apparatus for encoding successive images |
KR100440567B1 (en) * | 2001-11-06 | 2004-07-21 | 한국전자통신연구원 | A method for forming binary plane for motion search and a motion estimating apparatus using the same |
KR100472476B1 (en) * | 2002-08-31 | 2005-03-10 | 삼성전자주식회사 | Interpolation apparatus and method for moving vector compensation |
KR100612849B1 (en) * | 2003-07-18 | 2006-08-14 | 삼성전자주식회사 | Apparatus and method for encoding and decoding image |
JP4556124B2 (en) * | 2005-02-04 | 2010-10-06 | ソニー株式会社 | Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program |
KR100788983B1 (en) * | 2005-11-02 | 2007-12-27 | 엠텍비젼 주식회사 | Method for transferring encoded data and image pickup device performing the method |
KR100664550B1 (en) * | 2005-11-02 | 2007-01-03 | 엠텍비젼 주식회사 | Method for transferring encoded data and image pickup device performing the method |
KR101277713B1 (en) * | 2007-02-08 | 2013-06-24 | 삼성전자주식회사 | Apparatus and method for video encoding |
US8774283B2 (en) * | 2007-03-30 | 2014-07-08 | Sony Corporation | Information processing device and method |
KR101279573B1 (en) * | 2008-10-31 | 2013-06-27 | 에스케이텔레콤 주식회사 | Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus |
US20120075346A1 (en) * | 2010-09-29 | 2012-03-29 | Microsoft Corporation | Low Complexity Method For Motion Compensation Of DWT Based Systems |
WO2015180663A1 (en) * | 2014-05-30 | 2015-12-03 | Shidong Chen | Transform-based methods to transmit the high-definition video |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5808683A (en) * | 1995-10-26 | 1998-09-15 | Sony Corporation | Subband image coding and decoding |
US5777678A (en) * | 1995-10-26 | 1998-07-07 | Sony Corporation | Predictive sub-band video coding and decoding using motion compensation |
US5764814A (en) * | 1996-03-22 | 1998-06-09 | Microsoft Corporation | Representation and encoding of general arbitrary shapes |
-
1998
- 1998-11-13 EP EP98958556A patent/EP1031238A4/en not_active Withdrawn
- 1998-11-13 CA CA002310602A patent/CA2310602C/en not_active Expired - Fee Related
- 1998-11-13 KR KR1020007005298A patent/KR100614522B1/en not_active IP Right Cessation
- 1998-11-13 AU AU14577/99A patent/AU752219B2/en not_active Ceased
- 1998-11-13 JP JP2000521650A patent/JP4675477B2/en not_active Expired - Fee Related
- 1998-11-13 WO PCT/US1998/024189 patent/WO1999026418A1/en active IP Right Grant
- 1998-11-13 CN CNB988119668A patent/CN1190084C/en not_active Expired - Fee Related
-
2008
- 2008-04-03 JP JP2008096670A patent/JP2008289132A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2008289132A (en) | 2008-11-27 |
CA2310602A1 (en) | 1999-05-27 |
EP1031238A1 (en) | 2000-08-30 |
KR20010032113A (en) | 2001-04-16 |
CN1281618A (en) | 2001-01-24 |
AU752219B2 (en) | 2002-09-12 |
AU1457799A (en) | 1999-06-07 |
WO1999026418A1 (en) | 1999-05-27 |
KR100614522B1 (en) | 2006-08-22 |
CA2310602C (en) | 2009-05-19 |
CN1190084C (en) | 2005-02-16 |
JP4675477B2 (en) | 2011-04-20 |
EP1031238A4 (en) | 2003-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7680191B2 (en) | Apparatus and method for compressing video information | |
JP2008289132A (en) | Method for transforming data set into transform coefficient | |
US6519284B1 (en) | Encoding method for the compression of a video sequence | |
JP4409276B2 (en) | Multiresolution video display method and video encoder | |
KR100388377B1 (en) | Image Encoding Device Decoding Device | |
KR100664928B1 (en) | Video coding method and apparatus thereof | |
JP4429968B2 (en) | System and method for increasing SVC compression ratio | |
JP2006503518A (en) | Highly scalable 3D overcomplete wavelet video coding | |
KR20040106417A (en) | Scalable wavelet based coding using motion compensated temporal filtering based on multiple reference frames | |
US7242717B2 (en) | Wavelet domain motion compensation system | |
KR20050028019A (en) | Wavelet based coding using motion compensated filtering based on both single and multiple reference frames | |
TW420955B (en) | Image compression | |
JP3759537B2 (en) | Image signal transmission apparatus and image signal transmission method | |
JPH09502840A (en) | Encoder / Decoder for Television Image Subband Compatible Coding and Its Application to Hierarchical Motion Coding with Tree Structure | |
CN1689045A (en) | L-frames with both filtered and unfilterd regions for motion comensated temporal filtering in wavelet based coding | |
WO2007027012A1 (en) | Video coding method and apparatus for reducing mismatch between encoder and decoder | |
CN100477789C (en) | A method of inter-frame reinforcement based on Moving Joint Picture Experts Group 2000 | |
KR0185845B1 (en) | A layered encoder using wavelet transform | |
Wang | Fully scalable video coding using redundant-wavelet multihypothesis and motion-compensated temporal filtering | |
JP2000295622A (en) | Moving picture coding method, moving picture coder, moving picture decoding method, moving picture decoder and storage medium storing program for them | |
JP3869303B2 (en) | Image decoding method and apparatus | |
Ahmed et al. | An Effective Technique for Video Compression based on Redundant Wavelet Transform through Selective Accuracy Algorithm | |
JPH05219490A (en) | Digital video signal encoder and decoder | |
Cai | High performance shift invariant motion estimation and compensation in wavelet domain video compression | |
KR20020015231A (en) | System and Method for Compressing Image Based on Moving Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20070510 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20070517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080403 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080515 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090123 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101129 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |