JPH08205179A - Apparatus and method for video signal coding - Google Patents

Apparatus and method for video signal coding

Info

Publication number
JPH08205179A
JPH08205179A JP3164995A JP3164995A JPH08205179A JP H08205179 A JPH08205179 A JP H08205179A JP 3164995 A JP3164995 A JP 3164995A JP 3164995 A JP3164995 A JP 3164995A JP H08205179 A JPH08205179 A JP H08205179A
Authority
JP
Japan
Prior art keywords
motion vector
current frame
motion vectors
motion
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3164995A
Other languages
Japanese (ja)
Inventor
Hae-Mook Jung
海黙 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiu Denshi Kk
WiniaDaewoo Co Ltd
Original Assignee
Daiu Denshi Kk
Daewoo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiu Denshi Kk, Daewoo Electronics Co Ltd filed Critical Daiu Denshi Kk
Priority to JP3164995A priority Critical patent/JPH08205179A/en
Publication of JPH08205179A publication Critical patent/JPH08205179A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PURPOSE: To improve the picture quality of videos by specifying a predicted present frame by assigning each picture element value of the preceding frame corresponding to one of the picture elements of the present frame as one picture element value of the present frame. CONSTITUTION: Selected characteristic points from a characteristic point selecting block 210 are inputted to a characteristic point motion vector detecting block 212 and first and second motion vector detecting blocks 214 and 22. At the block 212, first sets of motion vectors to the selected characteristic points are detected. When one characteristic point is received from the block 210, a characteristic block having a characteristic point at its center is retrieved from a frame memory through a line L12. After the motion vectors to all characteristic points are detected, the first sets of motion vectors are inputted to the block 214 and an entropy encoder 108 through a line L20. At the block 214, second sets of motions vectors contained in the present frame are specified by using the information from the block 210.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はビデオ信号を符号化する
装置及びその方法に関し、特に、画素単位の動き予測技
法を用いて、ビデオ信号を符号化する装置及びその方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for encoding a video signal, and more particularly to an apparatus and method for encoding a video signal using a pixel-by-pixel motion estimation technique.

【0002】[0002]

【従来の技術】公知のように、離散化された画像信号の
伝送は、アナログ信号より良好な画質を保持しうる。一
連のイメージ「フレーム」からなるイメージ信号がディ
ジタル形態で表現される場合、特に、高精細度テレビジ
ョンの場合、相当量のデータが伝送されなければならな
い。しかし、通常の伝送チャネルの使用可能な周波数帯
域は限定されているので、多くの量のディジタルデータ
を限定されたチャネル帯域を通して伝送するためには、
その伝送データの量を圧縮して、かつ減らすことが必要
である。多様なビデオの圧縮技法のうちでも、いわゆる
ハイブリッド符号化技法が最も効率的であると知られて
いる。この技法は、確率的符号化技法と時間的、空間的
圧縮技法とを組み合わせたものである。
BACKGROUND OF THE INVENTION As is known, the transmission of discretized image signals can retain better image quality than analog signals. When an image signal consisting of a series of image "frames" is represented in digital form, especially in the case of high definition television, a considerable amount of data must be transmitted. However, since the usable frequency band of a normal transmission channel is limited, in order to transmit a large amount of digital data through the limited channel band,
It is necessary to compress and reduce the amount of transmitted data. Among various video compression techniques, the so-called hybrid coding technique is known to be the most efficient. This technique is a combination of probabilistic coding techniques and temporal and spatial compression techniques.

【0003】大部分のこのハイブリッド符号化技法は、
動き補償DPCM(差分パルス符号変調)、2次元DC
T(離散的コサイン変換)、DCT係数の量子化及びV
LC(可変長さ符号化)などを用いる。この動き補償D
PCMは現フレームと前フレームとの間の物体の動きを
推定すると共に、物体の動き流れによって現フレームを
予測して、現フレームとその予測値間の差を表す差分信
号を生成する方法である。この方法は、例えば、スタフ
ァン・エリクソン(Staffan Ericsso
n)の「Fixed and Adaptive Pr
edictorsfor Hybrid Predic
tive/Transform Coding」,IE
EE Transactions on Commun
icationsCOM−33,No.12(198
5年12月)、または二宮(Ninomiya)と大塚
(Ohtsuka)の「A Motion Compe
nsated Interframe Coding
Scheme for Television Pic
tures」,IEEE Transactions
on Communications,COM−30
No.1(1982年1月)に記載されている。
Most of this hybrid coding technique
Motion-compensated DPCM (differential pulse code modulation), two-dimensional DC
T (Discrete Cosine Transform), DCT coefficient quantization and V
LC (variable length coding) or the like is used. This motion compensation D
PCM is a method of estimating the motion of an object between the current frame and a previous frame, predicting the current frame according to the motion flow of the object, and generating a difference signal representing the difference between the current frame and its predicted value. . This method is described in, for example, Staffan Ericsson.
n) "Fixed and Adaptive Pr
edictorsfor Hybrid Predic
“Tive / Transform Coding”, IE
EE Transactions on Commun
ications , COM-33 , No. 12 (198
December 5), or "A Motion Compe" by Ninomiya and Otsuka.
Nested Interframe Coding
Scheme for Television Pic
tures ”, IEEE Transactions
on Communications , COM-30 ,
No. 1 (January 1982).

【0004】2次元DCTは映像データ間の空間的冗長
性を減らすものであって、ディジタル映像データ例え
ば、8×8画素ブロックを1セットの変換係数データに
変換する。この技法はチェン(Chen)及びプラット
(Pratt)の論文、「Scene Adaptiv
e Coder」,IEEE Transaction
s on Communication,COM−3
2,No−3(1984年3月)に開示されている。か
かる変換係数データを量子化器、ジグザグ走査及びVL
Cで処理することによって、伝送するべきデータ量を有
効に圧縮できる。
The two-dimensional DCT reduces spatial redundancy between video data and converts digital video data, for example, 8 × 8 pixel blocks into a set of transform coefficient data. This technique is described in Chen and Pratt, "Scene Adaptiv."
e Coder ", IEEE Transaction
Son Communication, COM-3
2, No-3 (March 1984). Quantizer, zigzag scan and VL
By processing in C, the amount of data to be transmitted can be effectively compressed.

【0005】詳述すれば、この動き補償DPCMにおい
て、現フレームと前フレームとの間の動き推定に基づい
て、現フレームデータはその対応する前フレームデータ
から予測される。このように推定された動きは、現フレ
ームと前フレーム間の画素の変位を表す2次元動きベク
トルによって説明される。
More specifically, in this motion compensated DPCM, the current frame data is predicted from its corresponding previous frame data based on the motion estimation between the current frame and the previous frame. The motion thus estimated is explained by the two-dimensional motion vector representing the displacement of the pixel between the current frame and the previous frame.

【0006】物体の画素の変位を推定するには多様な方
法があるが、一般に、2つのタイプに分類しうる。その
中の1つはブロック単位の方法で、もう1つは画素単位
の動き推定である。
There are various methods for estimating the pixel displacement of an object, but generally they can be classified into two types. One of them is a block unit method, and the other is a pixel unit motion estimation.

【0007】ブロック単位の動き推定方法においては、
現フレームにおけるブロックを、前フレームのブロック
などと比較して最適整合ブロックを特定する。これから
伝送される現フレームに対して、全ブロックに対する
(フレーム間のブロックの移動を表す)フレーム間の変
位ベクトルが推定される。しかし、ブロック単位の動き
推定方法においては、動き補償過程でブロックの仕切り
でブロック化効果(blocking effect)
が発生し、ブロック内の全ての画素が一方向へ移動しな
い場合には、推定値が正しくなく、その結果、全般にわ
たって画質が粗くなる。
In the block-based motion estimation method,
The block in the current frame is compared with the block in the previous frame or the like to identify the best matching block. For the current frame to be transmitted, the interframe displacement vector for all blocks (representing the movement of blocks between frames) is estimated. However, in the block-based motion estimation method, a blocking effect is generated by partitioning blocks in the motion compensation process.
Occurs and all pixels in the block do not move in one direction, the estimates are incorrect, resulting in coarser image quality overall.

【0008】一方、画素単位の動き推定方法を用いる
と、変位は各々の画素に対して求められる。この方法は
画素値をより正確に推定し得ると共に、スケール変化
(例えば、映像面に垂直した動きであるズーム化(zo
oming))も手やすく取り扱いうる。しかし、画素
単位の方法においては、動きベクトルが全ての画素の各
々に対して特定されなければならず、実際には、全ての
動きベクトルを受信機へ伝送することは不可能である。
On the other hand, when the pixel-by-pixel motion estimation method is used, the displacement is obtained for each pixel. This method allows for more accurate estimation of pixel values, as well as scale changes (eg, zooming, which is a movement perpendicular to the image plane).
oming)) can be handled easily. However, in the pixel-by-pixel method, motion vectors have to be specified for each and every pixel, and in practice it is not possible to transmit all motion vectors to the receiver.

【0009】[0009]

【発明が解決しようとする課題】従って、本発明の主な
目的は、本発明による特徴点及び支援された準特徴点を
用いる、画素単位の改良された動き推定及び補償技法を
提供することである。
SUMMARY OF THE INVENTION It is therefore a primary object of the present invention to provide an improved pixel-by-pixel motion estimation and compensation technique using the feature points and assisted quasi-feature points according to the present invention. is there.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明によれば、動き補償映像信号符号器で用い
るものであって、ディジタル映像信号の現フレーム及び
前フレームに基づいて、予測済みの現フレームを特定す
る映像信号符号化装置であって、前記前フレームに含ま
れた画素から複数の画素を選択する第1画素選択手段
と、前記現フレームと前記前フレームとの間で前記選択
された画素の各々への動きを表す動きベクトルからなる
第1セットの動きベクトルを捜し出す、第1動きベクト
ル選択手段と、前記第1セットの動きベクトルを用い
て、前記現フレームに含まれた全ての画素への第2セッ
トの動きベクトルを発生する第2動きベクトル発生手段
と、前記第2セットの動きベクトルの1つを通じて、前
記現フレームにおける画素の1つに対応する、前記前フ
レームにおける各々の画素値を前記現フレームにおける
前記1つの画素値として割当てることによって、予備的
予測済みの現フレームを特定する第1特定手段と、前記
現フレームと前記予備的予測済みの現フレームとの間の
差を特定して、集団エラー領域を捜し出す集団エラー領
域選択手段と、前記集団エラー領域の各々に含まれた画
素から1つの画素を選択する第2画素手段と、前記集団
エラー領域から選択された画素への第3セットの動きベ
クトルを捜し出す第3動きベクトル選択手段と、前記第
1セットの動きベクトルと前記第3セットの動きベクト
ルを用いて、前記現フレームに含まれた全画素への第4
セットの動きベクトルを発生する第4動きベクトル発生
手段と、前記第4セットの動きベクトルの1つを通じ
て、前記現フレームの画素の1つに対応する前記前フレ
ームの各々の画素値を、前記現フレームの前記1つの画
素値として割り当てることによって、予測済みの現フレ
ームを特定する第2特定手段とを含む。
In order to achieve the above object, according to the present invention, a motion compensated video signal encoder is used, which is based on a current frame and a previous frame of a digital video signal. A video signal encoding device for specifying a predicted current frame, comprising: first pixel selecting means for selecting a plurality of pixels from pixels included in the previous frame; and between the current frame and the previous frame. A first motion vector selecting means for finding a first set of motion vectors, each of which includes a motion vector representing a motion to each of the selected pixels, and a motion vector included in the current frame using the first motion vector selection means. A second motion vector generating means for generating a second set of motion vectors for all the pixels, and one of the second set of motion vectors, in the current frame. First identifying means for identifying a preliminary predicted current frame by assigning each pixel value in the previous frame corresponding to one of the primes as the one pixel value in the current frame; A collective error region selecting means for searching for a collective error region by specifying a difference between the current frame and the preliminary predicted current frame, and selecting one pixel from pixels included in each of the collective error regions. Using two-pixel means, third motion vector selecting means for finding a third set of motion vectors from the collective error region to the selected pixel, and using the first set of motion vectors and the third set of motion vectors , A fourth to all pixels included in the current frame
A fourth motion vector generating means for generating a set of motion vectors, and a pixel value of each of the previous frames corresponding to one of the pixels of the current frame, through one of the motion vectors of the fourth set. Second identifying means for identifying the predicted current frame by assigning it as the one pixel value of the frame.

【0011】[0011]

【実施例】以下、本発明の映像信号符号化装置及びその
方法について図面を参照しながらより詳しく説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The video signal encoding apparatus and method of the present invention will be described in more detail below with reference to the drawings.

【0012】図1には、本発明による現フレーム予測ブ
ロックを有する映像信号符号化装置の好ましい一実施例
が示されている。図1に示されているように、現フレー
ム信号は第1フレームメモリ100に記憶されている。
この第1フレームメモリ100はラインL9を通じて減
算器102と接続され、ラインL10を通じて現フレー
ム予測ブロック150に連結されている。
FIG. 1 shows a preferred embodiment of a video signal coding apparatus having a current frame prediction block according to the present invention. As shown in FIG. 1, the current frame signal is stored in the first frame memory 100.
The first frame memory 100 is connected to the subtractor 102 through the line L9 and is connected to the current frame prediction block 150 through the line L10.

【0013】現フレーム予測ブロック150では、第1
フレームメモリ100から取り出した現フレーム信号
(ラインL10)と第2フレームメモリ124からの再
構成された前フレーム信号(ラインL12)とを処理し
て、画素単位で現フレームを予測し、予測済みの現フレ
ーム信号をラインL30へ送って、特徴点への動きベク
トルのセット(集合)をL20へ送出する。現フレーム
予測ブロック150の詳細を図2を参照して説明する。
In the current frame prediction block 150, the first
The current frame signal (line L10) extracted from the frame memory 100 and the reconstructed previous frame signal (line L12) from the second frame memory 124 are processed to predict the current frame on a pixel-by-pixel basis. The current frame signal is sent to the line L30, and the set (set) of motion vectors to the feature points is sent to L20. Details of the current frame prediction block 150 will be described with reference to FIG.

【0014】減算器102では、予測済みの現フレーム
信号(ラインL30)が現フレーム信号(ラインL9)
から減算され、その結果データ、即ち差分画素値を表す
エラー信号は映像信号符号化器105へ入力される。こ
のエラー信号は離散的コサイン変換(DCT)及び量子
化方法を用いて、一連の量子化済みの変換係数に符号化
される。次に、その量子化済みの変換係数はエントロピ
ー符号化器107及び映像信号復号化器113へ送出さ
れる。このエントロピー符号化器107にて、映像信号
符号化器105からの量子化済みの変換係数と現フレー
ム予測ブロック150からのラインL20を介して入力
された動きベクトルは、可変長符号化技法を用いること
によって符号化されると共に、その伝送のための伝送器
(図示せず)へ送出される。
In the subtractor 102, the predicted current frame signal (line L30) is converted into the current frame signal (line L9).
And the resulting data, that is, the error signal representing the difference pixel value, is input to the video signal encoder 105. The error signal is encoded into a series of quantized transform coefficients using a discrete cosine transform (DCT) and quantization method. Next, the quantized transform coefficient is sent to the entropy encoder 107 and the video signal decoder 113. In the entropy encoder 107, the quantized transform coefficient from the video signal encoder 105 and the motion vector input via the line L20 from the current frame prediction block 150 use a variable length encoding technique. It is then encoded and sent to a transmitter (not shown) for its transmission.

【0015】一方、映像信号復号化器113では、映像
信号符号化器105から入力された量子化済みの変換係
数が、逆量子化及び逆離散的コサイン変換によって、復
元済みの差分エラー信号に変換される。
On the other hand, in the video signal decoder 113, the quantized transform coefficient input from the video signal encoder 105 is transformed into a restored difference error signal by inverse quantization and inverse discrete cosine transform. To be done.

【0016】映像信号復号化器113からの復元済みの
エラー信号と、現フレーム予測ブロック150からのラ
インL30上の予測現フレーム信号とが、加算器115
にてたし合わされて、復元済みの現フレーム信号となっ
て、第2フレームメモリ124に前フレームとして記憶
される。
The restored error signal from the video signal decoder 113 and the predicted current frame signal on the line L30 from the current frame prediction block 150 are added to the adder 115.
Are added together to form a restored current frame signal, which is stored in the second frame memory 124 as the previous frame.

【0017】図2には、図1の現フレーム予測ブロック
150の詳細図が示されている。同図の第1フレームメ
モリ124からの前フレーム信号(ラインL12)は、
特徴点選択ブロック210、特徴点動きベクトル検知ブ
ロック212、第1動き補償ブロック216、支援類似
特徴点及びその動き補償検知ブロック220へ入力され
る。
FIG. 2 shows a detailed view of the current frame prediction block 150 of FIG. The previous frame signal (line L12) from the first frame memory 124 of FIG.
It is input to the feature point selection block 210, the feature point motion vector detection block 212, the first motion compensation block 216, the support similar feature point and its motion compensation detection block 220.

【0018】特徴点選択ブロック210では、前フレー
ムに含まれた画素から取り出された複数の特徴点が選択
される。その各々の特徴点はフレームにおける物体の動
きを表す画素の位置として定義される。図6には、10
×7画素の例示的なフレームが図示されている。ここ
で、動く物体がそのフレームの中央寄りにあって、また
その動く物体が1セットの画素、即ち、「A」ないし
「I」の画素値のみで十分に表現される場合、これら画
素は該フレームの特徴点として選択される。
In the feature point selection block 210, a plurality of feature points extracted from the pixels included in the previous frame are selected. Each of the feature points is defined as the position of a pixel that represents the motion of the object in the frame. In FIG. 6, 10
An exemplary frame of x7 pixels is shown. Here, if the moving object is closer to the center of the frame and the moving object is sufficiently represented by only one set of pixels, that is, "A" to "I" pixel values, these pixels are It is selected as a feature point of the frame.

【0019】本発明の好ましい実施例においては、図7
B及び図7Bに示した四角グリッドまたは六角グリッド
のような種々の形態のグリッドを用いるグリッド技法を
用いて特徴点が特定される。同図のように、それら特徴
点はグリッドのノードに位置する。
In the preferred embodiment of the invention, FIG.
Feature points are identified using grid techniques using various forms of grids, such as the square grids or hexagonal grids shown in FIGS. As shown in the figure, those feature points are located at the nodes of the grid.

【0020】本発明の他の好ましい実施例において、図
8A及び図8Bに示されたように、エッジ検知技法が上
記のグリッド技法と共に用いられる。この技法において
は、グリッドと動く物体のエッジとの交差点が特徴点と
して選択される。
In another preferred embodiment of the present invention, an edge detection technique is used with the grid technique described above, as shown in FIGS. 8A and 8B. In this technique, the intersection of the grid and the edge of the moving object is selected as the feature point.

【0021】図2を再び参照すれば、特徴点選択ブロッ
ク210からの選択された特徴点は、特徴点動きベクト
ル検知ブロック212、第1動きベクトル検知ブロック
214及び第2動きベクトル検知ブロック222へ入力
される。また、ラインL10上の特徴点信号が現フレー
ム動きベクトル検知ブロック212へ供給される。
Referring again to FIG. 2, the selected feature points from the feature point selection block 210 are input to the feature point motion vector detection block 212, the first motion vector detection block 214 and the second motion vector detection block 222. To be done. Further, the feature point signal on the line L10 is supplied to the current frame motion vector detection block 212.

【0022】特徴点動きベクトル検知ブロック212で
は、選択された特徴点への第1セットの動きベクトルが
検知される。この第1セットの動きベクトルの各々は、
前フレームにおける特徴点と、現フレームにおける最も
類似する画素との間の空間的な変位を表す。
The feature point motion vector detection block 212 detects a first set of motion vectors for the selected feature points. Each of this first set of motion vectors is
It represents the spatial displacement between the feature point in the previous frame and the most similar pixel in the current frame.

【0023】画素単位で動きベクトルを検知する処理ア
ルゴリズムには、様々なものがある。本発明の好ましい
実施例においては、ブロック整合アルゴリズムが用いら
れる。即ち、1つの特徴点が特徴点選択ブロック210
から受信される場合、特徴点ブロックの中央に特徴点を
有する特徴点ブロック、例えば、5×5画素の前フレー
ムを、第2フレームメモリ124(図1参照)からライ
ンL12を通じて検索する。次に、第1フレームメモリ
100(図1参照)から一般に大きい探索領域、例えば
10×10画素の現フレームに含まれた同一の大きさの
複数の候補ブロックと、特徴点ブロックとの類似度を算
出した後、特徴点ブロックへの特徴点の動きベクトルが
特定される。
There are various processing algorithms for detecting a motion vector on a pixel-by-pixel basis. In the preferred embodiment of the present invention, a block matching algorithm is used. That is, one feature point is the feature point selection block 210.
When received from, the feature point block having the feature point in the center of the feature point block, for example, the previous frame of 5 × 5 pixels is searched from the second frame memory 124 (see FIG. 1) through the line L12. Next, from the first frame memory 100 (see FIG. 1), the similarity between a feature point block and a plurality of candidate blocks of the same size included in a current search frame having a large size, for example, 10 × 10 pixels, is calculated. After the calculation, the motion vector of the feature point to the feature point block is specified.

【0024】全ての特徴点への動きベクトルを検知した
のち、第1セットの動きベクトルは、第1動きベクトル
検知ブロック214とエントロピー符号化器107(図
1参照)にラインL20を通じて入力される。第1動き
ベクトル検知ブロック214にて、現フレームに含まれ
た全画素への第2セットの動きベクトルが、第1セット
の動きベクトル及び特徴点選択ブロックからの特徴点の
情報を用いて特定される。
After detecting the motion vectors to all the feature points, the first set of motion vectors is input to the first motion vector detection block 214 and the entropy coder 107 (see FIG. 1) via line L20. In the first motion vector detection block 214, a second set of motion vectors for all pixels included in the current frame is identified using the first set of motion vectors and the feature point information from the feature point selection block. It

【0025】第2セットの動きベクトルを特定するため
には、最初に「準特徴点」への1セットの動きベクトル
を特定するが、この各々の準特徴点は、前フレームの各
特徴点からその対応する第1セットの動きベクトルだけ
シフトした現フレームの画素点を表す。準特徴点への動
きベクトルの大きさは、その対応する特徴点への動きベ
クトルと大きさが等しいが、その2つの動きベクトルの
向きは反対である。全ての準特徴点への動きベクトルを
特定した後、現フレームにおける残りの画素である非準
特徴点への動きベクトルを次のように特定する。
In order to specify the second set of motion vectors, first, one set of motion vectors to "quasi-feature points" is specified, and each of these quasi-feature points is extracted from each feature point of the previous frame. It represents a pixel point of the current frame shifted by its corresponding first set of motion vectors. The magnitude of the motion vector to the quasi-feature point is equal to the magnitude of the motion vector to the corresponding feature point, but the directions of the two motion vectors are opposite. After specifying the motion vectors to all the quasi-feature points, the motion vectors to the non-quasi-feature points which are the remaining pixels in the current frame are specified as follows.

【0026】図9に示されたように、複数の準特徴点が
全ての現フレームで不規則的に分布している。星で表示
した非準特徴点への動きベクトルは、半径(dr+d
a)の円内に位置した準特徴点の動きベクトルを平均す
ることによって求められる。ここで、daは、最も近位
の準特徴点と星で表示された画素位置との距離であり、
drは動きベクトルの計算で用いられる他の準特徴点を
含むように予め定められた拡張半径である。例えば、も
っとも近位の特徴点が「Y」で、特徴点「X」が(dr
+da)の境界に含まれば、星で表示された画素への動
きベクトル(MVx,MVy)は、次式のように計算さ
れる。
As shown in FIG. 9, a plurality of quasi-feature points are irregularly distributed in all the current frames. The motion vector to the non-quasi-feature point represented by a star is the radius (dr + d
It is obtained by averaging the motion vectors of the quasi-feature points located within the circle of a). Here, da is the distance between the most proximal quasi-feature point and the pixel position displayed by a star,
dr is a predetermined expansion radius including other quasi-feature points used in the calculation of the motion vector. For example, the most proximal feature point is “Y” and the feature point “X” is (dr
If it is included in the boundary of + da), the motion vector (MVx, MVy) to the pixel displayed by the star is calculated by the following equation.

【0027】[0027]

【数1】 [Equation 1]

【0028】ここで、dx及びdyは各々星で表示され
た画素位置から準特徴点X及びYへの距離であり、(M
Vx,MVy)X及び(MVx,MVy)Yは各々準特徴点
への動きベクトルである。
Here, dx and dy are the distances from the pixel positions displayed by stars to the quasi-feature points X and Y, respectively (M
Vx, MVy) X and (MVx, MVy) Y are motion vectors to the quasi-feature points, respectively.

【0029】図2を再び参照すれば、準特徴点と非準特
徴点への第2セットの動きベクトルは、ラインL16を
介して第1動き補償ブロック216へ供給される。一
方、準特徴点への第2セットの動きベクトルの部分はラ
インL15を介して、支援準特徴点及びその動きベクト
ル検知ブロック220へ供給される。この第1動き補償
ブロック216にて、第2フレームメモリ124(図1
参照)に記憶されている前フレームにおける各画素値
を、現フレームの画素中の1つの値として割り当て、そ
の画素値は第2セットの動きベクトル中の1つを通して
現フレームにおける画素中の1つに対応し、よって、予
備的予測済みの現フレームを発生する。第1動き補償ブ
ロック216の出力は、集団エラー領域検知ブロック2
18及び支援準特徴点及びその動きベクトル検知ブロッ
ク220へ供給される。
Referring again to FIG. 2, the second set of motion vectors for the quasi-feature points and the non-quasi-feature points are provided to the first motion compensation block 216 via line L16. On the other hand, the part of the second set of motion vectors to the quasi-feature point is supplied to the support quasi-feature point and its motion vector detection block 220 via line L15. In the first motion compensation block 216, the second frame memory 124 (see FIG.
Each pixel value in the previous frame stored in the current frame as a value in one of the pixels in the current frame, and the pixel value is set to one of the pixels in the current frame through one in the second set of motion vectors. , And thus generate the preliminary predicted current frame. The output of the first motion compensation block 216 is the collective error region detection block 2
18 and supporting quasi-feature points and their motion vector detection block 220.

【0030】図3は、図2に示された集団エラー領域検
知ブロック218のブロック図である。同図では、現フ
レームが、第1フレームメモリ100からラインL10
を通じて供給され、予備的予測済みの現フレーム信号
が、第1動き補償ブロック216からラインL17を通
じて減算器302へ入力される。この減算器302は絶
対値化ブロック304に連結されている。もし、現フレ
ーム信号が図10Aに示されたようであり、予備的予測
済みの現フレーム信号が図10Bに示されたようである
場合、減算器302及び絶値対化ブロック304の出力
は、図10Cに示されたように表される。
FIG. 3 is a block diagram of the collective error area detection block 218 shown in FIG. In the figure, the current frame is the line L10 from the first frame memory 100.
Through the first motion compensation block 216 to the subtractor 302 via line L17. The subtractor 302 is connected to an absolute value block 304. If the current frame signal is as shown in FIG. 10A and the preliminary predicted current frame signal is as shown in FIG. 10B, the outputs of subtractor 302 and extremum pairing block 304 are: It is represented as shown in FIG. 10C.

【0031】図10Cに示されたように、複数のエラー
部分が例えば、目、口及び動く物体のエッジ近傍で発見
される。絶対値化ブロック304からの絶対値化エラー
信号は、フィルター306へ入力される。このフィルタ
ー306にて絶対値化エラー信号がフィルタリングされ
て、微細なエラー領域は図10Dに示されたように除去
される。フィルタリングされた後、フィルタリング済み
のエラー信号は集団エラー領域検知ブロック308へ供
給されるが、この集団エラー領域が四角ウィンドウによ
り区切られることによって、図9Eに示されたような集
団エラー領域信号がラインL18上へ伝送される。
As shown in FIG. 10C, multiple error areas are found, for example, near the edges of the eyes, mouth and moving objects. The absolute value error signal from the absolute value block 304 is input to the filter 306. The filter 306 filters the absolute value error signal, and the fine error region is removed as shown in FIG. 10D. After being filtered, the filtered error signal is provided to the collective error region detection block 308, which is separated by a square window so that the collective error region signal as shown in FIG. It is transmitted onto L18.

【0032】図2を再び参照すれば、ラインL18上の
集団エラー領域信号は支援準特徴点及びその動きベクト
ル検知ブロック220へ供給されるが、ブロック220
では集団エラー領域の各々の画素のうちの1つの画素が
選択され、その選択された画素の動きベクトルが支援準
特徴点及びその動きベクトルとして特定される。図4及
び図5は、図2に示された支援の準特徴点及びその動き
ベクトル検知ブロック220の詳細ブロック図である。
Referring again to FIG. 2, the collective error region signal on line L18 is provided to the support quasi-feature point and its motion vector detection block 220, which is block 220.
Then, one pixel of each pixel of the collective error region is selected, and the motion vector of the selected pixel is specified as the support quasi-feature point and its motion vector. 4 and 5 are detailed block diagrams of the assisting quasi-feature point and its motion vector detection block 220 shown in FIG.

【0033】図4及び図5に示されたように、集団エラ
ー領域信号は、動きベクトル選択ブロック400及び動
きベクトル検知ブロック402へ供給されて、集団エラ
ー領域を知らせる。この動きベクトル選択ブロック40
0では、集団エラー領域信号に応答して、この集団エラ
ー領域における画素への第1グループの動きベクトル
を、第1動きベクトル検知ブロック214(図2参照)
から提供される第2セットの動きベクトルから選択され
る。また、第1グループの動きベクトルは減算器406
へ供給される。
As shown in FIGS. 4 and 5, the collective error area signal is supplied to the motion vector selection block 400 and the motion vector detection block 402 to indicate the collective error area. This motion vector selection block 40
At 0, in response to the collective error region signal, the first group of motion vectors to the pixels in this collective error region are detected as the first motion vector detection block 214 (see FIG. 2).
From a second set of motion vectors provided by The motion vector of the first group is subtracted by the subtractor 406.
Supplied to

【0034】一方、動きベクトル検知ブロック402で
は、集団エラー領域における画素への第2グループの動
きベクトルが、現フレームとフレームメモリ404に記
憶された前フレームとの間に特定される。また、第2グ
ループの動きベクトルも減算器406へ供給される。
On the other hand, in the motion vector detection block 402, the second group of motion vectors to the pixels in the collective error area are specified between the current frame and the previous frame stored in the frame memory 404. The motion vector of the second group is also supplied to the subtractor 406.

【0035】その後、減算器406にて2つのグループ
の動きベクトルの差が計算される。各画素の差の大きさ
は、絶対値化ブロック408で算定される。次に、その
絶対値化ブロック408の出力は、2つのグループの動
きベクトルの差の大きさによって分けられる。もし、差
の大きさが図11Aに示されたような値である場合、集
団エラー領域は図11Bに示されたように、分割ブロッ
ク410で2つのサブブロックに分けられる。図11B
に示されたような状況で、星で表示された画素がこの集
団エラー領域の支援準特徴点になり、その動きベクトル
は次のように選択される。最初に、多数の動きベクトル
検知ブロック418は、サブ領域に対して複数の動きベ
クトルを選択することによって、2つのサブ領域の各々
へのサブ領域動きベクトルを検知し、このサブ領域動き
ベクトルをラインL42を通じて第1動きベクトル検知
及び動き補償ブロック420とスイッチSW1へ送出
し、また第2サブ領域動きベクトルをラインL44を通
じて第2動きベクトル検知及び動き補償ブロック422
とスイッチSW1へ送出する。一方、結み合わせブロッ
ク414では、中心点選択ブロック412から選択され
た集団エラー領域の中心点が、第1動きベクトル検知ブ
ロック214からラインL15を通して供給される準特
徴点と組み合わされて、その結果のデータは第1及び第
2動きベクトル検知及び動き補償ブロック420、42
2へ供給される。
Then, the subtractor 406 calculates the difference between the motion vectors of the two groups. The magnitude of the difference between each pixel is calculated in the absolute value block 408. The output of the absolute value block 408 is then divided by the magnitude of the difference between the two groups of motion vectors. If the magnitude of the difference is a value as shown in FIG. 11A, the collective error region is divided into two sub-blocks by the division block 410 as shown in FIG. 11B. FIG. 11B
In the situation as shown in, the pixel represented by a star becomes a supporting quasi-feature point of this collective error region, and its motion vector is selected as follows. First, a number of motion vector detection blocks 418 detect a sub-region motion vector for each of the two sub-regions by selecting a plurality of motion vectors for the sub-region, and then line this sub-region motion vector. The second motion vector detection / compensation block 422 is sent to the first motion vector detection / motion compensation block 420 and the switch SW1 via L42, and the second sub-region motion vector is sent to the second motion vector detection / motion compensation block 422 via line L44.
To the switch SW1. On the other hand, in the combination block 414, the center point of the collective error area selected from the center point selection block 412 is combined with the quasi-feature point supplied from the first motion vector detection block 214 through the line L15, and the result is obtained. Data of the first and second motion vector detection and motion compensation blocks 420, 42.
2 is supplied.

【0036】第1動きベクトル検知及び動き補償ブロッ
ク420にて、準特徴点への動きベクトルのセットと第
1サブ領域動きベクトルのと間に組み合わされた動きベ
クトルのうちの少なくとも1つを平均して、集団エラー
領域における全画素への動きベクトルを捜し出す。ま
た、集団エラー領域に含まれた各々の画素値を第2フレ
ームメモリ124から取り出すことによって、第1予測
領域を特定する。この第1予測領域は第1平均2乗エラ
ー検知ブロック424へ供給される。
A first motion vector detection and motion compensation block 420 averages at least one of the motion vectors combined between the set of motion vectors to the quasi-feature points and the first subregion motion vector. Then, the motion vector for all pixels in the collective error region is searched for. Further, the first prediction region is specified by extracting each pixel value included in the collective error region from the second frame memory 124. The first prediction area is supplied to the first mean square error detection block 424.

【0037】第2動きベクトル検知及び動き補償ブロッ
ク422にて、準特徴点への動きベクトルのセットと第
2サブ領域動きベクトルとの間に組み合わされた動きベ
クトルのうちの少なくとも1つを平均して、集団エラー
領域における全画素への動きベクトルを捜し出す。ま
た、集団エラー領域に含まれた各々の画素値を第2フレ
ームメモリ124から捜し出すことによって、第2予測
領域を特定する。この第2予測領域は第2平均2乗エラ
ー検知ブロック426へ送られる。
A second motion vector detection and motion compensation block 422 averages at least one of the motion vectors combined between the set of motion vectors to the quasi-feature points and the second subregion motion vector. Then, the motion vector for all pixels in the collective error region is searched for. Also, the second prediction region is specified by searching each pixel value included in the collective error region from the second frame memory 124. This second prediction region is sent to the second mean square error detection block 426.

【0038】第1平均2乗エラー検知ブロック424に
て、現フレームと第1予測領域との間の差が特定され、
その結果が比較及び選択ブロック428へ送出される。
同様に、第2平均2乗エラー検知ブロック426にて、
現フレームと第2予測領域との間の差が特定され、その
結果が、比較及び選択ブロック428へ送出される。
The first mean square error detection block 424 identifies the difference between the current frame and the first prediction region,
The result is sent to the compare and select block 428.
Similarly, in the second mean square error detection block 426,
The difference between the current frame and the second prediction region is identified and the result is sent to the compare and select block 428.

【0039】この比較及び選択ブロック428にて、2
つの平均2乗エラー検知ブロック424、426の出力
のうちの小さいものを特定し、スイッチ制御信号をスイ
ッチSW1へ供給する。このスイッチSW1ではライン
L42、L44上の2つの出力のうちの1つを選択し、
マルチプレクサ416へ送る。マルチプレクサ416で
は中心点選択ブロック412の出力及びスイッチSW1
からの動きベクトルが組み合わされて、その結果が、1
つの支援準特徴点及びその動きベクトルとしてエントロ
ピー符号化器107へ供給される。
In this comparison and selection block 428, 2
The smaller of the outputs of the one mean square error detection blocks 424, 426 is identified and a switch control signal is provided to the switch SW1. This switch SW1 selects one of the two outputs on lines L42, L44,
Send to multiplexer 416. In the multiplexer 416, the output of the center point selection block 412 and the switch SW1
The motion vectors from are combined and the result is 1
It is supplied to the entropy encoder 107 as one supporting quasi-feature point and its motion vector.

【0040】図2を再び参照すれば、第2動きベクトル
検知ブロック214にて現フレームに含まれた全画素へ
の第3セットの動きベクトルが、準特徴点及び支援準特
徴点を用いることによって特定される。また、この第3
セットの動きベクトルは、第2動き補償ブロック224
へ供給される。この第2動き補償ブロック224では、
第2フレームメモリ124(図1参照)に記憶されてい
る、第3セットの動きベクトルの1つを通して現フレー
ムの画素の1つに対応する、前フレームにおける各画素
値を、現フレームにおける上記の画素の1つの値として
割り当て、最後の予測済みの現フレームを発生する。
Referring again to FIG. 2, in the second motion vector detection block 214, a third set of motion vectors for all pixels included in the current frame is obtained by using the quasi-feature points and the support quasi-feature points. Specified. Also, this third
The set motion vector is the second motion compensation block 224.
Supplied to In this second motion compensation block 224,
Each pixel value in the previous frame, corresponding to one of the pixels in the current frame through one of the third set of motion vectors stored in the second frame memory 124 (see FIG. 1), Assign as one value of pixel to generate the last predicted current frame.

【0041】本発明の符号化器に対応する復号化器にお
ける動き予測ブロックは、特徴点動きベクトル検知ブロ
ック212、第1動きベクトル検知ブロック214、第
1動き補償ブロック216、集団エラー検知ブロック2
18及び支援準特徴点及びその動きベクトル検知ブロッ
ク220以外は、図2に示したものと同一の要素を有す
る。これは第1特徴点動きベクトル、支援準特徴点及び
その動きベクトルが符号化器から伝送され、またそこに
供給されるためである。従って、動き予測ブロックは符
号器に対して説明されたような同一の機能の特徴点選択
ブロック、第2現フレーム動きベクトル検知ブロック及
び第2動き補償ブロックからなる。
The motion prediction block in the decoder corresponding to the encoder of the present invention is the feature point motion vector detection block 212, the first motion vector detection block 214, the first motion compensation block 216, and the collective error detection block 2.
18 has the same elements as those shown in FIG. This is because the first feature point motion vector, the supporting quasi-feature point and its motion vector are transmitted from and supplied to the encoder. Therefore, the motion prediction block comprises a feature point selection block having the same function as described for the encoder, a second current frame motion vector detection block and a second motion compensation block.

【0042】更に、復号化器のメモリからの前フレーム
信号は、特徴点選択ブロックへ入力されると共に複数の
特徴点が選択される。第2現フレーム動きベクトル検知
ブロックにて、図2を参照して説明した符号器から伝送
された、選択された特徴点及びその動きベクトルと、支
援準特徴点及びその動きベクトルに応答して、その予測
済みの現フレームに含まれる全ての画素の動きベクトル
が特定される。第2動き補償ブロックは符号器でのよう
な予測済みの現フレームを供給する。この予測済みの現
フレームは復号器で更に処理されて、もとのビデオ信号
と実質的に同一の現フレームに復元される。
Further, the previous frame signal from the memory of the decoder is input to the feature point selection block and a plurality of feature points are selected. In the second current frame motion vector detection block, in response to the selected feature point and its motion vector and the supporting quasi feature point and its motion vector transmitted from the encoder described with reference to FIG. The motion vectors of all the pixels included in the predicted current frame are specified. The second motion compensation block provides the predicted current frame as at the encoder. This predicted current frame is further processed in the decoder to restore a current frame that is substantially the same as the original video signal.

【0043】[0043]

【発明の効果】従って、本発明によれば、ビデオ信号
を、画素単位の動き予測技法を用いて符号化することに
よって、画質を向上することができる。
Therefore, according to the present invention, the image quality can be improved by encoding the video signal using the pixel-by-pixel motion prediction technique.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の現フレーム予測ブロックを含む映像信
号符号化装置のブロック図である。
FIG. 1 is a block diagram of a video signal encoding apparatus including a current frame prediction block of the present invention.

【図2】図1の現フレーム予測ブロックの詳細なブロッ
ク図である。
2 is a detailed block diagram of a current frame prediction block of FIG. 1. FIG.

【図3】図2の集団エラー領域検知ブロックの詳細なブ
ロック図である。
FIG. 3 is a detailed block diagram of a collective error area detection block of FIG.

【図4】図2の支援準特徴点及びその動きベクトル検知
ブロックの詳細なブロック図である。
FIG. 4 is a detailed block diagram of a support quasi-feature point and its motion vector detection block of FIG. 2;

【図5】図2の支援準特徴点及びその動きベクトル検知
ブロックの詳細なブロック図である。
5 is a detailed block diagram of a support quasi-feature point and its motion vector detection block of FIG. 2;

【図6】特徴点を規定するための例示的なフレームを説
明するための図面である。
FIG. 6 is a diagram illustrating an exemplary frame for defining a feature point.

【図7】A及びBからなり、A及びBは各々、特徴点を
選択するために用いた2つの型式のグリッドを例示した
図面である。
FIG. 7 is a diagram of A and B, where A and B are examples of two types of grids used to select feature points.

【図8】A及びBからなり、A及びBは各々、グリッド
及びエッジを通じて特徴点を選択する技法を示す図であ
る。
FIG. 8 is a diagram of A and B, where A and B are techniques for selecting feature points through grids and edges, respectively.

【図9】非準特徴点への動きベクトルを捜し出す方法を
示す図面である。
FIG. 9 is a diagram showing a method for finding a motion vector to a non-quasi-feature point.

【図10】A〜Eからなり、A〜Eは、集団エラー領域
を捜し出す技法を示す図である。
10A to 10E are diagrams showing a technique for searching a collective error region.

【図11】A及びBからなり、A及びBは、支援準特徴
点及びその動きベクトルを捜し出す技法を示す図であ
る。
FIG. 11 is composed of A and B, and A and B are diagrams showing a technique for searching for a support quasi-feature point and its motion vector.

【符号の説明】[Explanation of symbols]

100 第1フレームメモリ 102 減算器 105 映像信号符号化器 107 エントロピー符号化器 113 映像信号復号化器 115 加算器 124 第2フレームメモリ 150 現フレーム予測ブロック 210 特徴点選択ブロック 212 特徴点動きベクトル検知ブロック 214 第1動きベクトル検知ブロック 216 第1動き補償ブロック 218 集団エラー領域検知ブロック 220 支援準特徴点及びその動きベクトル検知ブロッ
ク 222 第2動きベクトル検知ブロック 224 第2動き補償ブロック 302 減算器 304 絶対値化ブロック 306 フィルター 308 集団エラー領域検知ブロック 400 動きベクトル選択ブロック 402 動きベクトル検知ブロック 404 フレームメモリ 406 減算器 408 絶対値化ブロック 410 分割ブロック 412 中心点選択ブロック 414 組み合わせブロック 416 マルチプレクサ 418 多数の動きベクトル検知ブロック 420 第1動きベクトル検知及び動き補償ブロック 422 第2動きベクトル検知及び動き補償ブロック 424 第1平均2乗エラー検知ブロック 426 第2平均2乗エラー検知ブロック 428 比較及び選択ブロック
100 First frame memory 102 Subtractor 105 Video signal encoder 107 Entropy encoder 113 Video signal decoder 115 Adder 124 Second frame memory 150 Current frame prediction block 210 Feature point selection block 212 Feature point motion vector detection block 214 first motion vector detection block 216 first motion compensation block 218 collective error region detection block 220 support quasi-feature point and its motion vector detection block 222 second motion vector detection block 224 second motion compensation block 302 subtractor 304 absolute value conversion Block 306 Filter 308 Collective error region detection block 400 Motion vector selection block 402 Motion vector detection block 404 Frame memory 406 Subtractor 408 Absolute value conversion block 41 Divided block 412 Center point selection block 414 Combination block 416 Multiplexer 418 Multiple motion vector detection block 420 First motion vector detection and motion compensation block 422 Second motion vector detection and motion compensation block 424 First mean square error detection block 426th 2 Mean Square Error Detection Block 428 Comparison and Selection Block

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 11/04 B 9185−5C ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 11/04 B 9185-5C

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 動き補償映像信号符号器で用いるもの
であって、ディジタル映像信号の現フレーム及び前フレ
ームに基づいて、予測済みの現フレームを特定する映像
信号符号化装置であって、 前記前フレームに含まれた画素から複数の画素を選択す
る第1画素選択手段と、 前記現フレームと前記前フレームとの間で前記選択され
た画素の各々への動きを表す動きベクトルからなる第1
セットの動きベクトルを捜し出す、第1動きベクトル選
択手段と、 前記第1セットの動きベクトルを用いて、前記現フレー
ムに含まれた全ての画素への第2セットの動きベクトル
を発生する第2動きベクトル発生手段と、 前記第2セットの動きベクトルの1つを通じて、前記現
フレームにおける画素の1つに対応する、前記前フレー
ムにおける各々の画素値を前記現フレームにおける前記
1つの画素値として割当てることによって、予備的予測
済みの現フレームを特定する第1特定手段と、 前記現フレームと前記予備的予測済みの現フレームとの
間の差を特定して、集団エラー領域を捜し出す集団エラ
ー領域選択手段と、 前記集団エラー領域の各々に含まれた画素から1つの画
素を選択する第2画素手段と、 前記集団エラー領域から選択された画素への第3セット
の動きベクトルを捜し出す第3動きベクトル選択手段
と、 前記第1セットの動きベクトルと前記第3セットの動き
ベクトルを用いて、前記現フレームに含まれた全画素へ
の第4セットの動きベクトルを発生する第4動きベクト
ル発生手段と、 前記第4セットの動きベクトルの1つを通じて、前記現
フレームの画素の1つに対応する前記前フレームの各々
の画素値を、前記現フレームの前記1つの画素値として
割り当てることによって、予測済みの現フレームを特定
する第2特定手段とを有することを特徴とする映像信号
符号化装置。
1. A video signal encoding apparatus for use in a motion-compensated video signal encoder, which identifies a predicted current frame based on a current frame and a previous frame of a digital video signal. A first pixel selecting unit that selects a plurality of pixels from pixels included in the frame; and a first motion vector that represents a motion to each of the selected pixels between the current frame and the previous frame.
First motion vector selection means for finding a set of motion vectors, and a second motion for generating a second set of motion vectors for all pixels included in the current frame using the first set of motion vectors Assigning each pixel value in the previous frame corresponding to one of the pixels in the current frame as the one pixel value in the current frame through a vector generating means and one of the second set of motion vectors; A first specifying unit that specifies a preliminary predicted current frame; and a collective error region selecting unit that searches for a collective error region by specifying a difference between the current frame and the preliminary predicted current frame. And second pixel means for selecting one pixel from the pixels included in each of the collective error regions, and selecting from the collective error region A third motion vector selecting means for finding a third set of motion vectors for the selected pixels, and using the first set of motion vectors and the third set of motion vectors to select all the pixels included in the current frame. A fourth motion vector generating means for generating a fourth set of motion vectors, and a pixel value of each of the previous frames corresponding to one of the pixels of the current frame through one of the motion vectors of the fourth set. , A second specifying means for specifying the predicted current frame by assigning it as the one pixel value of the current frame.
【請求項2】 前記第2動きベクトル発生手段が、 前記第1セットの動きベクトルを、前記前フレームにお
ける選択された画素に対応して、前記現フレームの画素
への前記第2セットの動きベクトルの一部分として割当
てる第1割当手段と、 前記第2セットの動きベクトルの一部分に含まれた少な
くとも1つの動きベクトルを平均して、前記第2セット
の動きベクトルの残りの部分の動きベクトルを特定する
第3特定手段とを有することを特徴とする請求項1に記
載の映像信号符号化装置。
2. The second motion vector generating means sets the motion vector of the first set to the pixel of the current frame in correspondence with the selected pixel of the previous frame to the pixel of the current frame of the second set. First allocating means for allocating as a part of the second set, and at least one motion vector included in a part of the second set of motion vectors is averaged to specify a motion vector of the remaining part of the second set of motion vectors. The video signal encoding device according to claim 1, further comprising a third specifying unit.
【請求項3】 前記集団エラー領域選択手段が、 前記現フレームから前記予備的予測済みの現フレームを
減算して、エラー領域信号を発生する減算手段と、 前記エラー領域信号の絶対値を算出する絶対値算出手段
と、 前記絶対値化されたエラー信号をフィルタリングするフ
ィルタ手段と、 前記フィルタリング済みの絶対値化されたエラー信号を
ウインドウイングして、前記集団エラー領域信号を発生
するウインドウ手段とを有することを特徴とする請求項
1に記載の映像信号符号化装置。
3. The collective error area selecting means subtracts the preliminary predicted current frame from the current frame to generate an error area signal, and an absolute value of the error area signal is calculated. Absolute value calculation means, filter means for filtering the absolute value error signal, windowing the filtered absolute value error signal, and window means for generating the collective error region signal. The video signal encoding device according to claim 1, further comprising:
【請求項4】 前記第3動きベクトル選択手段が、 前記各々の集団エラー領域に含まれた各々のエラー画素
値の大きさによって、前記集団エラー領域の各々を2つ
以上のサブ領域に分割する分割手段と、 前記サブ領域の各々へのサブ領域動きベクトルを捜し出
して、サブ領域動きベクトルを発生する、サブ領域動き
ベクトル発生手段と、 前記サブ領域動きベクトルから1つの動きベクトルを選
択して、第3セットの動きベクトルにおける各々の動き
ベクトルを提供する動きベクトル提供手段とを有するこ
とを特徴とする請求項1に記載の映像符号化装置。
4. The third motion vector selecting means divides each of the collective error regions into two or more sub-regions according to the size of each error pixel value included in each of the collective error regions. Dividing means, searching for sub-region motion vectors for each of the sub-regions, and generating sub-region motion vectors; sub-region motion vector generating means; and selecting one motion vector from the sub-region motion vectors, The video encoding device according to claim 1, further comprising a motion vector providing unit that provides each motion vector in the third set of motion vectors.
【請求項5】 前記第4動きベクトル発生手段が、 前記第1セットの動きベクトルと前記第3セットの動き
ベクトルを、前記第4セットの動きベクトルの一部分と
して割り当てる第2割当手段と、 前記第4セットの動きベクトルの一部分に含まれた少な
くとも1つの動きベクトルを平均して、前記第4セット
の残りの部分の動きベクトルを特定する第4特定手段と
を備える請求項4記載の映像信号符号化装置。
5. The fourth motion vector generating means, second allocating means for allocating the motion vector of the first set and the motion vector of the third set as a part of the motion vector of the fourth set, The video signal code according to claim 4, further comprising: fourth specifying means for averaging at least one motion vector included in a part of the four sets of motion vectors to specify a motion vector of the remaining part of the fourth set. Device.
【請求項6】 動き補償映像信号符号化で用いられ、
ディジタル映像信号の現フレームと前フレームとを有
し、予測済みの現フレームを特定する映像信号符号化方
法であって、 (a)前記前フレームに含まれた画素から複数の画素を
選択する、選択過程と、 (b)前記現フレームと前記前フレームとの間で前記選
択された画素の各々への動きを表す動きベクトルからな
る第1セットの動きベクトルを捜し出す、第1動きベク
トル選択過程と、 (c)前記第1セットの動きベクトルを用いて、前記現
フレームに含まれた全画素への第2セットの動きベクト
ルを発生する、第2動きベクトル発生過程と、 (d)前記第2セットの動きベクトルの1つを通じて、
前記現フレームにおける画素の1つに対応する、前記前
フレームにおける各々の画素値を前記現フレームにおけ
る前記1つの画素値として割当てることによって、予備
的予測済みの現フレームを特定する、第1特定過程と、 (e)前記現フレームと前記予備的予測済みの現フレー
ムとの間の差を特定して、集団エラー領域を捜し出す、
集団エラー領域選択過程と、 (f)前記集団エラー領域の各々に含まれた画素から1
つの画素を選択する、画素選択過程と、 (g)前記集団エラー領域から選択された画素への第3
セットの動きベクトルを捜し出す、第3動きベクトル選
択過程と、 (h)前記第1セットの動きベクトルと前記第3セット
の動きベクトルとを用いて、前記現フレームに含まれた
全画素への第4セットの動きベクトルを発生する第4動
きベクトル発生過程と、 (i)前記第4セットの動きベクトルの1つを通じて、
前記現フレームの画素の1つに対応する前記前フレーム
の各々の画素値を、前記現フレームの前記1つの画素値
として割当てることによって、前記予測済みの現フレー
ムを特定する、第2特定過程とを有することを特徴とす
る映像信号符号化方法。
6. Used in motion compensated video signal encoding,
A video signal encoding method for identifying a predicted current frame having a current frame and a previous frame of a digital video signal, comprising: (a) selecting a plurality of pixels from pixels included in the previous frame; A selection step, and (b) a first motion vector selection step of searching for a first set of motion vectors consisting of motion vectors representing a motion to each of the selected pixels between the current frame and the previous frame. (C) a second motion vector generation step of generating a second set of motion vectors for all pixels included in the current frame using the first set of motion vectors; and (d) the second Through one of the motion vectors in the set,
A first identifying step of identifying a preliminary predicted current frame by assigning each pixel value in the previous frame corresponding to one of the pixels in the current frame as the one pixel value in the current frame; (E) finding a collective error region by identifying a difference between the current frame and the preliminary predicted current frame;
Collective error area selection process, (f) 1 from the pixels included in each of the collective error areas
A pixel selection process of selecting two pixels, and (g) a third process from the collective error region to the selected pixel.
A third motion vector selection step of finding a set of motion vectors; and (h) using the first set of motion vectors and the third set of motion vectors, selecting a first motion vector for all pixels included in the current frame. A fourth motion vector generating process for generating four sets of motion vectors, and (i) through one of the fourth set of motion vectors,
A second identifying step of identifying the predicted current frame by assigning a pixel value of each of the previous frames corresponding to one of the pixels of the current frame as the one pixel value of the current frame; A video signal encoding method comprising:
【請求項7】 前記過程(c)が、 (c1)前記第1セットの動きベクトルを、前記前フレ
ームにおける選択された画素に対応する前記現フレーム
における画素への前記第2セットの動きベクトルの一部
分として割り当てる、第1割当過程と、 (c2)前記第2セットの動きベクトルの一部分に含ま
れた少なくとも1つの動きベクトルを平均して、前記第
2セットの動きベクトルの残りの部分の動きベクトルを
特定する第3特定過程とを有することを特徴とする請求
項6に記載の映像信号符号化方法。
7. The step (c) comprises: (c1) converting the first set of motion vectors to a pixel in the current frame corresponding to a selected pixel in the previous frame of the second set of motion vectors. (C2) averaging at least one motion vector included in a part of the second set of motion vectors, and averaging at least one motion vector of the remaining part of the second set of motion vectors; 7. The video signal encoding method according to claim 6, further comprising a third specifying step for specifying.
【請求項8】 前記過程(e)が、 (e1)前記現フレームから前記予備的予測済みの現フ
レームを減算して、エラー領域信号を発生する減算過程
と、 (e2)前記エラー領域信号を絶対値化する絶対値化過
程と、 (e3)前記絶対化されたエラー信号をフィルタリング
するフィルタ過程と、 (e4)前記フィルタリングされた絶対値化されたエラ
ー信号をウインドウイングして、前記集団エラー領域信
号を発生するウインドウ過程とを有することを特徴とす
る請求項6に記載の映像信号符号化方法。
8. The step (e) includes: (e1) a subtraction step of subtracting the preliminary predicted current frame from the current frame to generate an error region signal; and (e2) generating the error region signal. An absolute value conversion step of converting to an absolute value; (e3) a filtering step of filtering the absoluteized error signal; and (e4) a windowing of the filtered absolute valued error signal to generate the collective error. 7. The video signal encoding method according to claim 6, further comprising a window process for generating a region signal.
【請求項9】 前記過程(g)が、 (g1)前記各々の集団エラー領域に含まれた各々のエ
ラー画素値の大きさによって、前記集団エラー領域の各
々を2つ以上のサブ領域に分ける分割過程と、 (g2)前記サブ領域の各々へのサブ領域動きベクトル
を捜し出して、サブ領域動きベクトルを発生するサブ領
域動きベクトル発生過程と、 (g3)前記サブ領域動きベクトルから1つの動きベク
トルを選択して、第3セットの動きベクトルにおける各
々の動きベクトルを提供する、動きベクトル提供過程と
を有することを特徴とする請求項6に記載の映像信号符
号化方法。
9. The step (g) includes: (g1) dividing each of the collective error regions into two or more sub-regions according to the size of each error pixel value included in each of the collective error regions. A division process, (g2) a sub-region motion vector generation process for searching for a sub-region motion vector for each of the sub-regions, and generating a sub-region motion vector, and (g3) one motion vector from the sub-region motion vector And a motion vector providing step of providing each motion vector in the third set of motion vectors, the video signal encoding method according to claim 6.
【請求項10】 前記過程(h)が、 (h1)前記第1セットの動きベクトルと前記第3セッ
トの動きベクトルを、前記第4セットの動きベクトルの
一部分として割当てる第2割当過程と、 (h2)前記第4セットの動きベクトルの一部分に含ま
れた少なくとも1つの動きベクトルを平均して、前記第
4セットの残りの部分の動きベクトルを特定する第4特
定過程とを有することを特徴とする請求項9に記載の映
像信号符号化方法。
10. The step (h) includes: (h1) a second allocation step of allocating the first set of motion vectors and the third set of motion vectors as a part of the fourth set of motion vectors; h2) averaging at least one motion vector included in a part of the fourth set of motion vectors to specify a motion vector of the remaining part of the fourth set. The video signal encoding method according to claim 9.
JP3164995A 1995-01-27 1995-01-27 Apparatus and method for video signal coding Pending JPH08205179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3164995A JPH08205179A (en) 1995-01-27 1995-01-27 Apparatus and method for video signal coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3164995A JPH08205179A (en) 1995-01-27 1995-01-27 Apparatus and method for video signal coding

Publications (1)

Publication Number Publication Date
JPH08205179A true JPH08205179A (en) 1996-08-09

Family

ID=12337035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3164995A Pending JPH08205179A (en) 1995-01-27 1995-01-27 Apparatus and method for video signal coding

Country Status (1)

Country Link
JP (1) JPH08205179A (en)

Similar Documents

Publication Publication Date Title
US5689306A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
KR0171146B1 (en) Feature point based motion vectors detecting apparatus
KR0171118B1 (en) Apparatus for encoding video signal
US5612743A (en) Method for encoding a video signal using feature point based motion estimation
US5751362A (en) Apparatus for encoding a video signal using feature point based motion estimation
US5546129A (en) Method for encoding a video signal using feature point based motion estimation
US5760846A (en) Apparatus for estimating motion vectors for feature points of a video signal
US5668608A (en) Motion vector estimation method and apparatus for use in an image signal encoding system
US5619281A (en) Method and apparatus for detecting motion vectors in a frame decimating video encoder
US5673339A (en) Method for encoding a video signal using feature point based motion estimation
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
JP3067607B2 (en) Video signal encoding device
EP0721284B1 (en) An image processing system using pixel-by-pixel motion estimation and frame decimation
US5627591A (en) Image processing system using a pixel-by-pixel motion estimation based on feature points
US5731851A (en) Method for determining feature points based on hierarchical block searching technique
JP3681784B2 (en) Video signal encoding device
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
US5625417A (en) Image processing system using a feature point-based motion estimation
US6061401A (en) Method and apparatus for selectively encoding/decoding a video signal
KR0174455B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH08205179A (en) Apparatus and method for video signal coding
KR0174956B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH08205176A (en) Apparatus and method for video signal coding
KR0178228B1 (en) Enhanced movingvector estimation method and apparatus for image signal decoding system
EP0720381A1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction