JP3725232B2 - Motion vector determination method - Google Patents

Motion vector determination method Download PDF

Info

Publication number
JP3725232B2
JP3725232B2 JP5942296A JP5942296A JP3725232B2 JP 3725232 B2 JP3725232 B2 JP 3725232B2 JP 5942296 A JP5942296 A JP 5942296A JP 5942296 A JP5942296 A JP 5942296A JP 3725232 B2 JP3725232 B2 JP 3725232B2
Authority
JP
Japan
Prior art keywords
motion vector
search
block
search block
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5942296A
Other languages
Japanese (ja)
Other versions
JPH08265768A (en
Inventor
海黙 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WiniaDaewoo Co Ltd
Original Assignee
Daewoo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daewoo Electronics Co Ltd filed Critical Daewoo Electronics Co Ltd
Publication of JPH08265768A publication Critical patent/JPH08265768A/en
Application granted granted Critical
Publication of JP3725232B2 publication Critical patent/JP3725232B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation

Description

【0001】
【発明の属する技術分野】
本発明は映像符号化システムに用いるための動き補償方法に関し、特に、復号化した映像信号に現れるブロッキング現象を除去し得る改善された動きベクトル決定方法に関するものである。
【0002】
【従来の技術】
周知のように、ディジタル化したビデオ信号を伝送する場合には、アナログで伝送する場合よりも高精度を維持することができる。一連の映像「フレーム」から成る映像信号をディジタル形態で表現する場合、特に、高精細度テレビジョン(HDTV)システムの場合には相当量のデータが発生する。しかし、通常の伝送チャネルの有効周波数帯域幅は制限されているため、相当量のディジタルデータを伝送するためにはデータ量を圧縮または減らす必要がある。多様な圧縮技法のうち、統計的符号化技法と時間的及び空間的圧縮技法とを組合わせたハイブリッド符号化技法が最も効果的であることが知られている。
【0003】
大部分のハイブリッド符号化技法は、動き補償DPCM(差分パルス符号変調),2次元DCT(離散コサイン変換),DCT係数の量子化及びVLC(可変調符号化)を用いる。動き補償されたDPCMは現フレームと前フレームとの間の物体の動きを推定し、物体の動きによって現フレームを予測して、現フレームと予測値との間の差を表す差分信号を生成する。
【0004】
動き補償されたDPCMデータのように映像データ間の空間的冗長性を減らすか除去する2次元DCTは、ディジタル映像データのブロック、例えば、8x8画素のブロックを一組の変換係数データに変換する。
【0005】
詳述すれば、動き補償DPCMにおいては、現フレームと前フレームとの間にて推定した物体の動きによって、現フレームを前フレームから予測する。推定した動きは前フレームと現フレームとの間の画素の変位を表す2次元の動きベクトルで表すことができる。
【0006】
物体の変位を推定する方法は幾つか提案されており、一般にこれらの方法は2つに類別することができる。その1つは画素逐次方式であり、もう1つはブロックマッチング方式である。本発明はブロックマッチング方式に関連するものである。
【0007】
ブロックマッチング方式においては、現フレームを複数の探索ブロックに分割する。探索ブロックの大きさは8x8から32x32の範囲まで多様である。現フレーム内の探索ブロックの動きベクトルを決定するためには、現フレームの探索ブロックと前フレーム内でより大きい探索領域に含まれている複数の同一の大きさの候補ブロックの各々との類似性計算を行う。平均絶対誤差(MAE)または平均2乗誤差(MSE)のような誤差関数は、現フレームの探索ブロックと探索領域内の各候補ブロックとの間の類似性計算を行なうのに用いられる。動きベクトルは、最小誤差関数を生成する探索ブロックと候補ブロックとの間の変位を表す。
【0008】
符号化映像データは通常の伝送チャネルを経て、映像信号復号化システムに含まれている映像信号復号化器へ伝送され、この映像信号復号化器は符号化処理とは逆の処理を行って、元の映像データを再構成する。しかし、この再構成した映像データでは、受信段にてブロックの境界線が目立つようになるブロッキング現象が起こる。このようなブロッキング現象はフレームをブロック単位で符号化するために発生する。
【0009】
【発明が解決しようとする課題】
従って、本発明の主な目的は、映像信号のブロック境界で発生するブロッキング現象を除去して、システムにより処理される映像の画質を改善し得る、映像符号化システムで用いるための動き補償用の動きベクトル決定方法を提供することにある。
【0010】
【課題を解決するための手段】
上記の目的を達成するために、本発明は、ビデオ信号の現フレームと前フレームとの間で最適の動きベクトルを決定し、現フレームは複数の同一の大きさの探索ブロックに分割され、前フレームは対応する個数の探索領域を含み、前記各探索領域は複数の同一の大きさの候補ブロックを有する最適動きベクトル決定方法において、当該方法が、ブロックマッチング方式により現フレーム内の各探索ブロックの動きベクトルを検出する第1過程と、探索ブロックを探索ブロックの中心に位置する中心領域と中心領域の外面に位置する境界領域に分割する第2過程と、探索ブロックの動きベクトルをその中心領域の最適動きベクトルとして決定する第3過程と、探索ブロックとこれに隣接した1つ以上の探索ブロックの動きベクトルを用いて、探索ブロックの境界領域の複数の最適動きベクトルを決定する第4過程とを含むことを特徴とする動きベクトル決定方法にある。
【0011】
【発明の実施の形態】
以下、本発明の好適実施について図面を参照しながら詳細に説明する。
図1は、本発明による動き補償装置150を含むディジタルビデオ信号圧縮用の符号化装置10のブロック図を示す。ここで、ディジタルビデオ信号はビデオ信号の複数フレームを含むものとする。
【0012】
符号化装置10は第1フレームメモリ100、減算器102、映像信号符号器105、エントロピー符号器107、映像信号復号器113、加算器115、第2フレームメモリ124及び動き補償装置150を備えている。
【0013】
入力ビデオ信号中に含まれる現フレームは、ラインL9を経て減算器102及びラインL10を経て動き補償器150に連結されている第1フレームメモリ100に格納される。格納された現フレームはブロック単位で読み出されるが、ここで、ブロックの大きさは8x8乃至32x32画素の範囲まで多様である。
【0014】
本発明による動き補償装置150は、まず、通常のブロックマッチング方式を用いて現フレームの各探索ブロックに対する動きベクトルを検出し、この動きベクトルは現フレームに含まれる各探索ブロックと第2フレームメモリ124から供給される前フレーム内の対応する探索領域に含まれる最も類似している候補ブロックとの間の空間的変位を表す。また、動き補償装置150は探索ブロックとこれに隣接する探索ブロックの動きベクトルを用いて、各探索ブロックに含まれている画素の最適動きベクトルを決定する。その後、動き補償装置150は決定した最適の動きベクトルを用いて、第2フレームメモリ124から前フレームの対応する画素値を読出して、予測した現フレームを供給する。探索ブロックの動きベクトルはラインL20を経てエントロピー符号器107へ、また予測した現フレーム信号はラインL30を経て減算器102及び加算器115へ供給される。動き補償装置150の詳細な動作は、図2及び図3を参照して後に詳述する。
【0015】
動き補償装置150から供給される予測された現フレーム信号は、減算器102においては、ラインL9を経て供給される現フレーム信号から差引かれ、結果データ、即ち、現フレームの画素値と予測した現フレームの画素値との間の差を表す誤差信号が、映像信号符号器105へ供給され、ここで、誤差信号は例えば、DCT及び公知の量子化方法を用いて量子化変換係数に符号化される。
【0016】
その後、量子化変換係数はエントロピー符号器107及び映像信号復号器113へ伝送される。映像信号復号器113は逆量子化及び逆離散コサイン変換を用いて、映像信号符号器105から供給される量子化変換係数を再構成誤差信号に変換する。加算器115においては、映像信号復号器113から供給される再構成誤差信号と動き補償装置150から供給される予測した現フレーム信号とが合成され、これから得られる再構成された現フレーム信号が第2フレームメモリ124に前フレーム信号として格納される。
【0017】
エントロピー符号器107においては、映像信号符号器105から供給される量子化変換係数と動き補償器150からラインL20を経て供給される動きベクトルとが可変長符号化により共に符号化される。符号化された信号は送信機( 図示せず) を経て伝送される。
【0018】
図2には、図1に示した動き補償装置150を詳細に示してある。動き補償装置150は動き推定器209、メモリ210、領域形成ブロック213、最適動きベクトル決定ブロック216及び動き補償器219を備えている。
【0019】
まず、動き推定器209は、第1フレームメモリ100からの現フレーム信号及び第2フレームメモリ124からの前フレーム信号を検索し、通常のブロックマッチング技法を用いて、現フレームの各探索ブロックと前フレームにおける最も類似しているブロックとの間の空間的変位を表す動きベクトルを検出する。動き推定器209からの各探索領域の動きベクトルは図1に示したエントロピー符号器107及びメモリ210へ供給され、メモリ210には現フレームの探索ブロックの動きベクトルが格納される。
【0020】
この時、現フレーム信号は領域形成ブロック213へも供給され、ここで、各探索ブロックは境界領域と中心領域とに分割される。図3には、本発明の好適実施例によって領域形成ブロック213にて行なう領域形成法を示してある。図3に示すように、各探索ブロック、例えば、16x16画素の探索ブロックSB5は、この探索ブロックSB5の中心に位置する例えば12x12画素の中心領域CR5と、この中心領域CR5の外面に沿って位置する画素からなる境界領域とに分割され、境界領域は4つのエッジ領域ER5ー1乃至ER5ー4及び4つのコーナ領域CR5ー1乃至CR5ー4を含み、各エッジ領域は12x2画素から構成され、各コーナ領域は2x2画素から構成される。現フレームにおける中心、エッジ及びコーナ領域の位置を表す領域情報は最適動きベクトル決定ブロック316へ供給される。
【0021】
最適動きベクトル決定ブロック216は、メモリ210から現フレームの探索ブロックの動きベクトルを受け取って、領域形成ブロック213から供給された領域情報に応じて、各探索ブロックとこれに隣接する探索ブロックの動きベクトルを用いて各探索ブロックの領域の最適動きベクトルを決定する。詳述すれば、2つの探索ブロック(例えば、SB5とSB2)の間の境界に沿って位置するエッジ領域(例えば、ER5ー1)の最適動きベクトルは2つの探索ブロック、即ち、SB5とSB2の動きベクトルの平均をとることによって得られる。同様に、エッジ領域ER5ー2乃至ER5ー4の最適動きベクトルは、2つの探索ブロックSB5とSB4、SB5とSB6及びSB5とSB8の動きベクトルのそれぞれ平均をとることによって決定される。一方、コーナ領域の最適動きベクトルはコーナ領域を含んでいる探索ブロックの動きベクトルとコーナ領域で探索ブロックに隣接している探索ブロックの動きベクトルの平均をとることによって得られる。例えば、コーナ領域CR5ー1の最適動きベクトルは探索ブロックSB1、SB2、SB4及びSB5の動きベクトルの平均をとることによって得られる。また、コーナ領域CR5ー2乃至CR5ー4の最適動きベクトルは探索ブロックSB2乃至SB9の動きベクトルに基いて決定される。中心領域(例えば、CR5)の最適動きベクトルと同様に、中心領域CR5を含んでいる探索ブロック(例えば、SB5)の動きベクトルはその最適動きベクトルとして割り当てられる。
【0022】
本発明の前述した方法において、互いに隣接するコーナ領域(例えば、CR1ー1、CR2ー1、CR4ー1及びCR5ー1)はこれらのコーナ領域を含む探索ブロック(例えば、SB1、SB2、SB4及びSB5)の動きベクトルの平均をとることによって決定された同一の最適動きベクトルを有し、互いに隣接するエッジ領域(例えば、ER2ー1及びER5ー1)は、これらのエッジ領域を含む探索ブロック(例えば、SB2及びSB5)の動きベクトルの平均をとることによって計算した最適動きベクトルを共有する。
【0023】
現フレームの各探索ブロックの最適動きベクトルは、動き補償器219へ供給される。
動き補償器219は最適動きベクトル決定ブロック216から供給される最適動きベクトルを用いて、図1に示された第2フレームメモリ124から前フレームの対応する各画素値を読出して、予測した現フレーム信号をラインL30を経て図1に示した減算器102及び加算器115へ供給する。
【0024】
本発明による符号化装置10に対応するディジタルビデオ信号復号化装置においては、符号化装置10から伝送された動きベクトルに基いて、領域形成ブロック213及び最適動きベクトル決定ブロックに関連して説明したことと同様な方法で最適動きベクトルを再構成することによって、誤差信号及び動きベクトルを表す伝送符号化信号に基づく現フレーム信号の再構成を可能とする。
【0025】
上記において、本発明の特定の実施例について説明したが、本発明に記載した特許請求の範囲を逸脱することなく、当業者は種々の変更を加え得ることは勿論である。
【0026】
【発明の効果】
従って、本発明によれば、映像信号のブロック境界で発生するブロッキング現象を除去して、システムにより処理される映像の画質を改善することができる。
【図面の簡単な説明】
【図1】本発明の動き補償装置を用いた映像信号符号化システムのブロック図である。
【図2】図1に示された動き補償装置の詳細ブロック図である。
【図3】本発明の動き補償装置で行われる境界領域形成を説明するための図である。
【符号の説明】
100 第1フレームメモリ
102 差分器
105 映像信号符号器
107 エントロピー符号器
113 映像信号復号器
115 加算器
124 第2フレームメモリ
150 動き補償装置
209 動き推定器
210 メモリ
213 領域形成ブロック
216 最適動きベクトル決定ブロック
219 動き補償器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a motion compensation method for use in a video encoding system, and more particularly to an improved motion vector determination method capable of removing a blocking phenomenon appearing in a decoded video signal.
[0002]
[Prior art]
As is well known, when transmitting a digitized video signal, higher accuracy can be maintained than when transmitting it in analog. When a video signal composed of a series of video “frames” is expressed in digital form, a considerable amount of data is generated, particularly in the case of a high definition television (HDTV) system. However, since the effective frequency bandwidth of a normal transmission channel is limited, it is necessary to compress or reduce the amount of data in order to transmit a considerable amount of digital data. Of the various compression techniques, a hybrid coding technique combining a statistical coding technique with temporal and spatial compression techniques is known to be most effective.
[0003]
Most hybrid coding techniques use motion compensated DPCM (Differential Pulse Code Modulation), two-dimensional DCT (Discrete Cosine Transform), DCT coefficient quantization and VLC (Modulatable Coding). Motion compensated DPCM estimates the motion of the object between the current frame and the previous frame, predicts the current frame according to the motion of the object, and generates a difference signal that represents the difference between the current frame and the predicted value .
[0004]
A two-dimensional DCT that reduces or eliminates spatial redundancy between video data, such as motion compensated DPCM data, converts a block of digital video data, eg, an 8 × 8 pixel block, into a set of transform coefficient data.
[0005]
More specifically, in motion compensated DPCM, the current frame is predicted from the previous frame based on the motion of the object estimated between the current frame and the previous frame. The estimated motion can be represented by a two-dimensional motion vector representing the displacement of the pixel between the previous frame and the current frame.
[0006]
Several methods for estimating the displacement of an object have been proposed. Generally, these methods can be classified into two methods. One is a pixel sequential method, and the other is a block matching method. The present invention relates to the block matching method.
[0007]
In the block matching method, the current frame is divided into a plurality of search blocks. Search block sizes vary from 8x8 to 32x32. In order to determine the motion vector of the search block in the current frame, the similarity between the search block in the current frame and each of a plurality of candidate blocks of the same size included in a larger search area in the previous frame Perform the calculation. An error function such as mean absolute error (MAE) or mean square error (MSE) is used to perform similarity calculations between the search block of the current frame and each candidate block in the search area. The motion vector represents the displacement between the search block that generates the minimum error function and the candidate block.
[0008]
The encoded video data is transmitted through a normal transmission channel to a video signal decoder included in the video signal decoding system, and this video signal decoder performs a process reverse to the encoding process, Reconstruct the original video data. However, in this reconstructed video data, a blocking phenomenon occurs in which a block boundary line becomes noticeable at the reception stage. Such a blocking phenomenon occurs because a frame is encoded in units of blocks.
[0009]
[Problems to be solved by the invention]
Therefore, the main object of the present invention is to eliminate motion blocking at the video signal block boundary and improve the image quality of the video processed by the system for motion compensation for use in a video coding system. It is to provide a motion vector determination method.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention determines an optimal motion vector between a current frame and a previous frame of a video signal, and the current frame is divided into a plurality of search blocks of the same size. A frame includes a corresponding number of search regions, and each search region has a plurality of candidate blocks of the same size. In the optimal motion vector determination method, the method uses a block matching method for each search block in the current frame. A first step of detecting a motion vector, a second step of dividing a search block into a central region located in the center of the search block and a boundary region located on the outer surface of the central region, and a motion vector of the search block in the central region Using the third process of determining the optimum motion vector and the motion vector of the search block and one or more search blocks adjacent thereto, the search is performed. In motion vector determination method which is characterized in that it comprises a fourth step of determining a plurality of optimal motion vectors of the block in the border region.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows a block diagram of a coding device 10 for digital video signal compression including a motion compensation device 150 according to the present invention. Here, it is assumed that the digital video signal includes a plurality of frames of the video signal.
[0012]
The encoding device 10 includes a first frame memory 100, a subtracter 102, a video signal encoder 105, an entropy encoder 107, a video signal decoder 113, an adder 115, a second frame memory 124, and a motion compensation device 150. .
[0013]
The current frame included in the input video signal is stored in the first frame memory 100 connected to the subtractor 102 via the line L9 and the motion compensator 150 via the line L10. The stored current frame is read out in units of blocks. Here, the size of the blocks varies from 8 × 8 to 32 × 32 pixels.
[0014]
The motion compensator 150 according to the present invention first detects a motion vector for each search block of the current frame using a normal block matching method, and the motion vector is detected from each search block included in the current frame and the second frame memory 124. Represents the spatial displacement between the most similar candidate blocks included in the corresponding search region in the previous frame supplied from the. In addition, the motion compensation device 150 determines an optimal motion vector of a pixel included in each search block using the motion vector of the search block and the search block adjacent thereto. Thereafter, the motion compensator 150 reads the corresponding pixel value of the previous frame from the second frame memory 124 using the determined optimum motion vector, and supplies the predicted current frame. The motion vector of the search block is supplied to the entropy encoder 107 via the line L20, and the predicted current frame signal is supplied to the subtractor 102 and the adder 115 via the line L30. The detailed operation of the motion compensation device 150 will be described in detail later with reference to FIGS.
[0015]
The predicted current frame signal supplied from the motion compensator 150 is subtracted from the current frame signal supplied via the line L9 in the subtractor 102, and the result data, that is, the current value predicted as the pixel value of the current frame. An error signal representing the difference between the pixel values of the frame is supplied to the video signal encoder 105, where the error signal is encoded into quantized transform coefficients using, for example, DCT and known quantization methods. The
[0016]
Thereafter, the quantized transform coefficients are transmitted to the entropy encoder 107 and the video signal decoder 113. The video signal decoder 113 converts the quantized transform coefficient supplied from the video signal encoder 105 into a reconstructed error signal using inverse quantization and inverse discrete cosine transform. In the adder 115, the reconstructed error signal supplied from the video signal decoder 113 and the predicted current frame signal supplied from the motion compensator 150 are combined, and the reconstructed current frame signal obtained therefrom is the first. It is stored in the 2-frame memory 124 as a previous frame signal.
[0017]
In the entropy encoder 107, the quantized transform coefficient supplied from the video signal encoder 105 and the motion vector supplied from the motion compensator 150 via the line L20 are encoded together by variable length encoding. The encoded signal is transmitted through a transmitter (not shown).
[0018]
FIG. 2 shows the motion compensation device 150 shown in FIG. 1 in detail. The motion compensator 150 includes a motion estimator 209, a memory 210, a region forming block 213, an optimal motion vector determination block 216, and a motion compensator 219.
[0019]
First, the motion estimator 209 searches the current frame signal from the first frame memory 100 and the previous frame signal from the second frame memory 124 and uses each block in the current frame and the previous frame signal using a normal block matching technique. A motion vector representing the spatial displacement between the most similar blocks in the frame is detected. The motion vector of each search region from the motion estimator 209 is supplied to the entropy encoder 107 and the memory 210 shown in FIG. 1, and the motion vector of the search block of the current frame is stored in the memory 210.
[0020]
At this time, the current frame signal is also supplied to the area forming block 213, where each search block is divided into a boundary area and a center area. FIG. 3 illustrates a region formation method performed in region formation block 213 in accordance with a preferred embodiment of the present invention. As shown in FIG. 3, each search block, for example, a search block SB5 of 16 × 16 pixels, is located along the outer surface of the central region CR5 and a central region CR5 of 12 × 12 pixels located at the center of the search block SB5 The boundary area is divided into pixel boundary areas, and the boundary areas include four edge areas ER5-1 to ER5-4 and four corner areas CR5-1 to CR5-4. Each edge area is composed of 12 × 2 pixels, The corner area is composed of 2 × 2 pixels. Region information representing the position of the center, edge and corner regions in the current frame is provided to the optimal motion vector determination block 316.
[0021]
The optimum motion vector determination block 216 receives the motion vector of the search block of the current frame from the memory 210, and according to the region information supplied from the region formation block 213, the motion vector of each search block and the search block adjacent thereto. Is used to determine the optimum motion vector for each search block region. More specifically, the optimal motion vector of an edge region (eg, ER5-1) located along the boundary between two search blocks (eg, SB5 and SB2) has two search blocks, ie, SB5 and SB2. It is obtained by taking the average of motion vectors. Similarly, the optimum motion vectors of the edge regions ER5-2 to ER5-4 are determined by taking the average of the motion vectors of the two search blocks SB5 and SB4, SB5 and SB6, and SB5 and SB8, respectively. On the other hand, the optimum motion vector of the corner area is obtained by taking the average of the motion vector of the search block including the corner area and the motion vector of the search block adjacent to the search block in the corner area. For example, the optimal motion vector of the corner area CR5-1 is obtained by averaging the motion vectors of the search blocks SB1, SB2, SB4, and SB5. Further, the optimum motion vectors of the corner areas CR5-2 to CR5-4 are determined based on the motion vectors of the search blocks SB2 to SB9. Similar to the optimal motion vector of the central region (eg, CR5), the motion vector of the search block (eg, SB5) including the central region CR5 is assigned as the optimal motion vector.
[0022]
In the above-described method of the present invention, adjacent corner regions (eg, CR1-1, CR2-1, CR4-1, and CR5-1) are searched blocks including these corner regions (eg, SB1, SB2, SB4, and Edge regions (e.g., ER2-1 and ER5-1) that have the same optimal motion vector determined by taking the average of the motion vectors of SB5), and that are adjacent to each other (for example, ER2-1 and ER5-1) For example, the optimal motion vector calculated by averaging the motion vectors of SB2 and SB5) is shared.
[0023]
The optimal motion vector of each search block in the current frame is supplied to the motion compensator 219.
The motion compensator 219 uses the optimal motion vector supplied from the optimal motion vector determination block 216 to read each corresponding pixel value of the previous frame from the second frame memory 124 shown in FIG. The signal is supplied to the subtracter 102 and the adder 115 shown in FIG.
[0024]
In the digital video signal decoding apparatus corresponding to the encoding apparatus 10 according to the present invention, the description has been made in relation to the region forming block 213 and the optimum motion vector determination block based on the motion vector transmitted from the encoding apparatus 10. By reconstructing the optimal motion vector in the same manner as described above, it is possible to reconstruct the current frame signal based on the transmission signal representing the error signal and the motion vector.
[0025]
While specific embodiments of the invention have been described above, it will be appreciated by those skilled in the art that various modifications may be made without departing from the scope of the claims set forth in the invention.
[0026]
【The invention's effect】
Therefore, according to the present invention, it is possible to remove the blocking phenomenon that occurs at the block boundary of the video signal and improve the image quality of the video processed by the system.
[Brief description of the drawings]
FIG. 1 is a block diagram of a video signal encoding system using a motion compensation apparatus of the present invention.
FIG. 2 is a detailed block diagram of the motion compensation device shown in FIG.
FIG. 3 is a diagram for explaining boundary region formation performed in the motion compensation apparatus of the present invention.
[Explanation of symbols]
100 first frame memory 102 differentiator 105 video signal encoder 107 entropy encoder 113 video signal decoder 115 adder 124 second frame memory 150 motion compensator 209 motion estimator 210 memory 213 region forming block 216 optimum motion vector determining block 219 Motion compensator

Claims (1)

ビデオ信号の現フレームと前フレームとの間で最適の動きベクトルを決定し、現フレームは複数の同一の大きさの探索ブロックに分割され、前フレームは対応する個数の探索領域を含み、前記各探索領域は複数の同一の大きさの候補ブロックを有する最適動きベクトル決定方法において、当該方法が:
ブロックマッチング方式により現フレーム内の各探索ブロックの動きベクトルを検出する第1過程と;
探索ブロックを探索ブロックの中心に位置する中心領域と中心領域の外面に位置する境界領域に分割する第2過程と;
探索ブロックの動きベクトルをその中心領域の最適動きベクトルとして決定する第3過程と;
探索ブロックとこれに隣接した1つ以上の探索ブロックの動きベクトルを用いて、探索ブロックの境界領域の最適動きベクトルを決定する第4過程と;
を含む動きベクトル決定方法であって、
前記探索ブロックの境界領域が4つのエッジ領域と4つのコーナ領域とを含み、各コーナ領域は探索ブロックのコーナに位置し、各エッジ領域は2つのコーナ領域の間の探索ブロックのエッジに沿って位置し、前記各コーナ領域は3つの隣接探索ブロックを有し、前記各エッジ領域は1つの隣接探索ブロックを有し、
前記各コーナ領域の最適動きベクトルは、探索領域とこれに隣接した3つの探索ブロックの4つの動きベクトルの平均をとることによって決定し、前記各エッジ領域の最適動きベクトルは探索ブロックとこれに隣接した1つの探索ブロックの2つの動きベクトルの平均をとることによって決定することを特徴とする動きベクトル決定方法。
An optimal motion vector is determined between the current frame and the previous frame of the video signal, the current frame is divided into a plurality of search blocks of the same size, and the previous frame includes a corresponding number of search areas, In the optimal motion vector determination method, the search region has a plurality of candidate blocks of the same size, the method:
A first step of detecting a motion vector of each search block in the current frame by a block matching method;
A second process of dividing the search block into a central area located at the center of the search block and a boundary area located on the outer surface of the central area;
A third step of determining the motion vector of the search block as the optimal motion vector of its central region;
Using the motion vector of the search block and one or more search blocks adjacent thereto, a fourth step of determining the optimum motion vector in the boundary area of the search block;
The A including motion vector determination method,
The boundary area of the search block includes four edge areas and four corner areas, each corner area is located at a corner of the search block, and each edge area is along an edge of the search block between the two corner areas. Each corner region has three neighboring search blocks, and each edge region has one neighboring search block,
The optimum motion vector of each corner area is determined by taking the average of four motion vectors of the search area and the three search blocks adjacent thereto, and the optimum motion vector of each edge area is adjacent to the search block. And determining a motion vector by averaging the two motion vectors of one search block .
JP5942296A 1995-03-15 1996-03-15 Motion vector determination method Expired - Lifetime JP3725232B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1019950005307A KR100198986B1 (en) 1995-03-15 1995-03-15 Motion compensation apparatus for improving a blocking effect
KR95-5307 1995-03-15

Publications (2)

Publication Number Publication Date
JPH08265768A JPH08265768A (en) 1996-10-11
JP3725232B2 true JP3725232B2 (en) 2005-12-07

Family

ID=19409801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5942296A Expired - Lifetime JP3725232B2 (en) 1995-03-15 1996-03-15 Motion vector determination method

Country Status (3)

Country Link
JP (1) JP3725232B2 (en)
KR (1) KR100198986B1 (en)
CN (1) CN1078795C (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101141651B (en) 2002-11-25 2010-11-10 松下电器产业株式会社 Motion compensation method, picture coding method and picture decoding method
KR100579542B1 (en) * 2003-07-29 2006-05-15 삼성전자주식회사 Motion estimation apparatus considering correlation between blocks, and method of the same
EP1592259B1 (en) * 2004-04-30 2011-10-05 Panasonic Corporation Processing auxiliary data of video sequences
CN101137065A (en) * 2006-09-01 2008-03-05 华为技术有限公司 Image coding method, decoding method, encoder, decoder, coding/decoding method and encoder/decoder
CN101272498B (en) * 2008-05-14 2010-06-16 杭州华三通信技术有限公司 Video encoding method and device
EP4254956A3 (en) 2011-03-09 2023-12-20 Kabushiki Kaisha Toshiba Video image encoding method and video image decoding method
JP2014183544A (en) * 2013-03-21 2014-09-29 Fujitsu Ltd Image processing unit and image processing method

Also Published As

Publication number Publication date
KR960036681A (en) 1996-10-28
KR100198986B1 (en) 1999-06-15
JPH08265768A (en) 1996-10-11
CN1137211A (en) 1996-12-04
CN1078795C (en) 2002-01-30

Similar Documents

Publication Publication Date Title
US6414992B1 (en) Optimal encoding of motion compensated video
JP3856262B2 (en) Motion compensation encoding apparatus, motion compensation encoding method, and motion compensation code recording medium
US5251028A (en) Apparatus for reducing quantization artifacts in an interframe hybrid coding system with motion compensation
US5587741A (en) Apparatus and method for detecting motion vectors to half-pixel accuracy
JP3904248B2 (en) Method and circuit for estimating motion between images consisting of interlaced fields
EP0634874B1 (en) Determination of motion vectors in a frame decimating video encoder
JP3678481B2 (en) Video data post-processing method
JPH0723422A (en) Video signal band compression equipment of digital vtr
JPH0955945A (en) Movement vector specifying method and device
KR0181031B1 (en) Apparatus for compensating edge in the motion compensated interpolation
US5614954A (en) Motion compensation apparatus for use in an image encoding system
US5654761A (en) Image processing system using pixel-by-pixel motion estimation and frame decimation
US5506622A (en) Block matching type motion vector determination using correlation between error signals
US5790207A (en) Motion compensation method for use in an image encoding system
JP3725232B2 (en) Motion vector determination method
JPH0974569A (en) Method and apparatus for determining optimum movement vector
KR19980017213A (en) Image Decoding System with Compensation Function for Degraded Image
JP3681784B2 (en) Video signal encoding device
KR0178221B1 (en) Improved pattern vector encoding system using average value of pixels
US6061401A (en) Method and apparatus for selectively encoding/decoding a video signal
EP0720373A1 (en) Method and apparatus for encoding a video signal using region-based motion vectors
JPH05103313A (en) Method and device for processing picture information
KR100203638B1 (en) Method for estimating motion using half-pixel by half-pixel
JP3104334B2 (en) Image coding device
KR100207397B1 (en) Method and apparatus for estimating motion of image in image encoder

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050921

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080930

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090930

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100930

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100930

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110930

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120930

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120930

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130930

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130930

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130930

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term