JPH07143492A - Video coding method by automatic motion search range adjustment with respect to motion estimation - Google Patents

Video coding method by automatic motion search range adjustment with respect to motion estimation

Info

Publication number
JPH07143492A
JPH07143492A JP28849593A JP28849593A JPH07143492A JP H07143492 A JPH07143492 A JP H07143492A JP 28849593 A JP28849593 A JP 28849593A JP 28849593 A JP28849593 A JP 28849593A JP H07143492 A JPH07143492 A JP H07143492A
Authority
JP
Japan
Prior art keywords
motion
search range
frame
block
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28849593A
Other languages
Japanese (ja)
Inventor
Mei Shien Shien
メイ・シェン シェン
Tan Chiyon Shiyuu
タン・チョン シュー
Chiyaku Jiyuu Rii
ジュー リー・チャク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP28849593A priority Critical patent/JPH07143492A/en
Publication of JPH07143492A publication Critical patent/JPH07143492A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To obtain a video coding method which a motion search range is adjusted according to the magnitude of motion and the processing time is reduced while keeping excellent motion prediction. CONSTITUTION:After all motion vectors are checked, a motion retrieval range to be a base is set based on the magnitude of the motion vectors. A matching block is retrieved within the motion retrieval range to obtain a minimum prediction error. Whether the minimum prediction error is smaller than a threshold is checked, and the motion retrieval range is extended to be adaptive from the base range or unchanged depending on the result of check.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ビデオ信号の圧縮に関
するものであり、特に、動画のモーション推定及び補償
を利用したビデオ・コード化方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to video signal compression, and more particularly to a video coding method using motion estimation and compensation of moving images.

【0002】[0002]

【従来の技術】テレビジョンまたはビデオ信号のデジタ
ル伝送及び記憶は、アナログ信号に比較して、質が高
く、フレキシビリティが大きいので、最近になってます
ます注意を喚起するようになっている。
2. Description of the Prior Art Digital transmission and storage of television or video signals have become more and more attentional these days because of their higher quality and greater flexibility as compared to analog signals.

【0003】デジタル・ビデオ画像は、大量のイメージ
・データを備えており、送信帯域幅は、制限されている
ので、ビデオ信号の符号化技法は、極めて強力であるこ
とが必要とされる。最も効率の良い圧縮システムは、静
止画像処理において実施されるものと同様の空間的相関
を利用するだけでなく、隣接フレーム間の時間的相関も
利用する。空間的相関と時間的相関の両方を考慮したシ
ステムは、ハイブリッド符号化システムとも呼ばれる。
Due to the large amount of image data and the limited transmission bandwidth of digital video images, video signal coding techniques need to be extremely powerful. The most efficient compression systems utilize not only spatial correlation similar to that performed in still image processing, but also temporal correlation between adjacent frames. A system that considers both spatial and temporal correlation is also called a hybrid coding system.

【0004】空間領域における冗長性の除去が、長期間
にわたって実施され、さまざまなタイプの変換方法が試
みられ、DCT(離散的余弦変換)が、効率及び実施の
複雑さの観点から、最良の観点であることが分かった。
DCTは、変換データのエネルギを小領域に圧縮するこ
とが可能であり、従って、元のデータを表すのに必要な
データ量が少なくて済む。
Redundancy removal in the spatial domain has been performed for a long time, various types of transform methods have been tried, and DCT (Discrete Cosine Transform) is the best view in terms of efficiency and implementation complexity. It turned out that
The DCT is capable of compressing the energy of the transformed data into a small region, thus requiring less data to represent the original data.

【0005】時間的冗長の除去は、基本的に、差分符号
化技法を利用して実施される。すなわち、まず、同じビ
デオ・シーケンスの先行フレームから導き出された情報
に基づいて、予測が行われ、実際のフレームと実際のフ
レームの予測との差が送信される。
Removal of temporal redundancies is basically implemented using differential coding techniques. That is, first a prediction is made based on information derived from previous frames of the same video sequence, and the difference between the actual frame and the actual frame prediction is transmitted.

【0006】ビデオ・フレームにおける移動量は、フレ
ームの異なる部分で大幅に異なるので、ビデオ・フレー
ムは、フレームを多くの画素データ・ブロックに分割し
て処理される。フレームの各ブロック毎に、モーション
・ベクトルは、現在フレームの画素データ・ブロックと
先行フレームの画素データ・ブロックを比較することに
よって導き出され、モーション補償は、現在フレームの
ブロック・データと先行フレームの同様のブロック・デ
ータの差を求めることによって実施される。従って、差
分符号化は、フレームに関する各画素データ・ブロック
毎にモーション補償を行うことによって実現される。
Since the amount of movement in a video frame varies significantly in different parts of the frame, the video frame is processed by dividing the frame into many pixel data blocks. For each block of the frame, the motion vector is derived by comparing the pixel data block of the current frame with the pixel data block of the previous frame, and the motion compensation is similar to the block data of the current frame and the previous frame. Is performed by obtaining the difference between the block data of Therefore, differential encoding is achieved by performing motion compensation on each pixel data block for the frame.

【0007】モーション・ベクトルを求めるプロセス
は、モーション推定と呼ばれ、周知のように、モーショ
ン推定の効率が良ければ、優れた予測正確度で、効率の
良いモーション補償が行われることなり、従って、高効
率の符号化システムが得られることになる。
The process of determining a motion vector is called motion estimation, and as is well known, efficient motion estimation leads to efficient motion compensation with excellent prediction accuracy, and A highly efficient coding system will be obtained.

【0008】また、モーション推定の処理時間が短縮さ
れると、該システムの実現が容易になり、該システムの
コストが低下することになる。符号化効率が高く、コス
トの低い良好なシステムは、良好な製品の特徴である。
Further, if the processing time for motion estimation is shortened, the system can be easily realized and the cost of the system can be reduced. A good system with high coding efficiency and low cost is a good product feature.

【0009】[0009]

【発明が解決しようとする課題】現在の圧縮アルゴリズ
ムの場合、同じアルゴリズムを利用して、さまざまなタ
イプのビデオ・シーケンスが符号化されるが、シーケン
スには、モーションの含まれていないものもあり、モー
ションが低速のものもあるが、モーションが極めて高速
のものもある。
Current compression algorithms utilize the same algorithm to encode different types of video sequences, but some sequences do not contain motion. , Some motions are slow, but some motions are extremely fast.

【0010】MPEG(Moving Picture
Expert Group)符号化基準では、探索ウ
インドウによる突き合わせ方法を利用して、先行フレー
ムまたは後続フレームにおける同様の画素データ・ブロ
ックが探索される。探索ウインドウのサイズは探索範囲
と呼ばれる。探索範囲は、シーケンスにおける画像フレ
ームのモーションの内容に関係なく、すなわち、静止で
あろうと、低速モーションであろうと、あるいは、高速
モーションであろうと、フレーム全体、さらに、プロセ
ス全体にわたって、固定(+/−15画素または+/−
30画素)されている。
MPEG (Moving Picture)
The Expert Group coding standard utilizes a search window matching method to search for similar blocks of pixel data in the previous or subsequent frames. The size of the search window is called the search range. The search range is fixed (+/-) irrespective of the motion content of the image frames in the sequence, i.e. whether it is stationary, slow motion or fast motion, over the entire frame and even over the process. -15 pixels or +/-
30 pixels).

【0011】探索範囲が広くなると、探索の実施に必要
な計算量がそれだけ多くなる。探索範囲が狭すぎると、
モーション・ブロックが探索範囲外に位置する可能性が
生じる。
The wider the search range, the more the amount of calculation required to carry out the search. If the search range is too narrow,
There is a possibility that the motion block is located outside the search range.

【0012】固定探索範囲は、モーションの変動度に応
じて、シーケンスにいくつかの問題をもたらすことにな
る、例えば、フレームにおけるモーションが極めて速い
(すなわち、実際のモーション・ベクトル値が大きい)
場合、固定モーション探索範囲は、モーション・ブロッ
クをカバーするのに十分ではなく、モーション補償の効
率が低くなる。図1には、+/−15のモーション探索
範囲では不十分な場合に生じる問題が示されている。
A fixed search range will cause some problems in the sequence depending on the degree of motion variability, eg very fast motion in a frame (ie a large actual motion vector value).
In that case, the fixed motion search range is not sufficient to cover the motion block and the motion compensation becomes less efficient. FIG. 1 shows the problems that occur when the +/− 15 motion search range is insufficient.

【0013】効率の悪い理由は、+/−15のモーショ
ン探索範囲では、先行フレームにおける実整合画素デー
タ・ブロック(図9のA´)を見つけることができない
ので、偽整合画素データ・ブロック(図10のB)が、
Aの実整合ブロックに取って代わるものと受け取られる
ということである。結果として、予測誤差は、極めて大
きくなるので、その符号化は困難になる。さらに、偽整
合ブロックから再構成されるブロックは、現在フレーム
におけるAの実ブロックとは大幅に異なるので、重大な
ひずみが観測される可能性がある。
The reason for the inefficiency is that in the motion search range of +/− 15, the real matching pixel data block (A ′ in FIG. 9) cannot be found in the preceding frame, so that the false matching pixel data block (see FIG. 10 B)
It is to be taken as an alternative to the real matched block of A. As a result, the prediction error is so large that its coding is difficult. Moreover, the block reconstructed from the false matched block is significantly different from the real block of A in the current frame, so significant distortion may be observed.

【0014】一方、フレームにおけるモーションが極め
て遅いか、あるいは、静止状態に近いといえるほどの場
合には、極めて狭いモーション探索範囲で十分である。
+/−15画素の探索ウインドウによるモーション補償
は、多くの不必要な計算時間を浪費することになる。
On the other hand, when the motion in the frame is extremely slow or close to a stationary state, an extremely narrow motion search range is sufficient.
Motion compensation with a search window of +/- 15 pixels would waste a lot of unnecessary computational time.

【0015】図10には、この場合の問題が示されてい
る。Aは、現在ブロックであり、A0´は、現在フレー
ムにおけるAと同じ位置にある、参照フレームにおける
ブロックであり、A´は、Aの整合ブロックである。低
速モーション・シーケンスの場合、A、A´の整合ブロ
ックは、参照フレームにおいて、現在ブロックにおける
Aとほぼ同じ位置にある。すなわち、こうしたシーケン
スの場合、ごく狭い探索範囲で十分であり、もっと広い
固定探索範囲の場合には、多くの処理時間を要すること
になる。
FIG. 10 shows the problem in this case. A is the current block, A 0 ′ is the block in the reference frame at the same position as A in the current frame, and A ′ is the matching block of A. For slow motion sequences, the A, A'matched block is in the reference frame at about the same position as A in the current block. That is, in the case of such a sequence, a very narrow search range is sufficient, and in the case of a wider fixed search range, a lot of processing time is required.

【0016】本発明は、従来のビデオコード化方法のこ
のような課題を考慮し、モーションの大きさに応じて、
モーション探索範囲を調整でき、良好なモーション予測
を保ちながら処理時間を短縮することができるビデオ・
コード化方法を提供することを目的とするものである。
The present invention considers the above problems of the conventional video coding method, and according to the magnitude of the motion,
Video that can adjust the motion search range and reduce processing time while maintaining good motion prediction
It is intended to provide a coding method.

【0017】[0017]

【課題を解決するための手段】本発明は、適応モーショ
ン探索範囲によるモーション推定及び補償を利用したビ
デオ・コード化方法において、入力ビデオ信号の現在フ
レームを画素データの多くのブロックに区画化するステ
ップと、入力ビデオ信号の参照フレームを画素データの
多くのブロックに区画化するステップと、基本モーショ
ン探索範囲内において、前記参照フレームの現在ブロッ
クと最も整合するブロックを探索するステップ(参照フ
レーム内において最も整合するブロックを表したベクト
ルは、モーション・ベクトルと呼ばれる)と、その探索
結果に基づき、前記現在フレーム内における移動状態を
検出するステップと、その検出結果に応じて、高速のモ
ーションがある場合、前記基本モーション探索範囲を適
合する値まで拡大させ、モーションがないか、あるい
は、低速の場合、前記基本モーション探索範囲を適合す
る値まで縮小させるステップと、を、備えたビデオ・コ
ード化方法である。
SUMMARY OF THE INVENTION The present invention, in a video coding method utilizing motion estimation and compensation with adaptive motion search range, partitions a current frame of an input video signal into many blocks of pixel data. Partitioning the reference frame of the input video signal into a number of blocks of pixel data, and searching for a block within the basic motion search range that best matches the current block of the reference frame (most in the reference frame). A vector representing a matching block is called a motion vector), a step of detecting a moving state in the current frame based on the search result, and if there is a high-speed motion according to the detection result, Expand the basic motion search range to the applicable value So, there are no motion, or, for slow, and steps to reduce the basic motion search range to fit values, and a video coding method comprising.

【0018】[0018]

【作用】本発明は、例えば、符号化プロセスにおける低
速または高速のモーション・シーケンスを検出し、それ
ぞれ、低速または高速のモーションに対して、モーショ
ン探索範囲の初期ベースとして、小さい値または中間の
値を割り当てる。次に、このベースは、予測誤差と閾値
を比較して、モーション探索範囲のベース値が、モーシ
ョン推定の効率を最高にするのに十分であるか否か、す
なわち、できるだけ利用する処理時間を短くして、ビデ
オ符号化にとって最良の画質を得るのに十分であるか否
かを調べることによって調整される。
The present invention detects, for example, slow or fast motion sequences in the encoding process and assigns a small or intermediate value as the initial base of the motion search range for slow or fast motion, respectively. assign. Next, the base compares the prediction error with a threshold to determine whether the base value of the motion search range is sufficient to maximize the efficiency of motion estimation, that is, the processing time to be used is shortened as much as possible. Adjusted to see if it is sufficient to obtain the best image quality for video coding.

【0019】[0019]

【実施例】以下に、本発明をその実施例を示す図面に基
づいて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings showing its embodiments.

【0020】本発明は、基準領域においてモーション・
ベクトルの探索が必要になる、異なるモードのモーショ
ン補償にも適合するが、これらには、フレーム・ベース
のモーション補償、フィールド・ベースのモーション補
償、及び、適応フレーム/フィールド・モーション補償
がある。
In the present invention, the motion
It also accommodates different modes of motion compensation that require vector search, but these include frame-based motion compensation, field-based motion compensation, and adaptive frame / field motion compensation.

【0021】図1及び2は、本発明にかかる一実施例の
ビデオ・コード化方法を説明する図である。図1、2に
おいて、ステップS11のMSRは、モーション探索範
囲を表しており、ステップS18のmin_error
は、定モーション探索範囲における全予測誤差のうち最
小の誤差であり、各予測誤差は、現在フレームのブロッ
クと参照フレームのブロックの間における各画素対の絶
対差の合計である。
1 and 2 are diagrams for explaining a video coding method according to an embodiment of the present invention. 1 and 2, MSR in step S11 represents a motion search range, and min_error in step S18.
Is the minimum error of all prediction errors in the constant motion search range, and each prediction error is the sum of absolute differences of each pixel pair between the block of the current frame and the block of the reference frame.

【0022】図2のステップS18における閾値はプリ
セット値であり、ステップS19のMSR_expは、
拡大後におけるモーション探索範囲であり、ステップS
19のExpは、モーション探索範囲の初期ベース値に
基づいて拡大する値であり、ステップS23のT_p
は、符号化の開始前に決定する必要のある時間期間であ
る。
The threshold value in step S18 in FIG. 2 is a preset value, and MSR_exp in step S19 is
It is the motion search range after expansion, and step S
Exp of 19 is a value that is expanded based on the initial base value of the motion search range, and T_p of step S23.
Is the time period that needs to be determined before the start of encoding.

【0023】本実施例における処理は下記に示す2つの
主たるステップがある。
The processing in this embodiment has the following two main steps.

【0024】a)第1のステップは、図2のステップS
23に示す全ての定義時間において、図1のステップS
11、S12、S13に示すフレームの全モーション・
ベクトルをチェックすることによって最小ベース・モー
ション探索範囲を見つけることである(例えば、T_p
=1秒)。
A) The first step is step S in FIG.
At all defined times shown in FIG. 23, step S in FIG.
11, all motions of the frame shown in S12, S13
Finding the minimum base motion search range by checking the vector (eg, T_p
= 1 second).

【0025】詳細な処理は次の通りであり、最初のフレ
ームから開始される。
The detailed processing is as follows, starting from the first frame.

【0026】まず、図1のステップS11及びS12に
おいて、ビデオ・シーケンスの最初のフレームが、空間
的相関を除去するために符号化され、第2のフレームの
各画素データ・ブロックが、第1のフレームから予測さ
れ、すなわち、中間モーション探索範囲(例えば、+/
−15画素)内における整合画素データ・ブロックが見
つけ出される。次に、ステップS13において、参照フ
レーム内における各現在ブロックの位置を示すモーショ
ン・ベクトルを求めて、より小さい値(例えば、+/−
8画素)との比較が行われる。モーション・ベクトルの
絶対値が、より小さい値に比べてもかなり小さい場合、
モーション探索範囲は、次の他のフレームに関して、図
1のステップS14に示すように、中間値(+/−15
画素)からこのより小さい値(+/−8画素)に設定さ
れるか、あるいは、図1のステップS15におけるよう
に、中間値(+/−15画素)のままとされる。
First, in steps S11 and S12 of FIG. 1, the first frame of the video sequence is coded to remove spatial correlation, and each pixel data block of the second frame is converted to the first frame. Predicted from the frame, i.e. the intermediate motion search range (eg + /
A matching pixel data block within -15 pixels) is found. Next, in step S13, a motion vector indicating the position of each current block in the reference frame is calculated, and a smaller value (for example, +/-) is calculated.
8 pixels). If the absolute value of the motion vector is much smaller than the smaller value,
The motion search range is set to the intermediate value (+/− 15) for the next other frame, as shown in step S14 of FIG.
Pixel) to a smaller value (+/− 8 pixels), or it remains at an intermediate value (+/− 15 pixels) as in step S15 of FIG.

【0027】b)第2のステップは、適応するようにモ
ーション探索範囲を拡大することによって、最初のステ
ップから得られるベース・モーション探索範囲に基づい
て実整合ブロックを探索することである。下記の詳細な
プロセスが含まれる。
B) The second step is to search for a real matched block based on the base motion search range obtained from the first step by expanding the motion search range to accommodate it. The detailed process below is included.

【0028】図1のステップS16及びS17におい
て、高速モーションに関しては、中間モーション探索範
囲(+/−15画素)で、また、低速モーションに関し
ては、より小さい値(+/−8画素)で、参照フレーム
における整合ブロックを探索する。
In steps S16 and S17 of FIG. 1, reference is made to the intermediate motion search range (+/− 15 pixels) for fast motion and a smaller value (+/− 8 pixel) for slow motion. Search for a matching block in the frame.

【0029】図3には、ステップS16及びS17の詳
細な図が示されている。図3に示すように、ステップS
31は、現在フレームからブロックを得ることであり、
ステップS32は、参照フレームから同じ位置のブロッ
クを得ることであり、ステップS33は、2つのブロッ
ク間における絶対誤差を計算して、最小誤差(フィール
ド1及びフィールド2に関するmin1、min2)を
得ることであり、最小誤差(フレームに関するmin)
は、フィールド1及びフィールド2に関する最小誤差の
和を計算する。ステップS34は、モーション探索範囲
内の参照フレームから次のブロックを得ることであり、
ステップS35は、絶対誤差(フィールド1及びフィー
ルド2に関するerr1、err2)を計算することで
あり、フレームに関する誤差(err)は、フィールド
1及びフィールド2に関する誤差の和を計算する。ステ
ップS36では、err1、err2、及び、err
が、それぞれ、min1、min2、及び、minと比
較され、そのうちのどれかが、対応するものより小さけ
れば、min1、min2、及び、minに取って代わ
る。こうしたステップは、ステップS37に示すよう
に、モーション探索範囲の終端に達するまで行われる。
モーション探索範囲の終端に達しない場合には、ステッ
プS34からS37まで繰り返し実行され、モーション
探索範囲の終端に達すると、ステップS31に戻って、
上述と同じ手順に従って、現在フレームにおける他のブ
ロックの処理を行う。
FIG. 3 shows a detailed diagram of steps S16 and S17. As shown in FIG. 3, step S
31 is to get the block from the current frame,
Step S32 is to obtain the block at the same position from the reference frame, and Step S33 is to calculate the absolute error between the two blocks to obtain the minimum error (min1, min2 regarding field 1 and field 2). Yes, minimum error (min on frame)
Calculates the sum of the minimum errors for field 1 and field 2. Step S34 is to obtain the next block from the reference frame within the motion search range,
Step S35 is to calculate the absolute error (err1, err2 for field 1 and field 2) and the error for frame (err) is the sum of the errors for field 1 and field 2. In step S36, err1, err2, and err
Are respectively compared with min1, min2, and min, and if any of them are smaller than the corresponding one, they replace min1, min2, and min. These steps are performed until the end of the motion search range is reached, as shown in step S37.
When the end of the motion search range is not reached, steps S34 to S37 are repeatedly executed, and when the end of the motion search range is reached, the process returns to step S31,
Following the same procedure as above, the other blocks in the current frame are processed.

【0030】図4には、min1、min2、min、
err1、err2、及び、errの定義が示されてい
る。図3のmin1は、2つのブロック、すなわち、現
在フレームからの現在ブロック(A)と、現在ブロック
と同じ位置にある参照フレームからのブロック(B)の
間におけるフィールド1の絶対誤差であり、図3のmi
n2は、2つのブロック間におけるフィールド2の絶対
誤差であり、図3のminは、2つのブロック間におけ
るフレームの絶対誤差であり、minは、min1とm
in2の和である。
In FIG. 4, min1, min2, min,
The definitions of err1, err2, and err are shown. 3 min1 is the absolute error of field 1 between two blocks, the current block (A) from the current frame and the block (B) from the reference frame at the same position as the current block, 3 mi
n2 is the absolute error of field 2 between the two blocks, min in FIG. 3 is the absolute error of the frame between the two blocks, min is min1 and m
It is the sum of in2.

【0031】図3のerr1は、定モーション探索範囲
内における、現在ブロック(A)と参照フレームからの
もう1つのブロック(B1)との間のフィールド1に関
する絶対誤差であり、図3のerr2は、定モーション
探索範囲内における、現在ブロック(A)と参照フレー
ムからのもう1つのブロック(B1)との間のフィール
ド2に関する絶対誤差であり、図3のerrは、定モー
ション探索範囲内における、現在ブロック(A)と参照
フレームからのもう1つのブロック(B1)との間のフ
レームに関する絶対誤差である。
Err1 in FIG. 3 is the absolute error for field 1 between the current block (A) and another block (B1) from the reference frame within the constant motion search range, and err2 in FIG. , Er is the absolute error for field 2 between the current block (A) and another block (B1) from the reference frame within the constant motion search range, where err in FIG. It is the absolute error for the frame between the current block (A) and another block (B1) from the reference frame.

【0032】最小予測誤差(min_error)が、
図2のステップS18に示すように、既定の閾値(Th
reshold)未満であるか否かをチェックし、閾値
未満でなければ、図2のステップS19に示すように、
モーション探索範囲を拡大することが必要になり、又閾
値以上であれば、図2のステップS20に示すように、
同じままに保たれることになる。
The minimum prediction error (min_error) is
As shown in step S18 of FIG. 2, a predetermined threshold (Th
It is checked whether it is less than the threshold value, and if it is not less than the threshold value, as shown in step S19 of FIG.
If it is necessary to expand the motion search range, and if it is equal to or greater than the threshold value, as shown in step S20 of FIG.
It will be kept the same.

【0033】図5には、ステップS18、S19及び、
S20の詳細な図が示されている。図5に示すように、
モーション探索範囲の終端に達すると、ステップS40
によって、フィールド1、フィールド2及び、フレーム
に関して、それぞれ、min1、min2及び、min
が求められ、ステップS41において、それぞれ、閾値
1、閾値2及び、閾値と比較される。min1が閾値1
未満であり、同時に、min2も閾値2未満であるか、
あるいは、minが閾値未満である場合、MSR(モー
ション探索範囲)を拡大する必要がなく、従って、次の
ブロックを続行することになるが(ステップS43)、
そうでなければ、MSRを拡大することが必要になる
(ステップS42)。
In FIG. 5, steps S18, S19 and
A detailed diagram of S20 is shown. As shown in FIG.
When the end of the motion search range is reached, step S40
, Min1, min2, and min for field 1, field 2, and frame, respectively.
Are calculated and compared with threshold 1, threshold 2 and threshold in step S41, respectively. min1 is the threshold 1
Is less than, and at the same time, min2 is less than the threshold value 2,
Alternatively, if min is less than the threshold value, it is not necessary to expand the MSR (motion search range), and therefore the next block is continued (step S43),
If not, it is necessary to expand the MSR (step S42).

【0034】図6には、既定の閾値及びその調整方法が
示されている。この場合、閾値は、現在ブロックの相対
的偏差によってわずかな調整が施される。ブロックの偏
差が大きい場合、すなわち、偏差の大きい詳細領域の場
合、整合誤差(予測誤差)は、とりわけ、その領域が高
速モーションの場合、とりわけ大きくなるので、この偏
差の大きい詳細部分の閾値は、図6に示すように、この
場合、その相対偏差に従って、引き上げられる。すなわ
ち、調整が施される。
FIG. 6 shows a predetermined threshold value and its adjusting method. In this case, the threshold is slightly adjusted by the relative deviation of the current block. If the deviation of the block is large, that is, in the case of a detailed area having a large deviation, the matching error (prediction error) becomes large especially when the area has high-speed motion. In this case, as shown in FIG. 6, the relative deviation is raised. That is, adjustment is performed.

【0035】図6のステップS50に示すdevは、現
在ブロックの標準偏差であり、ステップSのdev_t
は、これまでの全ブロックに関する全偏差であり、ステ
ップS52のdev_aは、ブロック数で割った平均偏
差であり、ステップS53のdev_mは、dev及び
dev_aから得られる調整値である。以上の各偏差は
(数1)、(数2)、(数3)により、それぞれ求めら
れる。
Dev shown in step S50 of FIG. 6 is the standard deviation of the current block, and dev_t of step S
Is the total deviation for all the blocks so far, dev_a in step S52 is the average deviation divided by the number of blocks, and dev_m in step S53 is an adjustment value obtained from dev and dev_a. The above-mentioned respective deviations are respectively obtained by (Equation 1), (Equation 2), (Equation 3).

【0036】[0036]

【数1】 [Equation 1]

【0037】ここで、Here,

【0038】[0038]

【数2】 [Equation 2]

【0039】[0039]

【数3】 [Equation 3]

【0040】ここで、num_mbは、これまでのブロ
ック数である。
Here, num_mb is the number of blocks so far.

【0041】閾値は、フレーム・モーション推定につい
てモーション探索範囲をチェックするために利用され、
閾値1及び閾値2は、適応フレーム/フィールド・モー
ション推定についてモーション探索範囲をチェックする
ために利用される。
The threshold is used to check the motion search range for frame motion estimation,
Threshold 1 and Threshold 2 are used to check the motion search range for adaptive frame / field motion estimation.

【0042】図6に示すように、ステップS50は、現
在ブロックの偏差を計算することであり、この結果は、
devとして示される。現在ブロックの平均偏差de_
aは、ステップS51、S52から得られ、調整値de
_mは、ステップS53から得られる。閾値1、閾値2
及び、閾値は、ステップS54において、de_mによ
って調整が施される。
As shown in FIG. 6, step S50 is to calculate the deviation of the current block, the result of which is
Shown as dev. Average deviation of current block de_
a is obtained from steps S51 and S52, and is the adjustment value de
_M is obtained from step S53. Threshold 1, threshold 2
Also, the threshold is adjusted by de_m in step S54.

【0043】モーション探索範囲が図2のステップS2
1において拡大されると、拡大探索範囲における整合ブ
ロックの探索を続ける。
The motion search range is step S2 in FIG.
When expanded in 1, the search for a matching block in the expanded search range is continued.

【0044】適応モーション探索範囲によるモーション
推定のシステム実施。
System implementation of motion estimation by adaptive motion search range.

【0045】適応モーション探索範囲によるモーション
推定の実施ダイヤグラムが、次のように示されている。
An implementation diagram of motion estimation by the adaptive motion search range is shown as follows.

【0046】本発明の方法が、特に、図7に示されるよ
うに、MPEG−II(Moving Picture
Expert Group,Phase II),
“Coded Representation of
Picture and Audio Informa
tion”,ISO−IEC/JTC1/SC29/W
G11 MPEG93/225,January 19
93に用いられる、ビデオまたはテレビジョン信号の符
号化に利用される場合、入力ビデオは、1フレームずつ
システムに入力され、次に、フレームは、多くの画素デ
ータ・ブロックに細分される(ステップS1)。
The method of the present invention is particularly applicable to MPEG-II (Moving Picture) as shown in FIG.
Expert Group, Phase II),
"Coded Representation of
Picture and Audio Information
"ion", ISO-IEC / JTC1 / SC29 / W
G11 MPEG93 / 225, January 19
When used to encode a video or television signal used in 93, the input video is input to the system one frame at a time and then the frame is subdivided into many pixel data blocks (step S1). ).

【0047】第2のフレームが入力されると、ステップ
S2において、初期中間モーション探索範囲(この場
合、選択された+/−15画素)によって全画素モーシ
ョン推定が実施され、このフレームについて得られた全
モーション・ベクトルについてチェックを行って、より
小さい値(この場合、選択された+/−8画素)よりも
かなり小さいか否かが調べられ、この結果、モーション
探索範囲がベース・モーション探索範囲になるようにリ
セットされる。ステップS3では、半画素モーション推
定が、全画素モーション推定の結果得られたモーション
・ベクトルに基づいて実施される。さらに、このフレー
ムに関して、モーション補償(ステップS4)、DCT
(ステップS5)、量子化(ステップS6)、ラン・レ
ングス符号化及び可変長符号化(ステップS7)が実施
される。
When the second frame is input, in step S2, a full pixel motion estimation is performed with the initial intermediate motion search range (in this case, the selected +/− 15 pixels) and is obtained for this frame. All motion vectors are checked to see if they are significantly smaller than a smaller value (in this case, the selected +/- 8 pixels), which results in the motion search range becoming the base motion search range. To be reset. In step S3, a half pixel motion estimation is performed based on the motion vector resulting from the full pixel motion estimation. Furthermore, for this frame, motion compensation (step S4), DCT
(Step S5), quantization (step S6), run length coding and variable length coding (step S7) are performed.

【0048】図8には、図7におけるモーション推定の
詳細な実施態様が示されている。
FIG. 8 shows a detailed implementation of the motion estimation in FIG.

【0049】第3のフレームが入力されると、このベー
ス・モーション探索範囲によって、全画素モーション推
定が実施され(図8のステップS61)、全フレームの
全てのブロックを符号化すると、ベース・モーション探
索範囲をチェックして、十分であるか否かが確認される
(図8のステップS62)。十分であれば、他のブロッ
クに関するモーション推定を続行し、十分でなければ、
ベース・モーション探索範囲を拡大して(図8のステッ
プS63)、拡大したモーション探索範囲内の整合ブロ
ックについて探索を続ける(図8のステップS64)。
全画素モーション推定が終了すると、通常通り、半画素
モーション推定、モーション補償、DCT、量子化、ラ
ン・レングス符号化及び、可変長符号化が実施される。
When the third frame is input, all-pixel motion estimation is performed by this base motion search range (step S61 in FIG. 8), and when all blocks of all frames are coded, the base motion is estimated. The search range is checked to confirm whether it is sufficient (step S62 in FIG. 8). If yes, continue motion estimation for other blocks, if not,
The base motion search range is expanded (step S63 in FIG. 8), and the search is continued for the matching block within the expanded motion search range (step S64 in FIG. 8).
When all-pixel motion estimation is complete, half-pixel motion estimation, motion compensation, DCT, quantization, run length coding, and variable length coding are performed as usual.

【0050】図8において、「逆量子化」(ステップS
12)、「逆DCT」(ステップS11)、及び、「局
所復号化フレーム・メモリ」(ステップS10)は、共
に、モーション補償のための局所デコーダを構成し、
「レート・コントローラ」(ステップS13)は、各フ
レーム毎にビットを割り当て、「フレーム補間」(ステ
ップS9)は、半画素モーション推定に関するものであ
り、「参照フレーム・メモリ」(ステップS8)は、モ
ーション推定のためにすぐ前のフレームを記憶する。
In FIG. 8, "inverse quantization" (step S
12), "inverse DCT" (step S11), and "locally decoded frame memory" (step S10) together constitute a local decoder for motion compensation,
The "rate controller" (step S13) allocates bits for each frame, the "frame interpolation" (step S9) relates to half-pixel motion estimation, and the "reference frame memory" (step S8) Store the immediately preceding frame for motion estimation.

【0051】以上のように本発明には、符号化プロセス
全体にわたって定モーション探索範囲を有する先行技術
に対して、2つの主たる改良点がある。定モーション探
索範囲が、良好な整合ブロックを得るのに十分ではない
ごく高速のモーションの場合には、モーション探索範囲
の適応拡大によって、モーション推定の効率が向上し、
従って、符号化の効率及び画質が改良される。この改良
は、「マーブル」及び「ファイアワーク」のようなMP
EGのテスト・シーケンスにおいて見出すことができ
る。
Thus, the present invention has two major improvements over the prior art, which has a constant motion search range throughout the encoding process. For very fast motions where the constant motion search range is not enough to get a good matched block, the adaptive extension of the motion search range improves the efficiency of motion estimation,
Therefore, the coding efficiency and the image quality are improved. This improvement is for MPs like "Marble" and "Firework"
It can be found in the EG test sequence.

【0052】一方、低速モーションまたは静止シーンの
場合、モーション推定の効率を低下させることなく、適
応するように、探索範囲をより狭い(例えば+/−8画
素)範囲に縮小することによって、モーション推定の処
理時間を大幅に節約する。この改良は、MPEGのテス
ト・シーケンス「モビール&カレンダ」において見出す
ことができる。
On the other hand, in the case of slow motion or still scenes, the motion estimation is performed by reducing the search range to a narrower range (for example, +/− 8 pixels) so as to adapt without lowering the efficiency of motion estimation. Save a lot of processing time. This improvement can be found in the MPEG test sequence "Mobile &Calendar".

【0053】テスト実験は、高速モーション・シーケン
スについては、「マーブル」及び「ファイアワーク」の
シーケンス(60フレーム)で実施され、低速モーショ
ン・シーケンスについては、「モビール&カレンダ」の
シーケンス(60フレーム)で実施されたが、ここで
は、(表1)に高速モーションの事例についてのみ例示
する。
The test experiments were carried out with the "Marble" and "Firework" sequences (60 frames) for the fast motion sequence and the "Mobile &Calendar" sequence (60 frames) for the slow motion sequence. However, here, only the case of high-speed motion is illustrated in (Table 1).

【0054】[0054]

【表1】 [Table 1]

【0055】節約される処理時間%は、定モーション探
索範囲(+/−30)案と比較して、適応するようにモ
ーション探索範囲(+/−15または+/−30)を選
択してモーション推定を行った場合に、処理時間の何パ
ーセントを節約することができるかということを表して
いる。
The processing time% saved is compared with the constant motion search range (+/− 30) plan, and the motion search range (+/− 15 or +/− 30) is selected to adapt to the motion. It shows how much of the processing time can be saved when the estimation is performed.

【0056】(表1)から明らかなように、モーション
探索範囲を+/−15に固定すると、予測誤差は、「マ
ーブル」及び「ファイアワーク」に関して、それぞれ、
「1373」及び「2093」と、極めて大きく、モー
ション探索範囲を+/−30に固定すると、予測誤差
は、それぞれ、「809」及び「1608」と小さくな
るが、処理時間が大幅に増し、モーション探索範囲を適
応するように+/−15または+/−30に変更する
と、予測誤差は、+/−30に固定した場合とほぼ同様
になるが、処理時間は、それぞれ、51%及び48%の
節約になる。
As is clear from (Table 1), when the motion search range is fixed at +/- 15, the prediction error is "Marble" and "Firework", respectively.
When the motion search range is fixed to +/− 30, which is extremely large as “1373” and “2093”, the prediction error becomes small as “809” and “1608”, respectively, but the processing time significantly increases and the motion When the search range is changed to +/− 15 or +/− 30 to adapt, the prediction error is almost the same as when fixed at +/− 30, but the processing time is 51% and 48%, respectively. Saves

【0057】結論として、モーション探索範囲を適応す
るように選択した場合の予測誤差は、モーション探索範
囲を大きい値に固定した場合と同じほど小さく、適応さ
せる場合の処理時間は、+/−30に固定した場合の4
9%及び52%になる。従って、自動モーション探索範
囲調整の概念は、処理時間を短縮して、モーション推定
の良好な予測が行えるようにすることにある。
In conclusion, the prediction error when the motion search range is selected to be adapted is as small as when the motion search range is fixed to a large value, and the processing time when adapted is +/- 30. 4 when fixed
9% and 52%. Therefore, the concept of automatic motion search range adjustment is to reduce the processing time and enable good prediction of motion estimation.

【0058】以上のようにまず、フレームの全モーショ
ン・ベクトルをチェックして、モーションが、それぞ
れ、低速か、あるいは、高速かによって、狭い、また
は、中間のモーション探索範囲(ベース)を設定し、モ
ーション推定は、このベースを探索ウインドウ・サイズ
として利用することによって行われる。次に、ある領域
のモーション推定誤差(予測誤差)をチェックして、該
誤差と既定の閾値を比較し、比較の結果に従って、モー
ション探索範囲(ベース)を調整する。予測誤差が、閾
値を超えると、モーション探索範囲が拡大されるし、閾
値未満であれば、縮小される。更に、処理領域の特性を
調べ、特性の異なる領域は、異なる閾値になるように閾
値をわずかに調整する。
As described above, first, all motion vectors of the frame are checked, and a narrow or intermediate motion search range (base) is set depending on whether the motion is slow or fast, Motion estimation is done by using this base as the search window size. Next, the motion estimation error (prediction error) of a certain area is checked, the error is compared with a predetermined threshold, and the motion search range (base) is adjusted according to the result of the comparison. If the prediction error exceeds the threshold, the motion search range is expanded, and if it is less than the threshold, the motion search range is reduced. Further, the characteristics of the processing area are examined, and the thresholds are slightly adjusted so that the areas having different characteristics have different thresholds.

【0059】[0059]

【発明の効果】以上述べたところから明らかなように本
発明は、モーションの大きさに応じて、モーション探索
範囲を調整でき、良好なモーション予測を保ちながら処
理時間を短縮することができるという長所を有する。
As is apparent from the above description, the present invention has the advantage that the motion search range can be adjusted according to the magnitude of motion and the processing time can be shortened while maintaining good motion prediction. Have.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかる一実施例のビデオ・コード化方
法の一部を説明する図である。
FIG. 1 is a diagram illustrating a part of a video coding method according to an embodiment of the present invention.

【図2】同実施例の残りの一部を説明する図である。FIG. 2 is a diagram illustrating a part of the rest of the embodiment.

【図3】同実施例における整合ブロックを探索する方法
を示す図である。
FIG. 3 is a diagram showing a method for searching a matching block in the embodiment.

【図4】同実施例における2つのブロック間におけるフ
ィールド誤差の計算を示す図である。
FIG. 4 is a diagram showing a calculation of a field error between two blocks in the embodiment.

【図5】同実施例におけるモーション探索範囲が十分で
あるか否かをチェックする方法を示す図である。
FIG. 5 is a diagram showing a method of checking whether or not the motion search range is sufficient in the embodiment.

【図6】同実施例におけるしきい値の決定及び調整の方
法を示す図である。
FIG. 6 is a diagram showing a method of determining and adjusting a threshold value in the embodiment.

【図7】MPEG−IIをベースにした適応モーション
推定による符号化システムを示す図である。
FIG. 7 is a diagram showing a coding system based on MPEG-II based adaptive motion estimation.

【図8】図7の全画素モーション推定部分を説明するた
めの詳細図である。
FIG. 8 is a detailed diagram for explaining an all-pixel motion estimation portion of FIG. 7;

【図9】従来の固定モーション探索範囲によるモーショ
ン探索範囲が狭すぎて現在ブロックの実整合ブロックを
見つけることができない一例を示す図である。
FIG. 9 is a diagram showing an example in which a motion matching range of a conventional fixed motion searching range is too narrow to find a real matching block of a current block.

【図10】従来の固定モーション探索範囲によるモーシ
ョン探索範囲が広すぎて不必要な処理時間を大幅に浪費
することになる一例を示す図である。
FIG. 10 is a diagram showing an example in which a motion search range based on a conventional fixed motion search range is too wide and unnecessary processing time is wasted significantly.

【符号の説明】[Explanation of symbols]

1 参照フレーム 2 現在フレーム 1 Reference frame 2 Current frame

───────────────────────────────────────────────────── フロントページの続き (72)発明者 リー・チャク ジュー シンガポール 1544 ラグナ パーク #05−13 マリン パレード ロード ブ ロック 5000D ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Lee Chak Joo Singapore 1544 Laguna Park # 05-13 Marine Parade Road Block 5000D

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 適応モーション探索範囲によるモーショ
ン推定及び補償を利用したビデオ・コード化方法におい
て、 入力ビデオ信号の現在フレームを画素データの多くのブ
ロックに区画化するステップと、 入力ビデオ信号の参照フレームを画素データの多くのブ
ロックに区画化するステップと、 基本モーション探索範囲内において、前記参照フレーム
の現在ブロックと最も整合するブロックを探索するステ
ップ(参照フレーム内において最も整合するブロックを
表したベクトルは、モーション・ベクトルと呼ばれる)
と、 その探索結果に基づき、前記現在フレーム内における移
動状態を検出するステップと、 その検出結果に応じて、高速のモーションがある場合、
前記基本モーション探索範囲を適合する値まで拡大さ
せ、モーションがないか、あるいは、低速の場合、前記
基本モーション探索範囲を適合する値まで縮小させるス
テップと、 を、備えたことを特徴とするビデオ・コード化方法。
1. A video coding method utilizing motion estimation and compensation with adaptive motion search range, partitioning a current frame of an input video signal into many blocks of pixel data, and a reference frame of the input video signal. Partitioning into a large number of blocks of pixel data, and searching a block in the basic motion search range that best matches the current block of the reference frame (the vector representing the best matching block in the reference frame is , Called a motion vector)
And a step of detecting a moving state in the current frame based on the search result, and if there is a high-speed motion according to the detection result,
Expanding the basic motion search range to a compatible value, and reducing the basic motion search range to a compatible value when there is no motion or at low speed; Encoding method.
【請求項2】 移動状態の検出は、前記現在ブロックと
整合ブロックの間における予測誤差を求めるステップ
と、 モーションが高速かどうかを判定するために、前記予測
誤差と予め設定された閾値とを比較するステップと、 その比較の結果、前記入力画像に高速のモーションがあ
る場合は、前記基本モーション探索範囲を適合する値ま
で拡大させ、その修正された探索範囲からモーションベ
クトルを検出するステップと、 を、備えたことを特徴とする請求項1記載のビデオ・コ
ード化方法。
2. The movement state is detected by obtaining a prediction error between the current block and the matching block, and comparing the prediction error with a preset threshold value to determine whether or not the motion is fast. And, as a result of the comparison, if there is a high-speed motion in the input image, the basic motion search range is expanded to a suitable value, and a motion vector is detected from the corrected search range. The video encoding method according to claim 1, further comprising:
【請求項3】 基本モーション探索範囲が、 最低予測エラーに対応するフレームの全モーション・ベ
クトルを得るステップと、 その全モーション・ベクトルのチェックを行って、前記
モーション・ベクトルの全てが、プリセット値未満であ
るか否かを判定するステップと、 その判定の結果、前記モーション・ベクトルの全てが、
プリセット値未満である場合には、前記モーション探索
範囲を縮小するステップに基づいて、 さらに調整されることを特徴とする請求項1、又は2記
載のビデオ・コード化方法。
3. The basic motion search range is a step of obtaining all motion vectors of a frame corresponding to the lowest prediction error, and checking all the motion vectors, and all of the motion vectors are less than a preset value. Is determined, and as a result of the determination, all of the motion vectors are
The video coding method according to claim 1 or 2, wherein when the value is less than a preset value, the motion search range is further adjusted based on the step of reducing the motion search range.
【請求項4】 モーション推定から得られるモーション
・ベクトルを用いて、局所デコーダにより復号化される
フレームから対応する整合ブロックを見つけるステップ
と、 現在フレームの現在ブロックと復号化フレームからの整
合ブロックとの間の予測誤差を求めるステップと、 送信に備えて、前記予測誤差を符号化するステップと、 を、更に備えたことを特徴とする請求項1、2、又は3
記載のビデオ・コード化方法。
4. Finding the corresponding matching block from the frame decoded by the local decoder using the motion vector obtained from the motion estimation, and the current block of the current frame and the matching block from the decoded frame. 4. The method according to claim 1, further comprising: a step of obtaining a prediction error between the two and a step of encoding the prediction error in preparation for transmission.
Video encoding method described.
【請求項5】 現在ブロックの画素データの標準偏差を
計算するステップと、 現在フレームの画素データの平均標準偏差を計算するス
テップと、 それら標準偏差と平均標準偏差から調整値を計算するス
テップと、 その調整値を利用して、前記閾値を調整するステップに
基づいて、 前記閾値を調整することを特徴とする請求項2記載のビ
デオ・コード化方法。
5. A step of calculating a standard deviation of the pixel data of the current block, a step of calculating an average standard deviation of the pixel data of the current frame, and a step of calculating an adjustment value from the standard deviation and the average standard deviation. The video coding method according to claim 2, wherein the threshold value is adjusted based on the step of adjusting the threshold value using the adjustment value.
JP28849593A 1993-11-17 1993-11-17 Video coding method by automatic motion search range adjustment with respect to motion estimation Pending JPH07143492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28849593A JPH07143492A (en) 1993-11-17 1993-11-17 Video coding method by automatic motion search range adjustment with respect to motion estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28849593A JPH07143492A (en) 1993-11-17 1993-11-17 Video coding method by automatic motion search range adjustment with respect to motion estimation

Publications (1)

Publication Number Publication Date
JPH07143492A true JPH07143492A (en) 1995-06-02

Family

ID=17730959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28849593A Pending JPH07143492A (en) 1993-11-17 1993-11-17 Video coding method by automatic motion search range adjustment with respect to motion estimation

Country Status (1)

Country Link
JP (1) JPH07143492A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6212237B1 (en) 1997-06-17 2001-04-03 Nippon Telegraph And Telephone Corporation Motion vector search methods, motion vector search apparatus, and storage media storing a motion vector search program
US6289050B1 (en) 1997-08-07 2001-09-11 Matsushita Electric Industrial Co., Ltd. Device and method for motion vector detection
JP2009153102A (en) * 2007-11-28 2009-07-09 Oki Electric Ind Co Ltd Motion vector detecting device, inter-frame encoding device, moving image encoding device, motion vector detection program, inter-frame encoding program and moving image encoding program
KR101242560B1 (en) * 2011-03-30 2013-03-19 한양대학교 산학협력단 Device and method for adjusting search range

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6212237B1 (en) 1997-06-17 2001-04-03 Nippon Telegraph And Telephone Corporation Motion vector search methods, motion vector search apparatus, and storage media storing a motion vector search program
US6289050B1 (en) 1997-08-07 2001-09-11 Matsushita Electric Industrial Co., Ltd. Device and method for motion vector detection
JP2009153102A (en) * 2007-11-28 2009-07-09 Oki Electric Ind Co Ltd Motion vector detecting device, inter-frame encoding device, moving image encoding device, motion vector detection program, inter-frame encoding program and moving image encoding program
KR101242560B1 (en) * 2011-03-30 2013-03-19 한양대학교 산학협력단 Device and method for adjusting search range

Similar Documents

Publication Publication Date Title
US5760846A (en) Apparatus for estimating motion vectors for feature points of a video signal
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
US5583580A (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
US5781249A (en) Full or partial search block matching dependent on candidate vector prediction distortion
JP2928708B2 (en) MOTION VECTOR DETECTION METHOD AND DEVICE
JP2636622B2 (en) Video signal encoding method and decoding method, and video signal encoding apparatus and decoding apparatus
US5689306A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
US5757668A (en) Device, method and digital video encoder of complexity scalable block-matching motion estimation utilizing adaptive threshold termination
JP4528441B2 (en) Hierarchical motion estimation processing and apparatus using block matching method and integrated projection method
US5537155A (en) Method for estimating motion in a video sequence
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
US5657087A (en) Motion compensation encoding method and apparatus adaptive to motion amount
EP0637894B1 (en) Apparatus and method for detecting motion vectors to half-pixel accuracy
US5717470A (en) Method and apparatus for detecting optimum motion vectors based on a hierarchical motion estimation approach
JP2002543713A (en) Motion estimation for digital video
US5883674A (en) Method and apparatus for setting a search range for detecting motion vectors utilized for encoding picture data
US20040013201A1 (en) Method and apparatus for estimating a motion using a hierarchical search and an image encoding system adopting the method and apparatus
US7010040B2 (en) Apparatus and method of transcoding image data in digital TV
US5699129A (en) Method and apparatus for motion vector determination range expansion
US5689312A (en) Block matching motion estimation method
US7409093B2 (en) Method and apparatus for encoding video signals
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH07143492A (en) Video coding method by automatic motion search range adjustment with respect to motion estimation
US6081553A (en) Block-matching motion estimation technique for video compression of noisy source signals
KR0154920B1 (en) Motion estimation device of video encoding apparatus