JPH09168153A - Movement detection method - Google Patents

Movement detection method

Info

Publication number
JPH09168153A
JPH09168153A JP7326777A JP32677795A JPH09168153A JP H09168153 A JPH09168153 A JP H09168153A JP 7326777 A JP7326777 A JP 7326777A JP 32677795 A JP32677795 A JP 32677795A JP H09168153 A JPH09168153 A JP H09168153A
Authority
JP
Japan
Prior art keywords
frame
image
motion detection
motion
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7326777A
Other languages
Japanese (ja)
Inventor
Toshiyuki Ogi
俊之 扇
Akihiko Otani
昭彦 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7326777A priority Critical patent/JPH09168153A/en
Publication of JPH09168153A publication Critical patent/JPH09168153A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect the movement with small arithmetic quantity and with high accuracy in an image encoding mode and to deal with detection of the movement in the encoding order. SOLUTION: When the back movement of a B1 frame of (b) is detected, an offset vector 8 whose size is changed according to the ratio between the I0 -P3 frame space and the P3 -B1 frame space is calculated based on the motion vector 5 of P3 that is calculated in (a). Then the area of a fixed range that is needed when the frame space is equal to 1 is defined as a search area 9 around the position that is moved by an extent equal to the vector 8 from a position 7 of the P3 frame corresponding to the position of a searched image 6 of the B1 frame. Then an image that has the highest correlation with the image 6 is searched out of the area 9. Thus the back motion vector of the image 6 is detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像符号化における
動き検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion detecting method in image coding.

【0002】[0002]

【従来の技術】従来の動き検出方法における動き検出演
算量の時間的変化を図6に示す。I0はフレーム内符号化
によって符号化されるフレーム、P3,P6は前方向予測符
号化によって符号化されるフレーム、Bー2,Bー1,B1,B2,
B4,B5は前後双方向符号符号化によって符号化されるフ
レームを示す。
2. Description of the Related Art FIG. 6 shows a temporal change in a motion detection calculation amount in a conventional motion detection method. I 0 is a frame coded by intraframe coding, P 3 and P 6 are frames coded by forward predictive coding, B -2 , B -1 , B 1 , B 2 ,
B 4 and B 5 indicate frames that are coded by the front-back bidirectional code coding.

【0003】図6(a)においてB1,B2,P3フレームはI0
レームを参照画像として前方向動き検出を行い、B4,B5,
P6フレームはP3フレームを参照画像として前方向動き検
出を行う。また、B1,B2フレームはP3フレームを参照画
像として後方向動き検出を行い、B4,B5フレームはP6
レームを参照画像として後方向動き検出を行う。
In FIG. 6 (a), B 1 , B 2 , and P 3 frames are subjected to forward motion detection using the I 0 frame as a reference image, and B 4 , B 5 , and
P 6 frames do forward motion detection as the reference image P 3 frames. Also, backward motion detection is performed for the B 1 and B 2 frames using the P 3 frame as a reference image, and backward motion detection is performed for the B 4 and B 5 frames using the P 6 frame as a reference image.

【0004】動き検出の探索領域範囲はフレーム間隔の
増加に伴って通常フレーム間隔の自乗倍で増加していく
ため、各々のフレームで実行される動き検出に必要な演
算量は、原画像順で行った場合と符号化順で行った場
合、それぞれ図6(b)、図6(c)に示すようになる。
Since the search region range for motion detection increases with the square of the normal frame interval as the frame interval increases, the amount of calculation required for motion detection executed in each frame is in the original image order. 6B and 6C, respectively, in the case of performing and in the order of encoding.

【0005】[0005]

【発明が解決しようとする課題】動き検出に必要な演算
量は他の符号化アルゴリズムの約1000倍にも達する上、
図1に示したように動き検出の演算量はフレーム間隔の
増加に伴ってフレーム間隔の自乗倍で増加していくた
め、動き検出を実時間処理するためには膨大な演算能力
が必要とされる。このため演算量を削減し、より少ない
演算量で動き検出を実現することが求められている。
The amount of calculation required for motion detection reaches about 1000 times that of other encoding algorithms.
As shown in FIG. 1, since the amount of calculation for motion detection increases with the square of the frame interval as the frame interval increases, a huge amount of computing power is required to perform the motion detection in real time. It Therefore, it is required to reduce the calculation amount and realize the motion detection with a smaller calculation amount.

【0006】また、これまでにより少ない演算量で動き
検出を実現する方法としてテレスコピックサーチ方法、
サブサンプルサーチ方法等による動き検出方法が提案さ
れているが、それぞれ後方向予測の際に符号化順での動
き検出に対応しづらい、動き検出の精度が悪い等の欠点
があった。
Further, as a method for realizing motion detection with a smaller calculation amount, a telescopic search method,
Although motion detection methods such as sub-sample search methods have been proposed, they have drawbacks such as difficulty in coping with motion detection in the coding order during backward prediction and poor motion detection accuracy.

【0007】本発明は少ない演算量で精度の良い動き検
出を行い、符号化順での動き検出に対応する動き検出方
法を提供することを目的とする。
It is an object of the present invention to provide a motion detection method which can detect a motion with high accuracy with a small amount of calculation and can cope with the motion detection in the coding order.

【0008】[0008]

【課題を解決するための手段】請求項1の本発明は、被
参照フレームと被探索フレームの間のフレーム間隔が増
加することに伴い動き検出の探索領域が増加する性質を
有する画像の動き検出において、フレーム間隔が最大の
前記被探索フレームの動きベクトルから作成したオフセ
ットベクトルを、前記被参照フレームの動き検出に用い
る構成を採用する。
According to the present invention of claim 1, motion detection of an image having a property that a search region for motion detection increases as a frame interval between a referenced frame and a searched frame increases. In the above, a configuration is adopted in which an offset vector created from the motion vector of the searched frame having the largest frame interval is used for motion detection of the referenced frame.

【0009】請求項2の本発明は、前方向予測フレーム
と双方向予測フレームを含む画像の動き検出において、
前方向予測フレームでの動き検出演算をサブサンプルサ
ーチ方法とフルサーチ方法を併用する方法を用いてフレ
ーム毎の動き検出演算量を平均化した構成を採用する。
According to the present invention of claim 2, in motion detection of an image including a forward prediction frame and a bidirectional prediction frame,
The motion detection calculation in the forward prediction frame employs a method in which the sub-sample search method and the full search method are used together to average the motion detection calculation amount for each frame.

【0010】上記請求項1の本発明によれば、予測フレ
ーム間隔が最大となる被予測フレームの動きベクトルを
もとに、その他の被予測フレームでのオフセットベクト
ルを作成しオフセットベクトルの周辺領域の動き検出を
することで、その他の被予測フレームでの精度を大きく
劣化することなく少ない演算量で動き検出を実行でき
る。ここで、予測フレーム間隔が最大となる被予測フレ
ームは通常前方向予測のみのフレームである。また、予
測フレーム間隔が最大となる被予測フレームの動き検出
をその他のフレームよりも先に行っていることが符号化
順での動き検出に対応している。
According to the first aspect of the present invention, based on the motion vector of the predicted frame having the maximum predicted frame interval, offset vectors for other predicted frames are created and the peripheral region of the offset vector is calculated. By performing the motion detection, the motion detection can be executed with a small amount of calculation without significantly degrading the accuracy in other predicted frames. Here, the predicted frame having the maximum predicted frame interval is usually a frame for only forward prediction. Also, the motion detection of the predicted frame having the maximum prediction frame interval is performed before the other frames, which corresponds to the motion detection in the coding order.

【0011】また請求項2の本発明によれば、前方向予
測のみのフレームは、サブサンプル方法とフルサーチ方
法の組み合わせ等の手段により、双方向予測フレームよ
りも容易に演算量を減少することが可能であり、符号化
におけるフレーム辺りの最大演算量を少なくすることが
できる。
According to the second aspect of the present invention, the amount of calculation of the frame only for the forward prediction can be reduced more easily than the bidirectionally predicted frame by means such as a combination of the sub-sampling method and the full search method. It is possible to reduce the maximum amount of calculation around the frame in encoding.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施例を図面を用
いて説明する。なお各実施例における符号化画像の並び
順は全て図6(a)に示した並び順であるものとする。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. It is assumed that the coded images in each example are arranged in the same order as shown in FIG.

【0013】(実施例1)図1は本発明での動きベクト
ルの検出方法を図式的に示したものである。図1(a)はP
3フレームの動きベクトル検出方法、図1(b)はB1フレー
ムの後方向動きベクトル検出方法、図1(c)はB2フレー
ムの前方向動きベクトル検出方法をそれぞれ示したもの
である。本実施例において、動きベクトルの検出は符号
化順に行うものとしており、動きベクトル検出は図1
(a)、図1(b)、図1(c)の順に行われる。
(Embodiment 1) FIG. 1 schematically shows a motion vector detecting method according to the present invention. Figure 1 (a) is P
3 frames of the motion vector detecting method, FIG. 1 (b) B 1 motion vector detection method after frame, FIG. 1 (c) illustrates B 2 frames of forward motion vector detecting method, respectively. In the present embodiment, the motion vector detection is performed in the order of encoding, and the motion vector detection is performed by using FIG.
This is performed in the order of (a), FIG. 1 (b), and FIG. 1 (c).

【0014】図1(a)ではI0フレームを被参照フレー
ム、P3フレームを被探索フレームとして従来の方法での
動きベクトル検出が実行されている。ここで、P3フレー
ムの被探索画像1の位置と対応するI0フレームに於ける
位置2を中心としたフレーム間隔=3の時に必要な一定
の範囲の領域を探索領域3とする。この探索領域3の中
から被探索画像1と最も相関の高い画像を探索すること
で被探索画像1の前方向の動きベクトル検出が実行され
る。本実施例では、図1(a)で求められた動き検出一致
画像が動き検出画像4で、被探索画像1の動きベクトル
が動きベクトル5であるものとして説明を続ける。
In FIG. 1 (a), motion vector detection is performed by the conventional method with the I 0 frame as the referenced frame and the P 3 frame as the searched frame. Here, an area within a certain range required when the frame interval = 3 centered on the position 2 in the I 0 frame corresponding to the position of the searched image 1 in the P 3 frame is set as the search area 3. By searching the search area 3 for an image having the highest correlation with the search target image 1, the forward motion vector detection of the search target image 1 is executed. In the present embodiment, the description will be continued on the assumption that the motion detection matching image obtained in FIG. 1A is the motion detection image 4 and the motion vector of the search target image 1 is the motion vector 5.

【0015】図1(b)ではP3フレームを被参照フレー
ム、B1フレームを被探索フレームとして動きベクトル検
出が実行されている。ここでは、図1(a)で求めたP3
動きベクトル5から、I0-P3のフレーム間隔(=3)お
よびP3-B1のフレーム間隔(=2)の比(=2/3)に
応じて大きさを変化させたオフセットベクトル8を求め
る。つまりこの場合では、オフセットベクトル8は動き
ベクトル5の2/3の大きさである。B1フレームの被探
索画像6の位置と対応するP3フレームに於ける位置7か
らオフセットベクトル8分移動した位置を中心として、
フレーム間隔=1の時に必要な一定の範囲の領域を探索
領域9とする。この探索領域9の中から被探索画像6と
最も相関の高い画像を探索することで被探索画像6の後
方向の動きベクトル検出が実行される。
In FIG. 1B, motion vector detection is executed with the P 3 frame as the referenced frame and the B 1 frame as the searched frame. Here, based on the motion vector 5 of P 3 obtained in FIG. 1A, the ratio (= 2 /) of the frame interval of I 0 -P 3 (= 3) and the frame interval of P 3 -B 1 (= 2). The offset vector 8 whose size is changed according to 3) is obtained. That is, in this case, the offset vector 8 is 2/3 the size of the motion vector 5. Centering on the position moved by the offset vector 8 from the position 7 in the P 3 frame corresponding to the position of the searched image 6 in the B 1 frame,
An area within a certain range necessary when the frame interval = 1 is set as a search area 9. By searching the search area 9 for an image having the highest correlation with the search image 6, the backward motion vector detection is executed.

【0016】図1(c)ではI0フレームを被参照フレー
ム、B2フレームを被探索フレームとして動きベクトル検
出が実行されている。ここでは、図1(a)で求めたP3
動きベクトル5から、I0-P3のフレーム間隔(=3)お
よびI0-B2のフレーム間隔(=2)の比(=2/3)に
応じて大きさを変化させたオフセットベクトル12を求
める。B2フレームの被探索画像10の位置と対応するI0
フレームに於ける位置11からオフセットベクトル12
分移動した位置を中心として、フレーム間隔=1の時に
必要な一定の範囲の領域を探索領域13とする。この探
索領域13の中から被探索画像10と最も相関の高い画
像を探索することで被探索画像10の前方向の動きベク
トル検出が実行される。
In FIG. 1 (c), motion vector detection is executed with the I 0 frame as the referenced frame and the B 2 frame as the searched frame. Here, based on the motion vector 5 of P 3 obtained in FIG. 1A, the ratio (= 2 /) of the frame interval of I 0 -P 3 (= 3) and the frame interval of I 0 -B 2 (= 2). The offset vector 12 whose size is changed according to 3) is obtained. I 0 corresponding to the position of the search image 10 in the B 2 frame
Offset vector 12 from position 11 in the frame
An area within a certain range required when the frame interval is 1 with the position moved by the center as the center is set as the search area 13. By searching the search area 13 for an image having the highest correlation with the search image 10, the forward motion vector detection of the search image 10 is executed.

【0017】上記に示した本実施例の動きベクトル検出
方法を用いることにより、従来の方法ではフレーム間隔
=2に必要な範囲の探索領域で行っていた、B1フレーム
の後方向動きベクトル検出およびB2フレームの前方向動
きベクトル検出を、図2に示すようにフレーム間隔=1
に必要な範囲の探索領域で行い動き検出演算量を減少す
ることができる。
By using the motion vector detecting method according to the present embodiment described above, the backward motion vector detection and the backward motion vector detection of B 1 frame, which is performed in the search area in the range required for the frame interval = 2 in the conventional method, can be performed. As shown in FIG. 2, the forward motion vector detection of the B 2 frame is performed with the frame interval = 1.
It is possible to reduce the amount of motion detection calculation performed in the search area in the range necessary for

【0018】(実施例2)図3はサブサンプルサーチ方
法とフルサーチ方法を併用したP3フレームの動きベクト
ルの検出方法を図式的に示したものである。図4は、図
3で示したP3フレームでの動きベクトルの検出方法と、
実施例1で示した動きベクトルの検出方法を併用するこ
とによる動き検出演算量の時間的変化を示したものであ
る。
(Embodiment 2) FIG. 3 diagrammatically shows a method of detecting a motion vector of a P 3 frame using both a sub-sample search method and a full search method. FIG. 4 shows a method of detecting a motion vector in the P 3 frame shown in FIG.
9 illustrates a temporal change in a motion detection calculation amount by using the motion vector detecting method described in the first embodiment together.

【0019】図3では1段階目の動き検出として参照画
像に於ける被探索画像の位置2を中心としたフレーム間
隔=3の時に必要な探索領域3で、サブサンプル方法の
動きベクトル検出を実行する。ここで図3における参照
画像に於ける被探索画像の位置2と探索領域3は図1
(a)に示した参照画像に於ける被探索画像の位置2およ
び探索領域3と同一のものを示す。
In FIG. 3, the motion vector detection of the sub-sampling method is executed in the search area 3 required when the frame interval = 3 centered on the position 2 of the searched image in the reference image as the first stage motion detection. To do. Here, the position 2 and the search region 3 of the searched image in the reference image in FIG. 3 are shown in FIG.
The position 2 and the search region 3 of the searched image in the reference image shown in (a) are the same.

【0020】1段階目の動きベクトル検出はサブサンプ
ル方法で実行し、これによって検出された画像は動き検
出画像14、検出された動きベクトルは動きベクトル1
5であるものとする。サブサンプル方法の動きベクトル
検出はフルサーチ方法と比較して動きベクトル検出精度
は劣るが、例えば被探索画像および探索領域の双方につ
いて水平・垂直方向に2画素おきのサブサンプルを行う
ことで同一の演算量でフルサーチ方法の9倍の領域を探
索することができる。つまり、このサブサンプルは図4
の斜線部で示した演算量1で実行可能である。
The motion vector detection in the first stage is executed by the sub-sampling method. The image detected by this method is the motion detected image 14, and the detected motion vector is the motion vector 1.
It shall be 5. Although the motion vector detection of the sub-sampling method is inferior to the full search method in motion vector detection accuracy, for example, by performing sub-sampling every two pixels in the horizontal and vertical directions for both the search target image and the search region, the same result is obtained. It is possible to search an area that is nine times as large as the full search method with a calculation amount. In other words, this subsample is
Execution is possible with the calculation amount 1 shown by the shaded area.

【0021】2段階目の動きベクトル検出は、参照画像
に於ける被探索画像の位置2から動きベクトル15分移
動した位置を中心として、フレーム間隔=1の時に必要
な一定の範囲の領域を探索領域16でフルサーチ方法で
実行される。2段階目の動きベクトル検出で求められた
動き検出画像17および動きベクトル18がP3フレーム
での最終的な動き検出画像および動きベクトルとなる。
In the second stage motion vector detection, a region within a certain range required when the frame interval = 1 is centered around a position moved by 15 motion vectors from position 2 of the searched image in the reference image. The full search method is executed in the area 16. The motion detection image 17 and the motion vector 18 obtained by the second stage motion vector detection become the final motion detection image and the motion vector in the P 3 frame.

【0022】上記で説明したように本実施例によれば、
サブサンプル方法とフルサーチ方法を併用することで精
度を大きく落とすことなく、演算量を削減した動きベク
トル検出を実行することが可能である。
As explained above, according to this embodiment,
By using the sub-sampling method and the full search method together, it is possible to execute motion vector detection with a reduced amount of calculation without significantly lowering the accuracy.

【0023】上記で説明したサブサンプル方法とフルサ
ーチ方法の併用でP3,P6フレームでの動き検出演算量を
削減し、また実施例1に示した方法を用いてBー2,Bー1,
B1,B2,B4,B5フレームでの動き検出演算量を削減するこ
とにより、図4に示すように1フレーム辺りの最大の演
算量を、前方向のフレーム間隔=1かつ後方向のフレー
ム間隔=1の動きベクトル検出したときの演算量と同等
にすることができる。
The sub-sampling method and the full search method described above are used together to reduce the amount of motion detection calculation in P 3 and P 6 frames, and B -2 and B - B using the method shown in the first embodiment. 1 ,
By reducing the amount of motion detection calculation in B 1 , B 2 , B 4 , and B 5 frames, the maximum amount of calculation per frame can be calculated as shown in FIG. It is possible to make it equal to the calculation amount when the motion vector is detected with the frame interval = 1.

【0024】なお、本実施例ではP3フレームの動きベク
トルの検出においてサブサンプル方法を1段階目、フル
サーチ方法を2段階目として動きベクトル検出を実行
し、かつ実施例1の方法を用いているが、必要に応じて
実施例1の方法を用いなくてもよい。
In this embodiment, the motion vector detection is executed by using the sub-sampling method as the first step and the full search method as the second step in detecting the motion vector of the P 3 frame, and using the method of the first embodiment. However, the method of Example 1 may not be used if necessary.

【0025】(実施例3)図5はP3フレームの被探索画
像の符号化が予測符号化された場合と予測符号化されな
かった場合とでB1フレームの探索領域を適応的に切り替
える方法による動きベクトル検出方法を示した図であ
る。このときB1フレームの動きベクトル検出時にはP3
レームの符号化は既に行われた後であるものとする。
(Third Embodiment) FIG. 5 is a method for adaptively switching the search area of the B 1 frame depending on whether the search image of the P 3 frame is predictively coded or not. FIG. 6 is a diagram showing a motion vector detection method according to FIG. At this time, it is assumed that the P 3 frame has already been encoded when the motion vector of the B 1 frame is detected.

【0026】P3フレームが予測符号化された場合には、
P3フレームで求めた動きベクトルはI0フレームとの相関
の高い画像を示すベクトルであると判断することができ
るので実施例1で示した動きベクトル検出方法を用い
て、B2フレームの被探索画像の位置と対応するI0フレー
ムに於ける位置11からオフセットベクトル12分移動
した位置を中心として、フレーム間隔=1の時に必要な
一定の範囲の領域を探索領域13とする。
If the P 3 frame is predictively coded,
Since it can be determined that the motion vector obtained in the P 3 frame is a vector indicating an image having a high correlation with the I 0 frame, the motion vector detection method shown in the first embodiment is used to search for the B 2 frame. An area within a certain range required when the frame interval = 1 is defined as a search area 13 with the position moved by the offset vector 12 from the position 11 in the I 0 frame corresponding to the image position as the center.

【0027】P3フレームが予測符号化されなかった場合
には、P3フレームで求めた動きベクトルはI0フレームと
の相関が低い画像を示すベクトルであると判断すること
ができるので、オフセットベクトルを0として、B2フレ
ームの被探索画像の位置と対応するI0フレームに於ける
位置11を中心として、フレーム間隔=1の時に必要な
一定の範囲の領域を探索領域19とする。
When the P 3 frame is not predictively coded, it can be judged that the motion vector obtained in the P 3 frame is a vector indicating an image having a low correlation with the I 0 frame, and therefore the offset vector Is set to 0, and a region within a certain range required when the frame interval = 1 is centered on the position 11 in the I 0 frame corresponding to the position of the searched image in the B 2 frame is set as the search region 19.

【0028】上記で説明したように本実施例によれば、
P3フレームの被探索画像の符号化が予測符号化された場
合と予測符号化されなかった場合とでB1フレームの探索
領域を適応的に切り替える方法によって、常時実施例1
で示した動きベクトル検出方法を使用する場合と比較し
て動きベクトル検出の精度を高めることができる。
As explained above, according to this embodiment,
The method of adaptively switching the search region of the B 1 frame depending on whether the search image of the P 3 frame is predictively coded or not
It is possible to improve the accuracy of motion vector detection as compared with the case of using the motion vector detection method shown in.

【0029】[0029]

【発明の効果】予測フレーム間隔が最大となる被予測フ
レームの動きベクトルをもとに、その他の被予測フレー
ムでのオフセットベクトルを作成しオフセットベクトル
の周辺領域の動き検出をすることで、その他の被予測フ
レームでの精度を大きく劣化することなく少ない演算量
で動き検出を実行できる。ここで、予測フレーム間隔が
最大となる被予測フレームは通常前方向予測のみのフレ
ームであり、サブサンプル方法とフルサーチ方法の組み
合わせ等の手段により双方向予測フレームよりも容易に
演算量を減少することが可能であり、符号化におけるフ
レーム辺りの最大演算量を少なくすることができる。
EFFECT OF THE INVENTION Based on the motion vector of the predicted frame having the maximum predicted frame interval, offset vectors for other predicted frames are created and the motion detection of the peripheral area of the offset vector is performed. Motion detection can be executed with a small amount of calculation without significantly degrading the accuracy of the predicted frame. Here, the predicted frame having the maximum predicted frame interval is usually a frame only for forward prediction, and the amount of calculation is reduced more easily than the bidirectional predicted frame by means such as a combination of the sub-sampling method and the full search method. It is possible to reduce the maximum amount of calculation around the frame in encoding.

【0030】また、予測フレーム間隔が最大となる被予
測フレームの動き検出をその他のフレームよりも先に行
っていることで符号化順での動き検出に対応している。
Further, the motion detection of the predicted frame having the maximum prediction frame interval is performed before the other frames, which corresponds to the motion detection in the coding order.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の動きベクトル検出方法を示
した図
FIG. 1 is a diagram showing a motion vector detecting method according to a first embodiment of the present invention.

【図2】本実施例での符号化順での動き検出演算量の時
間的変化を示した図
FIG. 2 is a diagram showing a temporal change in a motion detection calculation amount in an encoding order in the present embodiment.

【図3】本発明の実施例2でのP3フレームでの動きベク
トル検出方法を示した図
FIG. 3 is a diagram showing a method of detecting a motion vector in a P 3 frame according to the second embodiment of the present invention.

【図4】本実施例での符号化順での動き検出演算量の時
間的変化を示した図
FIG. 4 is a diagram showing a temporal change in a motion detection calculation amount in an encoding order in the present embodiment.

【図5】本発明の実施例3でのB1フレームの動きベクト
ル検出方法を示した図
FIG. 5 is a diagram showing a method of detecting a motion vector of a B 1 frame according to the third embodiment of the present invention.

【図6】従来の構成での動き検出演算量の時間的変化を
示した図
FIG. 6 is a diagram showing a temporal change in a motion detection calculation amount in a conventional configuration.

【符号の説明】[Explanation of symbols]

I0 フレーム内符号化によって符号化されるフレーム P3,P6 前方向予測符号化によって符号化されるフレー
ム Bー2,Bー1,B1,B2,B4,B5 前後双方向符号符号化によって
符号化されるフレーム 1 被探索画像 2 参照画像に於ける被探索画像の位置 3,9,13,19 探索領域 4 動き検出画像 5 動きベクトル 6 被探索画像 7 参照画像P3に於ける被探索画像の位置 8,12 オフセット動きベクトル 10 B1フレームでの被探索画像 11 参照画像I0に於ける被探索画像の位置 14 サブサンプル方法で求めた動き検出画像 15 サブサンプル方法で求めた動きベクトル 16 フルサーチ方法での探索領域 17 フルサーチ方法で求めた動き検出画像 18 フルサーチ方法で求めた、P3フレームでの最終的
な動きベクトル
Frame B-2 which is encoded by a frame P 3, P 6 forward prediction coding to be encoded by I 0 intraframe coding, B over 1, B 1, B 2, B 4, B 5 longitudinal bidirectional Frame to be encoded by code encoding 1 Search image 2 Position of search image in reference image 3,9,13,19 Search area 4 Motion detection image 5 Motion vector 6 Search image 7 Reference image P 3 Position of searched image in 8, 12 Offset motion vector 10 Searched image in 1 B 1 frame 11 Position of searched image in reference image I 0 14 Motion detection image obtained by sub-sampling method 15 By sub-sampling method Obtained motion vector 16 Search area by full search method 17 Motion detection image obtained by full search method 18 Final motion vector at P 3 frame obtained by full search method

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】被参照フレームと被探索フレームの間のフ
レーム間隔が増加することに伴い動き検出の探索領域が
増加する性質を有する画像の動き検出において、フレー
ム間隔が最大の前記被探索フレームの動きベクトルから
作成したオフセットベクトルを、前記被参照フレームの
動き検出に用いることを特徴とする動き検出方法。
1. In motion detection of an image having a property that a search area for motion detection increases as a frame interval between a referenced frame and a searched frame increases, the searched frame having the largest frame interval A motion detection method characterized in that an offset vector created from a motion vector is used for motion detection of the referenced frame.
【請求項2】前方向予測フレームと双方向予測フレーム
を含む画像の動き検出において、前方向予測フレームで
の動き検出演算をサブサンプルサーチ方法とフルサーチ
方法を併用する方法を用いてフレーム毎の動き検出演算
量を平均化したことを特徴とする動き検出方法。
2. In motion detection of an image including a forward prediction frame and a bidirectional prediction frame, the motion detection calculation in the forward prediction frame is performed for each frame by using a method using both a sub-sample search method and a full search method. A motion detection method characterized by averaging the amount of motion detection calculation.
【請求項3】前記双方向予測フレームでの動き検出演算
を請求項1に示す動き検出方法を用いることを特徴とす
る請求項2記載の動き検出方法。
3. The motion detection method according to claim 2, wherein the motion detection method according to claim 1 is used for the motion detection calculation in the bidirectional prediction frame.
【請求項4】前記オフセットベクトルを用いた動き検出
方法とオフセットベクトルを用いない動き検出方法を適
宜切り替える機能を有することを特徴とする請求項1記
載の動きベクトル検出方法。
4. The motion vector detecting method according to claim 1, further comprising a function of appropriately switching between a motion detecting method using the offset vector and a motion detecting method not using the offset vector.
JP7326777A 1995-12-15 1995-12-15 Movement detection method Pending JPH09168153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7326777A JPH09168153A (en) 1995-12-15 1995-12-15 Movement detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7326777A JPH09168153A (en) 1995-12-15 1995-12-15 Movement detection method

Publications (1)

Publication Number Publication Date
JPH09168153A true JPH09168153A (en) 1997-06-24

Family

ID=18191592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7326777A Pending JPH09168153A (en) 1995-12-15 1995-12-15 Movement detection method

Country Status (1)

Country Link
JP (1) JPH09168153A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331347A (en) * 2005-05-30 2006-12-07 Olympus Corp Image processor and object domain tracking program
JP2007129498A (en) * 2005-11-02 2007-05-24 Matsushita Electric Ind Co Ltd Motion vector detector
JP2008067353A (en) * 2006-08-08 2008-03-21 Canon Inc Motion vector detection apparatus, and motion vector detection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331347A (en) * 2005-05-30 2006-12-07 Olympus Corp Image processor and object domain tracking program
JP4515332B2 (en) * 2005-05-30 2010-07-28 オリンパス株式会社 Image processing apparatus and target area tracking program
US8019143B2 (en) 2005-05-30 2011-09-13 Olympus Corporation Image processing apparatus and computer program product
JP2007129498A (en) * 2005-11-02 2007-05-24 Matsushita Electric Ind Co Ltd Motion vector detector
US8451898B2 (en) 2005-11-02 2013-05-28 Panasonic Corporation Motion vector estimation apparatus
JP2008067353A (en) * 2006-08-08 2008-03-21 Canon Inc Motion vector detection apparatus, and motion vector detection method

Similar Documents

Publication Publication Date Title
EP0896300B1 (en) Device and method for motion vector detection
US20040114688A1 (en) Device for and method of estimating motion in video encoder
JP5426655B2 (en) Compressed video encoding device, compressed video decoding device, compressed video encoding method, and compressed video decoding method
US20050249284A1 (en) Method and apparatus for generating motion vector in hierarchical motion estimation
KR970025185A (en) Apparatus for encoding and decoding video signals using feature-based motion estimation
US20240031576A1 (en) Method and apparatus for video predictive coding
US20100284465A1 (en) Method for compressing data in a video sequence
US20080002774A1 (en) Motion vector search method and motion vector search apparatus
JP2005516433A (en) Motion estimation for video compression systems
WO2010109564A1 (en) Image encoding apparatus and image encoding method
JP3531532B2 (en) Video encoding apparatus and method
US6169766B1 (en) Method and apparatus for detecting motion vector and image coding apparatus
JPH10322582A (en) Moving image encoder
JPH06327003A (en) Predictive coding system for moving image
JPH09168153A (en) Movement detection method
JP3618783B2 (en) Image encoding method and image encoding apparatus
KR100208984B1 (en) Moving vector estimator using contour of object
JPH05328324A (en) Refresh system for movement-compensated inter-frame predictive coding
JPH07288817A (en) Motion vector detector
US6141451A (en) Image coding method and apparatus
JPH1042300A (en) Motion vector detection device
JP2000078580A (en) Device and method for detecting moving vector and distribution medium
JPH06311533A (en) Motion compensation device
JPS63144626A (en) Dynamic vector detecting system
Chung et al. New Prediction-and Affine Transformation-Based Three-Step Search Scheme for Motion Estimation With Application.