JPH0846968A - Method and device for detecting hierarchical motion vector - Google Patents

Method and device for detecting hierarchical motion vector

Info

Publication number
JPH0846968A
JPH0846968A JP6182170A JP18217094A JPH0846968A JP H0846968 A JPH0846968 A JP H0846968A JP 6182170 A JP6182170 A JP 6182170A JP 18217094 A JP18217094 A JP 18217094A JP H0846968 A JPH0846968 A JP H0846968A
Authority
JP
Japan
Prior art keywords
block
frame
image
memory
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6182170A
Other languages
Japanese (ja)
Inventor
Hisanori Ono
尚紀 小野
Yoshiyuki Yashima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6182170A priority Critical patent/JPH0846968A/en
Publication of JPH0846968A publication Critical patent/JPH0846968A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To improve encoding efficiency by detecting a motion vector where an actual motion is reflected even when the plural motions are added in an input picture. CONSTITUTION:A current reduced picture frame 26 stored in a frame memory 12 is read with the value of an address signal 25 consisting of the two coordinates of (x, y) as an address value and inputted to a small area dividing part 37. The small area dividing part 37 reads the kXj number of block data from the present frame reduced picture 26, divides read data into (k/(m1Xm2))X(j/(n1Xn2)) number of blocks and, then, calculates the characteristic quantity of the respective blocks to integrate the blocks by comparing them. An integrated present frame block signal 43, the reading start address (the address corresponding to the extreme left-upper picture element in the block) of outputted block data and an integration block information 55 indicating the mutually integrated blocks are outputted. The small area dividing part 38 executes a similar processing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は階層的動ベクトル検出方
法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hierarchical motion vector detecting method and apparatus.

【0002】[0002]

【従来の技術】従来の階層的動ベクトル検出方法では、
動ベクトルを検出する際、縮小画像での動ベクトル検索
には原画像と同じサイズのブロックを用いていた。この
場合、縮小画像での1ブロックは上位階層画像(縮小の
際、その元となる画像)での複数個のブロックに相当す
る。例えば、上位階層画像に対して水平、垂直方向にそ
れぞれ1/m1 ,1/n1 のサイズに縮小した画像での
1ブロックは、上位階層画像でのmi ×ni ブロックに
対応する。階層的動ベクトル検出では、縮小画像におい
て求まった動ベクトルは水平、垂直方向にそれぞれm
i ,ni 倍され、上位階層画像での動ベクトル検出にお
ける初期値として用いられ、上位階層ではこの初期値の
周囲を探索する。すなわち、上位階層画像に対して水
平、垂直方向にそれぞれ1/mi ,1/ni のサイズに
縮小した画像の1ブロックにおける探索結果は、上位階
層画像におけるmi ×ni 個のブロックの初期値として
用いられる。
2. Description of the Related Art In the conventional hierarchical motion vector detection method,
When detecting a motion vector, a block with the same size as the original image was used for motion vector search in a reduced image. In this case, one block in the reduced image corresponds to a plurality of blocks in the upper layer image (the image that is the source of the reduced image). For example, one block in an image reduced in size to 1 / m 1 and 1 / n 1 in the horizontal and vertical directions with respect to the upper layer image corresponds to the m i × n i block in the upper layer image. In the hierarchical motion vector detection, the motion vector found in the reduced image is m in the horizontal and vertical directions.
i, is n i times, used as an initial value in the motion vector detection in the upper-layer image, the upper layer to explore around this initial value. That is, the search result in one block of the image reduced to the size of 1 / m i and 1 / n i in the horizontal and vertical directions with respect to the upper layer image is the same as the search result of m i × n i blocks in the upper layer image. Used as an initial value.

【0003】縮小係数m1 =n1 =m2 =n2 =2の場
合の縮小画像および原画像に対するブロックの様子を図
3に示す。第3階層でのブロックA”〜P’がそれぞれ
第2階層のA’〜P’、原画像のA〜Pに対応してい
る。従来方法ではブロックA”〜P”の16個のブロッ
クをまとめて一つのブロックとしてマッチングを行な
い、求まったベクトルを4つのブロックA’+B’+
E’+F’,C’+D’+G’+H’,I’+J’+
M’+N’,K’+L’+O’+P’の初期値として用
いて、第2階層での探索を行ない、ブロックA’+B’
+E’+F’の探索結果を原画像におけるブロックA,
B,E,Fに、ブロックC’+D’+G’+H’の探索
結果をブロックC、D、G、Hに、ブロックI’+J’
+M’+N’の探索結果をブロックI,J,M,Nに、
ブロックK’+L’+O’+P’の探索結果をブロック
K,L,O,Pに、それぞれ初期値として与えていた。
FIG. 3 shows the states of blocks for a reduced image and an original image when the reduction coefficient m 1 = n 1 = m 2 = n 2 = 2. The blocks A "to P'in the third layer correspond to A'to P'in the second layer and A to P in the original image respectively. In the conventional method, 16 blocks of blocks A" to P "are Matching is performed as one block collectively, and the obtained vector is divided into four blocks A ′ + B ′ +
E '+ F', C '+ D' + G '+ H', I '+ J' +
Using as initial values of M '+ N', K '+ L' + O '+ P', a search in the second hierarchy is performed, and blocks A '+ B'
The search result of + E '+ F' is the block A in the original image,
In B, E, and F, the search results of block C '+ D' + G '+ H' are shown in blocks C, D, G, and H, and block I '+ J'.
Search results of + M '+ N' in blocks I, J, M, N,
The search result of the block K '+ L' + O '+ P' is given to the blocks K, L, O, and P as initial values, respectively.

【0004】[0004]

【発明が解決しようとする課題】階層的動ベクトル検出
方法において、従来用いられているように縮小画像での
動ベクトル検索に原画像と同じサイズのブロックを用い
た場合、画像を縮小してもブロックサイズが固定である
ため、縮小率が高くなるにしたがい、ブロックの画像中
に占める割合が増加する。その結果、一つのブロック内
に複数の異なる動きをもつ物体が含まれる確率が高くな
るが、一つのブロックに対して動ベクトルは一つしか与
えられないため、物体毎の正しい動きを検出することは
不可能である。
In the hierarchical motion vector detection method, when a block of the same size as the original image is used for motion vector search in a reduced image as conventionally used, even if the image is reduced, Since the block size is fixed, the ratio of the block to the image increases as the reduction ratio increases. As a result, the probability that an object with multiple different motions is included in one block increases, but since only one motion vector is given to one block, it is necessary to detect the correct motion for each object. Is impossible.

【0005】これを解決する手法として、各縮小画像上
で最終的に動ベクトルを求めるブロックのサイズに対し
て、画像サイズに比例したサイズのブロックを使用して
ブロックマッチングを行なう手法が考えられる。この場
合ブロックサイズは、縮小画像を得る縮小係数m1 ,m
2 ,・・・,mi の積M1 とn1 ,n2 ,・・・,n i
の積Ni を用いて、k/Mi 画素×j/Ni ラインのサ
イズとなる。図3の例ではブロックA”〜P”でマッチ
ングを行ない、その結果がそれぞれA’〜P’でのマッ
チング時の初期値に、さらにA’〜P’でのマッチング
の結果がそれぞれA〜Pでのマッチング時の初期値とな
る。しかしこの手法では画素サイズに比例して縮小され
たブロックを用いることで、マッチング時のサンプル点
数を少なくするため誤検出の可能性が増加するという問
題点があった。
As a method for solving this, on each reduced image
For the size of the block that finally obtains the motion vector
And use blocks of size proportional to the image size
A method of performing block matching can be considered. This place
The total block size is a reduction coefficient m for obtaining a reduced image.1 , M
2 , ..., mi Product of1 And n1 , N2 , ・ ・ ・, N i 
Product Ni Using k / Mi Pixel x j / Ni Line service
It becomes Iz. In the example of FIG. 3, blocks A "to P" match
And the result is the map from A'to P '.
Matching with A'to P'to the initial value during ching
Are the initial values at the time of matching in AP respectively.
It However, with this method, the size is reduced in proportion to the pixel size.
Sample points at the time of matching by using the block
The question is that the probability of false positives increases because the number is reduced.
There was a subject.

【0006】本発明の目的は、入力画像に複数の動きが
含まれる場合でも実際の動きを反映した動ベクトルを検
出し、符号化効率を改善した階層的動ベクトル検出方法
および装置を提供することにある。
It is an object of the present invention to provide a hierarchical motion vector detection method and apparatus which detects a motion vector reflecting an actual motion even when an input image includes a plurality of motions and improves coding efficiency. It is in.

【0007】[0007]

【課題を解決するための手段】本発明の階層的動ベクト
ル検出方法は、原画像をk画素×jライン(k,jは任
意の自然数)のブロックに分割し、それらのブロック毎
に動ベクトルを検出するために、原画像V0 を水平、垂
直方向にそれぞれ縮小係数m1 ,n1を用いて1/m
1 ,1/n1 (m1 ,n1 は任意の自然数)に縮小した
画像V1 を作成し、この縮小画像V1 を水平、垂直方向
にそれぞれ縮小係数m2 ,n2 を用いて1/m2 ,1/
2 (m2 ,n2 は任意の自然数)に縮小した画像V2
を作成し、以下同様の操作を縮小係数mc ,nc までc
回(mc,ncは任意の自然数、cは任意の自然数)繰り
返した後、縮小画像VC で動ベクトルを検出し、検出さ
れた動ベクトルを水平、垂直方向にそれぞれmc ,nc
倍(mc ,nc は縮小画像cの縮小係数)したベクトル
を初期値として、縮小画像Vc-1 上で初期値の周辺で動
ベクトル検出を行ない、縮小画像VC-1 上で検出された
動ベクトルを水平、垂直方向にmc-1 ,nc-1 倍したベ
クトルを初期値として、縮小画像VC-2 上で初期値の周
辺で動ベクトル検出を行なう操作を、原画像V0 上での
動ベクトル検出まで繰り返し、最終的な動ベクトルを検
出する階層的動ベクトル検出方法において、縮小画像V
i (iは1≦i≦cを満たす整数)上で動ベクトル検出
行なうためのブロックの形状を適応的に切替えて動ベク
トル検出を行ない、縮小画像Vi-1における動ベクトル
検出のための初期値とすることを特徴とする。
A hierarchical motion vector detection method according to the present invention divides an original image into blocks of k pixels × j lines (k and j are arbitrary natural numbers), and the motion vector is calculated for each block. In order to detect the error, the original image V 0 is reduced to 1 / m using the reduction factors m 1 and n 1 in the horizontal and vertical directions, respectively.
1, 1 / n 1 (m 1, n 1 is an arbitrary natural number) to create an image V 1 which is reduced to the reduced image V 1 horizontal, using the reduced, respectively in a vertical direction coefficient m 2, n 2 1 / M 2 , 1 /
Image V 2 reduced to n 2 (m 2 and n 2 are arbitrary natural numbers)
Create and following similar shrink operation coefficients m c, until n c c
After repeating (m c and n c are arbitrary natural numbers and c is an arbitrary natural number), a motion vector is detected in the reduced image V C , and the detected motion vector is horizontally and vertically respectively m c and n c.
With a vector doubled (m c and n c are reduction factors of the reduced image c) as an initial value, motion vector detection is performed around the initial value on the reduced image V c-1 , and detected on the reduced image V C-1. An operation of detecting a motion vector around the initial value on the reduced image V C-2 is performed using the vector obtained by multiplying the generated motion vector by m c-1 and n c-1 in the horizontal and vertical directions as an initial value. In the hierarchical motion vector detection method that repeats the motion vector detection on V 0 to detect the final motion vector, the reduced image V
On i (i is an integer satisfying 1 ≦ i ≦ c), the shape of the block for performing the motion vector detection is adaptively switched to perform the motion vector detection, and the initial stage for detecting the motion vector in the reduced image V i−1 is set. It is characterized by setting it as a value.

【0008】また、本発明の階層的動ベクトル検出装置
は、現在フレームの原画像を蓄える現在フレーム原画像
フレームメモリと、該現在フレーム原画像フレームメモ
リに蓄えられている現在フレームの原画像をk×j
(k,jは自然数)に分割し、現在フレームブロック信
号およびブロック読み出し開始アドレス信号を出力する
原画像小領域分割部と、第1、第2、・・・,第c(c
は任意の自然数)の現在フレーム縮小画像フレームメモ
リと、前記現在フレーム原画像フレームメモリに蓄えら
れている現在フレームの原画像を水平、垂直方向にそれ
ぞれ縮小係数m1 ,n1 を用いて1/m1 ,1/n1
(m1,n1 は任意の自然数)に縮小した第1の現在フ
レーム縮小画像を作成し、第1の現在フレーム縮小画像
メモリに蓄える第1の現在フレーム縮小部と、第1の現
在フレーム縮小画像を水平、垂直方向にそれぞれ縮小係
数m2 ,n2 を用いて1/m2 ,1/n2 (m2,n2
は任意の自然数)に縮小した第2の現在フレーム縮小画
像を作成し、第2の現在フレーム縮小画像メモリに蓄え
る第2の現在フレーム縮小部と、・・・・、第(c−
1)の縮小画像を水平、垂直方向にそれぞれ縮小係数m
c,ncを用いて1/mc,1/nc(mc ,ncは任意の
自然数)に縮小した第cの縮小画像を作成し、第cの現
在フレーム縮小画像フレームメモリに蓄える第cの現在
フレーム縮小部と、第1の現在フレーム縮小画像フレー
ムメモリに蓄えられている縮小画像からk×j個のブロ
ックデータを読み出し、そのブロックデータをさらに
(k/m1)×(j/n1)のブロックに分割した後、各
ブロックの特徴量を算出し、該特徴量の比較を行なうこ
とでブロックの統合を行ない、統合された現在フレーム
ブロック信号、出力したブロックデータの読み出し開始
アドレスおよび互いに統合されたブロックを示す統合ブ
ロック情報を出力する第1の現在フレーム小領域分割部
と、第2の現在フレーム縮小画像フレームメモリに蓄え
られている縮小画像からk×j個のブロックデータを読
み出し、そのブロックデータをさらに{k/(m1 ×m
2)}×{j/(n1×n2)}のブロックに分割した
後、各ブロックの特徴量を算出し、該特徴量の比較を行
なうことでブロックの統合を行ない、統合された現在フ
レームブロック信号、出力したブロックデータの読み出
し開始アドレスおよび互いに統合されたブロックを示す
統合ブロック情報を出力する第2の現在フレーム小領域
分割部と、・・・、第cの現在フレーム縮小画像フレー
ムメモリに蓄えられている縮小画像からk×j個のブロ
ックデータを読み出し、そのブロックデータをさらに
{k/(m1×m2 ×・・・×mc)}×{j/(n1×
2 ×・・・×nc)}のブロックに分割した後、各ブ
ロックの特徴量を算出し、該特徴量の比較を行なうこと
でブロックの統合を行ない、統合された現在フレームブ
ロック信号、出力したブロックデータの読み出し開始ア
ドレスおよび互いに統合されたブロックを示す統合ブロ
ック情報を出力する第1の現在フレーム小領域分割部
と、参照フレームの原画像を蓄える参照フレーム原画像
フレームメモリと、第1、第2、・・・、第c(cは任
意の自然数)の参照フレーム縮小画像フレームメモリ
と、前記参照フレーム原画像フレームメモリに蓄えられ
ている参照フレームの原画像を水平、垂直にそれぞれ縮
小係数m1,n1 を用いて1/m1 ,1/n1 (m1,n
1 は任意の自然数)に縮小した第1の参照フレーム縮小
画像を作成し、第1の参照フレーム縮小画像メモリに蓄
える第1の参照フレーム縮小部と、第1の参照フレーム
縮小画像を水平、垂直方向にそれぞれ縮小係数m2,n2
を用いて1/m2,1/n2 (m2,n2 は任意の自然
数)に縮小した第2の参照フレーム縮小画像を作成し、
第2の参照フレーム縮小画像メモリに蓄える第2の参照
フレーム縮小部と、・・・・、第(c−1)の縮小画像
を水平、垂直方向にそれぞれ縮小係数mc,ncを用いて
1/mc,1/nc(mc,ncは任意の自然数)に縮小し
た第cの縮小画像を作成し、第cの参照フレーム縮小画
像フレームメモリに蓄える第cの参照フレーム縮小部
と、現在探索を行っている階層のベクトルデータが前記
統合ブロック情報に応じて書き込まれる現階層ベクトル
メモリと、現階層での全ブロックの探索を終了した後、
前記現階層ベクトルメモリのベクトルデータがコピーさ
れる前階層ベクトルメモリを含むベクトルメモリと、第
1の現在フレーム小領域分割部から出力された統合ブロ
ック情報によって、統合されたブロックの形にあった縮
小画像を第1の参照画像フレームメモリから読み出し、
読み出した信号を参照フレームブロック信号として、ま
たそのときの読み出し開始アドレスに前記前階層ベクト
ルメモリの現在のブロックに対応するアドレスに格納さ
れたベクトルを水平、垂直方向にそれぞれm2,n2倍し
た値を加えたものをブロック読み出し開始アドレス信号
として出力する第1の参照フレーム小領域分割部と、第
2の現在フレーム小領域分割部から出力された統合ブロ
ック情報によって、統合されたブロックの形にあった縮
小画像を第2の参照画像フレームメモリから読み出し、
読み出した信号を参照フレームブロック信号として、ま
たそのときの読み出し開始アドレスに前記前階層ベクト
ルメモリの現在ブロックに対応するアドレスに格納され
たベクトルを水平、垂直方向にそれぞれm 3,n3 倍し
た値を加えたものをブロック読み出し開始アドレス信号
として出力する第2の参照フレーム小領域分割部と、・
・・、第cの現在フレーム小領域分割部から出力された
統合ブロック情報によって、統合されたブロックの形に
あった縮小画像を第cの参照画像フレームメモリから読
み出し、読み出した信号を参照フレームブロック信号と
して、またそのときの読み出し開始アドレスをブロック
読み出し開始アドレス信号として出力する第cの参照フ
レーム小領域分割部と、 現在フレーフレーム原画像メ
モリに蓄えられている現在フレーム画像をk×j(k,
jは自然数)に分割し、現在フレームブロック信号およ
びブロックオフセットアドレス信号を出力する参照フレ
ーム原画像小領域分割部と、第iの現在フレーム小領域
分割部(i=1,2,・・・,c)から出力された現在
フレームブロック信号と第iの参照フレーム小領域分割
部から出力された参照フレームブロック信号を入力し、
画素値の差分値を計算するマッチング誤差計算部と、最
小値メモリを有し、前記マッチング誤差計算部から差分
値を入力し、該誤差分値が前記最小値メモリに蓄えられ
ている値より小さいならば、前記最小値メモリの値を該
差分値で更新し、第iの参照フレーム小領域分割部から
出力された参照フレームブロック読み出し開始アドレス
信号から第iの現在フレーム領域分割部から出力された
現在フレームブロック読み出し開始アドレス信号を減じ
たアドレスをベクトルアドレスとして前記ベクトルメモ
リに記憶する比較器を有する。
The hierarchical motion vector detecting apparatus of the present invention
Is the original image of the current frame that stores the original image of the current frame
Frame memory and the current frame Original image Frame memo
The original image of the current frame stored in
(K and j are natural numbers) and the current frame block
Signal and block read start address signal
The original image small area dividing unit and the first, second, ..., Cth (c
Is an arbitrary natural number) current frame reduced image frame memo
And the current frame original image stored in the frame memory
The original image of the current frame that is being displayed horizontally and vertically
Reduction factor m1 , N1 Using 1 / m1 , 1 / n1,
(M1, N1 Is an arbitrary natural number)
Create a reduced frame image, and reduce the first current frame reduced image
The first current frame reduction unit stored in the memory and the first current frame reduction unit.
Reduces the current frame reduction image horizontally and vertically
A few meters2 , N2 Using 1 / m2 , 1 / n2 (M2, N2 
Is the second current frame reduced image reduced to an arbitrary natural number)
Create an image and store it in the second current frame reduced image memory
A second current frame reduction unit that is ...
The reduced image of 1) is reduced by m in the horizontal and vertical directions.
c, NcUsing 1 / mc, 1 / nc(Mc , NcIs any
Create a c-th reduced image reduced to a natural number), and
Current frame's reduced image c-th current stored in frame memory
The frame reduction unit and the first current frame reduction image frame
K × j blocks from the reduced images stored in memory
Read the block data and add the block data
(K / m1) × (j / n1) After dividing into blocks, each
The feature quantity of the block is calculated and the feature quantity is compared.
The block is integrated with and the integrated current frame
Start reading the block signal and output block data
Integrated block showing addresses and blocks integrated with each other
First current frame small area division unit that outputs lock information
And store it in the second current frame reduced image frame memory
Read k × j block data from the reduced image
Then, the block data is further extracted by {k / (m1 × m
2)} × {j / (n1× n2)} Block
After that, the feature amount of each block is calculated and the feature amount is compared.
By combining the blocks, the integrated current
Read out ram block signal and output block data
The starting address and the blocks integrated with each other
The second current frame small area for outputting integrated block information
Dividing part, ..., c-th current frame reduced image frame
K × j blocks from the reduced images stored in memory
Read the block data and add the block data
{K / (m1× m2 × ・ ・ ・ × mc)} × {j / (n1×
n2 × ・ ・ ・ × nc)} Blocks, and then
Compute lock feature and compare the features
Block integration with the current frame
Lock signal, start reading the output block data
Integrated block showing dresses and blocks integrated with each other
First current frame small area dividing unit for outputting the check information
And the reference frame original image that stores the reference frame original image
Frame memory and 1st, 2nd, ...
Reference frame reduced image frame memory
And stored in the reference frame original image frame memory
The original image of the reference frame is horizontally and vertically contracted.
Small coefficient m1, N1 Using 1 / m1 , 1 / n1 (M1, N
1 Is the first reference frame reduction reduced to an arbitrary natural number)
Create an image and store it in the first reference frame reduced image memory
First reference frame reducing unit, and first reference frame
The reduced image is scaled down horizontally and vertically by m2, N2
 Using 1 / m2, 1 / n2 (M2, N2 Is any nature
Create a second reference frame reduced image reduced to
Second reference frame Second reference stored in reduced image memory
Frame reduction unit, ..., (c-1) th reduced image
Reduction factor m in the horizontal and vertical directionsc, NcUsing
1 / mc, 1 / nc(Mc, NcIs an arbitrary natural number)
Created the c-th reduced image and the c-th reference frame reduced image
The c-th reference frame reduction unit stored in the image frame memory
And the vector data of the layer currently being searched is
Current hierarchy vector written according to integrated block information
After finishing searching the memory and all blocks in the current hierarchy,
The vector data of the current hierarchy vector memory is copied.
Vector memory, including the previous layer vector memory,
The integrated block output from the current frame small area division unit 1
According to the check information, the reduction that was in the form of the integrated block
Reading a small image from the first reference image frame memory,
The read signal is used as the reference frame block signal.
At that time, the previous layer vector is set to the read start address.
Stored at the address corresponding to the current block of
M in the horizontal and vertical directions2, N2Doubled
Block read start address signal
And a first reference frame small area dividing unit for outputting as
The integrated block output from the current frame small area division unit 2
According to the check information, the reduction that was in the form of the integrated block
Reading a small image from the second reference image frame memory,
The read signal is used as the reference frame block signal.
At that time, the previous layer vector is set to the read start address.
Stored at the address corresponding to the current block of
M in the horizontal and vertical directions 3, N3 Doubled
Block read start address signal
A second reference frame small area dividing unit that outputs as
.., output from the c-th current frame small area dividing unit
With the integrated block information, in the form of integrated block
Read the reduced image from the c-th reference image frame memory.
The signal read out and read is used as the reference frame block signal.
Block the read start address at that time.
The c-th reference frame output as the read start address signal
Lame small area division part and the current frame original image
The current frame image stored in the memory is k × j (k,
j is a natural number), and the current frame block signal and
And block offset address signal output reference frame
Original image small area dividing unit and the i-th current frame small area
The current output from the division unit (i = 1, 2, ..., C)
Frame block signal and i-th reference frame small area division
Input the reference frame block signal output from the section,
A matching error calculation unit that calculates the difference value of pixel values, and
It has a small value memory, and the difference from the matching error calculator
Input the value and the error value is stored in the minimum value memory.
Is smaller than the value stored in the minimum value memory,
Update with the difference value, and then from the i-th reference frame small area dividing unit
Output reference frame block read address
The signal is output from the i-th current frame area division unit
Current frame block read start address signal is subtracted
The above address as a vector address
It has a comparator for storing it in memory.

【0009】[0009]

【作用】本発明は、従来の階層的動ベクトル検出方法と
同様に入力画像の輝度信号から縮小画像を作成し、各縮
小画像上で動ベクトルを求める際に用いるブロックの形
状を適応的に切替えてブロックマッチングを行なうこと
を特徴とする。
According to the present invention, similarly to the conventional hierarchical motion vector detection method, a reduced image is created from the luminance signal of the input image, and the shape of the block used for obtaining the motion vector on each reduced image is adaptively switched. Block matching is performed.

【0010】すなわち、階層的動ベクトル探索におい
て、ブロック内に複数の異なる動きを含む影響により実
際と異なる動きを検出する可能性を減らすために、縮小
画像におけるブロックを画像の縮小率と等しく縮小した
サイズのブロックに分割し、さらにそれらのうち同じ物
体に含まれるブロックを統合したものを縮小画像でのマ
ッチングに用いる。
That is, in the hierarchical motion vector search, in order to reduce the possibility of detecting a motion different from the actual one due to the influence of a plurality of different motions in the block, the block in the reduced image is reduced to the same reduction ratio as the image. It is divided into blocks of a size, and the blocks included in the same object are integrated and used for matching in a reduced image.

【0011】縮小画像での検出においてブロックサイズ
を大きくすると、物体の境界を含む可能性が高くなり、
検出精度の低下を招く場合があるが、同じ物体であるな
らば、一つのブロックとしてまとめて動き検出を行なっ
た方が、マッチング時のサンプル点数が多くなるため検
出精度が上がる。従来方法における縮小画像iでの動ベ
クトル検出単位であるブロックk画素×jラインは、縮
小画像を得る水平方向の縮小係数m1 ,m2 ,・・・,
i の積をMi 、垂直方向の縮小係数n1 ,n 2,・・
・,ni の積をNi とすると、原画像でのMi ×Ni
のブロックに対応し、それぞれ縮小画像iではk/Mi
画素×j/Ni ラインのブロックとなる。k/Mi 画素
×j/Ni ラインのブロックを単位として、同じ物体に
含まれるとみなされるブロックを統合し、統合された各
領域をマッチングの単位として動ベクトル検出を行な
う。
Block size in detection in reduced image
Is larger, it is more likely to include the boundaries of the object,
The detection accuracy may be reduced, but it is not the same object.
Raba, motion detection is performed collectively as one block.
However, the number of sample points during matching increases, so
The output accuracy increases. Moving image with reduced image i in the conventional method
Block k pixel xj line, which is the unit of cuttle detection, is reduced
Horizontal reduction factor m to obtain a small image1 , M2 ・ ・ ・ ・ ・ ・
mi The product of Mi , Vertical reduction factor n1 , N 2・ ・ ・
., Ni The product of Ni Then, M in the original imagei × Ni Individual
Corresponding to each block of k / M in the reduced image i.i 
Pixel x j / Ni It becomes a block of lines. k / Mi Pixel
× j / Ni For the same object with the line block as a unit
Integrates blocks that are considered to be included, each
Motion vector detection is performed using the area as the unit of matching.
U

【0012】例えば図3(縮小係数m1 =n1 =m2
2 =2)の場合で、第3階層におけるブロックA”〜
P”での統合結果が図4のように3つに分かれた場合、
ブロックA”+E”+F”でマッチングを行ない、検出
された動ベクトルを水平、垂直方向にそれぞれm2 ,n
2 倍したものをブロックA’,E’,F’での探索にお
ける初期値に、B”+C”+D”+G”+H”+K”+
L”+M”+N”で検出された動ベクトルを水平、垂直
方向にそれぞれm2 ,n2 倍したものをブロックB’,
C’,D’,G’,H’,K’,L’,M’,N’での
探索における初期値に、そしてI”+J”+M”+N”
で検出された動ベクトルを水平、垂直方向にそれぞれm
2 ,n2 倍したものをブロックI’,J’,M’,N’
での探索における初期値として第2階層でのマッチング
を行なう。
For example, in FIG. 3 (reduction coefficient m 1 = n 1 = m 2 =
n 2 = 2), the block A ″ in the third hierarchy
When the integration result in P "is divided into three as shown in Fig. 4,
Matching is performed with blocks A "+ E" + F ", and the detected motion vector is m 2 and n in the horizontal and vertical directions, respectively.
The doubled value is used as the initial value in the search in the blocks A ′, E ′, and F ′, B ″ + C ″ + D ″ + G ″ + H ″ + K ″ +
The motion vector detected by L "+ M" + N "is multiplied by m 2 and n 2 in the horizontal and vertical directions, respectively, to obtain a block B ',
To the initial value in the search at C ', D', G ', H', K ', L', M ', N', and I "+ J" + M "+ N"
The motion vector detected in
2 and n 2 times the blocks I ', J', M ', N'
Matching in the second layer is performed as an initial value in the search in.

【0013】この手法により、入力画像に複数の異なる
動きが含まれる場合でも、実際の動きを反映した動ベク
トルが検出される。
According to this method, even if the input image includes a plurality of different motions, a motion vector reflecting the actual motion is detected.

【0014】次に、ブロック統合の判定方法を、図3
(縮小係数m1 =n1 =m2 =n2 =2)の場合で説明
する。まず、A”〜P”それぞれのブロックの特徴量を
算出する。特徴量としては輝度値の分散、平均など任意
の値を用いることができる。閾値Thを設定し、あるブ
ロックの特徴量と、別のあるブロックの特徴量との差分
がTh以内であるブロックを同じ物体に属すると判定
し、一つのブロックとしてマッチングを行なう。ブロッ
クA”およびB”の特徴量をそれぞれFA",FB"とする
と、式(1)を満たすときブロックA”とB”を一つの
ブロックとしてマッチングを行なう。
Next, a block integration determination method will be described with reference to FIG.
The case of (reduction coefficient m 1 = n 1 = m 2 = n 2 = 2) will be described. First, the feature amount of each block of A "to P" is calculated. As the feature amount, any value such as variance or average of brightness values can be used. A threshold Th is set, it is determined that blocks whose difference between the feature amount of a certain block and the feature amount of another certain block is within Th belong to the same object, and matching is performed as one block. When the feature quantities of the blocks A ″ and B ″ are F A ″ and F B ″ , respectively, when the formula (1) is satisfied, the blocks A ″ and B ″ are regarded as one block for matching.

【0015】 |FA"−FB"|<Th ・・・・・(1) 全てのブロックの組合せに対してこの判定を行ない、同
じ物体に含まれると判定されたブロックは一つのブロッ
クとして統合しマッチングを行なう。これらの統合処理
により、例えば、図4のように第3階層でのブロックが
3つに分れた場合、ブロックA”+E”+F”でマッチ
ングを行ない、検出された動ベクトルを水平、垂直方向
にそれぞれm2 ,n2 倍したものをブロックA’,
E’,F’での探索における初期値に、水平、垂直方向
にそれぞれB”+C”+D”+G”+H”+K”+L”
+O”+P”で検出された動ベクトルをm2 ,n2 倍し
たものをブロックB’,C’,D’,G’,H’,
K’,L’,M’,N’での探索における初期値に、そ
してI”+J”+M”+N”で検出された動ベクトルを
水平、垂直方向にそれぞれm2 ,n2 倍したものをブロ
ックI’,J’,M’,N’での探索における初期値と
して第2階層でのマッチングを行なう。第2階層でのマ
ッチングを行なう際にも、第3階層と同様の操作により
統合処理を行ない、統合されたブロックでマッチングを
行ない、原画像において対応するブロックの初期値とす
る。第2階層での統合処理により、ブロックA’,
B’,E’,F’が一つに統合された場合、ブロック
A’,E’,F’においてはブロックA”+E”+F”
でのマッチング結果が、ブロックB’においてはブロッ
クB”+C”+D”+G”+H”+K”+L”+O”+
P”でのマッチング結果がそれぞれ初期値となり、統合
された一つのブロック内に2つの初期値が与えられるこ
とになる。この状態は、ブロックA’,E’,F’にお
ける初期値とブロックB’における初期値の平均をと
る、あるいは縮小率の高い画像で統合されたブロックを
またがるような統合を許さないなどの処理により回避で
きる。
| F A ″ −F B ″ | <Th (1) This determination is performed for all combinations of blocks, and blocks determined to be included in the same object are regarded as one block. Integrate and match. By the integration processing, for example, when the block in the third layer is divided into three as shown in FIG. 4, matching is performed with the block A ″ + E ″ + F ″, and the detected motion vector is set in the horizontal and vertical directions. To m 2 and n 2 times the block A ′,
The initial values in the search with E'and F'are B "+ C" + D "+ G" + H "+ K" + L "in the horizontal and vertical directions, respectively.
The motion vectors detected by + O "+ P" are multiplied by m 2 and n 2 to obtain blocks B ', C', D ', G', H ',
The initial value in the search with K ', L', M ', N', and the motion vector detected by I "+ J" + M "+ N" multiplied by m 2 and n 2 in the horizontal and vertical directions, respectively. Matching in the second layer is performed as an initial value in the search in the blocks I ′, J ′, M ′, N ′. Also when performing the matching in the second layer, the integration process is performed by the same operation as in the third layer, the matching is performed in the integrated block, and the initial value of the corresponding block in the original image is set. The block A ′,
When B ', E', F'are integrated into one, in block A ', E', F ', block A "+ E" + F "
In the block B ', the matching result in block B "+ C" + D "+ G" + H "+ K" + L "+ O" +
The matching result in P ″ becomes the initial value, and two initial values are given in one integrated block. This state is the initial value in the blocks A ′, E ′, F ′ and the block B. This can be avoided by taking the average of the initial values in ', or by not allowing integration that spans blocks integrated in images with a high reduction rate.

【0016】[0016]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0017】図1は本発明の一実施例の階層的動ベクト
ル検出装置のブロック図である。
FIG. 1 is a block diagram of a hierarchical motion vector detecting apparatus according to an embodiment of the present invention.

【0018】現在フレームの画像1はフレームメモリ2
に蓄えられる。縮小画像作成部5は、アドレス計算部と
演算部から構成され、フレームメモリ2に蓄積された画
像4から水平、垂直方向にそれぞれ1/m1 ,1/n1
(m1,n1は任意の自然数)のサイズに縮小した画像6
を作成し、フレームメモリ7に蓄積する。縮小は、m 1
×n1 個の画素を1画素に変換する操作であり、縮小画
像作成部5では、始めに縮小画像の1画素に対応するm
1×n1個の画素を、対応するアドレス信号3をフレーム
メモリ2に与えることで読み出す。縮小画素を作成する
ためにフィルタをかける必要があるが、例えば平均値フ
ィルタを用いた場合、読み出されたm1×n1 個の画素
値を加算して、m1 ×n1 で割る操作を行ない、その結
果を縮小画像信号6としてフレームメモリ7に蓄積す
る。なお、使用するフィルタは平均値フィルタに限定さ
れず、中央値など、各種のフィルタを用いることが可能
である。縮小画像作成部10の構成および動作も、縮小
画像作成部5と同様で、縮小画像作成部10ではアドレ
ス信号8で、縮小された画像9を読み出し、これをさら
に水平、垂直方向にそれぞれ1/m2 ,1/n2 (m
2 ,n2 は2以上の自然数)のサイズに縮小し、縮小画
像11としてフレームメモリ12に蓄える。参照フレー
ムの画像13も現在フレームの画像1と同様に、フレー
ムメモリ14に蓄積された後、縮小画像作成部17にお
いて1/m1 ,1/n1 のサイズに縮小され、縮小画像
18としてフレームメモリ19へと蓄えられた後、縮小
画像作成部22で1/m2 ,1/n2 のサイズに縮小さ
れ、フレームメモリ24へ蓄積が行なわれる。縮小画像
作成部22ではアドレス信号20で、縮小された画像2
1を読み出し、これをさらに水平、垂直方向にそれぞれ
1/m2 ,1/n2 のサイズに縮小し、縮小画像23と
してフレームメモリ24に蓄える。
The image 1 of the current frame is the frame memory 2
Stored in. The reduced image creation unit 5 and the address calculation unit
The image that is composed of the calculation unit and stored in the frame memory 2
1 / m horizontally and vertically from image 41 , 1 / n1 
(M1, N1Is an image reduced to the size of any natural number 6
Is created and stored in the frame memory 7. Reduction is m 1
× n1 This is an operation to convert each pixel to 1 pixel,
In the image creating unit 5, first, m corresponding to one pixel of the reduced image
1× n1The number of pixels, frame the corresponding address signal 3
It is read by giving it to the memory 2. Create reduced pixels
It is necessary to apply a filter to
If a filter is used, the read m1× n1 Pixels
Add values, m1 × n1 Divide by and
The result is stored in the frame memory 7 as the reduced image signal 6.
It Note that the filter used is not limited to the average value filter.
It is possible to use various filters such as the median value
Is. The structure and operation of the reduced image creation unit 10 are also reduced.
Similar to the image creation unit 5, the reduced image creation unit 10 addresses
Read out the reduced image 9 with
1 / m horizontally and vertically2 , 1 / n2 (M
2 , N2 Is a natural number of 2 or more)
The image 11 is stored in the frame memory 12. Reference frame
The image 13 of the frame is the same as the image 1 of the current frame.
After being stored in the memory 14, the reduced image creation unit 17
1 / m1 , 1 / n1 Image reduced to the size of
Reduced after being stored in the frame memory 19 as 18
1 / m in image creation unit 222 , 1 / n2 Reduced to the size of
Then, the data is stored in the frame memory 24. Reduced image
In the creating unit 22, the reduced image 2 is generated by the address signal 20.
1 is read and this is further horizontally and vertically respectively.
1 / m2 , 1 / n2 Reduced to the size of
And store it in the frame memory 24.

【0019】フレームメモリ12に蓄えられた現在フレ
ームの縮小画像26が(x,y)の2座標からなるアド
レス信号25の値をアドレス値として読み出され、小領
域分割部37に入力される。小領域分割部37はアドレ
ス信号25で現在フレーム縮小画像26から、k×j個
のブロックデータを読み出し、読み出したデータをさら
に{k/(m1×m2)}×{j/(n1×n2)}個のブ
ロックに分解した後、各ブロックの特徴量を算出し、式
(1)に示した比較を行なうことでブロックの統合を行
ない、統合された現在フレームブロック信号43、出力
したブロックデータの読み出し開始アドレス(ブロック
の最も左上の画素に対応するアドレス)49および互い
に統合されたブロックを示す統合ブロック情報55を出
力する。
The reduced image 26 of the current frame stored in the frame memory 12 is read as an address value of the address signal 25 consisting of two coordinates (x, y), and is input to the small area dividing unit 37. The small area dividing unit 37 reads k × j block data from the current frame reduced image 26 by the address signal 25, and further reads the read data by {k / (m 1 × m 2 )} × {j / (n 1 Xn 2 )} blocks, then the feature amount of each block is calculated, and the blocks are integrated by performing the comparison shown in Expression (1), and the integrated current frame block signal 43, output The read start address (address corresponding to the upper leftmost pixel of the block) 49 of the block data and the integrated block information 55 indicating the blocks integrated with each other are output.

【0020】図2は小領域分割部37のブロック図であ
る。まず、読み出そうとするブロック信号の左上に相当
する位置の画像信号を、記憶されている読み出し開始ア
ドレスをアドレス信号67としてフレームメモリ12に
与えることにより読み出す。以下、読み出そうとするブ
ロック内全ての座標を走査するようにアドレス信号の値
を変化させながら、k×j回の読み出しを行ない、ブロ
ックメモリ69に蓄積する。次に、特徴量計算部72が
ブロックメモリ69からの読み込みと同様の操作によ
り、ブロックメモリ69に蓄えられているk×j個のブ
ロック信号71を(x,y)の2座標からなるアドレス
信号70の値により{k/(m1×m2)}×{j/(n
1×n2)}のブロックに分割して読み出した後、読み出
されたブロックそれぞれで特徴量74を計算し、メモリ
73に蓄える。ブロック統合判定部76では、アドレス
信号75により特徴量74を読み出し、式(1)により
どのブロックを統合するか決定し、互いに結合されたブ
ロックを示す統合ブロック情報77,78(55)を出
力する。ブロックメモリ69は統合ブロック情報77に
より、結合されたブロック信号79(43)および出力
したブロック信号の読み出し開始アドレス80(49)
を出力する。小領域分割部38の構成および動作も同様
である。
FIG. 2 is a block diagram of the small area dividing section 37. First, the image signal at the position corresponding to the upper left of the block signal to be read is read by giving the stored read start address to the frame memory 12 as the address signal 67. Thereafter, while changing the value of the address signal so as to scan all the coordinates in the block to be read, the reading is performed k × j times and stored in the block memory 69. Next, the feature amount calculation unit 72 performs the same operation as the reading from the block memory 69 to convert the k × j block signals 71 stored in the block memory 69 into an address signal composed of two coordinates (x, y). According to the value of 70, {k / (m 1 × m 2 )} × {j / (n
1 × n 2 )} is divided and read out, and the feature amount 74 is calculated for each read block and stored in the memory 73. The block integration determination unit 76 reads out the feature value 74 from the address signal 75, determines which block is integrated according to the equation (1), and outputs integrated block information 77, 78 (55) indicating the blocks combined with each other. . The block memory 69 uses the integrated block information 77 to read the combined block signal 79 (43) and the read start address 80 (49) of the output block signal.
Is output. The configuration and operation of the small area dividing unit 38 are similar.

【0021】次に、フレームメモリ24に蓄えられた参
照フレームの縮小画像36が、(x,y)の2成分から
なるアドレス信号35の値をアドレスとして読み出さ
れ、小領域分割部42に入力される。小領域分割部42
はブロックの統合状態を示す統合ブロック情報57によ
って、統合されたブロックの形に合った画像信号36を
フレームメモリ24から読み出し、参照フレームブロッ
ク信号48として、同時に、そのときの読み出し開始ア
ドレス(x,y)をブロック読み出し開始アドレス信号
54として出力する。小領域分割部41の動作も同様で
ある。
Next, the reduced image 36 of the reference frame stored in the frame memory 24 is read with the value of the address signal 35 consisting of two components of (x, y) as an address and input to the small area dividing unit 42. To be done. Small area dividing unit 42
Reads the image signal 36 suitable for the shape of the integrated block from the frame memory 24 according to the integrated block information 57 indicating the integrated state of the block, and at the same time as the reference frame block signal 48, at the same time, the read start address (x, y) is output as the block read start address signal 54. The operation of the small area dividing unit 41 is similar.

【0022】現在フレームブロック信号43および参照
フレームブロック信号48はマッチング誤差計算部58
に入力される。マッチング誤差計算部58は演算部から
構成され、2つの小領域分割部37,42から出力され
る画素値の差分自乗値を計算し、それらを加算したもの
を差分値59として比較器60へ出力する。また、マッ
チング誤差計算部59では、1つの現在フレームブロッ
ク信号43に対応して、探索範囲内の複数の参照フレー
ムブロック信号48と前記計算を行なう。なお差分値演
算は差分自乗に限定されることはなく、差分絶対値など
を用いることも可能である。
The current frame block signal 43 and the reference frame block signal 48 are matched with each other by the matching error calculator 58.
Is input to The matching error calculation unit 58 is composed of a calculation unit, calculates the difference square value of the pixel values output from the two small area division units 37 and 42, and outputs the sum of them to the comparator 60 as the difference value 59. To do. In addition, the matching error calculation unit 59 performs the above calculation with a plurality of reference frame block signals 48 within the search range corresponding to one current frame block signal 43. The difference value calculation is not limited to the difference squared, and it is possible to use the difference absolute value or the like.

【0023】比較器60は、最小メモリ61を擁してい
おり、入力された差分値59がメモリ61に蓄えられて
いる値より小さければメモリ61の値を更新し、それぞ
れ2成分(x,y)からなる参照フレームブロック読み
出し開始アドレス信号54から現在フレームブロック読
み出し開始アドレス信号49を減じた値であるアドレス
62をベクトルメモリ63に記憶する。
The comparator 60 has a minimum memory 61, and if the input difference value 59 is smaller than the value stored in the memory 61, the value in the memory 61 is updated and each of the two components (x, y) is updated. An address 62, which is a value obtained by subtracting the current frame block read start address signal 49 from the reference frame block read start address signal 54, is stored in the vector memory 63.

【0024】ベクトルメモリ63は前階層ベクトルメモ
リ64および現階層メクトルメモリ65を擁しており、
比較器60の出力であるアドレス(動ベクトル)62を
統合ブロック情報55に応じて現階層ベクトルメモリ6
5の適当なアドレスへ書き込む。例えば図4に示すよう
な統合状態だった場合で、A’+C’+D’のブロック
で算出された動ベクトルは、ブロックA’,C’,D’
に対応する3つのアドレスに書き込まれる。
The vector memory 63 has a previous layer vector memory 64 and a current layer vector memory 65,
The address (motion vector) 62 output from the comparator 60 is transferred to the current hierarchy vector memory 6 according to the integrated block information 55.
Write to an appropriate address of 5. For example, in the case of the integrated state as shown in FIG. 4, the motion vector calculated in the block A ′ + C ′ + D ′ is the blocks A ′, C ′, D ′.
Are written to three addresses corresponding to.

【0025】参照フレームの縮小画像における動ベクト
ルの探索範囲で上記の操作を終了した後、現階層ベクト
ルメモリ65には縮小画像上での現在フレームから参照
フレームへの動ベクトルが蓄えられている。現階層での
全ブロックで探索を終了した後、次階層での探索におけ
る初期値として用いるため、現階層ベクトルメモリ65
のベクトルデータを前階層ベクトルメモリ64にコピー
する。
After the above operation is completed within the search range of the motion vector in the reduced image of the reference frame, the motion vector from the current frame to the reference frame on the reduced image is stored in the current hierarchy vector memory 65. After the search is completed in all blocks in the current layer, the current layer vector memory 65 is used as an initial value in the search in the next layer.
Vector data of the above is copied to the previous layer vector memory 64.

【0026】次に、フレームメモリ7に蓄えられている
現在フレームの縮小画像28がアドレス信号27により
読み出され、小領域分割部38に入力される。小領域分
割部38では、小領域分割部37と同様な動作によっ
て、現在フレームの縮小画像28からk×j個のブロッ
クを読み出し、そのブロックを(k/m1)×(j/
1)個のブロックに分割した後、統合判定および処理
を行ない、統合された現在フレームブロック信号44、
出力したブロック信号の読み出し開始アドレス50およ
び統合状態を示す統合ブロック情報56を出力する。同
様に、参照フレームの縮小画像34がアドレス信号33
によりフレームメモリ19から読み出され、小領域分割
部41に入力されるが、最もサイズの小さい縮小画像を
除く動ベクトル検出は、その画像から作成された縮小画
像で検出された動ベクトルを初期値とするため、このと
き読み出す読み出し開始アドレスは縮小画像での動ベク
トル分だけシフトする必要がある。アドレス信号33お
よびブロック読み出し開始アドレス信号53は、前階層
ベクトルメモリ64の現在のブロックに対応するアドレ
スに格納されたアドレス(動ベクトル)66を水平、垂
直方向にそれぞれm2 ,n 2 倍した値を加えたものとな
る。小領域分割部41はアドレス信号33を用いて統合
ブロック情報57に示される、統合されたブロックの形
に合った参照フレーム縮小画像34を読み出し、同時に
読み出した信号を参照フレームブロック信号47として
出力する。また、同時にブロック読み出し開始アドレス
信号53を出力する。そして縮小画像43の場合と同様
に、マッチング誤差計算部58において差分値が計算さ
れ、比較器60において入力された差分値がメモリ61
に蓄えられている値より小さければメモリ61の値を更
新し、それぞれ2成分(x,y)からなる参照フレーム
ブロック読み出し開始アドレス信号53から現在フレー
ムブロックオフセットアドレス信号50を減じた値であ
るアドレス(動ベクトル)62を現階層ベクトルメモリ
65の、対応するアドレスに書き込む。
Next, the data is stored in the frame memory 7.
The reduced image 28 of the current frame is generated by the address signal 27.
The data is read and input to the small area dividing unit 38. Small area
The dividing unit 38 operates in the same manner as the small area dividing unit 37.
From the reduced image 28 of the current frame, k × j blocks
Read out the block and (k / m1) × (j /
n1) Integrated judgment and processing after dividing into blocks
And the integrated current frame block signal 44,
The read start address 50 of the output block signal and
And integrated block information 56 indicating the integrated state. same
Similarly, the reduced image 34 of the reference frame is the address signal 33.
Is read from the frame memory 19 and divided into small areas.
It is input to the section 41, but the reduced image with the smallest size is
Exclude motion vector detection is a reduced image created from that image.
Since the motion vector detected in the image is the initial value,
The read start address to read out
It is necessary to shift by the amount of torr. Address signal 33
And the block read start address signal 53 are in the previous layer.
The address corresponding to the current block of the vector memory 64
Address (motion vector) 66 stored in
M in each direction2 , N 2 It ’s supposed to be the sum of doubled values.
It The small area division unit 41 integrates using the address signal 33.
Integrated block shape shown in block information 57
The reference frame reduced image 34 that matches
The read signal is used as the reference frame block signal 47.
Output. At the same time, the block read start address
The signal 53 is output. And similar to the case of reduced image 43
Then, the difference value is calculated by the matching error calculation unit 58.
And the difference value input in the comparator 60 is stored in the memory 61.
If it is smaller than the value stored in, the value in memory 61 is updated.
New reference frame consisting of two components (x, y)
The current frame from the block read start address signal 53
This is the value obtained by subtracting the
Address (motion vector) 62 for the current hierarchy vector memory
Write to the corresponding address of 65.

【0027】次に、フレームメモリ2に蓄えられた現在
フレームの原画像30がアドレス信号29により読み出
され、小領域分割部39に入力される。小領域分割部3
9では、現在フレームの原画像30をk×j個のブロッ
クに分割し、現在フレームブロック信号45およびブロ
ック読み出し開始アドレス信号51を出力する。同様
に、参照フレームの原画像32が小領域分割部40に入
力されるが、アドレス信号31およびブロック読み出し
開始アドレス信号52は前階層ベクトルメモリ64から
の(x,y)出力値66を水平、垂直にそれぞれm1
1 倍した値を加えたものとなる。アドレス信号31に
したがって読み出された参照フレーム画像32は小領域
分割部40に入力され、k×j個のブロックに分割さ
れ、参照フレームブロック信号46として出力される。
また、同時にブロック読み出し開始アドレス信号52を
出力する。そして縮小画像のときと同様に、マッチング
誤差計算部58において差分値が計算され、比較器60
において入力された差分値がメモリ61に蓄えられてい
る値より小さければメモリ61の値を更新し、それぞれ
2成分(x,y)からなる参照フレームブロック読み出
し開始アドレス信号52から現在フレームブロック読み
出し開始アドレス信号51を減じた値であるアドレス
(動ベクトル)62を現階層ベクトルメモリ65に記憶
する。
Next, the original image 30 of the current frame stored in the frame memory 2 is read by the address signal 29 and input to the small area dividing unit 39. Small area division unit 3
In 9, the original image 30 of the current frame is divided into k × j blocks, and the current frame block signal 45 and the block read start address signal 51 are output. Similarly, the original image 32 of the reference frame is input to the small area dividing unit 40, but the address signal 31 and the block read start address signal 52 are the (x, y) output values 66 from the previous layer vector memory 64. Vertically m 1 , respectively
It is the value obtained by adding the value multiplied by n 1 . The reference frame image 32 read according to the address signal 31 is input to the small area dividing unit 40, divided into k × j blocks, and output as a reference frame block signal 46.
At the same time, the block read start address signal 52 is output. Then, as in the case of the reduced image, the matching error calculation unit 58 calculates the difference value, and the comparator 60
If the difference value input at is smaller than the value stored in the memory 61, the value in the memory 61 is updated, and the current frame block read start is started from the reference frame block read start address signal 52 each consisting of two components (x, y). An address (motion vector) 62, which is a value obtained by subtracting the address signal 51, is stored in the current hierarchy vector memory 65.

【0028】探索範囲に対する上記操作が終了したと
き、現階層ベクトルメモリ65には検出された動ベクト
ルが蓄えられる。
When the above operation for the search range is completed, the detected motion vector is stored in the current hierarchy vector memory 65.

【0029】本実施例は階層数3の例であるが、図中点
線枠内の現在フレーム縮小部をフレームメモリ7の出力
と縮小画像作成部10の入力の間に、また参照フレーム
縮小部をフレームメモリ19の出力と縮小画像作成部2
2にそれぞれ(階層数−3)個接続することで4以上の
任意の階層数に対応できる。また、本実施例では、画像
を水平および垂直方向に縮小したが、水平方向にのみ、
または垂直方向にのみ縮小する場合もありうる。また、
階層数が2の場合、図中点線枠内の現在フレーム縮小部
を削除し、フレームメモリ2の出力4を縮小画像作成部
10の入力に、また、図中点線枠内の参照フレーム縮小
部も同様に削除し、フレームメモリ14の出力16を縮
小画像作成部22に入力とすることで実現できる。
Although the present embodiment is an example in which the number of layers is 3, the current frame reduction unit in the dotted frame in the figure is provided between the output of the frame memory 7 and the input of the reduced image creation unit 10 and the reference frame reduction unit. Output of frame memory 19 and reduced image creation unit 2
It is possible to handle an arbitrary number of hierarchies of 4 or more by connecting (2) (3) to 2 each. Further, in the present embodiment, the image is reduced in the horizontal and vertical directions, but only in the horizontal direction,
Alternatively, the size may be reduced only in the vertical direction. Also,
When the number of layers is 2, the current frame reduction unit in the dotted line frame in the figure is deleted, the output 4 of the frame memory 2 is input to the reduced image creation unit 10, and the reference frame reduction unit in the dotted line frame in the figure is also deleted. Similarly, it can be realized by deleting and outputting the output 16 of the frame memory 14 to the reduced image creating unit 22.

【0030】[0030]

【発明の効果】以上説明したように本発明は、前階層の
縮小画像上で動ベクトル検出を行なうためのブロックの
形状を適応的に切替えて動ベクトル検出を行ない現階層
の縮小画像における動ベクトル検出のための初期値とす
ることにより、動き補償フレーム間符号化において階層
的動ベクトル探索を用いる際に、複数の異なる動きを含
む画像に対しても正確な動ベクトル推定が可能となり、
これにより動き補償フレーム間予測が有効になり符号化
効率が改善される効果がある。
As described above, the present invention adaptively switches the shape of the block for detecting a motion vector on the reduced image of the previous layer to detect the motion vector, and detects the motion vector in the reduced image of the current layer. By using the initial value for detection, when using the hierarchical motion vector search in motion compensation interframe coding, it is possible to accurately estimate the motion vector even for images including a plurality of different motions.
This has the effect of enabling motion-compensated inter-frame prediction and improving coding efficiency.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の階層的動ベクトル検出装置
のブロック図である。
FIG. 1 is a block diagram of a hierarchical motion vector detection device according to an embodiment of the present invention.

【図2】小領域分割部37のブロック図である。FIG. 2 is a block diagram of a small area dividing unit 37.

【図3】階層間におけるブロックの関係の一例を示す図
である。
FIG. 3 is a diagram showing an example of a block relationship between layers.

【図4】ブロックの統合の一例を示す図である。FIG. 4 is a diagram showing an example of block integration.

【符号の説明】[Explanation of symbols]

1 現在フレームの画像信号 2 フレームメモリ 3 現在フレーム原画像読み出しのアドレス信号 4 現在フレーム原画像 5 縮小画像作成部 6 現在フレームの縮小画像 7 フレームメモリ 8 現在フレーム縮小画像読み出しのアドレス信号 9 現在フレームの縮小画像 10 縮小画像作成部 11 現在フレームの縮小画像 12 フレームメモリ 13 参照フレームの画像信号 14 フレームメモリ 15 参照フレーム原画像読み出しのアドレス信号 16 参照フレーム原画像 17 縮小画像作成部 18 参照フレームの縮小画像 19 フレームメモリ 20 参照フレーム縮小画像読み出しのアドレス信号 21 参照フレームの縮小画像 22 縮小画像作成部 23 参照フレームの縮小画像 24 フレームメモリ 25 現在フレーム縮小画像読み出しのアドレス信号 26 現在フレームの縮小画像 27 現在フレーム縮小画像読み出しのアドレス信号 28 現在フレームの縮小画像 29 現在フレーム画像読み出しのアドレス信号 30 現在フレームの原画像 31 参照フレーム原画像読み出しのアドレス信号 32 参照フレームの原画像 33 参照フレーム縮小画像読み出しのアドレス信号 34 参照フレームの縮小画像 35 参照フレーム縮小画像読み出しのアドレス信号 36 参照フレームの縮小画像 37 小領域分割部(現在フレーム縮小画像26) 38 小領域分割部(現在フレーム縮小画像28) 39 小領域分割部(現在フレーム原画像30) 40 小領域分割部(参照フレーム原画像32) 41 小領域分割部(参照フレーム縮小画像34) 42 小領域分割部(参照フレーム縮小画像36) 43 現在フレーム縮小画像26のブロック信号 44 現在フレーム縮小画像28のブロック信号 45 現在フレーム原画像30のブロック信号 46 参照フレーム原画像32のブロック信号 47 参照フレーム縮小画像34のブロック信号 48 参照フレーム縮小画像36のブロック信号 49 現在フレーム縮小画像ブロック読み出し開始ア
ドレス信号 50 現在フレーム縮小画像28ブロック読み出し開
始アドレス信号 51 現在フレーム原画像ブロック読み出し開始アド
レス信号 52 参照フレーム原画像ブロック読み出し開始アド
レス信号 53 参照フレーム縮小画像ブロック読み出し開始ア
ドレス信号 54 参照フレーム縮小画像ブロック読み出し開始ア
ドレス信号 55 現在フレーム縮小画像統合ブロック情報 56 現在フレーム縮小画像統合ブロック情報 57 現在フレーム縮小画像統合ブロック情報 58 マッチング誤差計算部 59 差分値 60 比較器 61 メモリ(ブロック差分最小値) 62 アドレスデータ(動ベクトル) 63 ベクトルメモリ 64 前階層ベクトルメモリ 65 現階層ベクトルメモリ 66 アドレスデータ(動ベクトル探索初期値) 67 ブロック信号 68 ブロック読み出しのアドレス信号 69 ブロックメモリ 70 ブロック読み出しのアドレス信号 71 ブロック信号 72 特徴量計算部 73 メモリ 74 ブロック特徴量 75 特徴量読み出しの信号 76 ブロック統合判定部 77,78 統合ブロック情報 79 結合されたブロック信号 80 ブロック読み出し開始アドレス信号
1 image signal of current frame 2 frame memory 3 address signal for reading original image of current frame 4 current frame original image 5 reduced image creation unit 6 reduced image of current frame 7 frame memory 8 address signal for reading reduced image of current frame 9 of current frame Reduced image 10 Reduced image creation unit 11 Reduced image of current frame 12 Frame memory 13 Reference frame image signal 14 Frame memory 15 Reference frame original image read address signal 16 Reference frame original image 17 Reduced image creation unit 18 Reduced image of reference frame 19 frame memory 20 address signal for reading reference frame reduced image 21 reduced image for reference frame 22 reduced image creation unit 23 reduced image for reference frame 24 frame memory 25 address for reading reduced image of current frame Signal 26 reduced image of current frame 27 address signal for reading reduced image of current frame 28 reduced image of current frame 29 address signal for reading current frame image 30 original image of current frame 31 reference frame address signal for reading original image 32 reference frame Original image 33 Reference frame reduced image read address signal 34 Reference frame reduced image read 35 Reference frame reduced image read address signal 36 Reference frame reduced image 37 Small area dividing unit (current frame reduced image 26) 38 Small area dividing unit ( Current frame reduced image 28) 39 Small area dividing unit (current frame original image 30) 40 Small area dividing unit (reference frame original image 32) 41 Small area dividing unit (reference frame reduced image 34) 42 Small area dividing unit (reference frame) Reduced image 36) 3 Block signal of the current frame reduced image 26 44 Block signal of the current frame reduced image 28 45 Block signal of the current frame original image 30 46 Block signal of the reference frame original image 32 47 Block signal of the reference frame reduced image 34 48 Reference frame reduced image 36 block signal 49 current frame reduced image block read start address signal 50 current frame reduced image 28 block read start address signal 51 current frame original image block read start address signal 52 reference frame original image block read start address signal 53 reference frame reduced image Block read start address signal 54 Reference frame reduced image block read start address signal 55 Current frame reduced image integrated block information 56 Current frame reduced image series Combined block information 57 Current frame reduced image integrated block information 58 Matching error calculation unit 59 Difference value 60 Comparator 61 Memory (block difference minimum value) 62 Address data (motion vector) 63 Vector memory 64 Previous layer vector memory 65 Current layer vector memory 66 address data (moving vector search initial value) 67 block signal 68 block read address signal 69 block memory 70 block read address signal 71 block signal 72 feature quantity calculation unit 73 memory 74 block feature quantity 75 feature quantity read signal 76 block Integration determination unit 77, 78 Integrated block information 79 Combined block signal 80 Block read start address signal

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 原画像をk画素×jライン(k,jは任
意の自然数)のブロックに分割し、それらのブロック毎
に動ベクトルを検出するために、 原画像V0 を水平、垂直方向にそれぞれ縮小係数m1
1を用いて1/m1,1/n1 (m1 ,n1 は任意の自
然数)に縮小した画像V1 を作成し、この縮小画像V1
を水平、垂直方向にそれぞれ縮小係数m2 ,n2 を用い
て1/m2 ,1/n2 (m2 ,n2 は任意の自然数)に
縮小した画像V2 を作成し、以下同様の操作を縮小係数
c ,nc まで全体でc回(mC、nCは任意の自然数、
cは任意の自然数)繰り返した後、縮小画像VC で動ベ
クトルを検出し、検出された動ベクトルを水平、垂直方
向にそれぞれmc ,nc 倍したベクトルを初期値とし
て、縮小画像Vc-1 上で初期値の周辺で動ベクトル検出
を行ない、縮小画像VC-1上で検出された動ベクトルを
水平、垂直方向にそれぞれmc-1 ,nc-1 倍したベクト
ルを初期値として、縮小画像VC-2 上で初期値の周辺で
動ベクトル検出を行なう操作を、原画像V0 上での動ベ
クトル検出まで繰り返し、最終的な動ベクトルを検出す
る階層的動ベクトル検出方法において、 縮小画像Vi (iは1≦i≦cを満たす整数)上で動ベ
クトル検出行なうためのブロックの形状を適応的に切替
えて動ベクトル検出を行ない、縮小画像Vi-1における
動ベクトル検出のための初期値とすることを特徴とする
階層的動ベクトル検出方法。
1. An original image V 0 is divided horizontally and vertically in order to divide the original image into blocks of k pixels × j lines (k and j are arbitrary natural numbers) and detect a motion vector for each of these blocks. Reduction factors m 1 and
n 1 1 / m 1 with, 1 / n 1 (m 1 , n 1 is an arbitrary natural number) to create an image V 1 which is reduced to, reduced image V 1
Is reduced to 1 / m 2 and 1 / n 2 (m 2 and n 2 are arbitrary natural numbers) using the reduction factors m 2 and n 2 in the horizontal and vertical directions, respectively, and an image V 2 is created. The operation is performed c times in total up to the reduction factors m c and n c (m C and n C are arbitrary natural numbers,
(c is an arbitrary natural number), a motion vector is detected in the reduced image V C , and the reduced image V c is set as an initial value by multiplying the detected motion vector by m c and n c in the horizontal and vertical directions, respectively. −1 , a motion vector is detected around the initial value, and a vector obtained by multiplying the motion vector detected on the reduced image V C-1 in the horizontal and vertical directions by m c-1 and n c-1 respectively is initialized. Is a hierarchical motion vector detection method for detecting a final motion vector by repeating a motion vector detection operation around the initial value on the reduced image V C-2 until the motion vector detection on the original image V 0. In the reduced image V i (i is an integer satisfying 1 ≦ i ≦ c), the shape of the block for detecting the moving vector is adaptively switched to perform the moving vector detection, and the moving vector in the reduced image V i−1 is detected. The initial value for detection Hierarchical Tekido vector detecting method according to symptoms.
【請求項2】 各ブロックの特徴量を算出し、特徴量の
差分がある閾値以内であるブロックを同じ物体に含まれ
るとしてこれらブロックを1つのブロックに統合する、
請求項1記載の階層的動ベクトル検出方法。
2. A feature amount of each block is calculated, and a block having a feature amount difference within a certain threshold value is included in the same object and these blocks are integrated into one block.
The hierarchical motion vector detecting method according to claim 1.
【請求項3】 現在フレームの原画像を蓄える現在フレ
ーム原画像フレームメモリと、 該現在フレーム原画像フレームメモリに蓄えられている
現在フレームの原画像をk×j(k,jは自然数)に分
割し、現在フレームブロック信号およびブロック読み出
し開始アドレス信号を出力する現在フレーム原画像小領
域分割部と、 第1、第2、・・・,第c(cは1以上の任意の自然
数)の現在フレーム縮小画像フレームメモリと、 前記現在フレーム原画像フレームメモリに蓄えられてい
る現在フレームの原画像を水平、垂直方向にそれぞれ縮
小係数m1 ,n1 を用いて1/m1 ,1/n1(m1
1 は任意の自然数)に縮小した第1の現在フレーム縮
小画像を作成し、第1の現在フレーム縮小画像メモリに
蓄える第1の現在フレーム縮小部と、第1の現在フレー
ム縮小画像を水平、垂直方向にそれぞれ縮小係数m2
2 を用いて1/m2 ,1/n2 (m2 ,n2 は任意の
自然数)に縮小した第2の現在フレーム縮小画像を作成
し、第2の現在フレーム縮小画像メモリに蓄える第2の
現在フレーム縮小部と、・・・・、第(c−1)の縮小
画像を水平、垂直方向にそれぞれ縮小係数mc,ncを用
いて1/mc,1/nc(mc,ncは任意の自然数)に縮
小した第cの縮小画像を作成し、第cの現在フレーム縮
小画像フレームメモリに蓄える第cの現在フレーム縮小
部と、 第1の現在フレーム縮小画像フレームメモリに蓄えられ
ている縮小画像からk×j個のブロックデータを読み出
し、そのブロックデータをさらに(k/m1)×(j/
1)のブロックに分割した後、各ブロックの特徴量を
算出し、該特徴量の比較を行なうことでブロックの統合
を行ない、統合された現在フレームブロック信号、出力
したブロックデータの読み出し開始アドレスおよび互い
に統合されたブロックを示す統合ブロック情報を出力す
る第1の現在フレーム小領域分割部と、第2の現在フレ
ーム縮小画像フレームメモリに蓄えられている縮小画像
からk×j個のブロックデータを読み出し、そのブロッ
クデータをさらに{k/(m1 ×m2 )}×{j/(n
1 ×n2 )}のブロックに分割した後、各ブロックの特
徴量を算出し、該特徴量の比較を行なうことでブロック
の統合を行ない、統合された現在フレームブロック信
号、出力したブロックデータの読み出し開始アドレスお
よび互いに統合されたブロックを示す統合ブロック情報
を出力する第2の現在フレーム小領域分割部と、・・
・、第cの現在フレーム縮小画像フレームメモリに蓄え
られている縮小画像からk×j個のブロックデータを読
み出し、そのブロックデータをさらに{k/(m1 ×m
2 ×・・・×mc )}×{j/(n 1 ×n2 ×・・・×
c )}のブロックに分割した後、各ブロックの特徴量
を算出し、該特徴量の比較を行なうことでブロックの統
合を行ない、統合された現在フレームブロック信号、出
力したブロックデータの読み出し開始アドレスおよび互
いに統合されたブロックを示す統合ブロック情報を出力
する第cの現在フレーム小領域分割部と、 参照フレームの原画像を蓄える参照フレーム原画像フレ
ームメモリと、 第1、第2、・・・、第c(cは任意の自然数)の参照
フレーム縮小画像フレームメモリと、 前記参照フレーム原画像フレームメモリに蓄えられてい
る参照フレームの原画像を水平、垂直方向にそれぞれ縮
小係数m1 ,n1 を用いて1/m1 ,1/n1(m1,n
1は任意の自然数)に縮小した第1の参照フレーム縮小
画像を作成し、第1の参照フレーム縮小画像メモリに蓄
える第1の参照フレーム縮小部と、第1の参照フレーム
縮小画像を水平、垂直方向にそれぞれ縮小係数m2 ,n
2 を用いて1/m2,1/n2(m2 ,n2 は任意の自然
数)に縮小した第2の参照フレーム縮小画像を作成し、
第2の参照フレーム縮小画像メモリに蓄える第2の参照
フレーム縮小部と、・・・・、第(c−1)の縮小画像
を水平、垂直方向にそれぞれ縮小係数mc,ncを用いて
1/mc,1/nc(mc,ncは任意の自然数)に縮小し
た第cの縮小画像を作成し、第cの参照フレーム縮小画
像フレームメモリに蓄える第cの参照フレーム縮小部
と、 現在探索を行っている階層のベクトルデータが前記統合
ブロック情報に応じて書き込まれる現階層ベクトルメモ
リと、現階層での全ブロックの探索を終了した後、前記
現階層ベクトルメモリのベクトルデータがコピーされる
前階層ベクトルメモリを含むベクトルメモリと、 第1の現在フレーム小領域分割部から出力された統合ブ
ロック情報によって、統合されたブロックの形に合った
縮小画像を第1の参照画像フレームメモリから読み出
し、読み出した信号を参照フレームブロック信号とし
て、またそのときの読み出し開始アドレスに前記前階層
ベクトルメモリの現在のブロックに対応するアドレスに
格納されたベクトルを水平、垂直方向にそれぞれm2
2 倍した値を加えたものをブロック読み出し開始アド
レス信号として出力する第1の参照フレーム小領域分割
部と、第2の現在フレーム小領域分割部から出力された
統合ブロック情報によって、統合されたブロックの形に
合った縮小画像を第2の参照画像フレームメモリから読
み出し、読み出した信号を参照フレームブロック信号と
して、またそのときの読み出し開始アドレスに前記前階
層ベクトルメモリの現在ブロックに対応するアドレスに
格納されたベクトルを水平、垂直方向にそれぞれm3
3 倍した値を加えたものをブロック読み出し開始アド
レス信号として出力する第2の参照フレーム小領域分割
部と、・・・、第cの現在フレーム小領域分割部から出
力された統合ブロック情報によって、統合されたブロッ
クの形にあった縮小画像を第cの参照画像フレームメモ
リから読み出し、読み出した信号を参照フレームブロッ
ク信号として、またそのときの読み出し開始アドレスを
ブロック読み出し開始アドレス信号として出力する第c
の参照フレーム小領域分割部と、 現在フレーフレーム原画像メモリに蓄えられている現在
フレームの画像をk×j(k,jは自然数)に分割し、
現在フレームブロック信号およびブロックオフセットア
ドレス信号を出力する参照フレーム原画像小領域分割部
と、 第iの現在フレーム小領域分割部(i=1,2,・・
・,c)から出力された現在フレームブロック信号と第
iの参照フレーム小領域分割部から出力された参照フレ
ームブロック信号を入力し、画素値の差分値を計算する
マッチング誤差計算部と、 最小値メモリを有し、前記マッチング誤差計算部から差
分値を入力し、該誤差分値が前記最小値メモリに蓄えら
れている値より小さいならば、前記最小値メモリの値を
該差分値で更新し、第iの参照フレーム小領域分割部か
ら出力された参照フレームブロック読み出し開始アドレ
ス信号から第iの現在フレーム領域分割部から出力され
た現在フレームブロック読み出し開始アドレス信号を減
じたアドレスをベクトルアドレスとして前記ベクトルメ
モリに記憶する比較器を有する階層的動ベクトル検出装
置。
3. A current frame for storing an original image of a current frame.
Frame original image frame memory and the current frame original image frame memory
Divide the original image of the current frame into k × j (k and j are natural numbers)
Split, current frame block signal and block read
Outputs the start address signal
The area division part, and the first, second, ..., c-th (c is any natural number of 1 or more)
Number) current frame reduced image frame memory and the current frame original image frame memory
The original image of the current frame is reduced horizontally and vertically.
Small coefficient m1 , N1 Using 1 / m1 , 1 / n1(M1 ,
n1 Is the first current frame contraction reduced to an arbitrary natural number)
Creates a small image and stores it in the first current frame reduced image memory
The first current frame reduction unit to store and the first current frame
The reduced image is reduced in the horizontal and vertical directions by m2 ,
n2 Using 1 / m2 , 1 / n2 (M2 , N2 Is any
Create a second current frame reduced image reduced to a natural number)
The second current frame reduced image memory to store the second
Current frame reduction unit, ..., (c-1) th reduction
Image reduction factor m in both horizontal and vertical directionsc, NcFor
1 / mc, 1 / nc(Mc, NcIs an arbitrary natural number)
Create a reduced c-th reduced image and reduce the c-th current frame
Reduction of the c-th current frame stored in the small image frame memory
Part and the first current frame reduced image stored in the frame memory
Reading k × j block data from the reduced image
The block data is further (k / m1) × (j /
n1) Block, then
Block integration by calculating and comparing the feature quantities
Integrated current frame block signal, output
Start address of read block data and each other
Output the integrated block information indicating the blocks integrated into
The first present frame sub-region dividing unit and the second present frame
Reduced image Reduced image stored in frame memory
Read k × j block data from the
Further data can be added to {k / (m1 × m2 )} × {j / (n
1 × n2 )} Blocks, and then
Block by calculating the characteristic amount and comparing the characteristic amounts
The integrated current frame block signal
And the read start address of the output block data
And integrated block information indicating blocks integrated with each other
A second current frame sub-region dividing unit that outputs
.. Stored in c-th current frame reduced image frame memory
Read k × j block data from the reduced image
Then, the block data is further extracted by {k / (m1 × m
2 × ・ ・ ・ × mc )} × {j / (n 1 × n2 × ・ ・ ・ ×
nc )} Is divided into blocks, and then the feature amount of each block
Is calculated and the feature quantities are compared to determine the block
The combined current frame block signal, output
Read block start address of block data
Output integrated block information indicating blocks that have been integrated into
The c-th current frame sub-region dividing section and the reference frame original image frame that stores the original image of the reference frame.
Memory, and references of the first, second, ..., Cth (c is an arbitrary natural number)
The frame reduced image frame memory and the reference frame original image frame memory are stored.
The original image of the reference frame is horizontally and vertically contracted.
Small coefficient m1 , N1 Using 1 / m1 , 1 / n1(M1, N
1Is the first reference frame reduction reduced to an arbitrary natural number)
Create an image and store it in the first reference frame reduced image memory
First reference frame reducing unit, and first reference frame
The reduced image is scaled down horizontally and vertically by m2 , N
2 Using 1 / m2, 1 / n2(M2 , N2 Is any nature
Create a second reference frame reduced image reduced to
Second reference frame Second reference stored in reduced image memory
Frame reduction unit, ..., (c-1) th reduced image
Reduction factor m in the horizontal and vertical directionsc, NcUsing
1 / mc, 1 / nc(Mc, NcIs an arbitrary natural number)
Created the c-th reduced image and the c-th reference frame reduced image
The c-th reference frame reduction unit stored in the image frame memory
And the vector data of the layer currently being searched are integrated as described above.
Current hierarchy vector memo written according to block information
After completing the search for all blocks in the current hierarchy,
Vector data in the current layer vector memory is copied
The vector memory including the previous layer vector memory and the integrated block output from the first current frame small area division unit.
The lock information matched the shape of the integrated block
Read the reduced image from the first reference image frame memory
The read signal as the reference frame block signal.
And the read start address at that time is the previous layer.
To the address corresponding to the current block of vector memory
The stored vector is m in the horizontal and vertical directions.2 ,
n2 Adds the doubled value and starts block read
First reference frame small area division output as a response signal
Section and the second current frame small area division section
With the integrated block information, in the form of integrated block
Read the reduced image that fits from the second reference image frame memory
The signal read out and read is used as the reference frame block signal.
Then, at the read start address at that time,
To the address corresponding to the current block of layer vector memory
The stored vector is m in the horizontal and vertical directions.3,
n3 Adds the doubled value and starts block read
Second reference frame subregion division output as a response signal
Section, ..., from the c-th current frame sub-area dividing section
The integrated block information can be
A reduced image that was in the shape of a circle
Read from the memory and read the read signal
The read start address at that time
C-th output as a block read start address signal
The reference frame sub-region division part of and the current frame image currently stored in the frame original image memory.
The frame image is divided into k × j (k and j are natural numbers),
Current frame block signal and block offset
Reference frame original image small area dividing section that outputs dress signal
And the i-th current frame small area dividing unit (i = 1, 2, ...
., C) and the current frame block signal output from the
The reference frame output from the reference frame subregion dividing unit of i.
Input the block signal and calculate the difference value of pixel values
It has a matching error calculation unit and a minimum value memory, and a difference from the matching error calculation unit.
Enter the minute value and the error value is stored in the minimum value memory.
If it is smaller than the value stored in
It is updated with the difference value, and is the i-th reference frame small area dividing unit?
Reference frame block read start address output from
From the i-th current frame area division unit
The current frame block read start address signal
The same address is used as the vector address.
Hierarchical motion vector detector with memory-stored comparator
Place.
JP6182170A 1994-08-03 1994-08-03 Method and device for detecting hierarchical motion vector Pending JPH0846968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6182170A JPH0846968A (en) 1994-08-03 1994-08-03 Method and device for detecting hierarchical motion vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6182170A JPH0846968A (en) 1994-08-03 1994-08-03 Method and device for detecting hierarchical motion vector

Publications (1)

Publication Number Publication Date
JPH0846968A true JPH0846968A (en) 1996-02-16

Family

ID=16113575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6182170A Pending JPH0846968A (en) 1994-08-03 1994-08-03 Method and device for detecting hierarchical motion vector

Country Status (1)

Country Link
JP (1) JPH0846968A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141451A (en) * 1997-06-17 2000-10-31 Mitsubishi Denki Kabushiki Kaisha Image coding method and apparatus
US6633611B2 (en) 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
JP2006025430A (en) * 2004-07-06 2006-01-26 Thomson Licensing Method of selecting coding mode, and device thereof
JP2006025429A (en) * 2004-07-06 2006-01-26 Thomson Licensing Coding method and circuit device for executing this method
JP2006025431A (en) * 2004-07-06 2006-01-26 Thomson Licensing Method and device for choosing motion vector for coding of set of block
JP2007028574A (en) * 2005-07-20 2007-02-01 Renei Kagi Kofun Yugenkoshi Method and apparatus for motion estimation
JP2010288110A (en) * 2009-06-12 2010-12-24 Sony Corp Image processing apparatus and method
JP2011130265A (en) * 2009-12-18 2011-06-30 Nippon Telegr & Teleph Corp <Ntt> Motion vector detection apparatus, motion vector detection method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633611B2 (en) 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
JP2009247019A (en) * 1997-04-24 2009-10-22 Mitsubishi Electric Corp Image decoding apparatus, image decoding method, image encoding apparatus and image encoding method
US6141451A (en) * 1997-06-17 2000-10-31 Mitsubishi Denki Kabushiki Kaisha Image coding method and apparatus
JP2006025430A (en) * 2004-07-06 2006-01-26 Thomson Licensing Method of selecting coding mode, and device thereof
JP2006025429A (en) * 2004-07-06 2006-01-26 Thomson Licensing Coding method and circuit device for executing this method
JP2006025431A (en) * 2004-07-06 2006-01-26 Thomson Licensing Method and device for choosing motion vector for coding of set of block
JP4694903B2 (en) * 2004-07-06 2011-06-08 トムソン ライセンシング ENCODING METHOD AND CIRCUIT DEVICE FOR IMPLEMENTING THE METHOD
US8059722B2 (en) 2004-07-06 2011-11-15 Thomson Licensing Method and device for choosing a mode of coding
JP2007028574A (en) * 2005-07-20 2007-02-01 Renei Kagi Kofun Yugenkoshi Method and apparatus for motion estimation
JP2010288110A (en) * 2009-06-12 2010-12-24 Sony Corp Image processing apparatus and method
US8542741B2 (en) 2009-06-12 2013-09-24 Sony Corporation Image processing device and image processing method
JP2011130265A (en) * 2009-12-18 2011-06-30 Nippon Telegr & Teleph Corp <Ntt> Motion vector detection apparatus, motion vector detection method and program

Similar Documents

Publication Publication Date Title
JP4700892B2 (en) Image matching
JP3846642B2 (en) Motion amount detection method and motion amount detection device
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
US20110141348A1 (en) Parallel processor for providing high resolution frames from low resolution frames
CN112802186B (en) Dynamic scene real-time three-dimensional reconstruction method based on binarization characteristic coding matching
JPH0846968A (en) Method and device for detecting hierarchical motion vector
CN114494611B (en) Intelligent three-dimensional reconstruction method, device, equipment and medium based on nerve basis function
Dellaert et al. Super-resolved texture tracking of planar surface patches
Salehian et al. Dynamic programming-based dense stereo matching improvement using an efficient search space reduction technique
JP5492223B2 (en) Motion vector detection apparatus and method
KR20050097936A (en) Efficient predictive image parameter estimation
JPH08223578A (en) Method for searching motion vector and device therefor
JP2000175208A (en) Interpolation processing unit and recoding medium recording interpolation processing program
JPH0973540A (en) Motion vector calculation device
CN111402429B (en) Scale reduction and three-dimensional reconstruction method, system, storage medium and equipment
JPH10134193A (en) Method and device for calculating moving vector
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
JP3724653B2 (en) Motion amount detection method and motion amount detection device
JPH07107486A (en) Method for detecting hierarchical moving vector
JP2007287006A (en) Moving object tracking device and program
JPH08242454A (en) Method for detecting global motion parameter
JP3483751B2 (en) Motion vector detecting device and motion vector detecting method
JP2000324495A (en) Device and method for converting field frequency
JP3941900B2 (en) Motion vector detection device
KR0147330B1 (en) Full search method