JPH10247242A - Block matching searching method and device using the method - Google Patents
Block matching searching method and device using the methodInfo
- Publication number
- JPH10247242A JPH10247242A JP4872697A JP4872697A JPH10247242A JP H10247242 A JPH10247242 A JP H10247242A JP 4872697 A JP4872697 A JP 4872697A JP 4872697 A JP4872697 A JP 4872697A JP H10247242 A JPH10247242 A JP H10247242A
- Authority
- JP
- Japan
- Prior art keywords
- matching
- block
- search
- frame image
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、ブロックマッチング
探索方法と装置、とくに、処理の対象となるフレーム画
像と処理の基準となるフレーム画像の間でブロック単位
にマッチングを行う方法と、その方法を用いた装置に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for searching for a block matching, and more particularly to a method for performing matching on a block-by-block basis between a frame image to be processed and a frame image to be processed. It relates to the equipment used.
【0002】[0002]
【従来の技術】近年、各種映像関連機器や通信技術の進
展に伴い、画像をより少ない符号量で、より高い画質を
維持しながら伝送または記録することに対する要望はま
すます高まりつつある。こうした背景から、ビデオ・コ
ーデックとよばれる画像符号化伝送装置では、動き補償
を用いた画像符号化が採用されることがある。動き補償
とは、あるフレーム画像Aが入力されたとき、先に入力
されていたフレーム画像Bに対する画像データの差分と
動きベクトルなどを利用して、フレーム画像Aの符号量
を低減する方式をいう。動きベクトルを算出する際、フ
レーム画像Aとフレーム画像Bの間でブロックマッチン
グが行われることが多い。2. Description of the Related Art In recent years, with the development of various video-related devices and communication technologies, there has been an increasing demand for transmitting or recording an image with a smaller code amount while maintaining higher image quality. From such a background, an image encoding and transmitting apparatus called a video codec sometimes employs image encoding using motion compensation. The motion compensation refers to a method of reducing the code amount of a frame image A by using a motion vector and a difference of image data with respect to a previously input frame image B when a certain frame image A is input. . When calculating a motion vector, block matching is often performed between the frame image A and the frame image B.
【0003】特開平5−40828号公報には、ブロッ
クマッチングの演算量を低減する探索方式が提案されて
いる。この方式では、まず第1段階において、全データ
平面にわたって飛び飛びのブロックマッチング検査を行
い、最適候補ブロックを探索する。つぎに第二段階で、
最適候補ブロックを取り囲む所定範囲内で詳細なブロッ
クマッチングを行う。この二段階の処理で最終的に最適
なブロックデータを得る。この結果、最初から全データ
平面に対して詳細なブロックマッチングを行うことに比
べ、トータルの演算量が低減される。Japanese Patent Laid-Open Publication No. Hei 5-40828 proposes a search method for reducing the amount of calculation for block matching. In this method, in a first step, intermittent block matching inspection is performed over all data planes, and an optimum candidate block is searched. Next, in the second stage,
Detailed block matching is performed within a predetermined range surrounding the optimal candidate block. The optimal block data is finally obtained by the two-stage processing. As a result, compared to performing detailed block matching for all data planes from the beginning, the total calculation amount is reduced.
【0004】[0004]
【発明が解決しようとする課題】このブロックマッチン
グ探索方式では、第一段階を導入することで演算量を減
らすことができるが、第二段階については最適候補ブロ
ックの周囲にわたって合計8回の詳細なブロックマッチ
ングが必要になる。第二段階では、例えば半画素(ハー
フペル)の精度でブロックマッチングが行われるため、
まず周囲8方向にある半画素精度の再生画像データ値を
算出し、それらの基準フレーム画像に対する歪み量、す
なわち画像データの差分絶対値和を算出するよう構成さ
れている。したがって、8方向にわたる演算量はやはり
膨大であり、また演算に必要なメモリのワークエリアも
大きくなる。ハードウエアも高速に設計しなければなら
ない。In this block matching search method, the amount of calculation can be reduced by introducing the first stage, but in the second stage, a total of eight detailed steps are performed around the optimal candidate block. Block matching is required. In the second stage, for example, block matching is performed with an accuracy of half a pixel (half pel),
First, it is configured to calculate a reproduced image data value with half-pixel accuracy in eight surrounding directions and calculate an amount of distortion with respect to the reference frame image, that is, a sum of absolute differences of image data. Therefore, the amount of operation in eight directions is still enormous, and the work area of the memory required for the operation also becomes large. Hardware must also be designed at high speed.
【0005】本発明はこうした点に鑑みてなされたもの
で、その目的は、ブロックマッチングの最終結果の妥当
性を確保しながら、さらに演算量を低減し、ハードウエ
アをよりコンパクトにし、ハードウエアに要求される高
速性を緩和することのできるブロックマッチング探索方
法およびその方法を用いた装置の提供にある。[0005] The present invention has been made in view of the above points, and an object thereof is to further reduce the amount of calculation, make the hardware more compact, and secure hardware while ensuring the validity of the final result of block matching. It is an object of the present invention to provide a block matching search method capable of alleviating the required high-speed performance and an apparatus using the method.
【0006】[0006]
【課題を解決するための手段】本発明のブロックマッチ
ング探索方法は、処理の対象となるフレーム画像と処理
の基準となるフレーム画像の間でブロックマッチングを
行う方法である。この方法は、前記処理の基準となるフ
レーム画像の所定探索範囲において、粗い精度で前記処
理の対象となるフレーム画像のブロックのマッチングを
とる第1マッチング工程と、その結果をもとに最良マッ
チングを得ることのできる可能性の高い探索方向をしぼ
り込む判定工程を含む。さらに、しぼり込まれた探索方
向において、密な精度で前記処理の対象となるフレーム
画像のマッチングをとる第2マッチング工程を含むもの
である。A block matching search method according to the present invention is a method for performing block matching between a frame image to be processed and a frame image to be a reference for processing. This method includes a first matching step of matching blocks of a frame image to be processed with coarse accuracy in a predetermined search range of a frame image to be a reference of the processing, and performing a best matching based on a result thereof. A step of narrowing down a search direction that is likely to be obtained is included. Further, the method includes a second matching step of matching the frame images to be processed with high precision in the narrowed search direction.
【0007】また本発明では、前記判定工程は、第1マ
ッチング工程を行った時点で良好なマッチングを示した
複数ブロックの位置の相互関係をもとに探索方向をしぼ
り込むものである。In the present invention, the determination step narrows down the search direction based on the mutual relationship between the positions of a plurality of blocks that showed good matching at the time of performing the first matching step.
【0008】このとき、前記判定工程は、第1マッチン
グ工程を行った時点で最も良好なマッチングを示したブ
ロックの位置の中心と、二番目に良好なマッチングを示
したブロックの位置の中心を結ぶ方向を主たる方向とし
て探索方向をしぼり込むものである。At this time, the determination step connects the center of the position of the block showing the best matching at the time of performing the first matching step with the center of the position of the block showing the second best matching. The search direction is narrowed down with the direction as the main direction.
【0009】一方、本発明のブロックマッチング探索装
置は、処理の対象となるフレーム画像と処理の基準とな
るフレーム画像の間でブロックマッチングを行う装置で
ある。この装置は、前記処理の基準となるフレーム画像
の所定探索範囲において、粗い精度で前記処理の対象と
なるフレーム画像のブロックのマッチングをとる第1マ
ッチング手段と、その結果をもとに最良マッチングを得
ることのできる可能性の高い探索方向をしぼり込む判定
手段とを含む。また、しぼり込まれた探索方向におい
て、密な精度で前記処理の対象となるフレーム画像のマ
ッチングをとる第2マッチング手段を含むものである。On the other hand, the block matching search device of the present invention is a device that performs block matching between a frame image to be processed and a frame image to be a reference for processing. This apparatus includes a first matching unit that matches blocks of a frame image to be processed with coarse accuracy in a predetermined search range of a frame image that is a reference of the processing, and performs a best matching based on a result thereof. Determining means for narrowing down a search direction having a high possibility of being obtained. The image processing apparatus further includes a second matching unit that matches the frame image to be processed with high accuracy in the narrowed search direction.
【0010】また前記判定手段は、第1マッチング手段
によるマッチングの結果最も良好なマッチングを示すブ
ロックの位置を検出する第1検出手段と、第1マッチン
グ手段によるマッチングの結果二番目に良好なマッチン
グを示すブロックの位置を検出する第2検出手段と、第
1および第2検出手段における検出結果をもとに探索方
向をしぼり込む範囲設定手段とを含むものである。[0010] Further, the determining means detects a position of a block showing the best matching as a result of the matching by the first matching means, and a second best matching as a result of the matching by the first matching means. It includes second detection means for detecting the position of the indicated block, and range setting means for narrowing down the search direction based on the detection results of the first and second detection means.
【0011】さらに、前記第1マッチング手段は整数画
素精度でマッチングを行い、前記第2マッチング手段は
半整数画像精度でマッチングを行うものである。Further, the first matching means performs matching with integer pixel precision, and the second matching means performs matching with half integer image precision.
【0012】または、前記第1マッチング手段は探索の
対象点を間引いた粗い整数画素精度でマッチングを行
い、前記第2マッチング手段は第1マッチング手段より
も密な整数画素精度でマッチングを行うものである。Alternatively, the first matching means performs matching with coarse integer pixel precision obtained by thinning out search target points, and the second matching means performs matching with finer integer pixel precision than the first matching means. is there.
【0013】[0013]
【発明の実施の形態】本発明の好適な実施の形態を適宜
図面を参照しながら説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described with reference to the drawings as appropriate.
【0014】実施の形態1.図1は実施の形態1に係る
ブロックマッチング探索装置の構成を示す図である。同
図において、1は処理の対象となるフレーム画像データ
が順次入力される入力フレームバッファ、2は先に入力
された、処理の基準となるフレーム画像データが格納さ
れているフレームバッファ、3は入力フレームバッファ
1より出力される入力データブロック、4はフレームバ
ッファ2より出力される再生画像データブロック、5は
整数画素精度の歪み量を演算する第1マッチング部、1
0は所定探索範囲(例えば両フレームで位置的に近い範
囲)内の各ブロックに関して第1マッチング部5から出
力される歪み量、6は第1マッチング部5におけるマッ
チング結果をもとに最良マッチングを得ることのできる
可能性の高い探索方向をしぼり込む判定部、7はしぼり
込まれた探索方向において半画素精度の歪み量を演算す
る第2マッチング部、8は第2マッチング部7の出力を
受けて動きベクトルを計算する動きベクトル算出部、2
2は算出された動きベクトルである。 Embodiment 1 FIG. 1 is a diagram showing a configuration of a block matching search device according to Embodiment 1. In FIG. 1, reference numeral 1 denotes an input frame buffer into which frame image data to be processed is sequentially input, 2 denotes a frame buffer in which previously input frame image data serving as a reference for processing is stored, and 3 denotes an input frame buffer. An input data block output from the frame buffer 1, a reproduced image data block 4 output from the frame buffer 2, a first matching unit 1 for calculating a distortion amount with integer pixel precision, 1
0 is the amount of distortion output from the first matching unit 5 for each block within a predetermined search range (for example, a range close in position between both frames), and 6 is the best matching based on the matching result in the first matching unit 5. A determination unit that narrows down a search direction that is likely to be obtained, 7 is a second matching unit that calculates a distortion amount with half-pixel accuracy in the narrowed search direction, and 8 is an output of the second matching unit 7 Motion vector calculation unit for calculating a motion vector by using
2 is the calculated motion vector.
【0015】判定部6において、11は第1マッチング
部5のマッチング結果のうち最小歪み量を与える(すな
わちマッチング結果が最良である)再生画像データブロ
ックの位置を検出し、当該ブロックの入力データブロッ
クに対する相対位置を示すベクトル(vector_m
inと表記)を出力する第1検出部、13は第1検出部
11から出力されるvector_min、12は第1
マッチング部5のマッチング結果のうち二番目に小さな
歪み量を与える(すなわちマッチング結果が二番目によ
い)再生画像データブロックの位置を検出し、当該ブロ
ックの入力データブロックに対する相対位置を示すベク
トル(vector_secondと表記)を出力する
第2検出部、14は第2検出部12から出力されるve
ctor_second、15はvector_min
13とvector_second14を受けて半画素
精度のブロックマッチングによって動きベクトルを検索
すべき範囲を設定する範囲設定部、16は範囲設定部1
5の出力である動きベクトルの検索範囲(以下、単に検
索範囲という)である。[0015] In the determination unit 6, the reference 11 detects the position of the reproduced image data block that gives the minimum distortion amount (ie, the best matching result) among the matching results of the first matching unit 5, and detects the input data block of the block. (Vector_m) indicating the relative position with respect to
1), 13 is a vector_min output from the first detection unit 11, and 12 is a first detection unit.
The position of the reproduced image data block that gives the second smallest distortion amount among the matching results of the matching unit 5 (that is, the second best matching result) is detected, and a vector (vector_second) indicating the relative position of the block with respect to the input data block is detected. The second detector 14 outputs the ve output from the second detector 12.
vector_min, 15 is vector_min
13 is a range setting unit that receives a vector_second 14 and sets a range in which a motion vector is searched by block matching with half-pixel accuracy.
5 is a search range of a motion vector (hereinafter simply referred to as a search range).
【0016】第2マッチング部7において、18は検索
範囲16において半画素精度で再生画像データを算出す
る画像再生部、19は半画素精度で再生された再生画像
データ、20は再生画像データ19を利用して半画素精
度の歪み量を演算する演算部、21は演算で求められる
歪み量である。In the second matching unit 7, reference numeral 18 denotes an image reproducing unit for calculating reproduced image data with half-pixel accuracy in the search range 16, reference numeral 19 denotes reproduced image data reproduced with half-pixel accuracy, and reference numeral 20 denotes reproduced image data 19. An operation unit 21 for calculating the distortion amount with half-pixel accuracy by using the distortion amount obtained by the operation.
【0017】次に動作について説明する。まず第1マッ
チング部5は、入力フレームバッファ1に蓄積された入
力ブロックデータを入力する。これとともに、フレーム
バッファ2より動きベクトルの所定探索範囲内の再生画
像データブロックを読み込み、入力データブロックと、
整数画素精度の探索点における再生画像データブロック
との歪み量E(Vx,Vy)を式1に基づき算出する。
ここで、所定の動きベクトル探索範囲は、入力データブ
ロックの位置を中心としたX軸方向±16、Y軸方向±
16の近傍範囲であるとする。Next, the operation will be described. First, the first matching unit 5 inputs the input block data stored in the input frame buffer 1. At the same time, a reproduced image data block within a predetermined search range of a motion vector is read from the frame buffer 2, and an input data block and
The amount of distortion E (Vx, Vy) with the reproduced image data block at the search point with integer pixel precision is calculated based on Equation 1.
Here, the predetermined motion vector search range is ± 16 around the position of the input data block in the X-axis direction and ± 16 in the Y-axis direction.
It is assumed that the range is in the vicinity of 16.
【0018】[0018]
【数1】 ここで、A(x,y)は入力データブロックの画素値、
A’(x,y)は再生画像データブロックの画素値、V
xとVyは入力データブロックの位置を基準とする移動
量(−16≦Vx,Vy≦16)である。(Equation 1) Where A (x, y) is the pixel value of the input data block,
A ′ (x, y) is the pixel value of the reproduced image data block,
x and Vy are movement amounts (−16 ≦ Vx, Vy ≦ 16) based on the position of the input data block.
【0019】第1検出部11では、第1マッチング部5
より出力された複数の歪み量E(Vx,Vy)のうち最
小の歪み量E_minを求め、E_minを与える再生
画像データブロックの入力データブロックに対する相対
位置を示すベクトル(Vx_min,Vy_min)、
すなわちvector_min13を検出する。一方、
第2検出部12ではE(Vx,Vy)の中で2番目に小
さい歪み量E_secondを求め、E_second
を与える再生画像データブロックの入力データブロック
に対する相対位置を示すベクトルvector_sec
ond14を出力する。In the first detecting section 11, the first matching section 5
A vector (Vx_min, Vy_min) indicating the relative position of the reproduced image data block giving the E_min with respect to the input data block, finding the minimum distortion amount E_min among the plurality of distortion amounts E (Vx, Vy) output from the
That is, the vector_min13 is detected. on the other hand,
The second detector 12 obtains the second smallest distortion amount E_second among E (Vx, Vy), and calculates E_second.
Vector_sec indicating the relative position of the reproduced image data block with respect to the input data block
ond14 is output.
【0020】範囲設定部15は、vector_min
13とvector_second14との関係に基づ
き検索範囲16を設定する。設定例を図2を用いて説明
する。同図中●はvector_min13で決まる位
置、すなわち第1マッチング部5において最良のマッチ
ングが得られた位置(以下「仮の最良位置」という)を
示し、(a)、(b)、(c)、(d)、(e)、
(f)、(g)、(h)は、それぞれ仮の最良位置の左
上、直上、右上、直左、直右、左下、直下、右下の半画
素位置に対応する。The range setting unit 15 sets the vector_min
A search range 16 is set based on the relationship between 13 and vector_second 14. A setting example will be described with reference to FIG. In the figure, ● indicates a position determined by vector_min13, that is, a position at which the best matching is obtained in the first matching unit 5 (hereinafter, referred to as “temporary best position”), and (a), (b), (c), (D), (e),
(F), (g), and (h) respectively correspond to the half-pixel positions of the upper left, the upper right, the upper right, the left, the right, the lower left, the lower right, and the lower right of the temporary best position.
【0021】図2に示すように仮の最良位置を中心に周
囲を8つの領域1〜領域8に分割する。ここで、仮の最
良位置を原点として見たvector_second1
4の示す位置(すなわち、vector_second
14−vector_min13で決まるベクトルの示
す位置で、以下「可能性のある最良位置」ともいう)が
領域1に属していれば検索範囲16を(b)に設定し、
以下同様に同図の各領域に付される英字に従って検索範
囲16を設定する。As shown in FIG. 2, the periphery is divided into eight regions 1 to 8 around the temporary best position. Here, vector_second1 viewed from the temporary best position as the origin
4 (ie, vector_second)
If the position indicated by the vector determined by 14-vector_min13 and the “best possible position” hereinafter belongs to the area 1, the search range 16 is set to (b),
In the same manner, the search range 16 is set in accordance with the alphabetic characters assigned to each area in FIG.
【0022】第2マッチング部7ではまず、画像再生部
18にて検索範囲16に対応する半画素精度の再生画像
データ19を算出する。図3は算出例を説明する図であ
る。図中A〜Iを整数画素精度の再生画像データが対応
する位置、a〜hを半画素精度の再生画像データ19が
対応する位置とすれば、a〜hの画素値はそれぞれ式2
〜9によって算出される。In the second matching section 7, first, the image reproducing section 18 calculates reproduced image data 19 with half-pixel accuracy corresponding to the search range 16. FIG. 3 is a diagram illustrating a calculation example. In the figure, if A to I are positions corresponding to the reproduced image data with integer pixel precision, and a to h are positions corresponding to the reproduced image data 19 with half pixel precision, the pixel values of a to h are expressed by Equation 2 respectively.
-9.
【0023】 a=(A+B+D+E+2)/4 (式2) b=(B+E+1)/2 (式3) c=(B+C+E+F+2)/4 (式4) d=(D+E+1)/2 (式5) e=(E+F+1)/2 (式6) f=(D+E+G+H+2)/4 (式7) g=(E+H+1)/2 (式8) h=(E+F+H+I+2)/4 (式9) ここで、例えば式2に含まれる定数「2」は、後の四捨
五入をこの段階で疑似的に実行してしまうためのソフト
ウエア技法にもとづくものであり、A〜Iの一文字につ
き0.5を付加した結果生じる。A = (A + B + D + E + 2) / 4 (Equation 2) b = (B + E + 1) / 2 (Equation 3) c = (B + C + E + F + 2) / 4 (Equation 4) d = (D + E + 1) / 2 (Equation 5) e = ( E + F + 1) / 2 (Equation 6) f = (D + E + G + H + 2) / 4 (Equation 7) g = (E + H + 1) / 2 (Equation 8) h = (E + F + H + I + 2) / 4 (Equation 9) The constant "2" is based on a software technique for simulating the subsequent rounding at this stage, and is the result of adding 0.5 for each character A-I.
【0024】図4は可能性のある最良位置が仮の最良位
置の真上にある場合の半画素精度の再生画像データブロ
ックを示す。この場合、仮の最良位置にある再生画像デ
ータブロック(図中太枠50で表示)の各点に対し、真
上方向の探索を考慮した式3を用いて半画素精度の再生
画像データブロック(図中細枠51で表示)を算出す
る。この計算は従来の技術で8通り行っていたため、こ
の部分の演算量は理論上1/8になる。FIG. 4 shows a reproduced image data block with half-pixel accuracy when the possible best position is directly above the provisional best position. In this case, for each point of the reproduced image data block (indicated by the bold frame 50 in the figure) at the tentative best position, the reproduced image data block (half-pixel accuracy) is calculated using Equation 3 in consideration of the search in the upward direction. (Indicated by a thin frame 51 in the figure). Since this calculation is performed in eight ways in the conventional technique, the calculation amount of this part is theoretically reduced to 1/8.
【0025】つづいて、再生画像データブロックをもと
に、演算部20で精細なブロックマッチングを行う。こ
こでは、可能性のある最良位置の再生画像データブロッ
ク(図4の細枠)と入力データブロックとの歪み量Eh
(Vxh,Vyh)が式10で算出される。Subsequently, based on the reproduced image data block, the arithmetic unit 20 performs fine block matching. Here, the distortion amount Eh between the reproduced image data block (the thin frame in FIG. 4) at the best possible position and the input data block
(Vxh, Vyh) is calculated by Expression 10.
【0026】[0026]
【数2】 A'h(x+Vxh,y+Vyh)は半画素精度の再生画
像データブロックを示す。ここでは真上方向を考慮する
ため、Vxh=0、Vyh=0.5に関する計算が行わ
れる。この計算の結果は歪み量21として動きベクトル
算出部8へ与えられる。式10の計算は、従来の技術で
説明した方法であれば、Vxh、Vyh=−0.5、
0、0.5として、Vxh=Vyh=0の場合(つまり
仮の最良位置)を除く合計8回の計算を要した部分であ
り、本実施の形態では式10に関する演算量も理論上1
/8になる。(Equation 2) A ′ h (x + Vxh, y + Vyh) indicates a reproduced image data block with half-pixel accuracy. Here, in order to consider the right above direction, calculations regarding Vxh = 0 and Vyh = 0.5 are performed. The result of this calculation is provided to the motion vector calculation unit 8 as the distortion amount 21. The calculation of Equation 10 can be performed using the method described in the related art, Vxh, Vyh = −0.5,
This is a portion that requires a total of eight calculations except for the case where Vxh = Vyh = 0 (that is, the provisional best position) assuming 0 and 0.5. In the present embodiment, the amount of calculation for Expression 10 is also theoretically 1
/ 8.
【0027】最後に、動きベクトル算出部8において、
可能性のある最良位置における歪み量21と、すでに第
1マッチング部5の演算によって求められている仮の最
良位置におけるE_minとを比較し、より少ないほう
をもとに動きベクトルを決定する。したがって、仮の最
良位置および可能性のある最良位置のうち、最終的に最
良と考えられる位置が選択される。この選択にしたが
い、動きベクトル22が出力される。Finally, in the motion vector calculating section 8,
The amount of distortion 21 at the possible best position is compared with E_min at the tentative best position already obtained by the calculation of the first matching unit 5, and a motion vector is determined based on the smaller one. Therefore, the position that is finally considered to be the best is selected from the temporary best position and the possible best position. According to this selection, the motion vector 22 is output.
【0028】図5は本実施の形態によるブロックマッチ
ングの手順を示すフローチャートである。同図のごと
く、まずS2において、入力データブロックと動きベク
トルの所定探索範囲内の再生画像データブロックの歪み
量E(Vx,Vy)が式1で算出される。S3ではS2
で計算した歪み量E(Vx,Vy)とその時点での歪み
量の最小値であるE_minとの比較を行い、E_mi
n>E(Vx,Vy)なら、S4でE_min、E_s
econd、vector_min13、vector
_second14が更新される。E(Vx,Vy)≧
E_minならS5に進む。FIG. 5 is a flowchart showing the procedure of block matching according to the present embodiment. As shown in the figure, first, in S2, a distortion amount E (Vx, Vy) of a reproduced image data block within a predetermined search range of an input data block and a motion vector is calculated by Expression 1. S2 in S3
Is compared with E_min which is the minimum value of the distortion amount at that time, and E_mi is calculated.
If n> E (Vx, Vy), E_min, E_s in S4
econd, vector_min13, vector
_Second14 is updated. E (Vx, Vy) ≧
If E_min, the process proceeds to S5.
【0029】S5では所定探索範囲内のすべての再生画
像データブロックに関する歪み量の算出が終了したか否
かを判断し、未終了ならS6にて再生画像データブロッ
クの更新を行いS2に戻る。S5で終了と判断した場
合、S7に進む。S7ではvector_min13と
vector_second14との関係に基づき、半
画素精度の検索範囲16、すなわち可能性のある最良位
置を決定する。つづくS8では、式2〜式9のいずれか
を用いて検索範囲16に対応する半画素精度の再生画像
データブロックを算出する。In S5, it is determined whether or not the calculation of the distortion amounts for all the reproduced image data blocks within the predetermined search range has been completed. If not completed, the reproduced image data blocks are updated in S6 and the process returns to S2. If it is determined in S5 that the process is to be ended, the process proceeds to S7. In S7, the search range 16 with half-pixel accuracy, that is, the best possible position is determined based on the relationship between the vector_min13 and the vector_second14. In S8, a reproduced image data block with half-pixel accuracy corresponding to the search range 16 is calculated using one of Expressions 2 to 9.
【0030】S9では、入力データブロックとS8にて
求めた再生画像データブロックとの歪み量Eh(Vx
h,Vyh)を式10に基づき算出する。S10では、
S9で算出した、可能性のある最良位置における歪み量
Eh(Vxh,Vyh)と仮の最良位置における歪み量
E_minとの比較を行い、E_min>Eh(Vx
h,Vyh)ならS11においてE_minの更新とv
ector_min13の更新を行う。Eh(Vxh,
Vyh)≧E_minならS12に進み、vector
_min13を出力する。この後、最終的なvecto
r_min13に基づいて動きベクトル22が決定され
る。In S9, the amount of distortion Eh (Vx) between the input data block and the reproduced image data block obtained in S8 is determined.
h, Vyh) is calculated based on Equation 10. In S10,
The distortion amount Eh (Vxh, Vyh) at the best possible position calculated in S9 is compared with the distortion amount E_min at the temporary best position, and E_min> Eh (Vx
h, Vyh), the update of E_min and v
ector_min13 is updated. Eh (Vxh,
Vyh) ≧ E_min, the process proceeds to S12, and the vector
_Min13 is output. After this, the final vector
The motion vector 22 is determined based on r_min13.
【0031】以上のように、この実施の形態によれば、
第1マッチング部5において良好なマッチングを示した
複数ブロックの位置の相互関係をもとに、最良なマッチ
ングが得られるであろう探索方向がしぼり込まれるた
め、演算量の大幅な削減、処理時間の短縮が可能とな
る。この結果、演算に必要なメモリ等のハードウェアも
コンパクトにすることができる。As described above, according to this embodiment,
The search direction in which the best matching can be obtained is narrowed down based on the mutual relationship between the positions of the plurality of blocks showing good matching in the first matching unit 5, so that the amount of calculation is greatly reduced and the processing time is reduced. Can be shortened. As a result, hardware such as a memory necessary for the operation can be made compact.
【0032】なお本実施の形態では、図2において、可
能性のある最良位置としてただひとつの位置を検索範囲
16として定めたが、当然これ以外の方法もある。例え
ば仮の最良位置から見たvector_second1
4が以下の領域に存在するとき、右に示す3方向を可能
性のある最良位置として検索範囲16に設定し、探索に
幅をもたせてもよい。In the present embodiment, in FIG. 2, only one position is determined as the search range 16 as a possible best position, but there are naturally other methods. For example, vector_second1 viewed from the temporary best position
When 4 exists in the following areas, the three directions shown on the right may be set in the search range 16 as possible best positions, and the search may have a certain width.
【0033】・領域1…(a)、(b)、(c) ・領域3…(c)、(e)、(h) ・領域5…(f)、(g)、(h) ・領域7…(a)、(d)、(f) また、領域と検索方向の関係についても、図2の代わり
に図6を採用してもよい。図6の場合、領域2、4、
6、8がそれぞれ4つの象現のひとつに対応し、領域1
はy>0,x=0、領域3はx>0,y=0、領域5は
y<0,x=0、領域7はx<0,y=0にそれぞれ対
応する。図2、図6のいずれを採用するかについては、
実験等で適宜決めればよい。Area 1 ... (a), (b), (c) Area 3 ... (c), (e), (h) Area 5 ... (f), (g), (h) Area 7... (A), (d), (f) As for the relationship between the region and the search direction, FIG. 6 may be used instead of FIG. 2. In the case of FIG.
Areas 1 and 6 correspond to one of the four quadrants, respectively.
, Y> 0, x = 0, region 3 corresponds to x> 0, y = 0, region 5 corresponds to y <0, x = 0, and region 7 corresponds to x <0, y = 0. Regarding which of FIG. 2 and FIG. 6 is adopted,
It may be determined appropriately by experiment or the like.
【0034】実施の形態2.実施の形態1では、第2マ
ッチング部7による検索範囲16を決定するのにvec
tor_min13とvector_second14
を用いた。ここではさらに、3番目に小さな歪みをもつ
再生画像データブロックに対応する動きベクトルvec
tor_thirdも考慮する場合を説明する。 Embodiment 2 In the first embodiment, the search range 16 by the second matching unit 7 is determined by vec
tor_min13 and vector_second14
Was used. Here, the motion vector vec corresponding to the reproduced image data block having the third smallest distortion is further added.
A case where tor_third is also considered will be described.
【0035】図7は、実施の形態2に係るブロックマッ
チング探索装置の構成を示すブロック図である。同図に
おいて、30はvector_thirdを考慮して検
索範囲16を決定する判定部、40はvector_t
hirdを検出する第3検出部、41はvector_
third、42は半画素精度でベクトルを検索するた
めの範囲設定部である。その他の構成は図1と同等であ
り、図1と同一の符号を与えて説明を省略する。FIG. 7 is a block diagram showing a configuration of the block matching search device according to the second embodiment. In the figure, reference numeral 30 denotes a determination unit that determines the search range 16 in consideration of vector_third, and reference numeral 40 denotes vector_t.
The third detector 41 for detecting the third is a vector_
third and 42 are range setting units for searching for a vector with half-pixel accuracy. Other configurations are the same as those in FIG. 1, and the same reference numerals as those in FIG.
【0036】この装置の動作を説明する。実施の形態1
同様、第1マッチング部5では歪み量E(Vx,Vy)
が、第1検出部11ではE_minが、第2検出部12
ではE_secondが検出される。さらに第3検出部
40ではE(Vx,Vy)のうち3番目に小さい歪み量
E_thirdを求め、E_thirdを与える再生画
像データブロックの入力データブロックに対する相対位
置を示すベクトルvector_third41を出力
する。The operation of this device will be described. Embodiment 1
Similarly, in the first matching unit 5, the distortion amount E (Vx, Vy)
However, E_min in the first detection unit 11 is
In E_second, E_second is detected. Further, the third detection unit 40 obtains the third smallest distortion amount E_third of E (Vx, Vy), and outputs a vector vector_third 41 indicating the relative position of the reproduced image data block to which the E_third is provided with respect to the input data block.
【0037】範囲設定部42では、vector_mi
n13とvector_second14とvecto
r_third41との関係に基づき、半画素精度の検
索範囲16を求める。領域と検索方向の関係について図
2の表記を利用するものとし、検索範囲16の設定は例
えば図8、9によって行うことができる。In the range setting unit 42, the vector_mi
n13, vector_second14, and vector
The search range 16 with half-pixel accuracy is obtained based on the relationship with r_third41. The notation in FIG. 2 is used for the relationship between the area and the search direction, and the search range 16 can be set, for example, according to FIGS.
【0038】図8は、vector_min13が示す
仮の最良位置を原点にした場合にvector_sec
ond14が領域2、4、6、8に含まれるときの検索
範囲16の設定例、図9は同様にvector_sec
ond14が領域1、3、5、7に含まれるときの検索
範囲16の設定例をそれぞれ示している。FIG. 8 shows a case where the temporary best position indicated by the vector_min13 is set as the origin and the vector_sec
9 shows an example of setting the search range 16 when ond14 is included in the areas 2, 4, 6, and 8. Similarly, FIG.
An example of setting the search range 16 when ond14 is included in the regions 1, 3, 5, and 7 is shown.
【0039】図8のごとく、vector_secon
d14が領域2、4、6、8に含まれる場合はvect
or_third41は不参照(ドントケア)であり、
検索範囲16はそれぞれ(c)、(h)、(f)、
(a)と決まる。一方、vector_second1
4が領域1、3、5、7に含まれる場合はvector
_third41も参照され、例えば、vector_
second14が領域1、vector_third
41が領域3に含まれれば検索範囲は(c)のみとな
る。本実施の形態によるブロックマッチングの手順は、
図5のS4においてさらにE_thirdおよびvec
tor_thirdを更新すれば足り、全体手順は図5
のままでよい。As shown in FIG. 8, the vector_second
When d14 is included in regions 2, 4, 6, and 8, vect
or_third41 is non-reference (don't care),
The search range 16 is (c), (h), (f),
(A) is determined. On the other hand, vector_second1
If 4 is included in regions 1, 3, 5, and 7, vector
_Third41 is also referred to, for example, vector_
second14 is area 1, vector_third
If 41 is included in the area 3, the search range is only (c). The procedure of block matching according to the present embodiment is as follows.
In S4 of FIG. 5, E_third and vec
It is sufficient to update tor_third.
Can be left as is.
【0040】以上、この実施の形態によれば、vect
or_third41も加えて検索範囲を設定するた
め、設定された検索範囲の妥当性を高める効果がある。
このことから逆に、図8、9のごとく最終的な検索範囲
をひとつに絞ることも容易であり、演算量とハードウエ
アを大幅に削減することができる。なお、本実施の形態
についても、領域と探索方向については図2の代わりに
図6など別の関係を用いることができる。As described above, according to this embodiment, the vector
Since the search range is set in addition to the or_third 41, there is an effect of increasing the validity of the set search range.
Conversely, it is easy to narrow the final search range to one as shown in FIGS. 8 and 9, and the amount of calculation and hardware can be greatly reduced. Note that, also in this embodiment, another relationship such as FIG. 6 can be used instead of FIG. 2 for the region and the search direction.
【0041】実施の形態3.実施の形態1、2では、第
1マッチング部5における探索を整数画素精度、第2マ
ッチング部7における探索を半画素精度で行った。ここ
では、前者を粗い整数画素精度、後者をそれよりも密な
整数画素精度で行う場合を説明する。 Embodiment 3 In the first and second embodiments, the search in the first matching unit 5 is performed with integer pixel precision, and the search in the second matching unit 7 is performed with half pixel precision. Here, the case where the former is performed with coarse integer pixel precision and the latter is performed with finer integer pixel precision will be described.
【0042】本実施の形態に係るブロックマッチング探
索装置の構成は図1と同等である。ただし、第1マッチ
ング部5は実施の形態1などと異なり、粗い整数画素精
度で歪み量を演算する。判定部6の第1検出部11は、
第1マッチング部5における最小の歪み量に対応するv
ector_min13を検出し、同様に第2検出部1
2は2番目に小さい歪み量に対応するvector_s
econd14を検出する。範囲設定部15はこれら2
つのベクトルから実施の形態1同様の方法で検索範囲を
設定する。第2マッチング部7の画像再生部18は、設
定された検索範囲において密の整数画素精度で再生画像
データ19を算出する。演算部20は、密の整数画素精
度で歪み量21を演算する。動きベクトル算出部8は、
その演算結果を参照して動きベクトル22を出力する。The configuration of the block matching search apparatus according to this embodiment is the same as that of FIG. However, unlike the first embodiment, the first matching unit 5 calculates the amount of distortion with coarse integer pixel accuracy. The first detection unit 11 of the determination unit 6 includes:
V corresponding to the minimum distortion amount in the first matching unit 5
ector_min13, and the second detector 1
2 is vector_s corresponding to the second smallest distortion amount
econd14 is detected. The range setting unit 15 determines these 2
A search range is set from the two vectors in the same manner as in the first embodiment. The image reproducing unit 18 of the second matching unit 7 calculates the reproduced image data 19 with a fine integer pixel precision in the set search range. The calculation unit 20 calculates the distortion amount 21 with fine integer pixel precision. The motion vector calculator 8 calculates
The motion vector 22 is output with reference to the calculation result.
【0043】次に動作を説明する。まず第1マッチング
部5は、入力フレームバッファ1に蓄積された入力ブロ
ックデータを入力する。これとともに、フレームバッフ
ァ2より動きベクトルの所定探索範囲内の再生画像デー
タブロックを読み込み、入力データブロックと粗い整数
画素精度の探索点の再生画像データブロックとの歪み量
E(Vx,Vy)を式11に基づき算出する。所定探索
範囲は入力データブロックの位置を中心としたX軸方向
±16、Y軸方向±16の範囲であり、粗い整数精度の
探索は1画素おきに行う。Next, the operation will be described. First, the first matching unit 5 inputs the input block data stored in the input frame buffer 1. At the same time, a reproduced image data block within a predetermined search range of the motion vector is read from the frame buffer 2, and a distortion amount E (Vx, Vy) between the input data block and the reproduced image data block at the search point with coarse integer pixel precision is calculated by an equation. 11 is calculated. The predetermined search range is a range of ± 16 in the X-axis direction and ± 16 in the Y-axis direction centered on the position of the input data block, and a search with coarse integer precision is performed every other pixel.
【0044】[0044]
【数3】 ここで、A(x,y)は入力データブロック、A”
(x,y)は粗い精度の探索点に対応する再生画像デー
タブロック、VxとVyは入力データブロックの位置を
示す座標を基準とした移動量(Vx=2Nx,Vy=2
Ny,−8≦Nx,Ny≦8)である。したがって、第
1マッチング部5は、 E(-16,-16), E(-16,-14),......E(-16,14), E(-16,16), E(-14,-16), E(-14,-14),.................E(-14,16), : E(16,-16), E(16,-14),...................E(16,16) を順に算出することになる。(Equation 3) Here, A (x, y) is an input data block, A "
(X, y) is a reproduced image data block corresponding to a search point of coarse accuracy, and Vx and Vy are movement amounts (Vx = 2Nx, Vy = 2) based on coordinates indicating the position of the input data block.
Ny, −8 ≦ Nx, Ny ≦ 8). Therefore, the first matching unit 5 calculates E (-16, -16), E (-16, -14),... E (-16,14), E (-16,16), E (-14, -16), E (-14, -14), ....... E (-14,16),: E (16, -16) , E (16, -14),... E (16,16) are calculated in order.
【0045】以下、実施の形態1の整数画素精度、半整
数画素精度の処理をそれぞれ粗い整数画素精度、より密
な整数画素精度の処理に読み替えることで本実施の形態
の処理が実現する。例えば、第2マッチング部7の演算
部20における密な整数画素精度の歪み量Em(Vx
m,Vym)は、式10のかわりにつぎの式で計算され
る。Hereinafter, the processing of the present embodiment is realized by reading the processing of the integer pixel precision and the half-integer pixel precision of the first embodiment into the processing of the coarse integer pixel precision and the processing of the finer integer pixel precision, respectively. For example, the distortion amount Em (Vx
m, Vym) is calculated by the following equation instead of equation 10.
【0046】[0046]
【数4】 ここでA”h(x+Vxm,y+Vym)は密な整数画
素精度の再生画像データブロックを示す。VxmとVy
mは、探索方向にしたがって−1、0、1のいずれかを
とる。(Equation 4) Here, A ″ h (x + Vxm, y + Vym) indicates a reproduced image data block with dense integer pixel precision. Vxm and Vy
m takes one of -1, 0 and 1 according to the search direction.
【0047】以上のように、この実施の形態によれば、
実施の形態1同様の効果を別の処理、すなわち粗い整数
画素精度とより密な整数画素精度の二段階マッチングで
実現できる。この実施の形態によれば、第1マッチング
部5による演算回数が実施の形態1の場合より減る。し
たがって、実施の形態1はより高画質を、実施の形態3
はより少ない演算量と処理時間をそれぞれ目的とする用
途に使い分ければよい。As described above, according to this embodiment,
The same effect as in the first embodiment can be realized by another process, that is, two-stage matching between coarse integer pixel precision and denser integer pixel precision. According to this embodiment, the number of calculations performed by the first matching unit 5 is smaller than in the first embodiment. Therefore, Embodiment 1 provides higher image quality and Embodiment 3
May be used for purposes that require less computation and processing time.
【0048】なお、本実施の形態についても実施の形態
2同様、3番目に良好な結果を示すvector_th
ird41を加味してもよい。その場合、実施の形態2
の整数画素精度、半整数画素精度の処理をそれぞれ粗い
整数画素精度、より密な整数画素精度の処理に読み替え
ればよい。In this embodiment, similarly to the second embodiment, the vector_th showing the third best result is shown.
ird41 may be added. In that case, Embodiment 2
The processing of integer pixel precision and half integer pixel precision may be read as coarse integer pixel precision and denser integer pixel precision processing, respectively.
【0049】また、以上の実施の形態では差分絶対値和
によるブロックマッチング演算の例を示した。しかしこ
のほかにも、二乗和など他の差分を用いることができ
る。また、ここでは本発明を例えば動き補償フレーム間
符号化へ応用する場合を示したが、同一のフレーム画像
内で互いに最も類似したブロックデータを探索する場合
にも適用できる。この場合、処理の対象となるフレーム
画像と処理の基準となるフレーム画像は同じものとな
る。In the above embodiment, an example of the block matching calculation based on the sum of absolute differences has been described. However, other differences such as a sum of squares can be used. In addition, although the case where the present invention is applied to, for example, motion-compensated inter-frame coding has been described here, the present invention can also be applied to a case where block data most similar to each other is searched for in the same frame image. In this case, the frame image to be processed is the same as the frame image to be the reference for processing.
【0050】さらに、ここでは二段階のマッチングを
「整数画素精度→半整数画素精度」または「粗い整数画
素精度→より密な整数画素精度」としたが、これらを組
み合わせて「粗い整数画素精度→半整数画素精度」とす
る変形例も考えられる。Further, here, the two-stage matching is “integer pixel precision → half integer pixel precision” or “coarse integer pixel precision → dense integer pixel precision”, but these are combined to “coarse integer pixel precision → A modification example of “half-integer pixel accuracy” is also possible.
【0051】[0051]
【発明の効果】本発明のブロックマッチング探索方法に
よれば、密な精度によるマッチングの前に、最良マッチ
ングを得ることのできる可能性の高い探索方向がしぼり
込まれるため、演算量の低減、ハードウエアの簡素化、
処理時間の短縮が実現する。According to the block matching search method of the present invention, since the search direction which is likely to obtain the best matching is narrowed down before the matching with high precision, the calculation amount is reduced and the hardware is reduced. Simplification of wear,
Shortening of processing time is realized.
【0052】粗い精度で良好なマッチングを示した複数
ブロックの位置の相互関係をもとに探索方向をしぼり込
む場合は、しぼり込みの結果が妥当性をもつ。When the search direction is narrowed down based on the mutual relationship between the positions of a plurality of blocks showing good matching with coarse accuracy, the narrowed-down result has validity.
【0053】粗い精度で最も良好なマッチングを示した
ブロックの位置の中心と、二番目に良好なマッチングを
示したブロックの位置の中心を結ぶ方向を主たる方向と
して探索方向をしぼり込む場合は、経験則にもとづく自
然なしぼり込みが実現する。In the case where the search direction is narrowed down by using the direction connecting the center of the position of the block showing the best matching with coarse accuracy and the center of the position of the block showing the second best matching as the main direction, it is difficult to narrow down the search direction. Natural embossing based on the rule is realized.
【0054】一方、本発明のブロックマッチング探索装
置によれば、密な精度によるマッチングの前に、最良マ
ッチングを得ることのできる可能性の高い探索方向がし
ぼり込まれるため、演算量の低減、ハードウエアの簡素
化、処理時間の短縮が実現する。On the other hand, according to the block matching search apparatus of the present invention, since the search direction which is likely to obtain the best matching is narrowed down before the matching with high precision, the calculation amount is reduced and the hardware is reduced. This simplifies the wear and shortens the processing time.
【0055】粗い精度のマッチングの結果最も良好なマ
ッチングを示すブロックの位置を検出する第1検出手段
と、同様に二番目に良好なマッチングを示すブロックの
位置を検出する第2検出手段を含む場合、探索方向のし
ぼり込みに妥当性を持たせることができる。When a first detecting means for detecting a position of a block showing the best matching as a result of the coarse precision matching and a second detecting means for similarly detecting a position of a block showing the second best matching are included. In addition, it is possible to make the search direction narrow down.
【0056】整数画素精度のマッチングと半整数画像精
度のマッチングの二段階処理を行う場合、高画質を維持
しながら演算量を低減できる。When performing two-step processing of matching with integer pixel accuracy and matching with half-integer image accuracy, the amount of calculation can be reduced while maintaining high image quality.
【0057】粗い整数画素精度のマッチングと、より密
な整数画素精度のマッチングの二段階処理を行う場合、
さらなる演算量の低減が実現する。When performing two-stage processing of matching with coarse integer pixel precision and matching with finer integer pixel precision,
Further reduction in the amount of calculation is realized.
【図1】 実施の形態1に係るブロックマッチング探索
装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of a block matching search device according to a first embodiment.
【図2】 実施の形態1において、vector_mi
nの示す位置を基準としたときにvector_sec
ondが属する領域と、設定される検索範囲の関係を示
す図である。FIG. 2 is a diagram showing a vector_mi in the first embodiment.
vector_sec based on the position indicated by n
It is a figure showing the relation of the field to which ond belongs, and the search range set up.
【図3】 実施の形態1において、画像再生部による再
生画像データの算出例を説明する図である。FIG. 3 is a diagram illustrating an example of calculation of reproduced image data by an image reproducing unit according to the first embodiment.
【図4】 実施の形態1において、可能性のある最良位
置が仮の最良位置の直上にある場合の半画素精度の再生
画像データブロックを示す図である。FIG. 4 is a diagram illustrating a reproduced image data block with half-pixel accuracy when a possible best position is immediately above a provisional best position in the first embodiment.
【図5】 実施の形態1によるブロックマッチングの手
順を示すフローチャートである。FIG. 5 is a flowchart showing a procedure of block matching according to the first embodiment.
【図6】 実施の形態1において、vector_mi
nの示す位置を基準としてときにvector_sec
ondが属する領域と、設定される検索範囲の別の関係
を示す図である。FIG. 6 is a diagram illustrating a configuration of the first embodiment.
vector_sec based on the position indicated by n
FIG. 14 is a diagram illustrating another relationship between an area to which ond belongs and a set search range.
【図7】 実施の形態2に係るブロックマッチング探索
装置の構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a block matching search device according to a second embodiment.
【図8】 実施の形態2において設定される検索範囲を
示す図である。FIG. 8 is a diagram showing a search range set in the second embodiment.
【図9】 実施の形態2において設定される検索範囲を
示す図である。FIG. 9 is a diagram showing a search range set in the second embodiment.
1 入力フレームバッファ、2 フレームバッファ、3
入力データブロック、4 再生画像データブロック、
5 第1マッチング部、6 判定部、7 第2マッチン
グ部、8 動きベクトル算出部、10 歪み量、11
第1検出部、12 第2検出部、13 vector_
min、14 vector_second、15 範
囲設定部、16 検索範囲、18 画像再生部、19
再生画像データ、20 演算部、21 歪み量、22
動きベクトル、30 判定部、40 第3検出部、41
vector_third、42 範囲設定部、50
仮の最良位置にある再生画像データブロック、51 半
画素精度の再生画像データブロック。1 input frame buffer, 2 frame buffer, 3
Input data block, 4 playback image data block,
5 first matching unit, 6 determination unit, 7 second matching unit, 8 motion vector calculation unit, 10 distortion amount, 11
1st detection part, 12 2nd detection part, 13 vector_
min, 14 vector_second, 15 range setting section, 16 search range, 18 image playback section, 19
Reconstructed image data, 20 operation unit, 21 distortion amount, 22
Motion vector, 30 determining unit, 40 third detecting unit, 41
vector_third, 42 range setting unit, 50
The reproduced image data block at the temporary best position, 51 reproduced image data blocks with half-pixel accuracy.
Claims (7)
基準となるフレーム画像の間でブロックマッチングを行
う方法において、 前記処理の基準となるフレーム画像の所定探索範囲にお
いて、粗い精度で前記処理の対象となるフレーム画像の
ブロックのマッチングをとる第1マッチング工程と、 その結果をもとに最良マッチングを得ることのできる可
能性の高い探索方向をしぼり込む判定工程と、 しぼり込まれた探索方向において、密な精度で前記処理
の対象となるフレーム画像のマッチングをとる第2マッ
チング工程と、 を含むことを特徴とするブロックマッチング探索方法。1. A method for performing block matching between a frame image to be processed and a frame image to be a reference for processing, the method comprising the steps of: A first matching step of matching blocks of a target frame image; a determination step of narrowing down a search direction that is likely to obtain the best matching based on the result; A second matching step of matching the frame images to be processed with a high precision.
行った時点で良好なマッチングを示した複数ブロックの
位置の相互関係をもとに探索方向をしぼり込む請求項1
に記載の方法。2. The method according to claim 1, wherein the determining step narrows down the search direction based on the mutual relationship between the positions of the plurality of blocks that showed good matching at the time of performing the first matching step.
The method described in.
行った時点で最も良好なマッチングを示したブロックの
位置の中心と、二番目に良好なマッチングを示したブロ
ックの位置の中心を結ぶ方向を主たる方向として探索方
向をしぼり込む請求項2に記載の方法。3. The method according to claim 1, wherein the determining step is a direction connecting the center of the position of the block showing the best matching at the time of performing the first matching step and the center of the position of the block showing the second best matching. 3. The method according to claim 2, wherein the search direction is narrowed down by setting the main direction to.
基準となるフレーム画像の間でブロックマッチングを行
う装置において、 前記処理の基準となるフレーム画像の所定探索範囲にお
いて、粗い精度で前記処理の対象となるフレーム画像の
ブロックのマッチングをとる第1マッチング手段と、 その結果をもとに最良マッチングを得ることのできる可
能性の高い探索方向をしぼり込む判定手段と、 しぼり込まれた探索方向において、密な精度で前記処理
の対象となるフレーム画像のマッチングをとる第2マッ
チング手段と、 を含むことを特徴とするブロックマッチング探索装置。4. An apparatus for performing block matching between a frame image to be processed and a frame image to be a reference for processing, the apparatus comprising: First matching means for matching blocks of a target frame image, determination means for narrowing down a search direction that is likely to obtain the best matching based on the result, And a second matching means for matching the frame image to be processed with high precision.
マッチングを示すブロックの位置を検出する第1検出手
段と、 第1マッチング手段によるマッチングの結果二番目に良
好なマッチングを示すブロックの位置を検出する第2検
出手段と、 第1および第2検出手段における検出結果を利用して探
索方向をしぼり込む範囲設定手段と、 を含む請求項4に記載の装置。5. The determination means comprises: a first detection means for detecting a position of a block showing the best matching as a result of the matching by the first matching means; and a second best matching as a result of the matching by the first matching means. 5. The apparatus according to claim 4, further comprising: a second detection unit configured to detect a position of the block indicating the following; and a range setting unit configured to narrow down a search direction using detection results obtained by the first and second detection units. 6.
でマッチングを行い、前記第2マッチング手段は半整数
画像精度でマッチングを行う請求項4、5のいずれかに
記載の装置。6. The apparatus according to claim 4, wherein said first matching means performs matching with integer pixel precision, and said second matching means performs matching with half integer image precision.
を間引いた粗い整数画素精度でマッチングを行い、前記
第2マッチング手段は第1マッチング手段よりも密な整
数画素精度でマッチングを行う請求項4〜6のいずれか
に記載の装置。7. The first matching means performs matching with a coarse integer pixel precision obtained by thinning out search target points, and the second matching means performs matching with a finer integer pixel precision than the first matching means. The apparatus according to any one of claims 4 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4872697A JP3539835B2 (en) | 1997-03-04 | 1997-03-04 | Block matching search method and apparatus using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4872697A JP3539835B2 (en) | 1997-03-04 | 1997-03-04 | Block matching search method and apparatus using the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10247242A true JPH10247242A (en) | 1998-09-14 |
JP3539835B2 JP3539835B2 (en) | 2004-07-07 |
Family
ID=12811309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4872697A Expired - Fee Related JP3539835B2 (en) | 1997-03-04 | 1997-03-04 | Block matching search method and apparatus using the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3539835B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010045816A (en) * | 2001-03-08 | 2010-02-25 | Avt Audio Visual Telecommunications Corp | Device and method for performing half-pixel accuracy fast search in video coding |
JP2016214664A (en) * | 2015-05-22 | 2016-12-22 | 株式会社日立製作所 | Ultrasound diagnostic device and program |
-
1997
- 1997-03-04 JP JP4872697A patent/JP3539835B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010045816A (en) * | 2001-03-08 | 2010-02-25 | Avt Audio Visual Telecommunications Corp | Device and method for performing half-pixel accuracy fast search in video coding |
US7792191B2 (en) | 2001-03-08 | 2010-09-07 | Lambert Everest Ltd. | Device and method for performing half-pixel accuracy fast search in video coding |
JP2016214664A (en) * | 2015-05-22 | 2016-12-22 | 株式会社日立製作所 | Ultrasound diagnostic device and program |
Also Published As
Publication number | Publication date |
---|---|
JP3539835B2 (en) | 2004-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5274453A (en) | Image processing system | |
US8045620B2 (en) | Image processing apparatus, image processing method and computer readable medium | |
KR20020085269A (en) | Merging search method of motion vector using multi-candidates | |
Yokoyama et al. | Very low bit rate video coding using arbitrarily shaped region-based motion compensation | |
EP0624981B1 (en) | Motion vector detecting circuit | |
JP2005505841A (en) | Apparatus and method for motion estimation | |
JP3230804B2 (en) | Block matching method by moving the target window | |
JP3299671B2 (en) | Image motion detection device | |
JPH10247242A (en) | Block matching searching method and device using the method | |
KR100644574B1 (en) | Digital image segmentation method and device thereof | |
JP3175914B2 (en) | Image encoding method and image encoding device | |
JP4228705B2 (en) | Motion vector search method and apparatus | |
Chen et al. | Multiple sprites and frame skipping techniques for sprite generation with high subjective quality and fast speed | |
KR20010045766A (en) | Apparatus For Motion Estimation With Control Section Implemented By State Translation Diagram | |
Lee et al. | Fast half-pixel motion estimation based on directional search and a linear model | |
JP2861971B2 (en) | Motion vector prediction device | |
JP2980810B2 (en) | Motion vector search method and apparatus | |
JPH0998424A (en) | Method and device for extracting affine transformation parameter | |
JP3237815B2 (en) | Motion vector search method and apparatus | |
JPH08242454A (en) | Method for detecting global motion parameter | |
Amitay et al. | Global-motion estimation in image sequences of 3-D scenes for coding applications | |
KR20040022697A (en) | Apparatus for estimating motion for compressing image data | |
JP3171249B2 (en) | Motion vector search method for video coding | |
JP2000324495A (en) | Device and method for converting field frequency | |
JP4570700B2 (en) | Motion vector detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040323 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080402 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110402 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |