JP2001061152A - Motion detection method and motion detector - Google Patents

Motion detection method and motion detector

Info

Publication number
JP2001061152A
JP2001061152A JP23551899A JP23551899A JP2001061152A JP 2001061152 A JP2001061152 A JP 2001061152A JP 23551899 A JP23551899 A JP 23551899A JP 23551899 A JP23551899 A JP 23551899A JP 2001061152 A JP2001061152 A JP 2001061152A
Authority
JP
Japan
Prior art keywords
block
pixel
frame
motion
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP23551899A
Other languages
Japanese (ja)
Other versions
JP2001061152A5 (en
JP4161477B2 (en
Inventor
Masashi Uchida
真史 内田
Yasushi Tatsuhira
靖 立平
Takashi Miyai
岳志 宮井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP23551899A priority Critical patent/JP4161477B2/en
Publication of JP2001061152A publication Critical patent/JP2001061152A/en
Publication of JP2001061152A5 publication Critical patent/JP2001061152A5/ja
Application granted granted Critical
Publication of JP4161477B2 publication Critical patent/JP4161477B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To decrease the problems of a plurality of motions by detecting a large motion vector in the unit of one pixel or a small block, without increasing the calculation amount and preventing deterioration in accuracy of motion detection, so as to reduce errors due to repetitive pattern. SOLUTION: A representative point matching processing section 102 conducts matching processing between an image of a current frame and an image consisting of representative points of a preceding frame. The value of each pixel of a block of the same position of the current frame is subtracted from representative point data of a block of the preceding frame, absolute values of a subtraction output are integrated by one block and integral values of each block are integrated by one frame. The integrated values are fed to an evaluation value table generating section 103. The evaluation value table generating section 103 stores the integrated value obtained at each position within a search range to a memory, where an evaluation table is generated. An object vector extract section 104 extracts one or a plurality of object vectors, by referring to the evaluation value table. A motion vector detection section 105 detects a motion vector in the unit of one pixel through matching processing, using the object vector and outputs the detected motion vector to an output terminal 107.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像信号の動き
検出方法および動き検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for detecting a motion of an image signal.

【0002】[0002]

【従来の技術】従来、動画像の処理の分野において、動
き、すなわち、時間的に異なる画像中の物体の動き方向
と大きさ(または速さ)が用いられる。例えば画像の高
能率符号化における動き補償フレーム間符号化や、フレ
ーム間時間領域フィルタによるテレビジョン雑音低減装
置における動きによるパラメータ制御等に動きが用いら
れる。動きを求める動き検出方法としては、ブロックマ
ッチング法が知られている。
2. Description of the Related Art Conventionally, in the field of moving image processing, motion, that is, the moving direction and the size (or speed) of an object in an image which is temporally different are used. For example, motion is used for motion-compensated inter-frame coding in high-efficiency coding of an image, parameter control by motion in a television noise reduction device using an inter-frame time domain filter, and the like. As a motion detection method for obtaining a motion, a block matching method is known.

【0003】ブロックマッチング法の概略について図9
および図10を参照して説明する。まず、1画面を適当
な数画素からなるブロック(簡単のために、2×2画素
のサイズとする)に分割する。続いてこのようにブロッ
ク化された画像データと、この画像データが動いた領域
を検索するために、時間的に異なる画面(例えば1フレ
ーム前の画面)の画像データがブロック化されてなるサ
ーチ範囲が設定され、サーチ範囲内で現フレームの参照
ブロックと前フレームの候補ブロックとの間で、評価値
が計算される。
FIG. 9 shows an outline of the block matching method.
This will be described with reference to FIG. First, one screen is divided into blocks each having an appropriate number of pixels (for simplicity, a size of 2 × 2 pixels). Subsequently, in order to search for the image data thus blocked and an area in which the image data has moved, a search range in which image data of a screen different in time (for example, a screen one frame before) is blocked. Is set, and an evaluation value is calculated between the reference block of the current frame and the candidate block of the previous frame within the search range.

【0004】図9において、破線で示す領域がサーチ範
囲であり、図の例では、水平(x)方向に±4、垂直
(y)方向に±4のサーチ範囲が設定されている。サー
チ範囲内でx方向およびy方向にそれぞれ1画素ずつ移
動した候補ブロックと、固定の参照ブロックとの間で評
価値が計算される。評価値としては、参照ブロックと候
補ブロックとの間での同一位置の画素間の値の差分の絶
対値をブロック単位で集計したものが使用される。図1
0は、このように求めた評価値Ex,y のテーブルを示
す。候補ブロックのいくつかの例に対応した評価値が図
10に示されている。全部では、(9×9)個の評価値
が求められる。
In FIG. 9, a region indicated by a broken line is a search range. In the example of FIG. 9, a search range of ± 4 in the horizontal (x) direction and ± 4 in the vertical (y) direction is set. An evaluation value is calculated between a candidate block moved by one pixel in each of the x direction and the y direction within the search range and a fixed reference block. As the evaluation value, a value obtained by totaling the absolute values of the differences between the values of pixels at the same position between the reference block and the candidate block in block units is used. FIG.
0 indicates a table of the evaluation values Ex, y thus obtained. Evaluation values corresponding to some examples of the candidate blocks are shown in FIG. In all, (9 × 9) evaluation values are obtained.

【0005】この評価値の中で、最小のものを求める。
最小の評価値を生じさせる候補ブロックの位置が動きベ
クトルMVとなる。例えば、E0,3 が最小値であれば、
動きベクトルがMV0,3 である。これによって、ブロッ
ク単位の画像の動きを検出し得るようになされている。
[0005] Among these evaluation values, the smallest one is obtained.
The position of the candidate block that produces the minimum evaluation value is the motion vector MV. For example, if E0,3 is the minimum value,
The motion vector is MV0,3. Thus, the motion of the image in block units can be detected.

【0006】[0006]

【発明が解決しようとする課題】上述したブロックマッ
チング法では、大きな動きをベクトルを検出するために
は、比較的大きなサーチ範囲を設定する必要がある。し
かしながら、マッチングの程度を示す評価値を計算する
ための計算量が多くなり、また、評価値から動きベクト
ルを決定する処理が増大する問題が生じる。
In the block matching method described above, it is necessary to set a relatively large search range in order to detect a large motion vector. However, there is a problem that the amount of calculation for calculating the evaluation value indicating the degree of matching increases, and that the process of determining a motion vector from the evaluation value increases.

【0007】また、上述したブロックマッチング法で
は、ブロック単位で動きを検出する。従って、ブロック
内に複数の動きが混在する場合には、正確な動きを求め
ることが難しい、という問題があった。例えばブロック
内に動き部分と静止部分とが含まれる時に、動き部分の
動きを検出できたとしても、その動きは、正確には、ブ
ロックの動きとは言えない。ブロックを大きくすると、
計算量の増大に加えて、ブロック内の複数動きの問題が
発生し易くなる。
In the above-described block matching method, a motion is detected in block units. Therefore, when a plurality of motions are mixed in a block, it is difficult to obtain an accurate motion. For example, when a block includes a moving part and a stationary part, even if the movement of the moving part can be detected, the movement is not exactly the movement of the block. When you make a block bigger,
In addition to an increase in the amount of calculation, a problem of a plurality of motions in a block is likely to occur.

【0008】かかる問題を軽減するには、ブロック内に
複数の動きが含まれないように、ブロックのサイズを小
さくすればよい。しかしながら、ブロックサイズを小さ
くした場合には、マッチングの判断の領域が小さくなる
ので、動き検出の精度が低下する問題が生じる。すなわ
ち、マッチングを行う時に、動きに起因しないで、参照
ブロックと似た候補ブロックが現れやすくなる。また、
ブロックサイズを小さくすると、同じ画像のパターンが
反復することが生じやすくなる。例えば、文字テロップ
が水平または垂直方向に動く時には、反復パターンの影
響が現れやすい。漢字の文字パターンの場合では、同じ
文字でも、小さな部分に分割すると、同一のパターンと
なることが多い。従って、サーチ範囲内で、参照ブロッ
クと同一のパターンを持つ候補ブロックが複数個現れ、
正確に動きを検出することが難しい。
In order to reduce such a problem, the size of the block may be reduced so that a plurality of motions are not included in the block. However, when the block size is reduced, the matching determination area becomes smaller, and thus a problem arises in that the accuracy of motion detection is reduced. That is, when performing the matching, a candidate block similar to the reference block easily appears due to no movement. Also,
When the block size is reduced, the pattern of the same image is likely to be repeated. For example, when a character telop moves in a horizontal or vertical direction, the effect of a repetitive pattern tends to appear. In the case of a kanji character pattern, the same character often becomes the same pattern when divided into small parts. Therefore, a plurality of candidate blocks having the same pattern as the reference block appear in the search range,
It is difficult to detect movement accurately.

【0009】上述したように、ブロックサイズを大きく
すると、複数の動きが発生し易くなり、また、動きベク
トルを求めるための演算量が多くなる。このように、ブ
ロックサイズを大きくすることと、これを小さくするこ
ととは、相反することであり、上述の問題を全て解決す
ることは、困難であると考えられてきた。
As described above, when the block size is increased, a plurality of motions are likely to occur, and the amount of calculation for obtaining a motion vector increases. As described above, increasing the block size and decreasing the block size are contradictory, and it has been considered that it is difficult to solve all the above-mentioned problems.

【0010】例えば、動き文字テロップを含む画像は、
テレビジョン放送において一般的な画像(シーン)であ
る。このようなシーンは、複数の動きおよび反復パター
ンの両方の問題を同時に持つ典型的な例である。ブロッ
ク内に文字テロップが含まれる場合では、そのブロック
内に複数の動きが混在することが多い。また、文字パタ
ーンは、幾何学的な要素からなることが多く、しばしば
反復的なパターンを生み出す。このような画像を対象に
した場合、従来のブロックマッチング法では、正確に動
きを検出することが難しい。さらに、動き文字テロップ
は、視覚的に注視される度合いが高く、ここで発生する
動き検出のエラーにより引き起こされる画像の劣化が非
常に目立つことになる。
For example, an image including a moving character telop is
This is a general image (scene) in television broadcasting. Such scenes are a typical example of having multiple motion and repetitive patterns simultaneously. When a character telop is included in a block, a plurality of movements are often mixed in the block. Also, character patterns often consist of geometric elements, often producing repetitive patterns. When such an image is targeted, it is difficult to detect a motion accurately by the conventional block matching method. Furthermore, a moving character telop has a high degree of visual attention, and the deterioration of an image caused by a motion detection error occurring here becomes very conspicuous.

【0011】従って、この発明の目的は、上述した問題
を解決することにあり、計算量を増大させることなく、
大きな動きベクトルを検出でき、また、複数の動きや、
反復パターンが存在する時でも、高い精度でもって動き
を検出することが可能な動き検出方法および動き検出装
置を提供することにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to solve the above-mentioned problem, without increasing the amount of calculation.
It can detect large motion vectors,
An object of the present invention is to provide a motion detection method and a motion detection device capable of detecting a motion with high accuracy even when a repetitive pattern exists.

【0012】[0012]

【課題を解決するための手段】請求項1の発明は、上述
した課題を解決するために、画像信号中の動きを検出す
る動き検出方法において、(a) 1画面全体または1画面
を複数に分割した比較的大きなブロック毎に、マッチン
グ法によって積算値テーブルを生成し、積算値テーブル
を用いて、1画面全体または1画面を複数に分割した比
較的大きなブロック毎に、1または複数の候補ベクトル
を抽出するステップと、(b) 候補ベクトルのみを対象と
してマッチングを行い、1画素または比較的小さいブロ
ック毎に動きベクトルを検出するステップとからなるこ
とを特徴とする動き検出方法である。
According to a first aspect of the present invention, there is provided a motion detection method for detecting a motion in an image signal, comprising the steps of: For each relatively large divided block, an integrated value table is generated by a matching method. Using the integrated value table, one or a plurality of candidate vectors are generated for each whole screen or each relatively large block obtained by dividing one screen into a plurality. And a step (b) of performing matching on only the candidate vector and detecting a motion vector for each pixel or each relatively small block.

【0013】請求項4の発明は、画像信号中の動きを検
出する動き検出装置において、1画面全体または1画面
を複数に分割した比較的大きなブロック毎に、マッチン
グ法によって積算値テーブルを生成し、積算値テーブル
を用いて、1画面全体または1画面を複数に分割した比
較的大きなブロック毎に、1または複数の候補ベクトル
を抽出する手段と、候補ベクトルのみを対象としてマッ
チングを行い、1画素または比較的小さいブロック毎に
動きベクトルを検出する手段とからなることを特徴とす
る動き検出装置である。
According to a fourth aspect of the present invention, there is provided a motion detecting apparatus for detecting a motion in an image signal, wherein an integrated value table is generated by a matching method for one entire screen or for each relatively large block obtained by dividing one screen into a plurality. Means for extracting one or a plurality of candidate vectors for each relatively large block obtained by dividing the entire screen or one screen by using the integrated value table; Alternatively, there is provided a motion detecting device comprising: means for detecting a motion vector for each relatively small block.

【0014】この発明では、前処理において、1画面全
体についてマッチング処理を行い、1または複数の候補
ベクトルを抽出する。抽出した候補ベクトルを対象とし
て、1画素または小さいブロック単位で動きベクトルを
検出することによって、計算量を増大させずに、大きい
動きベクトルを検出でき、また、ブロック内の複数動き
の問題が生じにくく、さらに、動き検出精度が低下した
り、反復パターンの影響を受けにくくできる。
According to the present invention, in the preprocessing, a matching process is performed on one entire screen to extract one or a plurality of candidate vectors. By detecting a motion vector in units of one pixel or a small block with respect to the extracted candidate vector, a large motion vector can be detected without increasing the amount of calculation, and a problem of a plurality of motions in a block hardly occurs. In addition, the motion detection accuracy can be reduced and the effect of the repetition pattern can be reduced.

【0015】[0015]

【発明の実施の形態】以下、この発明の一実施形態を、
図面を参照しながら説明する。図1は、この発明の一実
施形態の全体的構成を示す。101で示す入力端子にデ
ィジタルビデオ信号が供給される。ディジタルビデオ信
号は、例えば輝度信号を所定の周波数でサンプリング
し、サンプル(画素)をそれぞれ8ビットへ変換したも
のである。ディジタルビデオ信号が代表点マッチング処
理部102に供給される。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, one embodiment of the present invention will be described.
This will be described with reference to the drawings. FIG. 1 shows an overall configuration of an embodiment of the present invention. A digital video signal is supplied to an input terminal denoted by reference numeral 101. The digital video signal is obtained, for example, by sampling a luminance signal at a predetermined frequency and converting each sample (pixel) into 8 bits. The digital video signal is supplied to the representative point matching processing unit 102.

【0016】代表点マッチング処理部102は、前フレ
ームの画像を間引き処理することによって、代表点から
なる画像に変換し、現フレームの画像と前フレームの代
表点からなる画像との間で、ブロックマッチングと同様
に、マッチング処理を行うものである。代表点は、図2
に示すように、1画面例えば1フレームの画像を複数の
(m画素×nライン)のブロックへ分割した時の各ブロ
ックを代表するデータである。代表点データとしては、
ブロックの中心位置の画素の値、ブロック内の画素の値
の平均値、ブロック内の画素の中間値等が使用される。
The representative point matching processing unit 102 converts the image of the previous frame into an image composed of representative points by thinning out the image of the previous frame, and performs block conversion between the image of the current frame and the image composed of the representative points of the previous frame. Similar to the matching, a matching process is performed. The representative points are shown in FIG.
As shown in FIG. 5, data representing each block when an image of one screen, for example, one frame is divided into a plurality of (m pixels × n lines) blocks. As representative point data,
The value of the pixel at the center position of the block, the average value of the values of the pixels in the block, the intermediate value of the pixels in the block, and the like are used.

【0017】代表点マッチング処理部102は、設定さ
れたサーチ範囲内で現フレームの参照フレーム画像と、
代表点データで構成された前フレームの候補フレーム画
像との間で、フレーム間差分を計算する。すなわち、前
フレームのあるブロックの代表点データから、現フレー
ムの同一位置のブロックのm×n個の各画素の値が減算
され、減算出力の絶対値が1ブロックで積算され、さら
に、各ブロックの積算値が1フレームで積算される。こ
の積算値が評価値テーブル形成部103に供給される。
評価値テーブル形成部103では、サーチ範囲内の各位
置において求められた積算値をメモリに記憶し、メモリ
上に評価値テーブルを形成する。
The representative point matching processing unit 102 includes: a reference frame image of the current frame within the set search range;
An inter-frame difference is calculated with respect to a previous frame candidate frame image composed of representative point data. That is, the value of each of the m × n pixels of the block at the same position in the current frame is subtracted from the representative point data of a certain block in the previous frame, the absolute value of the subtracted output is integrated in one block, and Are integrated in one frame. This integrated value is supplied to the evaluation value table forming unit 103.
The evaluation value table forming unit 103 stores the integrated value obtained at each position within the search range in a memory, and forms an evaluation value table on the memory.

【0018】評価値テーブル形成部103により形成さ
れた評価値テーブルを参照して、1または複数の候補ベ
クトルを候補ベクトル抽出部104が抽出する。抽出さ
れた候補ベクトルが動きベクトル検出部105に供給さ
れる。動きベクトル検出部105には、遅延回路106
を介して入力ビデオデータが供給される。遅延回路10
6は、候補ベクトルを遅延するのに要する時間、入力ビ
デオデータを遅延させる。入力ビデオデータがメモリか
ら読出されるものである時には、読出したビデオデータ
を動きベクトル検出部105に与えれば良いので、遅延
回路106を設ける必要がない。
The candidate vector extracting unit 104 extracts one or a plurality of candidate vectors with reference to the evaluation value table formed by the evaluation value table forming unit 103. The extracted candidate vector is supplied to the motion vector detection unit 105. The motion vector detection unit 105 includes a delay circuit 106
The input video data is supplied via. Delay circuit 10
6 delays the input video data by the time required to delay the candidate vector. When the input video data is to be read from the memory, the read video data may be provided to the motion vector detection unit 105, and thus there is no need to provide the delay circuit 106.

【0019】動きベクトル検出部105は、候補ベクト
ルを使用したマッチング処理によって1画素単位で動き
ベクトルを検出し、出力端子107に検出した動きベク
トルを出力する。ここで、1画素単位の動きベクトル検
出について説明する。1画素単位の動きベクトル検出に
おいても、評価値を得るために、ブロック化がなされ
る。図3に示すように、例えば画素P1を中心とする3
×3のブロックB1を構成する。ブロックB1が例えば
現フレームの参照ブロックである。前フレームの候補ブ
ロックも同様に構成される。そして、ブロックマッチン
グによって、サーチ範囲内の評価値テーブルが形成され
る。この評価値テーブル内で最小の評価値と対応して画
素P1に関して動きベクトルが検出される。次に、隣の
画素P2について同様に参照ブロックが形成される。そ
して、ブロックマッチングによって、同様に評価値テー
ブルが形成され、評価値テーブルに基づいて画素P2に
関する動きベクトルが検出される。このようにして1画
素毎に動きベクトルが検出される。
The motion vector detecting section 105 detects a motion vector for each pixel by a matching process using a candidate vector, and outputs the detected motion vector to an output terminal 107. Here, detection of a motion vector per pixel will be described. Even in detection of a motion vector in units of one pixel, a block is formed in order to obtain an evaluation value. As shown in FIG. 3, for example, 3
A × 3 block B1 is configured. The block B1 is, for example, a reference block of the current frame. The candidate block of the previous frame is similarly configured. Then, an evaluation value table within the search range is formed by block matching. A motion vector is detected for the pixel P1 corresponding to the minimum evaluation value in the evaluation value table. Next, a reference block is similarly formed for the adjacent pixel P2. Then, similarly, an evaluation value table is formed by block matching, and a motion vector related to the pixel P2 is detected based on the evaluation value table. Thus, a motion vector is detected for each pixel.

【0020】一般的には、1画素毎に動きベクトルを検
出する処理は、ブロック毎に動きベクトルを検出する処
理に比較して大幅に計算量が増大し、処理が複雑化す
る。しかしながら、この一実施形態では、候補ベクトル
抽出部104にて抽出された1または複数の候補ベクト
ルのみを対象として動きベクトルを検出するので、計算
量の増大、処理の複雑化を防止できる。
In general, the processing for detecting a motion vector for each pixel greatly increases the amount of calculation compared to the processing for detecting a motion vector for each block, and complicates the processing. However, in this embodiment, since the motion vector is detected only for one or a plurality of candidate vectors extracted by the candidate vector extracting unit 104, it is possible to prevent an increase in the amount of calculation and a complicated process.

【0021】図4は、候補ベクトル抽出部104の処理
を説明するためのものである。評価値テーブル形成部1
03において形成された評価値テーブルは、xおよびy
座標で規定されるサーチ範囲のz座標として、評価値が
存在するものである。図4Aは、評価値テーブルのx方
向の分布の一例を概念的に示し、例えばy=y1 を通る
水平方向の分布である。図4Bは、評価値テーブルのy
方向の分布の一例概念的に示し、例えばx=x1 を通る
垂直方向の分布である。図4Aおよび図4Bの評価値テ
ーブルからは、座標上の原点と、(x=x1 ,y=
1 )の点とにそれぞれ極小値が存在していることが分
かる。このような評価値テーブルは、背景(静止画)に
対して斜めに移動する物体が存在する画像の場合に得ら
れる。
FIG. 4 is a diagram for explaining the processing of the candidate vector extraction unit 104. Evaluation value table forming unit 1
03, the evaluation value table formed in x and y
An evaluation value exists as the z coordinate of the search range defined by the coordinates. Figure 4A conceptually illustrates an example of the x-direction distribution of the evaluation value table, for example, a horizontal distribution through the y = y 1. FIG. 4B shows y in the evaluation value table.
Direction of an example conceptual shows the distribution, for example, a vertical distribution through x = x 1. From the evaluation value tables of FIGS. 4A and 4B, the origin on the coordinates and (x = x 1 , y =
It can be seen that a minimum value exists at each of the points y 1 ). Such an evaluation value table is obtained for an image in which an object that moves obliquely with respect to the background (still image) exists.

【0022】候補ベクトル抽出部104は、このような
評価値テーブルから極小値を探し、極小値に対応する候
補ベクトルを抽出する。図4の例では、(x=0,y=
0)の動きベクトルと、(x=x1 ,y=y1 )の動き
ベクトルを候補ベクトルとして抽出する。ここでは、簡
単化のために、二つの極小値が明確に存在する評価値テ
ーブルの例について説明した。しかしながら、実際に
は、より多くの極小値が存在したり、また、各極小値の
大きさが相違し、さらに、各極小値と周辺の評価値とに
より描かれる曲線の形状が相違する。候補ベクトル抽出
部104では、そのような場合に、適切な候補ベクトル
を抽出するように、候補数を削減する。すなわち、極小
値としきい値とを比較して、しきい値より大きな極小値
は、候補ベクトルとしない処理を行い、また、極小値と
周辺の評価値とで描かれる曲線の急峻度を検出し、検出
した急峻度としきい値とを比較して、急峻度が小さいも
のを候補ベクトルとしない処理を行う。
The candidate vector extracting unit 104 searches for a local minimum value from such an evaluation value table and extracts a candidate vector corresponding to the local minimum value. In the example of FIG. 4, (x = 0, y =
0) and a motion vector (x = x 1 , y = y 1 ) are extracted as candidate vectors. Here, for simplicity, an example of the evaluation value table in which two minimum values clearly exist has been described. However, in reality, there are more local minimum values, the sizes of the local minimum values are different, and the shapes of the curves drawn by the local minimum values and the peripheral evaluation values are different. In such a case, the candidate vector extracting unit 104 reduces the number of candidates so as to extract an appropriate candidate vector. That is, the minimum value is compared with the threshold value, and the minimum value larger than the threshold value is processed as a candidate vector, and the steepness of the curve drawn by the minimum value and the peripheral evaluation value is detected. Then, the detected steepness is compared with the threshold value, and a process in which the steepness is small is not set as a candidate vector.

【0023】動きベクトル検出部105は、このように
抽出された候補ベクトルのみを対象とし、1画素毎に候
補ベクトルから最良と思われる動きベクトルを決定す
る。上述した例のように、二つの候補ベクトルが与えら
れた時に、注目画素について、マッチング処理によっ
て、図5に示すように、二つの評価値を形成する。一つ
の評価値E0,0 は、(x=0,y=0)の動きベクトル
に対応するものであり、他の評価値Ex1,y1 は、(x=
1 ,y=y1 )の動きベクトルに対応するものであ
る。
The motion vector detecting section 105 determines only the candidate vector extracted in this manner as the best motion vector from the candidate vector for each pixel. As in the example described above, when two candidate vectors are given, two evaluation values are formed for the target pixel by matching processing as shown in FIG. One evaluation value E0,0 corresponds to a motion vector of (x = 0, y = 0), and the other evaluation value Ex1, y1 is (x =
x 1 , y = y 1 ).

【0024】評価値に基づいて最良の動きベクトルを決
定する方法の一例を説明する。候補ベクトルにそれぞれ
対応して求められた評価値の中で最小の評価値を生じさ
せ、且つその大きさが十分に小なるものを最良の動きベ
クトルとして選択する。例えば評価値E0,0 が最小であ
り、且つ評価値E0,0 が十分に小さな値となる場合に
は、動きベクトルMVとして(x=0,y=0)が選択
される。一方、評価値Ex1,y1 が最小であり、且つ評価
値Ex1,y1 が十分に小さな値となる場合には、注目画素
の動き動きベクトルMVとして(x=x1 ,y=y1
が選択される。若し、これらの条件が満たされない画素
に関しては、動きベクトルが不定とする。候補ベクトル
から最良の動きベクトルを決定する方法としては、これ
以外の他の方法が可能である。
An example of a method for determining the best motion vector based on the evaluation value will be described. The smallest evaluation value among the evaluation values obtained corresponding to the candidate vectors and the one having a sufficiently small magnitude are selected as the best motion vectors. For example, when the evaluation value E0,0 is the minimum and the evaluation value E0,0 is a sufficiently small value, (x = 0, y = 0) is selected as the motion vector MV. On the other hand, when the evaluation value Ex1, y1 is the minimum and the evaluation value Ex1, y1 is a sufficiently small value, (x = x 1 , y = y 1 ) as the motion vector MV of the target pixel.
Is selected. If a pixel does not satisfy these conditions, the motion vector is undefined. Other methods for determining the best motion vector from the candidate vectors are possible.

【0025】なお、上述した説明では、代表点マッチン
グを使用しているが、全画素マッチングにより画面全体
の評価値テーブルを形成しても良い。また、画面全体で
はなく、1画面を4分割、12分割、16分割等の比較
的大きなブロックに分割し、各ブロックの評価値テーブ
ルを作成する方法も採用できる。
In the above description, the representative point matching is used, but the evaluation value table for the entire screen may be formed by all pixel matching. Also, a method of dividing one screen into relatively large blocks such as four divisions, twelve divisions, sixteen divisions, etc., instead of the entire screen, and creating an evaluation value table for each block can be adopted.

【0026】動きベクトル検出部105は、候補ベクト
ルを対象として画素毎にマッチング処理するものであ
る。動きベクトル検出部105として使用できるものと
して、本願出願人の提案に係わるものを以下に説明す
る。図6において、1は、かかる動きベクトル検出装置
の全体の構成を示す。なお、以下の説明では、ブロック
単位で動きベクトルを検出する例を説明する。このブロ
ックは、比較的小さいブロック(2×2画素等)であ
る。動きベクトル検出装置1は、小ブロック単位ではな
く、1画素単位で動きベクトルを検出するようにもでき
る。
The motion vector detecting section 105 performs a matching process for each pixel with respect to the candidate vector. As the one that can be used as the motion vector detecting unit 105, one related to the proposal of the present applicant will be described below. In FIG. 6, reference numeral 1 denotes the overall configuration of the motion vector detecting device. In the following description, an example in which a motion vector is detected in block units will be described. This block is a relatively small block (2 × 2 pixels or the like). The motion vector detection device 1 can also detect a motion vector in pixel units, not in small block units.

【0027】動き検出装置1は、現フレームから2フレ
ーム過去に位置するフレーム(以降、(n−2)フレー
ムと表記)の画像データのブロック領域(参照ブロッ
ク)を切り出し、現フレーム(以降、nフレームと表
記)内の画像データから動きを検出するためのブロック
領域(候補ブロック)、現フレームから1フレーム過去
に位置するフレーム(以降、(n−1)フレームと表
記)の画像データから動きを検出するためのブロック領
域(候補ブロック)、現フレームから3フレーム過去に
位置するフレーム(以降、(n−3)フレームと表記)
の画像データ、現フレームから4フレーム過去に位置す
るフレーム(以降、(n−4)フレームと表記)の画像
データから動きを検出するためのブロック領域(候補ブ
ロック)をそれぞれ切り出す。そして、候補ブロックを
所定のサーチ範囲内で移動させることにより、参照ブロ
ックと候補ブロックとの間で動きベクトルを検出するよ
うになされる。
The motion detecting apparatus 1 cuts out a block area (reference block) of image data of a frame (hereinafter referred to as (n-2) frame) located two frames before the current frame, and extracts the current frame (hereinafter referred to as n). A block area (candidate block) for detecting a motion from image data in a frame (noted as a frame), and a motion is detected from image data of a frame (hereinafter referred to as an (n-1) frame) located one frame before the current frame. Block area (candidate block) for detection, frame located three frames before the current frame (hereinafter referred to as (n-3) frame)
, And a block area (candidate block) for detecting a motion is extracted from the image data of a frame located four frames before the current frame (hereinafter referred to as (n-4) frame). Then, by moving the candidate block within the predetermined search range, a motion vector is detected between the reference block and the candidate block.

【0028】さらに、動き検出装置1についてより詳細
に説明する。図6において、2が入力端子を示し、現フ
レームの画像データSn が入力端子2から供給される。
画像データは、例えばカラー映像信号のコンポーネント
信号中の輝度信号である。入力端子2に対して、メモリ
3および遅延部4が接続される。遅延部4に対して遅延
部6、8および10が直列に接続される。これらの遅延
部4、6、8、10は、それぞれ画像データを1フレー
ム分蓄え、1フレーム期間遅延された画像データを出力
する。遅延部4、6、8、10によって遅延された画像
データがメモリ5、7、9、11に対して供給される。
遅延部4の出力Sn-1 が(n−1)フレームの画像デー
タであり、遅延部6の出力Sn-2 が(n−2)フレーム
の画像データであり、遅延部8の出力Sn-3 が(n−
3)フレームの画像データであり、遅延部10の出力S
n-4 が(n−4)の画像データである。
Further, the motion detecting device 1 will be described in more detail. In FIG. 6, reference numeral 2 denotes an input terminal, and image data Sn of the current frame is supplied from the input terminal 2.
The image data is, for example, a luminance signal in a component signal of a color video signal. The memory 3 and the delay unit 4 are connected to the input terminal 2. Delay units 6, 8, and 10 are connected in series to delay unit 4. Each of the delay units 4, 6, 8, and 10 stores image data for one frame and outputs image data delayed by one frame period. The image data delayed by the delay units 4, 6, 8, and 10 is supplied to the memories 5, 7, 9, and 11.
The output Sn-1 of the delay unit 4 is image data of (n-1) frame, the output Sn-2 of the delay unit 6 is image data of (n-2) frame, and the output Sn-3 of the delay unit 8 is. Is (n-
3) The image data of the frame, the output S of the delay unit 10
n-4 is the image data of (n-4).

【0029】メモリ3、5、7、9、11の動作は、メ
モリコントロール部12によって制御され、各フレーム
の映像信号から所定の大きさおよび所定の位置のブロッ
クを切り出す。メモリコントロール部12からは、動き
ベクトル情報を算出しようとする(n−2)フレームの
ブロックアドレス情報がメモリ7に送出され、この結
果、メモリ7からは、画像データSn-2 の所定ブロック
が切り出され、切り出された画像データSn-2 のブロッ
クが動き検出部13に供給される。
The operation of the memories 3, 5, 7, 9, and 11 is controlled by the memory control unit 12, and blocks of a predetermined size and a predetermined position are cut out from the video signal of each frame. From the memory control unit 12, the block address information of the (n-2) th frame whose motion vector information is to be calculated is sent to the memory 7, and as a result, a predetermined block of the image data Sn-2 is cut out from the memory 7. The block of the extracted image data Sn-2 is supplied to the motion detection unit 13.

【0030】メモリコントロール部12に対して、候補
ベクトル抽出部104で抽出された候補ベクトルが供給
される。上述したように、動きベクトルが不定の場合を
除いて、候補ベクトルの中の一つのベクトルを最良の動
きベクトルとして選択するので、メモリコントロール部
12から出力される、候補ブロックを移動させるための
アドレス情報は、候補ベクトルに対応したものである。
The candidate vector extracted by the candidate vector extracting unit 104 is supplied to the memory control unit 12. As described above, one of the candidate vectors is selected as the best motion vector, except for the case where the motion vector is indeterminate. Therefore, the address for moving the candidate block output from the memory control unit 12 is selected. The information corresponds to the candidate vector.

【0031】また、メモリコントロール部12からメモ
リ9には、所定のサーチ範囲内で候補ブロックを移動さ
せるための(n−3)フレームのアドレス情報が送出さ
れ、メモリ9は、与えられたアドレスに対応する(n−
3)フレームの候補ブロックのデータを動き検出部13
に出力する。(n−3)フレームの候補ブロックがサー
チ範囲内で持つ移動量を(x,y)で表す。
Further, address information of the (n-3) frame for moving the candidate block within a predetermined search range is sent from the memory control section 12 to the memory 9, and the memory 9 stores the address information at the given address. The corresponding (n-
3) The data of the candidate block of the frame is
Output to The movement amount of the (n-3) frame candidate block within the search range is represented by (x, y).

【0032】メモリコントロール部12からメモリ5に
は、所定のサーチ範囲内で候補ブロックを移動させるた
めの(n−1)フレームのアドレス情報が送出され、メ
モリ5は、与えられたアドレスに対応する(n−1)フ
レームの候補ブロックのデータを動き検出部13に出力
する。(n−1)フレームの候補ブロックがサーチ範囲
内で持つ移動量は、((−1)×x,(−1)×y)で
ある。これは、(n−2)フレームに対して、(n−
3)フレームが1フレーム過去であるのに対して、(n
−1)フレームが1フレーム未来であるからである。
The address information of the (n-1) frame for moving the candidate block within the predetermined search range is sent from the memory control unit 12 to the memory 5, and the memory 5 corresponds to the given address. The data of the (n−1) frame candidate block is output to the motion detection unit 13. The moving amount of the (n-1) frame candidate block within the search range is ((-1) × x, (-1) × y). This corresponds to (n−2) frames,
3) While the frame is one frame past, (n)
-1) The frame is one frame in the future.

【0033】メモリコントロール部12からメモリ11
には、所定のサーチ範囲内で候補ブロックを移動させる
ための(n−4)フレームのアドレス情報が送出され、
メモリ11は、与えられたアドレスに対応する(n−
4)フレームの候補ブロックのデータを動き検出部13
に出力する。(n−4)フレームの候補ブロックがサー
チ範囲内で持つ移動量は、(2×x,2×y)である。
これは、(n−2)フレームに対して、(n−3)フレ
ームが1フレーム過去であるのに対して、(n−4)フ
レームが2フレーム過去であるからである。
From the memory control unit 12 to the memory 11
Sends address information of an (n-4) frame for moving a candidate block within a predetermined search range,
The memory 11 corresponds to the given address (n-
4) The data of the candidate block of the frame is
Output to The moving amount of the (n-4) frame candidate block within the search range is (2 × x, 2 × y).
This is because the (n-3) frame is one frame before the (n-2) frame, whereas the (n-4) frame is two frames before.

【0034】メモリコントロール部12からメモリ3に
は、所定のサーチ範囲内で候補ブロックを移動させるた
めのnフレームのアドレス情報が送出され、メモリ5
は、与えられたアドレスに対応するnフレームの候補ブ
ロックのデータを動き検出部13に出力する。nフレー
ムの候補ブロックがサーチ範囲内で持つ移動量は、
((−2)×x,(−2)×y)である。これは、(n
−2)フレームに対して、(n−4)フレームが2フレ
ーム未来であるからである。
The address information of n frames for moving the candidate block within a predetermined search range is sent from the memory control unit 12 to the memory 3.
Outputs the data of the nth frame candidate block corresponding to the given address to the motion detection unit 13. The amount of movement that the n-frame candidate block has within the search range is
((−2) × x, (−2) × y). This is (n
This is because the (n-4) frame is two frames ahead of the (-2) frame.

【0035】図8は、参照ブロックと候補ブロックとの
位置関係を概略的に示すものである。簡単のため、サー
チ範囲内の候補ブロックの移動をx方向のみとする。図
8Aに示すように、(n−2)フレームの参照ブロック
に対して、(n−3)フレームの候補ブロックの移動量
を(a,0)とすると、(n−4)フレームの候補ブロ
ックの移動量が(2a,0)とされ、(n−1)フレー
ムの候補ブロックの移動量が(−a,0)とされ、nフ
レームの候補ブロックの移動量が(−2a,0)とされ
る。また、図8Bに示すように、(n−2)フレームの
参照ブロックに対して、(n−3)フレームの候補ブロ
ックの移動量を(−b,0)とすると、(n−4)フレ
ームの候補ブロックの移動量が(−2b,0)とされ、
(n−1)フレームの候補ブロックの移動量が(b,
0)とされ、nフレームの候補ブロックの移動量が(2
b,0)とされる。すなわち、動きを等速度運動である
とみなし、フレーム間の時間間隔に比例して、候補ブロ
ックの移動量が設定され、時間の前後関係に対応して移
動の方向(極性)が設定される。
FIG. 8 schematically shows the positional relationship between a reference block and a candidate block. For simplicity, the movement of the candidate block within the search range is limited to the x direction. As shown in FIG. 8A, assuming that the movement amount of the (n-3) frame candidate block is (a, 0) with respect to the (n-2) frame reference block, the (n-4) frame candidate block Is (2a, 0), the moving amount of the (n-1) th frame candidate block is (-a, 0), and the moving amount of the nth frame candidate block is (-2a, 0). Is done. Further, as shown in FIG. 8B, assuming that the movement amount of the candidate block of the (n-3) frame is (-b, 0) with respect to the reference block of the (n-2) frame, the (n-4) frame Is set to (−2b, 0),
(N-1) The moving amount of the frame candidate block is (b,
0), and the moving amount of the n-frame candidate block is (2)
b, 0). That is, the motion is regarded as a constant speed motion, the moving amount of the candidate block is set in proportion to the time interval between frames, and the moving direction (polarity) is set in accordance with the time order.

【0036】動き検出部13がブロックマッチング法に
よって、動きベクトルMVを検出する。この動きベクト
ルMVは、(n−2)フレームに属する参照ブロックの
動きを表している。動き検出部13では、nフレームの
候補ブロックと(n−2)フレームの参照ブロックとの
間の同一位置の画素値の差分の絶対値を積算し、絶対値
和が計算される。同様に、(n−1)フレームの候補ブ
ロックと(n−2)フレームの参照ブロックとの間の差
分の絶対値和、(n−3)フレームの候補ブロックと
(n−2)フレームの参照ブロックとの間の差分の絶対
値和、(n−4)フレームの候補ブロックと(n−2)
フレームの参照ブロックとの間の差分の絶対値和が計算
される。上述したように、これらの候補ブロックの参照
ブロックに対する位置的オフセット(移動量および移動
方向)は、参照ブロックが属するフレームと候補ブロッ
クが属するフレーム間の時間間隔と、2フレームの時間
的な前後関係によって設定される。
The motion detector 13 detects a motion vector MV by a block matching method. This motion vector MV represents the motion of the reference block belonging to the (n-2) frame. The motion detection unit 13 integrates the absolute values of the differences between the pixel values at the same position between the n-th frame candidate block and the (n−2) -th frame reference block, and calculates the sum of absolute values. Similarly, the sum of the absolute value of the difference between the (n-1) frame candidate block and the (n-2) frame reference block, the (n-3) frame candidate block and the (n-2) frame reference Sum of absolute values of differences between blocks, (n-4) frame candidate blocks and (n-2)
The absolute sum of the difference between the frame and the reference block is calculated. As described above, the positional offset (movement amount and moving direction) of these candidate blocks with respect to the reference block depends on the time interval between the frame to which the reference block belongs and the frame to which the candidate block belongs, and the temporal context of the two frames. Is set by

【0037】一例として、サーチ範囲内における一つの
候補ベクトルに対応する移動に対応して、4個の差分の
絶対値和が求められる。この差分の絶対値和が積算され
て、その移動に対応する評価値が求められる。この評価
値の中の最小値を生じさせる候補ブロックの位置的オフ
セットを検出することによって、参照ブロック内の動き
ベクトルが決定される。
As an example, the sum of the absolute values of the four differences is obtained in accordance with the movement corresponding to one candidate vector within the search range. The sum of the absolute values of the differences is integrated to obtain an evaluation value corresponding to the movement. The motion vector in the reference block is determined by detecting the positional offset of the candidate block that produces the minimum value among the evaluation values.

【0038】移動量(x,y)における評価値E(x,y)
は、下記の数式によって計算される。この式において、
nフレームの各画素レベルをZn(i,j)、(n−1)フレ
ームの各画素レベルをZn-1(i,j)、(n−2)フレーム
の各画素レベルをZn-2(i,j)、(n−3)フレームの各
画素レベルをZn-3(i,j)、(n−4)フレームの各画素
レベルをZn-4(i,j)と表す。また、ブロックサイズをM
画素×Nラインとする。
Evaluation value E (x, y) at moving amount (x, y)
Is calculated by the following equation. In this equation,
Each pixel level of the n frame is Zn (i, j) , each pixel level of the (n-1) frame is Zn-1 (i, j) , and each pixel level of the (n-2) frame is Zn- 2 (i, j) , each pixel level of the (n-3) frame is expressed as Zn -3 (i, j) , and each pixel level of the (n-4) frame is expressed as Zn-4 (i, j). . Also, if the block size is M
Pixels × N lines.

【0039】[0039]

【数1】 (Equation 1)

【0040】また、以上の説明では、2フレーム間の差
分の絶対値和を求める場合に、(n−2)フレームと他
のフレーム間の差分の絶対値和を計算しているが、隣接
する2フレーム間の差分の絶対値和を求め、差分の絶対
値和を積算することによって評価値を求めるようにして
も良い。この場合の評価値の計算式を下記に示す。
In the above description, when calculating the sum of absolute differences between two frames, the sum of absolute differences between the (n-2) frame and another frame is calculated. The evaluation value may be obtained by calculating the absolute value sum of the difference between the two frames and integrating the absolute value sum of the difference. The formula for calculating the evaluation value in this case is shown below.

【0041】[0041]

【数2】 (Equation 2)

【0042】動き検出部13の一例について図7を参照
して説明する。(n−2)フレームの画像データSn-2
が格納されているメモリ7からの出力信号(画素デー
タ)がレジスタ31に供給され、並列に4個の同一のデ
ータがレジスタ31から出力される。レジスタ31から
の4個の画素データがそれぞれ反転されて加算器36、
37、38、39に供給される。加算器36、37、3
8、39は、減算器としての機能を有するので、以下に
おいては、減算器と称する。
An example of the motion detector 13 will be described with reference to FIG. (N-2) Frame image data Sn-2
Is supplied to the register 31 from the memory 7, and four identical data are output from the register 31 in parallel. The four pixel data from the register 31 are respectively inverted and added to an adder 36,
37, 38, and 39. Adders 36, 37, 3
8 and 39 have a function as a subtractor, and are hereinafter referred to as subtracters.

【0043】nフレームの画像データSn が格納されて
いるメモリ3からの出力信号(画素データ)がレジスタ
32を介して減算器36に供給される。(n−1)フレ
ームの画像データSn-1 が格納されているメモリ5から
の出力信号(画素データ)がレジスタ33を介して減算
器37に供給される。同様に、(n−3)フレームの画
像データSn-3 が格納されているメモリ9からの出力信
号(画素データ)、並びに(n−4)フレームの画像デ
ータSn-4 が格納されているメモリ11からの出力信号
(画素データ)がレジスタ34および35をそれぞれ介
して減算器38および39に供給される。
An output signal (pixel data) from the memory 3 in which the n-frame image data Sn is stored is supplied to the subtractor 36 via the register 32. An output signal (pixel data) from the memory 5 in which the (n-1) frame image data Sn-1 is stored is supplied to the subtractor 37 via the register 33. Similarly, an output signal (pixel data) from the memory 9 storing (n-3) frame image data Sn-3, and a memory storing (n-4) frame image data Sn-4. The output signal (pixel data) from 11 is supplied to subtracters 38 and 39 via registers 34 and 35, respectively.

【0044】減算器36では、(n−2)フレームの参
照ブロックの画素データと、それに対応するnフレーム
の候補ブロックの画素データとの差分が計算される。こ
の差分値が絶対値化回路40によって絶対値に変換され
る。絶対値化回路40に対しては、加算器44およびレ
ジスタ48からなる累積加算器が接続される。ブロック
内のM×N個の画素に関する差分値の計算が終了する
と、レジスタ48には、積算値(絶対値和)が発生す
る。この絶対値和が評価値メモリ52に供給される。
The subtractor 36 calculates the difference between the pixel data of the reference block of the (n-2) frame and the pixel data of the corresponding candidate block of the n frame. This difference value is converted into an absolute value by the absolute value conversion circuit 40. An accumulator including an adder 44 and a register 48 is connected to the absolute value conversion circuit 40. When the calculation of the difference values for the M × N pixels in the block is completed, an integrated value (sum of absolute values) is generated in the register 48. This sum of absolute values is supplied to the evaluation value memory 52.

【0045】減算器37では、(n−2)フレームの参
照ブロックの画素データと、それに対応する(n−1)
フレームの候補ブロックの画素データとの差分が計算さ
れ、差分出力が絶対値化回路41により絶対値に変換さ
れ、差分の絶対値が加算器45およびレジスタ49によ
って累積加算される。絶対値和が評価値メモリ52に供
給される。
In the subtracter 37, the pixel data of the reference block of the (n-2) frame and the corresponding (n-1)
The difference from the pixel data of the frame candidate block is calculated, the difference output is converted into an absolute value by the absolute value conversion circuit 41, and the absolute value of the difference is cumulatively added by the adder 45 and the register 49. The sum of absolute values is supplied to the evaluation value memory 52.

【0046】減算器38および絶対値化回路42によっ
て、(n−2)フレームの参照ブロックの画素データ
と、それに対応する(n−3)フレームの候補ブロック
の画素データとの差分の絶対値が生成される。加算器4
6およびレジスタ50によって絶対値和が生成され、絶
対値和が評価値メモリ52に供給される。さらに、減算
器39、絶対値化回路43、加算器47およびレジスタ
51によって、(n−2)フレームの参照ブロックの画
素データと、それに対応する(n−4)フレームの候補
ブロックの画素データとの差分の絶対値和が生成され
る。この絶対値和が評価値メモリ52に供給される。
The absolute value of the difference between the pixel data of the reference block of the (n−2) frame and the corresponding pixel data of the candidate block of the (n−3) frame is calculated by the subtractor 38 and the absolute value conversion circuit 42. Generated. Adder 4
6 and the register 50 generate the absolute value sum, and the absolute value sum is supplied to the evaluation value memory 52. Further, the pixel data of the reference block of the (n−2) frame and the corresponding pixel data of the candidate block of the (n−4) frame are calculated by the subtractor 39, the absolute value conversion circuit 43, the adder 47, and the register 51. Is generated. This sum of absolute values is supplied to the evaluation value memory 52.

【0047】評価値メモリ52には、上述した4通りの
2フレームの組み合わせで発生した差分の絶対値和を集
計する積算回路が設けられており、4個の差分の絶対値
和を集計したものが評価値E(x,y) として評価値メモリ
52に格納される。評価値メモリ52は、サーチ範囲の
原点と、原点からx方向および/またはy方向に1画素
ずつオフセットを有する位置とにそれぞれ評価値を格納
する。それによって、評価値テーブルが作成される。評
価値メモリ52の書き込み動作、読み出し動作がメモリ
コントロール部53によって制御される。また、移動量
(x,y)に対応する評価値が評価値メモリ52に格納
されると、レジスタ48、49、50、51の内容がク
リアされる。
The evaluation value memory 52 is provided with an integrating circuit for summing the absolute value sums of the differences generated in the above-described four combinations of two frames. Is stored in the evaluation value memory 52 as the evaluation value E (x, y). The evaluation value memory 52 stores the evaluation value at the origin of the search range and at a position offset by one pixel in the x and / or y directions from the origin. Thereby, an evaluation value table is created. The write operation and the read operation of the evaluation value memory 52 are controlled by the memory control unit 53. When the evaluation value corresponding to the movement amount (x, y) is stored in the evaluation value memory 52, the contents of the registers 48, 49, 50, and 51 are cleared.

【0048】メモリコントロール部53によって指定さ
れたアドレスに従って評価値が読み出される。読み出さ
れた評価値が比較回路54およびレジスタ55に供給さ
れる。レジスタ55の出力が比較回路54に供給され
る。また、メモリコントロール部53が発生した読み出
しアドレスがレジスタ56に供給される。レジスタ55
および56に対して比較回路54の出力がライト(入
力)イネーブルとして供給される。
The evaluation value is read according to the address specified by the memory control unit 53. The read evaluation value is supplied to the comparison circuit 54 and the register 55. The output of the register 55 is supplied to the comparison circuit 54. The read address generated by the memory control unit 53 is supplied to the register 56. Register 55
And 56, the output of the comparison circuit 54 is supplied as a write (input) enable.

【0049】比較回路54は、二つの入力の内でより小
さい方の値を出力する。すなわち、評価値メモリ52か
ら読み出された評価値がレジスタ55に格納されている
それまでの最小の評価値よりも小さい時には、レジスタ
55および56に対するライトイネーブルとしての比較
出力が発生する。それによって、新たな最小の評価値が
レジスタ55に取り込まれると共に、その新たな評価値
のアドレスがレジスタ56に取り込まれる。逆の場合で
は、比較回路54からは、ライトイネーブルとしての出
力が発生せず、レジスタ55および56の内容が更新さ
れない。
The comparison circuit 54 outputs the smaller value of the two inputs. That is, when the evaluation value read from the evaluation value memory 52 is smaller than the previous minimum evaluation value stored in the register 55, a comparison output as a write enable to the registers 55 and 56 is generated. Thus, the new minimum evaluation value is fetched into the register 55, and the address of the new evaluation value is fetched into the register 56. In the opposite case, no output as a write enable is generated from the comparison circuit 54, and the contents of the registers 55 and 56 are not updated.

【0050】候補ベクトルに対応する全ての評価値につ
いての最小値が検出されると、最小の評価値のアドレス
がレジスタ56から動きベクトルMVとして出力端子1
4に取り出される。
When the minimum value of all the evaluation values corresponding to the candidate vectors is detected, the address of the minimum evaluation value is output from the register 56 as the motion vector MV to the output terminal 1.
It is taken out to 4.

【0051】なお、上述した動き検出装置1では、評価
値として、差分の絶対値和を計算しているが、差分の自
乗和、しきい値以上またはしきい値以下の差分の絶対値
の個数、差分の極値等を使用することができる。また、
時間的に連続する5フレームを使用し、その中央のフレ
ームの動きを検出している。しかしながら、動き検出に
使用するフレーム数は、5フレームに限らず、3フレー
ム以上であれば良い。マッチングをとる2フレームの間
隔は、1フレームに限定されず、2フレーム以上の複数
フレーム間隔のマッチングをとるようにしても良い。
In the motion detecting device 1 described above, the sum of the absolute values of the differences is calculated as the evaluation value. However, the sum of the squares of the differences, the number of the absolute values of the differences that are equal to or larger than the threshold or equal to or smaller than the threshold are calculated. , The extreme value of the difference, etc. can be used. Also,
Five temporally consecutive frames are used, and the movement of the central frame is detected. However, the number of frames used for motion detection is not limited to five frames and may be three or more frames. The interval between two frames to be matched is not limited to one frame, and matching between two or more frames may be performed.

【0052】なお、この発明は、ハードウエアによる構
成に限らず、処理の一部または全部をソフトウェア処理
で実現するようにしても良い。
The present invention is not limited to the hardware configuration, and a part or all of the processing may be realized by software processing.

【0053】[0053]

【発明の効果】この発明では、計算量を増大させずに、
1画素または小さいブロック単位で、大きい動きベクト
ルを検出でき、また、ブロック内の複数動きの問題が生
じにくく、さらに、動き検出精度が低下したり、反復パ
ターンの影響を受けにくくできる。
According to the present invention, without increasing the amount of calculation,
A large motion vector can be detected in a unit of one pixel or a small block, a problem of a plurality of motions in a block is hardly generated, and a motion detection accuracy is reduced and it is hard to be affected by a repetitive pattern.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の全体的構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention.

【図2】この発明の一実施形態における代表点マッチン
グを説明するための略線図である。
FIG. 2 is a schematic diagram for explaining representative point matching in one embodiment of the present invention.

【図3】この発明の一実施形態における1画素単位の動
きベクトル検出処理を説明するための略線図である。
FIG. 3 is a schematic diagram illustrating a motion vector detection process in units of one pixel according to an embodiment of the present invention.

【図4】この発明の一実施形態における評価値の分布の
一例を示す略線図である。
FIG. 4 is a schematic diagram illustrating an example of a distribution of evaluation values according to an embodiment of the present invention.

【図5】この発明の一実施形態における評価値テーブル
の一例を示す略線図である。
FIG. 5 is a schematic diagram illustrating an example of an evaluation value table according to an embodiment of the present invention.

【図6】この発明の一実施形態における動きベクトル検
出部の一例の構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of an example of a motion vector detection unit according to an embodiment of the present invention.

【図7】動きベクトル検出部の一例における動き検出部
の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a motion detection unit in an example of the motion vector detection unit.

【図8】動きベクトル検出部の一例の説明に用いる略線
図である。
FIG. 8 is a schematic diagram used to describe an example of a motion vector detection unit.

【図9】ブロックマッチングによる動き検出方法の説明
に用いる略線図である。
FIG. 9 is a schematic diagram used for describing a motion detection method by block matching.

【図10】ブロックマッチングによる動き検出方法の説
明に用いる略線図である。
FIG. 10 is a schematic diagram used for describing a motion detection method by block matching.

【符号の説明】[Explanation of symbols]

103・・・評価値テーブル形成部、104・・・候補
ベクトル検出部、105・・・動きベクトル検出部
103: evaluation value table forming unit; 104: candidate vector detecting unit; 105: motion vector detecting unit

フロントページの続き (72)発明者 宮井 岳志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK10 KK19 LC01 MA05 NN03 NN21 NN27 NN28 NN29 NN31 TA64 TB08 TC12 TD02 TD05 TD15 UA37 5L096 AA06 CA04 DA02 FA32 GA08 GA17 GA19 GA26 HA04 JA03 JA11 LA14 Continuation of front page (72) Inventor Takeshi Miyai 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5C059 KK10 KK19 LC01 MA05 NN03 NN21 NN27 NN28 NN29 NN31 TA64 TB08 TC12 TD02 TD05 TD15 UA37 5L096 AA06 CA04 DA02 FA32 GA08 GA17 GA19 GA26 HA04 JA03 JA11 LA14

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像信号中の動きを検出する動き検出方
法において、 (a) 1画面全体または1画面を複数に分割した比較的大
きなブロック毎に、マッチング法によって積算値テーブ
ルを生成し、上記積算値テーブルを用いて、上記1画面
全体または1画面を複数に分割した比較的大きなブロッ
ク毎に、1または複数の候補ベクトルを抽出するステッ
プと、 (b) 上記候補ベクトルのみを対象としてマッチングを行
い、1画素または比較的小さいブロック毎に動きベクト
ルを検出するステップとからなることを特徴とする動き
検出方法。
1. A motion detection method for detecting a motion in an image signal, comprising: (a) generating an integrated value table by a matching method for each whole screen or each relatively large block obtained by dividing one screen into a plurality of blocks; (B) extracting one or more candidate vectors for each relatively large block obtained by dividing the entire screen or one screen into a plurality using the integrated value table; And detecting a motion vector for each pixel or each relatively small block.
【請求項2】 請求項1において、 上記ステップ(a) において、上記積算値テーブルの中
で、値が小となる複数の積算値が存在する時に、各積算
値と、各積算値からその周辺の積算値への変化の急峻さ
とに基づいて、上記複数の積算値の中から積算値を選択
し、選択した積算値によって上記候補ベクトルを抽出す
ることを特徴とする動き検出方法。
2. The method according to claim 1, wherein, in the step (a), when there are a plurality of integrated values whose values are small in the integrated value table, each integrated value and its neighboring A motion detection method comprising: selecting an integrated value from the plurality of integrated values based on a steep change of the integrated value to the integrated value; and extracting the candidate vector based on the selected integrated value.
【請求項3】 請求項1において、 上記ステップ(b) は、 時間的に異なる少なくとも3枚のフレーム画像を用い、
第1の画素または第1のブロックを固定し、第2の画素
または第2のブロックを所定の範囲内で移動させ、上記
第1の画素または第1のブロックと上記第2の画素また
は第2のブロック間のマッチングの度合いを示す評価値
テーブルを生成するステップと、 上記評価値テーブルに基づいて、動きベクトルを検出す
るステップとからなり、 上記評価値テーブルを生成するステップにおいて、上記
第2の画素または第2のブロックの移動量を、上記第1
の画素または第1のブロックが属するフレームと、上記
第2の画素または第2のブロックの属するフレーム間の
時間間隔に比例させることを特徴とする動き検出方法。
3. The method according to claim 1, wherein the step (b) uses at least three temporally different frame images,
The first pixel or the first block is fixed, the second pixel or the second block is moved within a predetermined range, and the first pixel or the first block and the second pixel or the second Generating an evaluation value table indicating the degree of matching between the blocks; and detecting a motion vector based on the evaluation value table. In the step of generating the evaluation value table, the second The amount of movement of the pixel or the second block is determined by the first
A motion detection method characterized by making a time interval between a frame to which the pixel or the first block belongs and a frame to which the second pixel or the second block belongs.
【請求項4】 画像信号中の動きを検出する動き検出装
置において、 1画面全体または1画面を複数に分割した比較的大きな
ブロック毎に、マッチング法によって積算値テーブルを
生成し、上記積算値テーブルを用いて、上記1画面全体
または1画面を複数に分割した比較的大きなブロック毎
に、1または複数の候補ベクトルを抽出する手段と、 上記候補ベクトルのみを対象としてマッチングを行い、
1画素または比較的小さいブロック毎に動きベクトルを
検出する手段とからなることを特徴とする動き検出装
置。
4. A motion detection device for detecting a motion in an image signal, wherein an integrated value table is generated by a matching method for one whole screen or for each relatively large block obtained by dividing one screen into a plurality of blocks. Means for extracting one or a plurality of candidate vectors for each of the entire screen or each relatively large block obtained by dividing the screen into a plurality of pieces, and performing matching only on the candidate vectors,
Means for detecting a motion vector for each pixel or each relatively small block.
【請求項5】 請求項4において、 上記候補ベクトルを抽出する処理は、上記積算値テーブ
ルの中で、値が小となる複数の積算値が存在する時に、
各積算値と、各積算値からその周辺の積算値への変化の
急峻さとに基づいて、上記複数の積算値の中から積算値
を選択し、選択した積算値によって上記候補ベクトルを
抽出するものであることを特徴とする動き検出装置。
5. The method according to claim 4, wherein the processing of extracting the candidate vector is performed when a plurality of integrated values having small values exist in the integrated value table.
Selecting an integrated value from among the plurality of integrated values based on each integrated value and a steep change from each integrated value to a peripheral integrated value, and extracting the candidate vector based on the selected integrated value A motion detection device, characterized in that:
【請求項6】 請求項4において、 上記1画素または比較的小さいブロック毎に動きベクト
ルを検出する手段は、時間的に異なる少なくとも3枚の
フレーム画像を用い、第1の画素または第1のブロック
を固定し、第2の画素または第2のブロックを所定の範
囲内で移動させ、上記第1の画素または第1のブロック
と上記第2の画素または第2のブロック間のマッチング
の度合いを示す評価値テーブルを生成する手段と、 上記評価値テーブルに基づいて、動きベクトルを検出す
る手段とからなり、 上記評価値テーブルを生成する手段において、上記第2
の画素または第2のブロックの移動量を、上記第1の画
素または第1のブロックが属するフレームと、上記第2
の画素または第2のブロックの属するフレーム間の時間
間隔に比例させることを特徴とする動き検出装置。
6. The method according to claim 4, wherein the means for detecting a motion vector for each pixel or each relatively small block uses at least three temporally different frame images, and uses a first pixel or a first block. Is fixed, and the second pixel or the second block is moved within a predetermined range to indicate the degree of matching between the first pixel or the first block and the second pixel or the second block. Means for generating an evaluation value table; and means for detecting a motion vector based on the evaluation value table. In the means for generating the evaluation value table, the second
The movement amount of the pixel or the second block is determined by comparing the frame to which the first pixel or the first block belongs to the second pixel or the second block.
A motion detection device that makes the ratio proportional to a time interval between frames to which the pixel or the second block belongs.
JP23551899A 1999-08-23 1999-08-23 Motion detection method and motion detection apparatus Expired - Fee Related JP4161477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23551899A JP4161477B2 (en) 1999-08-23 1999-08-23 Motion detection method and motion detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23551899A JP4161477B2 (en) 1999-08-23 1999-08-23 Motion detection method and motion detection apparatus

Publications (3)

Publication Number Publication Date
JP2001061152A true JP2001061152A (en) 2001-03-06
JP2001061152A5 JP2001061152A5 (en) 2006-05-18
JP4161477B2 JP4161477B2 (en) 2008-10-08

Family

ID=16987176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23551899A Expired - Fee Related JP4161477B2 (en) 1999-08-23 1999-08-23 Motion detection method and motion detection apparatus

Country Status (1)

Country Link
JP (1) JP4161477B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175872A (en) * 2003-12-11 2005-06-30 Sony Corp Motion vector detecting apparatus, motion vector detecting method and computer program
JP2005175871A (en) * 2003-12-11 2005-06-30 Sony Corp Motion vector detecting apparatus, motion vector detecting method and computer program
WO2005084036A1 (en) * 2004-03-01 2005-09-09 Sony Corporation Motion vector detecting apparatus, motion vector detecting method, and computer program
JP2005250561A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting device, motion vector detecting method and computer program
JP2005252359A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
JP2005252360A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
WO2005098753A1 (en) * 2004-04-09 2005-10-20 Sony Corporation Image processing device and method, recording medium, and program
JP2006513478A (en) * 2003-01-10 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Efficient prediction image parameter estimation
US7561621B2 (en) 2002-09-12 2009-07-14 Kabushiki Kaisha Toshiba Method of searching for motion vector, method of generating frame interpolation image and display system
JP2010087867A (en) * 2008-09-30 2010-04-15 Sony Corp Frame frequency conversion apparatus, frame frequency conversion method, program for achieving the method, computer readable recording medium recording the program, motion vector detection apparatus, and prediction coefficient generation apparatus
US8305383B2 (en) 2005-05-18 2012-11-06 Sony Corporation Data access apparatus and method
JP2018082499A (en) * 2018-01-19 2018-05-24 日本放送協会 Bidirectional motion vector prediction device, video encoder, video decoder, and programs thereof

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8483278B2 (en) 2002-09-12 2013-07-09 Kabushiki Kaisha Toshiba Method of searching for motion vector, method of generating frame interpolation image and display system
US7561621B2 (en) 2002-09-12 2009-07-14 Kabushiki Kaisha Toshiba Method of searching for motion vector, method of generating frame interpolation image and display system
JP2006513478A (en) * 2003-01-10 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Efficient prediction image parameter estimation
JP2005175871A (en) * 2003-12-11 2005-06-30 Sony Corp Motion vector detecting apparatus, motion vector detecting method and computer program
JP2005175872A (en) * 2003-12-11 2005-06-30 Sony Corp Motion vector detecting apparatus, motion vector detecting method and computer program
JP4525064B2 (en) * 2003-12-11 2010-08-18 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and computer program
JP4525063B2 (en) * 2003-12-11 2010-08-18 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and computer program
JP4622264B2 (en) * 2004-03-01 2011-02-02 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and computer program
JP4622265B2 (en) * 2004-03-01 2011-02-02 ソニー株式会社 Motion vector detection device, motion vector detection method, and program
WO2005084036A1 (en) * 2004-03-01 2005-09-09 Sony Corporation Motion vector detecting apparatus, motion vector detecting method, and computer program
KR101098394B1 (en) 2004-03-01 2011-12-26 소니 가부시키가이샤 Motion vector detecting apparatus and motion vector detecting method
US8064522B2 (en) 2004-03-01 2011-11-22 Sony Corporation Motion-vector detecting device, motion-vector detecting method, and computer program
JP2005252360A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
JP2005252359A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
JP4626158B2 (en) * 2004-03-01 2011-02-02 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and computer program
JP2005250561A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting device, motion vector detecting method and computer program
US7738556B2 (en) 2004-04-09 2010-06-15 Sony Corporation Apparatus and method for estimating motion vector with gradient method
JP4687994B2 (en) * 2004-04-09 2011-05-25 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JPWO2005098753A1 (en) * 2004-04-09 2008-02-28 ソニー株式会社 Image processing apparatus and method, recording medium, and program
WO2005098753A1 (en) * 2004-04-09 2005-10-20 Sony Corporation Image processing device and method, recording medium, and program
US8305383B2 (en) 2005-05-18 2012-11-06 Sony Corporation Data access apparatus and method
JP2010087867A (en) * 2008-09-30 2010-04-15 Sony Corp Frame frequency conversion apparatus, frame frequency conversion method, program for achieving the method, computer readable recording medium recording the program, motion vector detection apparatus, and prediction coefficient generation apparatus
JP2018082499A (en) * 2018-01-19 2018-05-24 日本放送協会 Bidirectional motion vector prediction device, video encoder, video decoder, and programs thereof

Also Published As

Publication number Publication date
JP4161477B2 (en) 2008-10-08

Similar Documents

Publication Publication Date Title
US4783833A (en) Method of extracting an image of a moving object
JP3812763B2 (en) Key signal generating apparatus and method
JP2915894B2 (en) Target tracking method and device
US8416993B2 (en) Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
JPH08241414A (en) Moving object detection and trace device and threshold decision device
JP2002523985A (en) Problem area localization in image signals
KR20050089886A (en) Background motion vector detection
JP2001061152A (en) Motion detection method and motion detector
JP4213035B2 (en) Occlusion detector and method for detecting an occlusion region
JP2000048211A (en) Movile object tracking device
CN110728700B (en) Moving target tracking method and device, computer equipment and storage medium
CN110310303B (en) Image analysis multi-target tracking method
JP2001025021A (en) Motion detection method and motion detector
JPH0220988A (en) Moving vector detection system for animation encoding device
JPH08329110A (en) Method for processing picture
JPH09182077A (en) Image encoding method and device
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JPH05236452A (en) Method and device for detection motion vector
JP3615970B2 (en) Moving object detection method
US20070092158A1 (en) Image processing method and image processing apparatus
JPH08195956A (en) Moving amount detection method and moving amount detector
Varadarajan et al. Background subtraction using spatio-temporal continuities
JP4378801B2 (en) Image processing method and image processing apparatus
JPH0844844A (en) Object detector
JPH0795587A (en) Method for detecting moving vector

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080701

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080714

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees