JP4547881B2 - Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program - Google Patents

Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program Download PDF

Info

Publication number
JP4547881B2
JP4547881B2 JP2003295514A JP2003295514A JP4547881B2 JP 4547881 B2 JP4547881 B2 JP 4547881B2 JP 2003295514 A JP2003295514 A JP 2003295514A JP 2003295514 A JP2003295514 A JP 2003295514A JP 4547881 B2 JP4547881 B2 JP 4547881B2
Authority
JP
Japan
Prior art keywords
frame
block
pixel
image signal
pixel position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003295514A
Other languages
Japanese (ja)
Other versions
JP2005063319A (en
Inventor
哲二郎 近藤
靖 立平
淳一 石橋
成司 和田
泰広 周藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003295514A priority Critical patent/JP4547881B2/en
Publication of JP2005063319A publication Critical patent/JP2005063319A/en
Application granted granted Critical
Publication of JP4547881B2 publication Critical patent/JP4547881B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

この発明は、例えば動き補償予測符号化装置で動き補償を行うための動きベクトルを検出する際に適用して好適な動きベクトルの検出装置および検出方法、マッチングブロックテーブルの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。   The present invention is, for example, a motion vector detection device and detection method suitable for application when detecting a motion vector for performing motion compensation in a motion compensation prediction encoding device, a matching block table generation device and generation method, and The present invention relates to a program for executing each method.

詳しくは、この発明は、所定フレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用いることによって、動きベクトルを精度よく検出しようとした動きベクトル検出装置等に係るものである。   Specifically, according to the present invention, when a motion vector corresponding to a target pixel position of a predetermined frame is detected by performing a block matching process, a pixel block having a block pattern corresponding to a feature amount related to the target pixel position is used. The present invention relates to a motion vector detection device or the like that attempts to detect a motion vector with high accuracy.

例えば、MPEG2(Moving Picture Experts Group)方式等の画像信号を圧縮符号化する処理においては、隣接する2フレーム間の相関関係に基づく符号化処理、いわゆる動き補償フレーム間予測が用いられている。動き補償フレーム間予測では、隣接する2フレーム(一方を対象フレーム、他方を参照フレームと記述する)の間における各画素単位または所定サイズの画素ブロック単位の動きベクトルを検出する処理が必要となる。   For example, in a process of compressing and encoding an image signal such as an MPEG2 (Moving Picture Experts Group) system, an encoding process based on a correlation between two adjacent frames, so-called motion compensation interframe prediction, is used. In motion compensation inter-frame prediction, it is necessary to detect a motion vector for each pixel unit or for a pixel block unit of a predetermined size between two adjacent frames (one is described as a target frame and the other is referred to as a reference frame).

動きベクトルを検出する方法としては、従来、ブロックマッチング法が用いられている(例えば、特許文献1参照)。図22は、ブロックマッチング法に従って動きベクトルを検出する動きベクトル検出装置300の構成例を示している。   As a method for detecting a motion vector, a block matching method has been conventionally used (for example, see Patent Document 1). FIG. 22 shows a configuration example of a motion vector detection apparatus 300 that detects a motion vector according to the block matching method.

この動きベクトル検出装置300は、画像信号が入力される入力端子301と、対象フレームFcの画像信号を蓄積するフレームメモリ302と、参照フレームFrの画像信号を蓄積するフレームメモリ303とを有している。入力端子301からあるフレームの画像信号がフレームメモリ302に供給されて書き込まれる際に、このフレームメモリ302に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ303に供給されて書き込まれる。   The motion vector detection apparatus 300 includes an input terminal 301 to which an image signal is input, a frame memory 302 that stores an image signal of a target frame Fc, and a frame memory 303 that stores an image signal of a reference frame Fr. Yes. When an image signal of a frame from the input terminal 301 is supplied to the frame memory 302 and written, the image signal of the previous frame stored in the frame memory 302 is read out, supplied to the frame memory 303, and written. It is.

また、動きベクトル検出装置300は、フレームメモリ302に蓄積されている対象フレームFcの画像信号と、フレームメモリ303に蓄積されている参照フレームFrの画像信号とを用いて、対象フレームFcの各画素位置に対応した動きベクトルを検出する動き検出部304と、この動き検出部304で検出された動きベクトルを出力する出力端子305とを有している。   In addition, the motion vector detection device 300 uses the image signal of the target frame Fc stored in the frame memory 302 and the image signal of the reference frame Fr stored in the frame memory 303 to each pixel of the target frame Fc. A motion detection unit 304 that detects a motion vector corresponding to the position, and an output terminal 305 that outputs the motion vector detected by the motion detection unit 304 are provided.

動き検出部304は、ブロックマッチング法に従って、上述したように対象フレームFcの各画素位置に対応した動きベクトルを検出する。図23および図24を用いて、動き検出部304における動きベクトルの検出処理について説明する。図23は、対象フレームFcと参照フレームFrの対応関係を示している。図24は、検出処理の手順を示している。   The motion detection unit 304 detects a motion vector corresponding to each pixel position of the target frame Fc as described above according to the block matching method. A motion vector detection process in the motion detection unit 304 will be described with reference to FIGS. 23 and 24. FIG. 23 shows the correspondence between the target frame Fc and the reference frame Fr. FIG. 24 shows the procedure of the detection process.

動き検出部304は、対象フレームFc内の全ての画素位置が、順次、注目画素位置に指定され、注目画素位置を中心とする所定サイズ(L×L画素)の基準ブロックと、参照フレームFrに設けられたサーチエリアSR内で移動される参照ブロック(基準ブロックと同じサイズ)との対応する画素対の画素値の差分絶対値和を、(1)式に従って演算する。
ΣiΣj=|Fc(i,j)−Frn(i,j)| ・・・(1)
The motion detection unit 304 sequentially designates all pixel positions in the target frame Fc as the target pixel position, and applies the reference block Fr to a reference block having a predetermined size (L × L pixels) centered on the target pixel position. The sum of absolute differences of the pixel values of the corresponding pixel pair with the reference block (same size as the base block) moved within the provided search area SR is calculated according to the equation (1).
ΣiΣj = | Fc (i, j) −Frn (i, j) | (1)

ただし、Fc(i,j)は基準ブロックの画素の画素値であり、Frn(i,j)は識別番号nの参照ブロックの画素の画素値である。また、Σiはiを1からLまで1ずつインクリメントしたときの総和演算を意味し、Σjはjを1からLまで1ずつインクリメントしたときの総和演算を意味するものとする。   Here, Fc (i, j) is the pixel value of the pixel of the base block, and Frn (i, j) is the pixel value of the pixel of the reference block with the identification number n. Also, Σi means a summation operation when i is incremented by 1 from 1 to L, and Σj means a summation operation when j is incremented by 1 from 1 to L.

そして、基準ブロックと参照ブロックとの対応する画素対の画素値の差分絶対値和が最小となるときの参照ブロックの中心の画素位置と注目画素位置との差分ベクトルを、当該注目画素位置に対応した動きベクトルとして算出する。   Then, the difference vector between the pixel position at the center of the reference block and the target pixel position when the sum of absolute differences of the pixel values of the corresponding pixel pairs of the base block and the reference block is minimized corresponds to the target pixel position. As a motion vector.

具体的には、対象フレームFcの注目画素位置に対して、動き検出部304は、以下の処理を行う。   Specifically, the motion detection unit 304 performs the following process on the target pixel position of the target frame Fc.

ステップS1で、参照フレームFrに、対象フレームFcの注目画素位置と同じ画素位置を中心として、基準ブロックよりも大きなサイズのサーチエリアSRを設定する。そして、ステップS2で、差分絶対値和の最小値を格納する変数minを、その最大値に初期化する。例えば、1画素の画素値が8ビット、基準ブロックのサイズが4×4画素である場合、変数minは、4096(=28×16)に初期化される。 In step S1, a search area SR having a size larger than that of the reference block is set in the reference frame Fr with the same pixel position as the target pixel position of the target frame Fc as the center. In step S2, a variable min that stores the minimum value of the sum of absolute differences is initialized to the maximum value. For example, when the pixel value of one pixel is 8 bits and the size of the reference block is 4 × 4 pixels, the variable min is initialized to 4096 (= 2 8 × 16).

次に、ステップS3で、サーチエリアSR内で移動させる参照ブロックの識別番号nを1に初期化する。そして、ステップS4で、差分絶対値和の演算結果を格納する変数sumを0に初期化する。   Next, in step S3, the identification number n of the reference block to be moved within the search area SR is initialized to 1. In step S4, a variable sum for storing the calculation result of the sum of absolute differences is initialized to zero.

次に、ステップS5で、対象フレームFcの基準ブロックと、参照フレームFrに設定したサーチエリアSR内の識別番号nの参照ブロックとの対応する場所に位置する画素対の画素値の差分絶対値和を演算して、変数sumに代入する。そして、ステップS6で、ステップS5の演算結果である変数sumと変数minを比較し、変数sumが変数minよりも小さいか否かを判定する。変数sumが変数minよりも小さいと判定した場合、ステップS7に進む。   Next, in step S5, the difference absolute value sum of the pixel values of the pixel pairs located at the corresponding positions of the reference block of the target frame Fc and the reference block of the identification number n in the search area SR set in the reference frame Fr. Is substituted into the variable sum. In step S6, the variable sum and the variable min, which are the calculation results of step S5, are compared to determine whether the variable sum is smaller than the variable min. If it is determined that the variable sum is smaller than the variable min, the process proceeds to step S7.

ステップS7では、変数minを変数sumで置換し、参照ブロックの識別番号nを動きベクトル番号として記憶する。このステップS7の処理の後、ステップS8に進む。なお、上述のステップS6で、変数sumが変数minよりも小さくないと判定された場合、ステップS7の処理をスキップし、ステップS8に進む。   In step S7, the variable min is replaced with the variable sum, and the identification number n of the reference block is stored as a motion vector number. After the process of step S7, the process proceeds to step S8. If it is determined in step S6 described above that the variable sum is not smaller than the variable min, the process of step S7 is skipped and the process proceeds to step S8.

ステップS8では、参照ブロックの識別番号nが最大値であるか否か、すなわち、サーチエリアSRの全域に参照ブロックを移動し終えたか否かを判定する。参照ブロックの識別番号nが最大値ではないと判定した場合、ステップS9に進む。ステップS9では、参照ブロックの識別番号nをインクリメントし、ステップS4の処理に戻って、それ以降の処理を繰り返す。   In step S8, it is determined whether or not the reference block identification number n is the maximum value, that is, whether or not the reference block has been moved to the entire search area SR. If it is determined that the identification number n of the reference block is not the maximum value, the process proceeds to step S9. In step S9, the identification number n of the reference block is incremented, the process returns to step S4, and the subsequent processes are repeated.

また、ステップS8で、参照ブロックの識別番号nが最大値であると判定した場合、すなわち、サーチエリアSRの全域に参照ブロックを移動し終えた場合、ステップS10に進む。このステップS10では、動きベクトル番号として記憶している識別番号nに対応する参照ブロックの中心の画素位置と、対象フレームFcの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして算出する。   If it is determined in step S8 that the reference block identification number n is the maximum value, that is, if the reference block has been moved to the entire search area SR, the process proceeds to step S10. In this step S10, the difference vector between the pixel position at the center of the reference block corresponding to the identification number n stored as the motion vector number and the target pixel position of the target frame Fc corresponds to the target pixel position of the target frame Fc. As a motion vector.

特許第3277417号公報Japanese Patent No. 3277417

上述したように動きベクトル検出をブロックマッチング法で行う場合、ブロックマッチングを行う際の画素ブロックのブロックパターンをどのように設定するかが問題となる。すなわち、画素ブロックを小さく設定することで、小動きに対処できるが、逆にノイズに弱く、結果にバラツキが発生する。一方、画素ブロックを大きく設定することで、ノイズに強く、結果が安定するが、逆に小動きに対処できなくなる。   As described above, when motion vector detection is performed by the block matching method, how to set the block pattern of the pixel block when performing block matching becomes a problem. That is, by setting the pixel block to be small, it is possible to cope with small movements, but on the contrary, it is vulnerable to noise, resulting in variations in the results. On the other hand, by setting a large pixel block, it is resistant to noise and stabilizes the result, but on the contrary, it cannot cope with small movement.

この発明の目的は、適切なブロックパターンの画素ブロックを用いて動きベクトルを精度よく検出することにある。   An object of the present invention is to accurately detect a motion vector using a pixel block having an appropriate block pattern.

この発明に係る動きベクトル検出装置は、第1乃至第3の画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出装置であって、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データに基づいてその注目画素位置に係る特徴量を得る特徴量取得手段と、第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルを記憶した記憶手段と、この記憶手段に記憶されているマッチングブロックテーブルから特徴量取得手段で得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得るブロックパターン情報取得手段と、このブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、第1のフレームの注目画素位置に対応した第1の画素ブロックと、ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行うマッチング演算手段と、このマッチング演算手段で求められた複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルを得る動きベクトル取得手段とを備え、上記マッチングブロックテーブルは、上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで生成されたものであるThe motion vector detection apparatus according to the present invention is a motion vector detection apparatus that detects a motion vector by performing block matching processing using the first to third image signals, and includes a target pixel from the image signal of the first frame. Feature amount acquisition means for extracting a plurality of pixel data located in the vicinity of the position and obtaining a feature amount related to the target pixel position based on the plurality of pixel data, and a target pixel acquired from the image signal of the first frame For each block pattern, the pixel block according to the position, the image signal of the second frame that is the previous frame of the first frame, and the image signal of the third frame that is the subsequent frame of the first frame are used. Determined based on the evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the target pixel position obtained from the motion compensated image signal obtained A storage unit storing a matching block table indicating a correspondence relationship between the block pattern and the feature amount related to the target pixel position, and a feature amount obtained by the feature amount acquisition unit from the matching block table stored in the storage unit A block pattern information acquisition unit that obtains block pattern information that can identify the positions of the pixels constituting the corresponding block pattern, and a block pattern indicated by the block pattern information obtained by the block pattern information acquisition unit, of the first frame Matching between the first pixel block corresponding to the target pixel position and each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the block pattern information obtained by the block pattern information acquisition unit Matching calculation means for performing calculations and this matching operation Based on the matching operation result corresponding to a plurality of second pixel blocks obtained by means comprises a motion vector obtaining means for obtaining a motion vector corresponding to the target pixel position of the first frame, the matching block table The first frame image signal and the motion compensated image signal are used for each combination of the pixel position and block pattern of the first frame based on a plurality of pixel data located in the vicinity of the pixel position. In addition to obtaining the feature amount, an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position is calculated from each of the image signal of the first frame and the motion compensated image signal, and the calculated By adding the evaluation value to the address value corresponding to the block pattern and the calculated feature amount, for each feature amount, A block evaluation table showing a correspondence relationship between each of the block patterns and the accumulated value of the evaluation values is generated. Based on the generated block evaluation table of each feature amount, each feature amount is used in the block matching. This is generated by determining the block pattern of the power pixel block .

また、この発明に係る動きベクトル検出方法は、第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出方法であって、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データに基づいてその注目画素位置に係る特徴量を得る第1のステップと、第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、この第2のステップで得られたブロックパターン情報で示すブロックパターンの、第1のフレームの注目画素位置に対応した第1の画素ブロックと、第2のステップで得られたブロックパターン情報で示すブロックパターンの、第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、この第3のステップで求められた複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップとを備え、上記マッチングブロックテーブルは、上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで生成されたものであるThe motion vector detection method according to the present invention is a motion vector detection method for detecting a motion vector by performing block matching processing using the image signals of the first to third frames, and the image of the first frame. A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the signal and obtaining a feature amount related to the target pixel position based on the plurality of pixel data, and an image signal of the first frame Using the obtained pixel block at the target pixel position, the image signal of the second frame that is the previous frame of the first frame, and the image signal of the third frame that is the subsequent frame of the first frame An evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the target pixel position obtained from the motion compensated image signal obtained for each block pattern. The positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step are identified from the matching block table indicating the correspondence between the block pattern determined based on the feature amount and the feature amount related to the target pixel position. A second step of obtaining possible block pattern information, a first pixel block corresponding to the target pixel position of the first frame of the block pattern indicated by the block pattern information obtained in the second step, A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the block pattern information obtained in step 2, and in the third step Based on the matching calculation result corresponding to the plurality of second pixel blocks obtained, the target pixel position of the first frame And a fourth step of obtaining a motion vector corresponding to said matching block table, the image signal and using the above-described motion compensation image signal of the first frame, the pixel position and the block pattern of the first frame For each combination, a feature amount is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and the pixel position is determined from each of the image signal of the first frame and the motion compensation image signal. An evaluation value indicating the degree of correlation of the obtained pixel block is calculated, and the calculated evaluation value is added to the value of the address corresponding to the block pattern and the calculated feature value, thereby obtaining each feature value. In addition, a block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values is generated, and each generated feature amount Based on the block evaluation table, the block pattern of the pixel block to be used in the block matching is determined for each feature amount .

また、この発明に係るプログラムは、上述した動きベクトル検出方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。   A program according to the present invention is for causing a computer to execute the motion vector detection method described above. A computer-readable medium according to the present invention records the above-described program.

この発明においては、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データが抽出され、この複数の画素データに基づいてその注目画素位置に係る特徴量が得られる。この場合、特徴量は、複数の画素データの特徴を表すものであればよい。例えば、複数の画素データをそれぞれ1ビットデータに符号化して得られる複数ビットのコードが特徴量とされる。また例えば、複数の画素データからなる画素ブロックに対してDCT(Discrete Cosine Transform)等の直交変換を行って得られる係数データから特徴量を得るようにしてもよい。   In the present invention, a plurality of pixel data located in the vicinity of the target pixel position is extracted from the image signal of the first frame, and a feature amount related to the target pixel position is obtained based on the plurality of pixel data. In this case, the feature amount only needs to represent features of a plurality of pixel data. For example, a multi-bit code obtained by encoding a plurality of pixel data into 1-bit data is used as the feature amount. Further, for example, the feature amount may be obtained from coefficient data obtained by performing orthogonal transformation such as DCT (Discrete Cosine Transform) on a pixel block composed of a plurality of pixel data.

また、特徴量とブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブルが用意される。ここで、ある特徴量に対応するブロックパターンは、その特徴量が得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、予め学習によって求められる。   In addition, a matching block table indicating a correspondence relationship between the feature amount and the block pattern of the pixel block to be used for block matching is prepared. Here, the block pattern corresponding to a certain feature amount can detect a motion vector with high accuracy by using the pixel block to be used in block matching for the target pixel position where the feature amount is obtained as the block pattern. , Obtained by learning in advance.

このマッチングブロックテーブルから、上述した注目画素位置に係る特徴量に対応したブロックパターン情報が取得される。そして、この取得されたブロックパターン情報で示すブロックパターンの、第1のフレーム(対象フレーム)の注目画素位置に対応した第1の画素ブロック(基準ブロック)と、取得されたブロックパターン情報で示すブロックパターンの、第2のフレーム(参照フレーム)の複数の第2の画素ブロック(参照ブロック)のそれぞれとの間のマッチング演算が行われる。   From this matching block table, block pattern information corresponding to the feature amount related to the target pixel position described above is acquired. The first pixel block (reference block) corresponding to the target pixel position of the first frame (target frame) in the block pattern indicated by the acquired block pattern information, and the block indicated by the acquired block pattern information A matching operation is performed between each of the plurality of second pixel blocks (reference blocks) of the second frame (reference frame) of the pattern.

このマッチング演算は、第1の画素ブロックと第2の画素ブロックとの間の相関の程度を示す値をその結果として得ることができるものであればよい。例えば、マッチング演算は、第1の画素ブロックを構成する画素データと第2の画素ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、その求められた差分絶対値の和を求める演算とされる。また例えば、マッチング演算は、差分二乗和を求める演算とされてもよい。   This matching calculation only needs to be able to obtain a value indicating the degree of correlation between the first pixel block and the second pixel block as a result. For example, the matching operation obtains an absolute difference value between corresponding pixel data between the pixel data constituting the first pixel block and the pixel data constituting the second pixel block, and the obtained absolute difference value It is an operation for obtaining the sum of. For example, the matching operation may be an operation for obtaining a sum of squared differences.

複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルが得られる。この場合、第1の画素ブロックとマッチングの程度が最良の第2のブロックの中心画素位置と注目画素値との差分ベクトルが動きベクトルとして求められる。   A motion vector corresponding to the target pixel position of the first frame is obtained based on the matching calculation result corresponding to the plurality of second pixel blocks. In this case, a difference vector between the center pixel position of the second block having the best matching level with the first pixel block and the target pixel value is obtained as a motion vector.

上述したように、この発明においては、第1のフレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、当該注目画素位置に対応した動きベクトルを精度よく検出できる。   As described above, in the present invention, when the motion vector corresponding to the target pixel position of the first frame is detected by performing block matching processing, the pixel of the block pattern corresponding to the feature amount related to the target pixel position Blocks are used, and block matching processing using pixel blocks having an appropriate block pattern can be performed, and a motion vector corresponding to the target pixel position can be detected with high accuracy.

例えば、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックは、例えば第1のフレームの注目画素位置に対応した第2のフレームのサーチエリア内の画素ブロックである。この場合、第2のフレームのサーチエリア内を対象として動きベクトルを検出できる。   For example, a plurality of second pixel blocks of the second frame that are subjected to matching calculation with the first pixel block corresponding to the target pixel position of the first frame are, for example, the first pixel block corresponding to the target pixel position of the first frame. This is a pixel block in the search area of the second frame. In this case, a motion vector can be detected in the search area of the second frame.

また例えば、第2のフレームの各画素位置毎に、その画素位置の近傍に位置する複数の画素データに基づいてその画素位置の特徴量を得、その特徴量と第2のフレームの各画素位置との対応関係を示すテーブルが生成され、このテーブルから上述した注目画素位置に係る特徴量に対応した第2のフレームの複数の画素位置が取得されるようにし、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックは、この第2のフレームの複数の画素位置に対応した画素ブロックとされる。この場合、マッチング演算をすべき第2の画素ブロックの個数を少なくできるので、演算量を大幅に低減できる。   Also, for example, for each pixel position of the second frame, a feature amount of the pixel position is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and the feature amount and each pixel position of the second frame Is generated, and a plurality of pixel positions of the second frame corresponding to the feature amount related to the target pixel position described above are acquired from the table, and the target pixel position of the first frame is acquired. The plurality of second pixel blocks in the second frame that are subjected to a matching operation with the first pixel block corresponding to the pixel block are pixel blocks corresponding to the plurality of pixel positions in the second frame. In this case, the number of second pixel blocks to be subjected to the matching calculation can be reduced, so that the calculation amount can be greatly reduced.

この発明に係るマッチングブロックテーブル生成装置は、所定フレームの注目画素位置に対応した動きベクトルを、その注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する装置であって、記憶手段と、通過画素テーブル生成手段と、動き補償画像生成手段と、ブロック評価テーブル生成手段と、マッチングブロックテーブル生成手段とを備えるものである。   The matching block table generation device according to the present invention detects a motion vector corresponding to a target pixel position of a predetermined frame by performing a block matching process using a pixel block of a block pattern corresponding to a feature amount of the target pixel position. An apparatus for generating a matching block table indicating a correspondence relationship between a feature quantity and a block pattern, which is used when storing, a storage means, a passing pixel table generation means, a motion compensation image generation means, and a block evaluation table generation Means and a matching block table generating means.

そして、記憶手段は、時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を記憶するものである。また、通過画素テーブル生成手段は、記憶手段に記憶されている第のフレームの画像信号および第3のフレームの画像信号を用い、各ブロックパターン毎に、第のフレームの各画素位置に対応した第3のフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、第のフレームの各画素位置と、第のフレームおよび第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成するものである。 The storage means is a first frame among three temporally continuous frames, the second frame that is the previous frame of the first frame, and the subsequent frame of the first frame. The image signal with the third frame is stored. The passing pixel table generating means uses the image signal of the second frame and the image signal of the third frame stored in the storage means, and corresponds to each pixel position of the second frame for each block pattern. was pixel position of the third frame, to detect performs block matching processing using the pixel block of the block pattern, and each pixel position of the first frame, the pixel position of the second frame and the third frame A passing pixel table showing the correspondence relationship is generated.

動き補償画像生成手段は、記憶手段に記憶されている第のフレームの画像信号および第3のフレームの画像信号と、通過画素テーブル生成手段で生成された通過画素テーブルとを用い、各ブロックパターン毎に、第のフレームの各画素位置に対応して、通過画素テーブルから第のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて第のフレームの画素値を求め、第のフレームの画像信号に対応した動き補償画像信号を生成するものである。 The motion compensated image generating means uses the second frame image signal and the third frame image signal stored in the storage means, and the passing pixel table generated by the passing pixel table generating means, and each block pattern every, corresponding to each pixel position of the first frame, obtains the pixel position of the second frame and the third frame from the passage pixel table, the first based on the pixel value of the pixel position obtained A pixel value of the frame is obtained, and a motion compensated image signal corresponding to the image signal of the first frame is generated.

ブロック評価テーブル生成手段は、記憶手段に記憶されている第のフレームの画像信号と、動き補償画像生成手段で生成された動き補償画像信号とを用い、第のフレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、第のフレームの画像信号および動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、その算出された評価値を、そのブロックパターンおよび求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成するものである。 The block evaluation table generation means uses the first frame image signal stored in the storage means and the motion compensation image signal generated by the motion compensation image generation means, and uses the pixel position and block pattern of the first frame. For each combination, a feature amount is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and obtained from each of the image signal and the motion compensated image signal of the first frame corresponding to the pixel position. An evaluation value indicating the degree of correlation of the pixel block is calculated, and the calculated evaluation value is added to the value of the address corresponding to the block pattern and the calculated feature value, so that a block is obtained for each feature value. A block evaluation table indicating the correspondence between each pattern and the accumulated value of the evaluation values is generated.

マッチングブロックテーブル生成手段は、ブロック評価テーブル生成手段で生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、マッチングブロックテーブルを生成するものである。   The matching block table generation unit determines a block pattern of a pixel block to be used for block matching for each feature amount based on the block evaluation table of each feature amount generated by the block evaluation table generation unit, and a matching block A table is generated.

また、この発明に係るマッチングブロックテーブル生成方法は、所定フレームの注目画素位置に対応した動きベクトルを、その注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する方法であって、上述した通過画素テーブルを生成する第1のステップと、上述した動き補償画像信号を生成する第2のステップと、上述したブロック評価テーブルを生成する第3のステップと、上述したマッチングブロックテーブルを生成する第4のステップとを備えるものである。   Further, the matching block table generation method according to the present invention performs a block matching process using a motion vector corresponding to a target pixel position of a predetermined frame using a pixel block of a block pattern corresponding to a feature amount of the target pixel position. A method for generating a matching block table indicating a correspondence relationship between a feature quantity and a block pattern, which is used when detecting, a first step of generating the above-described passing pixel table, and the above-described motion compensation image signal , A third step of generating the block evaluation table described above, and a fourth step of generating the matching block table described above.

また、この発明に係るプログラムは、上述したマッチングブロックテーブル生成方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。   A program according to the present invention is for causing a computer to execute the above-described matching block table generation method. A computer-readable medium according to the present invention records the above-described program.

この発明においては、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルが生成される。この場合、ある特徴量に対応するブロックパターンは、その特徴量が得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、学習によって求められる。   In the present invention, a matching block table showing the correspondence between the feature quantity and the block pattern is generated. In this case, the block pattern corresponding to a certain feature amount can detect a motion vector with high accuracy by using the pixel block to be used in block matching for the target pixel position where the feature amount is obtained as the block pattern. Sought by learning.

この発明によれば、第1のフレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素値に係る特徴量に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、動きベクトルを精度よく検出できる。   According to this invention, when the motion vector corresponding to the target pixel position of the first frame is detected by performing the block matching process, the pixel block having the block pattern corresponding to the feature amount related to the target pixel value is used. Thus, block matching processing using pixel blocks having an appropriate block pattern can be performed, and motion vectors can be detected with high accuracy.

またこの発明によれば、第1のフレームの注目画素位置に係る特徴量と同じ特徴量を持つ第2のフレームの複数の画素位置を取得し、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックを、この取得された複数の画素位置に対応した画素ブロックとするものであり、マッチング演算をすべき第2の画素ブロックの個数を少なくできるので、演算量を大幅に低減できる。   Further, according to the present invention, a plurality of pixel positions of the second frame having the same feature amount as the feature amount related to the target pixel position of the first frame are obtained, and the second pixel position corresponding to the target pixel position of the first frame is acquired. A plurality of second pixel blocks in a second frame that are matched with one pixel block are set as pixel blocks corresponding to the obtained plurality of pixel positions. Since the number of pixel blocks can be reduced, the amount of calculation can be greatly reduced.

以下、この発明の実施の形態を図面を参照して説明する。図1は、実施の形態としての動きベクトル検出装置100の構成を示している。この動きベクトル検出装置100は、ブロックマッチング法に従って動きベクトルを検出する。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration of a motion vector detection device 100 as an embodiment. The motion vector detection apparatus 100 detects a motion vector according to a block matching method.

この動きベクトル検出装置100は、画像信号が入力される入力端子101と、第1のフレームとしての対象フレームFcの画像信号を蓄積するフレームメモリ102と、第2のフレームとしての参照フレームFrの画像信号を蓄積するフレームメモリ103とを有している。   The motion vector detection apparatus 100 includes an input terminal 101 to which an image signal is input, a frame memory 102 that stores an image signal of a target frame Fc as a first frame, and an image of a reference frame Fr as a second frame. A frame memory 103 for accumulating signals.

入力端子101からあるフレームの画像信号がフレームメモリ102に供給されて書き込まれる際に、このフレームメモリ102に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ103に供給されて書き込まれる。この場合、対象フレームFcの画像信号が#n−1フレームの画像信号であるとき、参照フレームFrの画像信号はその1フレーム前の#n−2フレームの画像信号となる。   When an image signal of a frame from the input terminal 101 is supplied to the frame memory 102 and written, the image signal of the previous frame stored in the frame memory 102 is read out, supplied to the frame memory 103, and written. It is. In this case, when the image signal of the target frame Fc is an image signal of the # n-1 frame, the image signal of the reference frame Fr is an image signal of the # n-2 frame one frame before.

また、動きベクトル検出装置100は、クラスコード生成部104を有している。このクラスコード生成部104は、対象フレームFcの各画素位置を順次注目画素位置として、当該注目画素位置に係る特徴量としてのクラスコードCLn-1を生成する。この場合、クラスコード生成部104は、フレームメモリ102に蓄積されている対象フレームFcの画像信号から、注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データのそれぞれを1ビットデータに符号化してクラスコードCLn-1を取得する。 In addition, the motion vector detection device 100 includes a class code generation unit 104. The class code generation unit 104 sequentially sets each pixel position of the target frame Fc as a target pixel position, and generates a class code CL n−1 as a feature amount related to the target pixel position. In this case, the class code generation unit 104 extracts a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the target frame Fc stored in the frame memory 102, and each of the plurality of pixel data is extracted. The class code CL n-1 is obtained by encoding into 1-bit data.

ここで、注目位置の近傍に位置する複数の画素データは、例えば図2に示すように、注目画素を中心とするP1〜P9の9画素とされ、クラスコードCLn-1として9ビットコードが得られる。このクラスコードCLn-1は、例えば1ビットADRC(Adaptive Dynamic Range Coding)により求められる。 Here, as shown in FIG. 2, for example, the plurality of pieces of pixel data located in the vicinity of the target position are nine pixels P1 to P9 centered on the target pixel, and a 9-bit code is set as the class code CLn -1. can get. This class code CL n-1 is obtained, for example, by 1-bit ADRC (Adaptive Dynamic Range Coding).

1ビットADRCにおいては、複数の画素データから最大値MAXおよび最小値が検出され、さらにダイナミックレンジDR=MAX−MINが検出され、複数の画素データのそれぞれについて、その画素データから最小値MINが減算され、その減算値がDR/2で除算される。これにより、複数の画素データのそれぞれが1ビットデータに符号化され、それを所定の順番で並べたビット列がクラスコードCLn-1とされる。 In 1-bit ADRC, a maximum value MAX and a minimum value are detected from a plurality of pixel data, and further a dynamic range DR = MAX-MIN is detected. For each of a plurality of pixel data, the minimum value MIN is subtracted from the pixel data. The subtracted value is divided by DR / 2. Thereby, each of the plurality of pixel data is encoded into 1-bit data, and a bit string obtained by arranging the data in a predetermined order is set as a class code CL n−1 .

また、動きベクトル検出装置100は、フレームメモリ102に蓄積されている対象フレームFcの画像信号と、フレームメモリ103に蓄積されている参照フレームFrの画像信号と、さらにクラスコード生成部104で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1とを用いて、当該対象フレームFcの注目画素位置に対応した動きベクトルを求める動きベクトル算出部105と、この動きベクトル算出部105で得られた動きベクトルを出力する出力端子106とを有している。 In addition, the motion vector detection device 100 is generated by the class code generation unit 104 and the image signal of the target frame Fc stored in the frame memory 102, the image signal of the reference frame Fr stored in the frame memory 103, and the like. The motion vector calculation unit 105 that obtains a motion vector corresponding to the target pixel position of the target frame Fc using the class code CL n-1 as the feature amount related to the target pixel position of the target frame Fc, and the motion And an output terminal 106 for outputting a motion vector obtained by the vector calculation unit 105.

図1に示す動きベクトル検出装置100の動作を説明する。   The operation of the motion vector detection device 100 shown in FIG. 1 will be described.

入力端子101に入力される画像信号はフレームメモリ102に供給されて書き込まれる。これにより、フレームメモリ102には、#n−1フレームの画像信号が対象フレームFcの画像信号として蓄積される。またこの際、フレームメモリ102に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ103に供給されて書き込まれる。これにより、フレームメモリ103には、#n−2フレームの画像信号が参照フレームFrの画像信号として蓄積される。   An image signal input to the input terminal 101 is supplied to the frame memory 102 and written therein. As a result, the image signal of the # n−1 frame is stored in the frame memory 102 as the image signal of the target frame Fc. At this time, the image signal of the previous frame stored in the frame memory 102 is read out and supplied to the frame memory 103 for writing. As a result, the image signal of # n-2 frame is stored in the frame memory 103 as the image signal of the reference frame Fr.

クラスコード生成部104では、対象フレームFcの各画素位置を順次注目画素位置とし、フレームメモリ102に蓄積されている対象フレームFcの画像信号に基づいて注目画素値の近傍に位置する複数の画素データが抽出され(図2参照)、この複数の画素データを用いて、当該注目画素位置に係る特徴量としてのクラスコードCLn-1が生成される。このクラスコード生成部104で生成されるクラスコードCLn-1は、動きベクトル算出部105に供給される。 In the class code generation unit 104, each pixel position of the target frame Fc is sequentially set as the target pixel position, and a plurality of pieces of pixel data positioned in the vicinity of the target pixel value based on the image signal of the target frame Fc stored in the frame memory 102 Are extracted (see FIG. 2), and a class code CL n−1 as a feature amount related to the target pixel position is generated using the plurality of pixel data. The class code CL n−1 generated by the class code generation unit 104 is supplied to the motion vector calculation unit 105.

動きベクトル算出部105では、フレームメモリ102に蓄積されている対象フレームFcの画像信号と、フレームメモリ103に蓄積されている参照フレームFrの画像信号と、さらにクラスコード生成部104で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1とから、当該対象フレームFcの注目画素位置に対応した動きベクトルが求められる。そして、この動きベクトル算出部105で得られた動きベクトルは出力端子106に導出される。 In the motion vector calculation unit 105, the image signal of the target frame Fc stored in the frame memory 102, the image signal of the reference frame Fr stored in the frame memory 103, and further generated by the class code generation unit 104, A motion vector corresponding to the target pixel position of the target frame Fc is obtained from the class code CL n−1 as the feature amount related to the target pixel position of the target frame Fc. The motion vector obtained by the motion vector calculation unit 105 is derived to the output terminal 106.

次に、動きベクトル算出部105の詳細を説明する。図3は、動きベクトル算出部105の構成を示している。
この動きベクトル算出部105は、MEメモリ部121を有している。このMEメモリ部121には、クラスコードと参照フレームFrの各画素位置との対応関係を示すテーブルが記憶されている。このテーブルは、参照フレームFrの画像信号としての#n−2フレームの画像信号がフレームメモリ102に蓄積されている状態で、クラスコード生成部104で生成される当該#n−2フレームの各画素位置に係る特徴量としてのクラスコードCLn-2を用いて生成される。
Next, details of the motion vector calculation unit 105 will be described. FIG. 3 shows the configuration of the motion vector calculation unit 105.
The motion vector calculation unit 105 includes an ME memory unit 121. The ME memory unit 121 stores a table indicating the correspondence between the class code and each pixel position of the reference frame Fr. This table shows each pixel of the # n-2 frame generated by the class code generation unit 104 in a state where the image signal of the # n-2 frame as the image signal of the reference frame Fr is accumulated in the frame memory 102. It is generated using the class code CL n-2 as the feature quantity related to the position.

図4は、MEメモリ部121が記憶するテーブルの構造を示している。このテーブルは、特徴量アドレス0〜aと、フラグアドレス0〜bによって示される(a+1)×(b+1)個のセルにより構成される。以下、例えば、特徴量アドレス「1」、フラグアドレス「2」のセルをセル(1,2)と記述する。特徴量アドレスは、クラスコード生成部104によって生成される#n−2フレームの各画素位置に係る特徴量としてのクラスコードCLn-2に対応する。例えば、クラスコードが9ビットである場合、特徴量アドレスの最大値a=29−1となる。 FIG. 4 shows the structure of the table stored in the ME memory unit 121. This table is composed of (a + 1) × (b + 1) cells indicated by feature amount addresses 0 to a and flag addresses 0 to b. Hereinafter, for example, the cell having the feature address “1” and the flag address “2” is described as a cell (1, 2). The feature amount address corresponds to a class code CL n-2 as a feature amount relating to each pixel position of the # n-2 frame generated by the class code generation unit 104. For example, when the class code is 9 bits, the maximum value of the feature amount address a = 2 9 −1.

特徴量アドレス0のフラグアドレス「1」以降のセルには、クラスコード生成部104によってクラスコード「000000000」が生成された#n−2フレームの画素位置の座標がラスタ順に格納される。特徴量アドレス「0」のフラグアドレス「0」のセル(0,0)には、クラスコード「000000000」が生成された画素位置の座標が既に格納されている、特徴量アドレス「0」のフラグアドレス「1」以降のセル、すなわち、使用済のセルの数が格納される。例えば、#n−2フレームの各画素位置のうち、3画素位置に対してそれぞれクラスコード「000000000」が生成された場合、セル(0,1)、セル(0,2)、セル(0,3)に3画素位置それぞれの座標が格納され、セル(0,0)に座標が格納されているセルの数である3が格納される。   In the cells after the flag address “1” of the feature amount address 0, the coordinates of the pixel position of the # n-2 frame in which the class code “000000000” is generated by the class code generation unit 104 are stored in raster order. The flag (0, 0) of the feature value address “0” has already stored the coordinates of the pixel position where the class code “000000000” has been generated. The flag of the feature value address “0” The number of cells after the address “1”, that is, the number of used cells is stored. For example, when the class code “000000000” is generated for each pixel position in the # n-2 frame, the cell (0, 1), the cell (0, 2), the cell (0, 2) are generated. The coordinates of each of the three pixel positions are stored in 3), and 3 which is the number of cells in which the coordinates are stored is stored in the cell (0, 0).

特徴量アドレス「1」のフラグアドレス「1」以降のセルには、クラスコード生成部104によってクラスコード「000000001」が生成された#n−2フレームの画素位置の座標がラスタ順に格納される。特徴量アドレス「1」のフラグアドレス「0」のセル(1,0)には、クラスコード「000000001」が生成された画素位置の座標が格納されている、特徴量アドレス「0」のフラグアドレス「1」以降のセルの数が格納される。例えば、#n−2フレームの各画素位置のうち、10画素位置に対して同一のクラスコード「000000001」が生成された場合、セル(1,1)、…、セル(1,10)に10画素位置それぞれの座標が格納され、セル(1,0)に、座標が格納されているセルの数である10が格納される。特徴量アドレス「2」以降のセルについても同様であるので、その説明は省略する。   In the cells after the flag address “1” of the feature amount address “1”, the coordinates of the pixel position of the # n-2 frame in which the class code “000000001” is generated by the class code generation unit 104 are stored in raster order. The cell (1, 0) of the flag address “0” of the feature amount address “1” stores the coordinates of the pixel position where the class code “000000001” is generated. The flag address of the feature amount address “0” The number of cells after “1” is stored. For example, if the same class code “000000001” is generated for 10 pixel positions among the pixel positions of the # n-2 frame, 10 is assigned to the cell (1, 1),. The coordinates of each pixel position are stored, and 10 which is the number of cells storing the coordinates is stored in the cell (1, 0). The same applies to the cells after the feature amount address “2”, and the description thereof will be omitted.

また、MEメモリ部121は、上述したように記憶されているクラスコードと参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)に基づいて、クラスコード生成部104で生成される、対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した、参照フレームFrの画素位置の情報を、動きベクトルの候補位置情報として出力する。この場合、MEメモリ部121は、クラスコードCLn-1に対応した特徴量アドレスの部分を参照し、フラグアドレス「0」のセルに格納される数をmとするとき、フラグアドレス「1」〜「m」に格納される座標を動きベクトルの候補位置情報として出力する。またこの場合、MEメモリ部121は、mを動きベクトルの候補総数情報として出力する。 In addition, the ME memory unit 121 is generated by the class code generation unit 104 based on a table (see FIG. 4) indicating the correspondence between the class code stored as described above and each pixel position of the reference frame Fr. The information on the pixel position of the reference frame Fr corresponding to the class code CL n-1 related to the target pixel position of the target frame Fc is output as motion vector candidate position information. In this case, the ME memory unit 121 refers to the part of the feature amount address corresponding to the class code CL n−1 , and when the number stored in the cell of the flag address “0” is m, the flag address “1”. The coordinates stored in “m” are output as motion vector candidate position information. In this case, the ME memory unit 121 outputs m as motion vector candidate total number information.

また、動きベクトル算出部105は、マッチングブロックテーブルメモリ122を有している。このメモリ122は、特徴量してのクラスコードとブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブルを記憶しており、クラスコード生成部104で生成される、対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した、ブロックパターン情報を出力する。このメモリ122は、マッチングブロックテーブルの記憶手段およびブロックパターン情報取得手段を構成している。各ブロックパターンは、ブロックの形状(四角形、十字形など)や画素数が異なるものである。 Further, the motion vector calculation unit 105 has a matching block table memory 122. The memory 122 stores a matching block table indicating a correspondence relationship between a class code as a feature amount and a block pattern of a pixel block to be used for block matching, and is generated by the class code generation unit 104. Block pattern information corresponding to the class code CL n-1 related to the target pixel position of the frame Fc is output. The memory 122 constitutes a matching block table storage unit and a block pattern information acquisition unit. Each block pattern has a different block shape (square, cross, etc.) and the number of pixels.

図5は、マッチングブロックテーブルの一例を示している。この例では、ブロックパターンの情報として、ブロックパターン番号bが記憶されている。図6は、マッチングブロックテーブルの他の例を示している。この例では、ブロックパターンの情報として、画素位置コードが記憶されている。この画素位置コードは、中心画素位置に対する相対位置を示すものである。ここで、あるクラスコードに対応するブロックパターンは、そのクラスコードが得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、予め学習によって求められる。マッチングブロックテーブルの生成に関しては後述する。   FIG. 5 shows an example of the matching block table. In this example, a block pattern number b is stored as block pattern information. FIG. 6 shows another example of the matching block table. In this example, a pixel position code is stored as block pattern information. This pixel position code indicates a relative position with respect to the center pixel position. Here, the block pattern corresponding to a certain class code can detect a motion vector with high accuracy by using the pixel pattern to be used in block matching for the target pixel position where the class code is obtained as the block pattern. , Obtained by learning in advance. The generation of the matching block table will be described later.

また、動きベクトル算出部105は、MEメモリ部121より出力される、対象フレームFcの注目画素位置に対応した、動きベクトルの候補位置情報および候補総数情報と、メモリ122より出力される、対象フレームFcの注目画素位置に対応した、ブロックマッチングで使用すべき画素ブロックのブロックパターン情報と、フレームメモリ102(図1参照)に蓄積されている対象フレームFcの画像信号と、フレームメモリ103(図1参照)に蓄積されている参照フレームFrの画像信号とを用いて、対象フレームFcの注目画素位置に対応した動きベクトルを求める動きベクトル演算部123を有している。この動きベクトル演算部123は、マッチング演算手段および動きベクトル取得手段を構成している。   Further, the motion vector calculation unit 105 outputs the motion vector candidate position information and the total candidate number information corresponding to the target pixel position of the target frame Fc output from the ME memory unit 121, and the target frame output from the memory 122. Block pattern information of the pixel block to be used in block matching corresponding to the target pixel position of Fc, the image signal of the target frame Fc stored in the frame memory 102 (see FIG. 1), and the frame memory 103 (FIG. 1). The motion vector calculation unit 123 obtains a motion vector corresponding to the target pixel position of the target frame Fc using the image signal of the reference frame Fr stored in the reference). The motion vector calculation unit 123 constitutes a matching calculation unit and a motion vector acquisition unit.

すなわち、動きベクトル演算部123は、メモリ122から供給されるブロックパターン情報で示すブロックパターンの、対象フレームFcの注目画素位置に対応した、第1の画素ブロックとしての基準ブロックと、MEメモリ部121から供給される動きベクトルの候補位置情報で特定される、参照フレームFrの複数の画素位置に対応した、複数の第2の画素ブロックとしての参照ブロックのそれぞれとの間のマッチング演算を行う。また、動きベクトル演算部123は、複数の参照ブロックに対応したマッチング演算結果に基づいて、対象フレームFcの注目画素位置に対応した動きベクトルを求める。この場合、動きベクトル演算部123は、基準ブロックとマッチングの程度が最良である参照ブロックの中心画素位置と注目画素値との差分ベクトルを動きベクトルとして求める。   That is, the motion vector calculation unit 123 includes a reference block as a first pixel block corresponding to the target pixel position of the target frame Fc in the block pattern indicated by the block pattern information supplied from the memory 122, and the ME memory unit 121. A matching calculation is performed between each of the reference blocks as the plurality of second pixel blocks corresponding to the plurality of pixel positions of the reference frame Fr identified by the candidate position information of the motion vector supplied from. In addition, the motion vector calculation unit 123 obtains a motion vector corresponding to the target pixel position of the target frame Fc based on matching calculation results corresponding to a plurality of reference blocks. In this case, the motion vector calculation unit 123 obtains, as a motion vector, a difference vector between the center pixel position of the reference block and the target pixel value that has the best degree of matching with the base block.

図3に示す動きベクトル算出部105の動作を説明する。
クラスコード生成部104(図1参照)で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1は、MEメモリ部121に供給される。このMEメモリ部121には、クラスコードと参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)が記憶されている。
The operation of the motion vector calculation unit 105 shown in FIG. 3 will be described.
The class code CL n−1 as the feature amount related to the target pixel position of the target frame Fc generated by the class code generation unit 104 (see FIG. 1) is supplied to the ME memory unit 121. The ME memory unit 121 stores a table (see FIG. 4) indicating the correspondence between the class code and each pixel position of the reference frame Fr.

このMEメモリ部121からは、そのテーブルのうちクラスコードCLn-1に対応した特徴量アドレスの部分が参照され、そのクラスコードCLn-1に対応した参照フレームFrの複数の画素位置の座標が動きベクトルの候補位置情報として出力され、またその複数の画素位置の個数が動きベクトルの候補総数情報として出力される。このようにMEメモリ部121から出力される動きベクトルの候補位置情報および候補総数情報は動きベクトル演算部123に供給される。 The ME memory unit 121 refers to the portion of the feature amount address corresponding to the class code CL n-1 in the table, and coordinates of a plurality of pixel positions of the reference frame Fr corresponding to the class code CL n-1. Is output as motion vector candidate position information, and the number of pixel positions is output as motion vector candidate total number information. As described above, the motion vector candidate position information and the total candidate number information output from the ME memory unit 121 are supplied to the motion vector calculation unit 123.

また、クラスコード生成部104(図1参照)で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1は、マッチングブロックテーブルメモリ122に供給される。このメモリ122には、クラスコードとブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブル(図5、図6参照)が記憶されている。このメモリ122からは、そのテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応したブロックパターン情報が読み出されて出力される。このようにメモリ122から出力されるブロックパターン情報は、動きベクトル演算部123に供給される。 Further, the class code CL n−1 as the feature amount related to the target pixel position of the target frame Fc generated by the class code generation unit 104 (see FIG. 1) is supplied to the matching block table memory 122. The memory 122 stores a matching block table (see FIGS. 5 and 6) indicating the correspondence between the class code and the block pattern of the pixel block to be used for block matching. From the memory 122, block pattern information corresponding to the class code CL n-1 related to the target pixel position of the target frame Fc is read from the table and output. As described above, the block pattern information output from the memory 122 is supplied to the motion vector calculation unit 123.

動きベクトル演算部123では、メモリ122から供給されるブロックパターン情報で示すブロックパターンの、対象フレームFcの注目画素位置に対応した基準ブロックと、MEメモリ部121から供給される動きベクトルの候補位置情報で特定される、参照フレームFrの複数の画素位置に対応した、複数の参照ブロックのそれぞれとの間のマッチング演算が行われる。   In the motion vector calculation unit 123, the reference block corresponding to the target pixel position of the target frame Fc in the block pattern indicated by the block pattern information supplied from the memory 122, and the candidate position information of the motion vector supplied from the ME memory unit 121 A matching operation is performed between each of the plurality of reference blocks corresponding to the plurality of pixel positions of the reference frame Fr specified in (1).

このマッチング演算は、フレームメモリ102に蓄積されている対象フレームFcの画像信号およびフレームメモリ103に蓄積されている参照フレームFrの画像信号を用いて行われる。本実施の形態においては、このマッチング演算は、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求める演算とされる。   This matching calculation is performed using the image signal of the target frame Fc stored in the frame memory 102 and the image signal of the reference frame Fr stored in the frame memory 103. In the present embodiment, this matching operation calculates an absolute value of the difference between corresponding pixel data between the pixel data constituting the base block and the pixel data constituting the reference block, and a plurality of obtained differences. This is an operation for obtaining the sum of absolute values.

また、動きベクトル演算部123では、複数の参照ブロックに対応したマッチング演算結果に基づいて、対象フレームFcの注目画素位置に対応した動きベクトルが求められる。この場合、基準ブロックとマッチングの程度が最良である参照ブロックの中心画素位置と注目画素値との差分ベクトルが動きベクトルとして求められる。   In addition, the motion vector calculation unit 123 obtains a motion vector corresponding to the target pixel position of the target frame Fc based on matching calculation results corresponding to a plurality of reference blocks. In this case, a difference vector between the center pixel position of the reference block and the target pixel value that has the best degree of matching with the base block is obtained as a motion vector.

次に、動きベクトル演算部123の詳細を説明する。図7は、動きベクトル演算部123の構成を示している。
この動きベクトル演算部123は、候補番号nを1に初期化する候補番号初期化部130と、この候補番号初期化部130における候補番号nの初期化を受けて、差分絶対値和の最小値minを初期化する最小値初期化部131を有している。最小値初期化部131は、ブロックパターン情報からブロック内の画素数を取得し、差分絶対値和の最小値minを、その最大値に初期化する。この場合、1画素の画素値が8ビットであるとき、最小値minは、(28×ブロック内の画素数)に初期化される。
Next, details of the motion vector calculation unit 123 will be described. FIG. 7 shows the configuration of the motion vector calculation unit 123.
The motion vector calculation unit 123 receives a candidate number initialization unit 130 that initializes a candidate number n to 1, and initialization of the candidate number n in the candidate number initialization unit 130, thereby obtaining the minimum value of the sum of absolute differences A minimum value initialization unit 131 that initializes min is included. The minimum value initialization unit 131 acquires the number of pixels in the block from the block pattern information, and initializes the minimum value min of the difference absolute value sum to the maximum value. In this case, when the pixel value of one pixel is 8 bits, the minimum value min is initialized to (2 8 × number of pixels in the block).

また、動きベクトル演算部123は、候補番号初期化部130における候補番号nの初期化あるいは後述する次候補番号決定部138における次の候補番号nの決定を受けて、評価値である差分絶対値和sumを0に初期化する評価値初期化部132と、この評価値初期化部132における差分絶対値和sumの初期化を受けて、候補番号nに対応した評価値である差分絶対値和sumを演算する評価値演算部133とを有している。   Further, the motion vector calculation unit 123 receives the initialization of the candidate number n in the candidate number initialization unit 130 or the determination of the next candidate number n in the next candidate number determination unit 138 described later, and the difference absolute value that is an evaluation value An evaluation value initialization unit 132 that initializes the sum sum to 0, and the difference absolute value sum that is an evaluation value corresponding to the candidate number n in response to the initialization of the difference absolute value sum sum in the evaluation value initialization unit 132 and an evaluation value calculation unit 133 for calculating sum.

評価値演算部133は、メモリ122(図3参照)から供給されるブロックパターン情報で示すブロックパターンに基づいて、対象フレームFcの注目画素位置に対応した基準ブロックを設定し、また参照フレームFrの候補番号nの候補位置に対応した参照ブロックを設定する。そして、この評価値演算部133は、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、差分絶対値和sumを求める。   The evaluation value calculation unit 133 sets a reference block corresponding to the target pixel position of the target frame Fc based on the block pattern indicated by the block pattern information supplied from the memory 122 (see FIG. 3), and also sets the reference frame Fr. A reference block corresponding to the candidate position of candidate number n is set. Then, the evaluation value calculation unit 133 obtains an absolute difference value between corresponding pixel data between the pixel data constituting the base block and the pixel data constituting the reference block, and further obtained plural absolute difference values. Is obtained as a sum of absolute values.

また、動きベクトル演算部123は、評価値判定部134を有している。この評価値判定部134は、評価値演算部133で求められた評価値である差分絶対値和sumと、最小値初期化部131で初期化された、あるいは後述する最小値再設定部135で再設定された最小値minとを比較し、min>sumであるか否かを判定し、その判定結果を出力する。   The motion vector calculation unit 123 has an evaluation value determination unit 134. This evaluation value determination unit 134 is a difference absolute value sum sum, which is an evaluation value obtained by the evaluation value calculation unit 133, and a minimum value resetting unit 135 initialized by the minimum value initialization unit 131 or described later. Compared with the reset minimum value min, it is determined whether min> sum, and the determination result is output.

また、動きベクトル演算部123は、最小値再設定部135と、動きベクトル番号設定部136とを有している。最小値再設定部135は、評価値判定部134の判定結果がmin>sumであることを示すとき、最小値minを、評価値演算部133で求められた差分絶対値和sumに再設定する。動きベクトル番号設定部136は、評価値判定部134の判定結果がmin>sumであることを示すとき、動きベクトル番号をそのときの候補番号nに設定する。   The motion vector calculation unit 123 includes a minimum value resetting unit 135 and a motion vector number setting unit 136. When the determination result of the evaluation value determination unit 134 indicates that min> sum, the minimum value resetting unit 135 resets the minimum value min to the difference absolute value sum sum obtained by the evaluation value calculation unit 133. . When the determination result of the evaluation value determination unit 134 indicates that min> sum, the motion vector number setting unit 136 sets the motion vector number to the candidate number n at that time.

また、動きベクトル演算部123は、選択済み候補番号数判定部137を有している。この判定部137は、評価値判定部134で候補番号nに係る判定が行われる毎に、候補番号nが候補総数と同じであるか否かを判定し、候補番号nが候補総数と同じであるときは、動きベクトル番号設定部136で最終的に設定された動きベクトル番号を出力する。   In addition, the motion vector calculation unit 123 includes a selected candidate number number determination unit 137. The determination unit 137 determines whether or not the candidate number n is the same as the total number of candidates each time the evaluation value determination unit 134 determines the candidate number n, and the candidate number n is the same as the total number of candidates. In some cases, the motion vector number finally set by the motion vector number setting unit 136 is output.

また、動きベクトル演算部123は、候補番号判定部137の判定を受け、候補番号nが候補総数と同じでないとき、次の候補番号nを決定する次候補番号決定部138を有している。この場合、次候補番号決定部138は、候補番号nをインクリメントして、次の候補番号nを決定する。   In addition, the motion vector calculation unit 123 includes a next candidate number determination unit 138 that receives the determination of the candidate number determination unit 137 and determines the next candidate number n when the candidate number n is not the same as the total number of candidates. In this case, the next candidate number determination unit 138 increments the candidate number n to determine the next candidate number n.

また、動きベクトル演算部123は、判定部137から出力される動きベクトル番号を動きベクトルに変換する動きベクトル番号/動きベクトル変換部139を有している。この変換部139は、動きベクトル番号に対応した参照フレームの候補位置と対象フレームの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして求める。   Further, the motion vector calculation unit 123 includes a motion vector number / motion vector conversion unit 139 that converts the motion vector number output from the determination unit 137 into a motion vector. The conversion unit 139 obtains a difference vector between the reference frame candidate position corresponding to the motion vector number and the target pixel position of the target frame as a motion vector corresponding to the target pixel position of the target frame Fc.

次に、図7に示す動きベクトル演算部123の動作を説明する。MEメモリ部121(図3参照)より出力される候補位置情報は、評価値演算部133に供給される。また、MEメモリ部121(図3参照)より出力される候補総数情報は、選択済み候補番号数判定部137に供給される。さらに、マッチングブロックテーブル122(図3参照)より出力されるブロックパターン情報は、最小値初期化部131および評価値演算部133に供給される。   Next, the operation of the motion vector calculation unit 123 shown in FIG. 7 will be described. The candidate position information output from the ME memory unit 121 (see FIG. 3) is supplied to the evaluation value calculation unit 133. Further, the total candidate number information output from the ME memory unit 121 (see FIG. 3) is supplied to the selected candidate number determination unit 137. Further, the block pattern information output from the matching block table 122 (see FIG. 3) is supplied to the minimum value initialization unit 131 and the evaluation value calculation unit 133.

候補番号初期化部130では、候補番号nが1に初期化される。最小値初期化部131では、候補番号nの初期化を受けて、差分絶対値和の最小値minが、その最大値(28×ブロック内の画素数)に初期化される。この最小値初期化部131で得られる最小値minは評価値判定部134に供給される。 Candidate number initialization unit 130 initializes candidate number n to 1. In response to the initialization of the candidate number n, the minimum value initialization unit 131 initializes the minimum value min of the sum of absolute differences to the maximum value (2 8 × number of pixels in the block). The minimum value min obtained by the minimum value initialization unit 131 is supplied to the evaluation value determination unit 134.

また、評価値初期化部132では、候補番号nの初期化を受けて、評価値である差分絶対値和sumが0に初期化される。そして、評価値演算部133では、この差分絶対値和sumの初期化を受けて、候補番号1に対応した評価値である差分絶対値和sumが演算される。   In addition, the evaluation value initialization unit 132 initializes the difference absolute value sum that is an evaluation value to 0 in response to the initialization of the candidate number n. Then, the evaluation value calculation unit 133 receives the initialization of the difference absolute value sum sum, and calculates the difference absolute value sum sum which is an evaluation value corresponding to the candidate number 1.

この場合、評価値演算部133では、ブロックパターン情報で示すブロックパターンに基づいて、対象フレームFcの注目画素位置に対応した基準ブロックが設定され、また参照フレームFrの候補番号1の候補位置に対応した参照ブロックが設定される。そして、この評価値演算部133では、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値が求められ、さらに求められた複数の差分絶対値の和が求められることで、候補番号1の評価値である差分絶対値和sumが求められる。この評価値演算部133で求められた差分絶対値和sumは、評価値判定部134に供給される。   In this case, the evaluation value calculation unit 133 sets a reference block corresponding to the target pixel position of the target frame Fc based on the block pattern indicated by the block pattern information, and corresponds to the candidate position of candidate number 1 of the reference frame Fr. The reference block is set. Then, in this evaluation value calculation unit 133, the difference absolute value between corresponding pixel data between the pixel data constituting the base block and the pixel data constituting the reference block is obtained, and a plurality of obtained difference absolute values are obtained. By obtaining the sum of the values, a difference absolute value sum sum that is an evaluation value of candidate number 1 is obtained. The difference absolute value sum sum obtained by the evaluation value calculation unit 133 is supplied to the evaluation value determination unit 134.

評価値演算部133では、評価値演算部133で求められた差分絶対値和sumと最小値初期化部131で初期化された最小値minとが比較され、min>sumであるか否かが判定される。この評価値判定部134の判定結果は最小値再設定部135および動きベクトル番号設定部136に供給される。最小値再設定部135では、判定結果がmin>sumであることを示すときは、最小値minが評価値演算部133で求められた差分絶対値和sumに再設定される。このように、最小値再設定部135で最小値minが再設定された場合、それ以降に評価値判定部134で使用される最小値minは、最小値初期化部131で初期化された最小値minではなく、当該再設定された最小値minとされる。また、動きベクトル番号設定部136では、判定結果がmin>sumであることを示すときは、候補番号1が動きベクトル番号として設定される。   In the evaluation value calculation unit 133, the difference absolute value sum sum obtained by the evaluation value calculation unit 133 is compared with the minimum value min initialized by the minimum value initialization unit 131, and whether or not min> sum is satisfied. Determined. The determination result of the evaluation value determination unit 134 is supplied to the minimum value resetting unit 135 and the motion vector number setting unit 136. In the minimum value resetting unit 135, when the determination result indicates that min> sum, the minimum value min is reset to the sum of absolute differences sum calculated by the evaluation value calculating unit 133. As described above, when the minimum value min is reset by the minimum value resetting unit 135, the minimum value min that is subsequently used by the evaluation value determining unit 134 is the minimum value initialized by the minimum value initializing unit 131. The reset minimum value min is used instead of the value min. Also, in the motion vector number setting unit 136, when the determination result indicates that min> sum, candidate number 1 is set as the motion vector number.

選択済み候補番号数判定部137では、評価値判定部134で候補番号1に係る判定が行われた後、候補番号1が候補総数と同じであるか否かが判定され、候補番号1が候補総数と同じであるときは、動きベクトル番号設定部136で最終的に設定された動きベクトル番号が出力される。候補番号nが候補総数と同じでないとき、次候補番号決定部138では、次の候補番号2が決定され、その候補番号2は評価値初期化部132に供給される。   In the selected candidate number determination unit 137, the evaluation value determination unit 134 determines whether or not candidate number 1 is the same as the total number of candidates after the determination related to candidate number 1 is performed. When it is equal to the total number, the motion vector number finally set by the motion vector number setting unit 136 is output. When the candidate number n is not the same as the total number of candidates, the next candidate number determination unit 138 determines the next candidate number 2, and the candidate number 2 is supplied to the evaluation value initialization unit 132.

以下、候補番号2について、上述した候補番号1の場合と同様の動作が行われる。以下、候補番号nが候補総数と同じ値となるまで、同様の動作が繰り返し行われる。これにより、動きベクトル番号設定部136では、候補総数分の各候補番号に対応した差分絶対値和sumのうち、最もその値が小さくなる候補番号が動きベクトル番号として最終的に設定される。そして、判定部137から動きベクトル番号/動きベクトル変換部139にその動きベクトル番号が供給される。そして、変換部139では、動きベクトル番号に対応した参照フレームFrの候補位置と対象フレームFcの注目画素位置との差分ベクトルが、対象フレームFcの注目画素位置に対応した動きベクトルとして求められる。   Thereafter, with respect to candidate number 2, the same operation as in the case of candidate number 1 described above is performed. Thereafter, the same operation is repeated until the candidate number n becomes the same value as the total number of candidates. Thereby, in the motion vector number setting part 136, the candidate number with the smallest value is finally set as the motion vector number among the difference absolute value sums corresponding to the candidate numbers corresponding to the total number of candidates. Then, the motion vector number is supplied from the determination unit 137 to the motion vector number / motion vector conversion unit 139. Then, the conversion unit 139 obtains a difference vector between the candidate position of the reference frame Fr corresponding to the motion vector number and the target pixel position of the target frame Fc as a motion vector corresponding to the target pixel position of the target frame Fc.

次に、図3に示す動きベクトル算出部105における、注目画素位置に対応した動きベクトルを算出する処理について、図8に示すフローチャートを参照して説明する。
まず、ステップST11で、処理を開始し、ステップST12で、対象ブロックFcの注目画素位置に係るクラスコードCLn-1に対応した候補総数情報および候補位置情報を取得する。そして、ステップST12で、クラスコードCLn-1に対応したブロックパターン情報を取得する。
Next, processing for calculating a motion vector corresponding to the target pixel position in the motion vector calculation unit 105 shown in FIG. 3 will be described with reference to the flowchart shown in FIG.
First, in step ST11, the process is started, and in step ST12, candidate total number information and candidate position information corresponding to the class code CL n-1 related to the target pixel position of the target block Fc are acquired. In step ST12, block pattern information corresponding to the class code CL n-1 is acquired.

その後に、ステップST14で、対象ブロックFcの注目画素位置に対応した動きベクトル情報を取得する。すなわち、ステップST15で、差分絶対値和の最小値を格納する変数minを、その最大値(28×ブロック内の画素数)に初期化する。そして、ステップST16で、候補番号nを1に初期化する。 Thereafter, in step ST14, motion vector information corresponding to the target pixel position of the target block Fc is acquired. That is, in step ST15, the variable min for storing the minimum value of the sum of absolute differences is initialized to the maximum value (2 8 × number of pixels in the block). In step ST16, the candidate number n is initialized to 1.

次に、ステップST17で、差分絶対値和の演算結果を格納する変数sumを0に初期化する。そして、ステップST18で、対象フレームFcの注目画素位置に、ステップST13で取得したブロックパターン情報で示されるブロックパターンの基準ブロックを設定し、参照フレームFrの識別番号nの候補位置に、ステップST13で取得したブロックパターン情報で示されるブロックパターンの参照ブロックを設定する。さらに、このステップST18で、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた差分絶対値の和(差分絶対値和)を求め、変数sumに代入する。ここで、差分絶対値和の演算を、(2)式に従って行う。
Σi=|Fc(i)−Frn(i)| ・・・(2)
Next, in step ST17, a variable sum for storing the calculation result of the sum of absolute differences is initialized to zero. In step ST18, the reference block of the block pattern indicated by the block pattern information acquired in step ST13 is set at the target pixel position of the target frame Fc, and the candidate position of the identification number n of the reference frame Fr is set in step ST13. A reference block of the block pattern indicated by the acquired block pattern information is set. Further, in this step ST18, an absolute difference value between corresponding pixel data between the pixel data constituting the base block and the pixel data constituting the reference block is obtained, and the sum of the obtained absolute difference values (absolute difference) is obtained. (Sum of values) is obtained and assigned to the variable sum. Here, the calculation of the sum of absolute differences is performed according to equation (2).
Σi = | Fc (i) −Frn (i) | (2)

ただし、Fc(i)は基準ブロックにおける画素の画素値であり、Frn(i)は候補番号nの参照ブロックにおける画素の画素値である。また、Σiはiを1からL(=ブロック内の画素数)まで1ずつインクリメントしたときの総和演算を意味するものとする。そして、ステップS19で、ステップS18の演算結果である変数sumと変数minを比較し、変数sumが変数minよりも小さいか否かを判定する。変数sumが変数minよりも小さいと判定した場合、ステップST20に進む。   However, Fc (i) is the pixel value of the pixel in the standard block, and Frn (i) is the pixel value of the pixel in the reference block of candidate number n. Further, Σi means a sum operation when i is incremented by 1 from 1 to L (= number of pixels in the block). In step S19, the variable sum that is the calculation result of step S18 is compared with the variable min, and it is determined whether or not the variable sum is smaller than the variable min. If it is determined that the variable sum is smaller than the variable min, the process proceeds to step ST20.

ステップST20では、変数minを変数sumで置換し、候補番号nを動きベクトル番号として記憶する。このステップST20の処理の後、ステップST21に進む。なお、上述のステップST19で、変数sumが変数minよりも小さくないと判定された場合、ステップST20の処理をスキップし、ステップST21に進む。   In step ST20, variable min is replaced with variable sum, and candidate number n is stored as a motion vector number. After the process of step ST20, the process proceeds to step ST21. If it is determined in step ST19 that the variable sum is not smaller than the variable min, the process of step ST20 is skipped and the process proceeds to step ST21.

ステップST21では、候補番号nが候補総数と同じであるか否かを判定する。候補番号nが候補総数と同じでないときは、ステップST22で、候補番号nをインクリメントし、その後にステップST17に戻って、次の候補番号nについての処理を行う。一方、候補番号nが候補総数と同じであるときは、候補総数分の各候補番号についての処理を終了したことを意味し、ステップST23で、最終的に記憶されている動きベクトル番号に対応した、参照フレームFrの候補位置と、対象フレームFcの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして算出する。そして、ステップST24で、処理を終了する。   In step ST21, it is determined whether or not the candidate number n is the same as the total number of candidates. If the candidate number n is not the same as the total number of candidates, the candidate number n is incremented in step ST22, and then the process returns to step ST17 to perform processing for the next candidate number n. On the other hand, when the candidate number n is the same as the total number of candidates, this means that the processing for each candidate number for the total number of candidates has been completed, and in step ST23, the candidate corresponding to the motion vector number that is finally stored The difference vector between the candidate position of the reference frame Fr and the target pixel position of the target frame Fc is calculated as a motion vector corresponding to the target pixel position of the target frame Fc. And a process is complete | finished by step ST24.

以上説明したように、図1に示す動きベクトル検出装置100においては、対象フレームFcの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量としてのクラスコードCLn-1に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、当該注目画素位置に対応した動きベクトルを精度よく検出できる。 As described above, in the motion vector detection device 100 shown in FIG. 1, when the motion vector corresponding to the target pixel position of the target frame Fc is detected by performing the block matching process, the feature amount related to the target pixel position is detected. The pixel block of the block pattern corresponding to the class code CL n-1 is used, and the block matching processing by the pixel block of the appropriate block pattern can be performed, and the motion vector corresponding to the target pixel position is accurately Can be detected well.

また、図1に示す動きベクトル検出装置100においては、参照フレームFrの各画素位置毎に、その画素位置に対応した複数の画素データに基づいてその画素位置の特徴量としてのクラスコードCLn-2を得、そのクラスコードCLn-2と参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)が生成され、このテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した参照フレームFrの複数の画素位置を取得し、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックを、この参照フレームFrの複数の画素位置に対応した画素ブロックとするものであり、マッチング演算をすべき参照ブロックの個数を少なくでき、演算量を大幅に低減できる。 Further, in the motion vector detection device 100 shown in FIG. 1, for each pixel position of the reference frame Fr, a class code CL n− as a feature quantity of the pixel position based on a plurality of pixel data corresponding to the pixel position. 2 is generated, and a table (see FIG. 4) showing the correspondence between the class code CL n−2 and each pixel position of the reference frame Fr is generated. The class code CL related to the target pixel position of the target frame Fc is generated from this table. A plurality of pixel positions of the reference frame Fr corresponding to n−1 are acquired, and a plurality of reference blocks of the reference frame Fr that are subjected to matching calculation with the reference block corresponding to the target pixel position of the target frame Fc This is a pixel block corresponding to a plurality of pixel positions. The number of reference blocks to be matched can be reduced, and the amount of calculation can be reduced. It is possible to reduce the width.

次に、マッチングブロックテーブルの生成について説明する。図9は、マッチングブロックテーブル生成装置200の構成を示している。
このテーブル生成装置200は、画像信号が入力される入力端子201と、連続した第1〜第3のフレームの画像信号を蓄積するフレームメモリ202〜204とを有している。
Next, generation of a matching block table will be described. FIG. 9 shows the configuration of the matching block table generation device 200.
The table generating apparatus 200 includes an input terminal 201 to which an image signal is input, and frame memories 202 to 204 that store image signals of successive first to third frames.

入力端子101からあるフレームの画像信号がフレームメモリ204に供給されて書き込まれる際に、このフレームメモリ204に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ203に供給されて書き込まれる。また、フレームメモリ204からあるフレームの画像信号がフレームメモリ203に供給されて書き込まれる際に、このフレームメモリ203に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ202に供給されて書き込まれる。   When an image signal of a frame from the input terminal 101 is supplied to the frame memory 204 and written, the image signal of the previous frame stored in the frame memory 204 is read out and supplied to the frame memory 203 for writing. It is. When an image signal of a certain frame is supplied from the frame memory 204 to the frame memory 203 and written, the image signal of the previous frame stored in the frame memory 203 is read out and supplied to the frame memory 202. Written.

この場合、フレームメモリ202に第1のフレームとしての#n−2フレームの画像信号が蓄積され、フレームメモリ203に第2のフレームとしての#n−1フレームの画像信号が蓄積され、フレームメモリ204に第3のフレームとしての#nフレームの画像信号が蓄積された状態となる。   In this case, the image signal of # n-2 frame as the first frame is accumulated in the frame memory 202, the image signal of # n-1 frame as the second frame is accumulated in the frame memory 203, and the frame memory 204 In this state, the image signal of the #n frame as the third frame is accumulated.

また、テーブル生成装置200は、通過画素テーブル生成部205を有している。この通過画素テーブル生成部205は、フレームメモリ202に蓄積されている#n−2フレームの画像信号およびフレームメモリ204に蓄積されている#nフレームの画像信号を用い、各ブロックパターン毎に、#n−2フレームの各画素位置に対応した、#nフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、#n−1フレームの各画素位置と#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図10参照)を生成する。   The table generation apparatus 200 includes a passing pixel table generation unit 205. The passing pixel table generation unit 205 uses the # n-2 frame image signal stored in the frame memory 202 and the #n frame image signal stored in the frame memory 204, for each block pattern. The pixel position of #n frame corresponding to each pixel position of n-2 frame is detected by performing block matching processing using the pixel block of the block pattern, and each pixel position of # n-1 frame and #n A passing pixel table (see FIG. 10) indicating the correspondence between the pixel positions of the -2 frame and the #n frame is generated.

図11は、通過画素テーブル生成部205の構成を示している。この通過画素テーブル生成部205は、ブロックパターンを設定するブロックパターン設定部211と、#n−2フレームの注目画素位置(xn-2,yn-2)を設定する注目画素位置設定部212とを有している。 FIG. 11 shows the configuration of the passing pixel table generation unit 205. The passing pixel table generation unit 205 includes a block pattern setting unit 211 that sets a block pattern, and a target pixel position setting unit 212 that sets a target pixel position (x n−2 , y n−2 ) of # n-2 frame. And have.

また、通過画素テーブル生成部205は、ブロックマッチング部213を有している。このブロックマッチング部213は、#n−2フレームに注目画素位置(xn-2,yn-2)に対応し、ブロックパターン設定部211で設定されたブロックパターンに対応した基準ブロックを設定し、また#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ブロックパターン設定部211で設定されたブロックパターンに対応した複数の参照ブロックを設定する。そして、ブロックマッチング部213は、基準ブロックと複数の参照ブロックのそれぞれとの間における差分絶対値和を順次求める。 The passing pixel table generation unit 205 includes a block matching unit 213. The block matching unit 213 sets a reference block corresponding to the block pattern set by the block pattern setting unit 211 corresponding to the target pixel position (x n-2 , y n-2 ) in the # n-2 frame. Also, a plurality of reference blocks corresponding to the block pattern set by the block pattern setting unit 211 are set in the search area corresponding to the above noted pixel position (x n-2 , y n-2 ) of the #n frame. To do. Then, the block matching unit 213 sequentially obtains the sum of absolute differences between the base block and each of the plurality of reference blocks.

また、通過画素テーブル生成部205は、#n−2フレームの注目画素位置(xn-2,yn-2)に対応した、#nフレームの画素位置(xn,yn)を決定する対応画素位置決定部214を有している。この対応画素位置決定部214は、ブロックマッチング部213で求められた複数の参照ブロックのそれぞれに対応した差分絶対値和のうち、最小の差分絶対値和に対応した参照ブロックの中心画素位置を、#nフレームの画素位置(xn,yn)に決定する。 Further, the passing pixel table generation unit 205 determines the pixel position (x n , y n ) of the #n frame corresponding to the target pixel position (x n-2 , y n-2 ) of the # n-2 frame. A corresponding pixel position determination unit 214 is provided. The corresponding pixel position determination unit 214 determines the center pixel position of the reference block corresponding to the minimum difference absolute value sum among the difference absolute value sums corresponding to each of the plurality of reference blocks obtained by the block matching unit 213. The pixel position (x n , y n ) of #n frame is determined.

また、通過画素テーブル生成部205は、テーブル書き込み部215を有している。このテーブル書き込み部215は、注目画素位置設定部212で設定された注目画素位置(xn-2,yn-2)および対応画素位置決定部214で決定された画素位置(xn,yn)を用い、#n−1における対応画素位置Pを求める(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値を求め、この加算平均値に切り下げ処理を行って得られる画素位置xn-11と、この加算平均値に切り上げ処理を行って得られる画素位置xn-12とを求める。同様に、垂直方向に関しては、yn-2,ynの加算平均値を求め、この加算平均値に切り下げ処理を行って得られる画素位置yn-11と、この加算平均値に切り上げ処理を行って得られる画素位置yn-12とを求める。これにより、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)が得られる。 The passing pixel table generation unit 205 has a table writing unit 215. The table write unit 215, the set pixel of interest position target pixel position setting unit 212 (x n-2, y n-2) and determined in the corresponding pixel position determination unit 214 is the pixel position (x n, y n ) To determine the corresponding pixel position P in # n−1 (see FIG. 12). In this case, with respect to the horizontal direction, an addition average value of x n−2 and x n is obtained, and the pixel position x n−1 1 obtained by rounding down the addition average value and the round-up process to the addition average value The pixel position x n−1 2 obtained by performing the above is obtained. Similarly, with respect to the vertical direction, an average value of y n−2 and y n is obtained, and a pixel position y n−1 1 obtained by performing round-down processing on the average value and rounding-up processing to the average value The pixel position y n-1 2 obtained by performing the above is obtained. Thus, as the corresponding pixel position P in # n−1, (x n−1 1, y n−1 1), (x n−1 1, y n−1 2), (x n−1 2, y n−1 1) and (x n−1 2, y n−1 2) are obtained.

さらに、テーブル書き込み部215は、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)を書き込む。 Further, the table writing unit 215 has addresses (x n−1 1, y n−1 1) and (x n ) of the area corresponding to the block pattern set by the block pattern setting unit 211 in the passing pixel table memory 205M. −1 1, y n−1 2), (x n−1 2, y n−1 1), (x n−1 2, y n−1 2), the target pixel position (# n−2 frame) x n-2 , y n-2 ) and the corresponding pixel position (x n , y n ) of the #n frame are written.

また、通過画素テーブル生成部205は、選択済み画素数判定部216と、選択済みブロックパターン数判定部217とを有している。判定部216は、テーブル書き込み部215の処理終了を受けて、#n−2フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部212に、次の注目画素位置を設定するように促す。   The passing pixel table generation unit 205 includes a selected pixel number determination unit 216 and a selected block pattern number determination unit 217. The determination unit 216 determines whether or not the processing for all the pixel positions in the # n-2 frame has been completed upon receiving the processing end of the table writing unit 215, and determines that the processing for all the pixel positions has not ended. In this case, the target pixel position setting unit 212 is urged to set the next target pixel position.

判定部217は、判定部216が全画素位置に対する処理が終了したと判定するとき、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部211に、次のブロックパターンを設定するように促す。   When the determination unit 216 determines that the process for all pixel positions has been completed, the determination unit 217 determines whether the process for all block patterns has been completed, and determines that the process for all block patterns has not been completed. If so, the block pattern setting unit 211 is prompted to set the next block pattern.

次に、図11に示す通過画素テーブル生成部205の動作を説明する。
ブロックパターン設定部211では、複数のブロックパターンのうち、最初のブロックパターンが設定される。そして、注目画素位置設定部212では、#n−2フレームの最初の注目画素位置(xn-2,yn-2)が設定される。
Next, the operation of the passing pixel table generation unit 205 shown in FIG. 11 will be described.
The block pattern setting unit 211 sets the first block pattern among a plurality of block patterns. Then, the target pixel position setting unit 212 sets the first target pixel position (x n−2 , y n−2 ) of the # n−2 frame.

ブロックマッチング部213では、#n−2フレームに注目画素位置(xn-2,yn-2)に対応し、ブロックパターン設定部211で設定されたブロックパターンに対応した基準ブロックが設定され、また#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ブロックパターン設定部211で設定されたブロックパターンに対応した複数の参照ブロックが設定される。そして、このブロックマッチング部213では、基準ブロックと複数の参照ブロックのそれぞれとの間における差分絶対値和が順次求められる。 In the block matching unit 213, the reference block corresponding to the target pixel position (x n-2 , y n-2 ) in the # n-2 frame and corresponding to the block pattern set in the block pattern setting unit 211 is set, Also, a plurality of reference blocks corresponding to the block pattern set by the block pattern setting unit 211 are set in the search area corresponding to the above noted pixel position (x n-2 , y n-2 ) of the #n frame. The The block matching unit 213 sequentially obtains the sum of absolute differences between the base block and each of the plurality of reference blocks.

このようにブロックマッチング部213で求められた複数の参照ブロックにそれぞれ対応した差分絶対値和は、対応画素位置決定部214に供給される。この対応画素位置決定部214では、この複数の参照ブロックにそれぞれ対応した差分絶対値和のうち、最小の差分絶対値和が検出され、この最小の差分絶対値に対応した参照ブロックの中心画素位置が、#nフレームの画素位置(xn,yn)に決定される。 In this manner, the sum of absolute differences corresponding to the plurality of reference blocks obtained by the block matching unit 213 is supplied to the corresponding pixel position determination unit 214. The corresponding pixel position determination unit 214 detects the minimum difference absolute value sum among the difference absolute value sums corresponding to the plurality of reference blocks, and the center pixel position of the reference block corresponding to the minimum difference absolute value. Is determined as the pixel position (x n , y n ) of the #n frame.

テーブル書き込み部215では、注目画素位置設定部212で設定された注目画素位置(xn-2,yn-2)および対応画素値決定部214で決定された画素位置(xn,yn)を用い、#n−1における対応画素位置Pが求められる(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値に切り下げ処理を行って得られる画素位置xn-11と、その加算平均値に切り上げ処理を行って得られる画素位置xn-12とが求められる。同様に、垂直方向に関しては、yn-2,ynの加算平均値に切り下げ処理を行って得られる画素位置yn-11と、その加算平均値に切り上げ処理を行って得られる画素位置yn-12とが求められる。すなわち、テーブル書き込み部215では、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)が得られる。 In the table writing unit 215, the target pixel position (x n−2 , y n−2 ) set by the target pixel position setting unit 212 and the pixel position (x n , y n ) determined by the corresponding pixel value determination unit 214. , The corresponding pixel position P at # n−1 is obtained (see FIG. 12). In this case, with respect to the horizontal direction, a pixel position x n−1 1 obtained by rounding down the addition average value of x n−2 and x n and a pixel position obtained by rounding up the addition average value x n-1 2 is obtained. Similarly, with respect to the vertical direction, a pixel position y n−1 1 obtained by rounding down the addition average value of y n−2 and y n and a pixel position obtained by rounding up the addition average value y n-1 2 is obtained. That is, in the table writing unit 215, (x n−1 1, y n−1 1), (x n−1 1, y n−1 2), (x n ) are used as the corresponding pixel position P in # n−1. −1 2, y n−1 1) and (x n−1 2, y n−1 2) are obtained.

そして、このテーブル書き込み部215では、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)が書き込まれる。 In the table writing unit 215, addresses (x n−1 1, y n−1 1), (x) of the area corresponding to the block pattern set by the block pattern setting unit 211 in the passing pixel table memory 205M. (n-1 1, yn -1 2), ( xn-1 2, yn -1 1), ( xn-1 2, yn -1 2), the target pixel position of the # n-2 frame (X n-2 , y n-2 ) and the corresponding pixel position (x n , y n ) of the #n frame are written.

テーブル書き込み部215の処理終了を受けて、選択済み画素数判定部216では、#n−2フレームの全画素位置に対する処理が終了したか否かが判定される。そして、この判定部216は、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部212に、次の注目画素位置を設定するように促す。   Upon completion of the processing of the table writing unit 215, the selected pixel number determination unit 216 determines whether or not the processing for all pixel positions in the # n-2 frame has been completed. When the determination unit 216 determines that the processing for all pixel positions has not been completed, the determination unit 216 prompts the target pixel position setting unit 212 to set the next target pixel position.

そのため、注目画素位置設定部212で#n−2フレームの全画素位置が設定されて処理が行われるまで、上述した#n−2フレームの注目画素位置(xn-2,yn-2)に対応した処理が繰り返し行われる。これにより、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域に、当該ブロックパターンに対応した、#n−1フレームの各画素位置と、#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図10参照)が生成される。 Therefore, the target pixel position (x n-2 , y n-2 ) of the # n-2 frame described above is processed until all pixel positions of the # n-2 frame are set and processed by the target pixel position setting unit 212. The processing corresponding to is repeated. Thereby, each pixel position of the # n−1 frame corresponding to the block pattern and the # n−2 frame corresponding to the block pattern are set in the area corresponding to the block pattern set by the block pattern setting unit 211 in the passing pixel table memory 205M. And a passing pixel table (see FIG. 10) showing the correspondence relationship with the pixel positions of #n frames.

また、選択済み画素数判定部216で#n−2フレームの全画素位置に対する処理が終了したと判定されるとき、選択済みブロックパターン数判定部217では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部217は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部211に、次のブロックパターンを設定するように促す。   When the selected pixel number determination unit 216 determines that the processing for all pixel positions in the # n-2 frame has been completed, the selected block pattern number determination unit 217 determines whether the processing for all block patterns has been completed. Is determined. When the determination unit 217 determines that the processing for all block patterns has not been completed, the determination unit 217 prompts the block pattern setting unit 211 to set the next block pattern.

そのため、ブロックパターン設定部211で全ブロックパターンが設定されて処理が行われるまで、上述した設定されたブロックパターンに対応した通過画素テーブル(図10参照)を生成する処理が繰り返し行われる。これにより、通過画素テーブル205Mには、ブロックパターン設定部211で設定される各ブロックパターンに対応した通過画素テーブルが生成される。   Therefore, the process of generating the passing pixel table (see FIG. 10) corresponding to the set block pattern is repeated until all the block patterns are set and processed by the block pattern setting unit 211. Thereby, a passing pixel table corresponding to each block pattern set by the block pattern setting unit 211 is generated in the passing pixel table 205M.

図11に示す通過画素テーブル生成部205における、通過画素テーブルを生成する処理について、図13に示すフローチャートを参照して説明する。
まず、ステップST31で、処理を開始し、ステップST32で、最初のブロックパターンを設定する。そして、ステップST33で、#n−2フレームの最初の注目画素位置(xn-2,yn-2)を設定する。
Processing for generating a passing pixel table in the passing pixel table generating unit 205 shown in FIG. 11 will be described with reference to a flowchart shown in FIG.
First, in step ST31, the process is started, and in step ST32, the first block pattern is set. In step ST33, the first target pixel position (x n-2 , y n-2 ) of the # n-2 frame is set.

次に、ステップST34で、#n−2フレームに、ステップST32で設定されたブロックパターンに対応した、注目画素位置(xn-2,yn-2)を含む基準ブロックを設定する。そして、ステップST35で、#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ステップST32で設定されたブロックパターンに対応した複数の参照ブロックを設定する。そして、このステップST35で、基準ブロックと複数の参照ブロックのそれぞれとの間でブロックマッチング処理をして、#nフレームにおける注目画素位置(xn-2,yn-2)に対応した画素位置(xn,yn)を取得する。この場合、マッチング演算結果としての差分絶対値和が最小となる参照ブロックの中心の画素位置を、画素位置(xn,yn)として取得する。 Next, in step ST34, a reference block including the target pixel position (x n-2 , y n-2 ) corresponding to the block pattern set in step ST32 is set in the # n-2 frame. In step ST35, a plurality of reference blocks corresponding to the block pattern set in step ST32 are included in the search area corresponding to the above-described target pixel position (x n-2 , y n-2 ) of the #n frame. Set. In step ST35, block matching processing is performed between the base block and each of the plurality of reference blocks, and the pixel position corresponding to the target pixel position (x n-2 , y n-2 ) in the #n frame. (X n , y n ) is acquired. In this case, the pixel position at the center of the reference block that minimizes the sum of absolute differences as the matching calculation result is acquired as the pixel position (x n , y n ).

次に、ステップST36で、ステップST33で設定された注目画素位置(xn-2,yn-2)およびステップST35で取得された画素位置(xn,yn)を用い、#n−1フレームにおける対応画素位置Pを求める(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値に切り下げ処理を行って得られる画素位置xn-11と、その加算平均値に切り上げ処理を行って得られる画素位置xn-12とを求める。同様に、垂直方向に関しては、yn-2,ynの加算平均値に切り下げ処理を行って得られる画素位置yn-11と、その加算平均値に切り上げ処理を行って得られる画素位置yn-12とを求める。すなわち、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)を取得する。 Next, used in step ST36, the set noticed pixel position in step ST33 (x n-2, y n-2) and the obtained pixel positions in step ST35 (x n, y n) a, # n-1 A corresponding pixel position P in the frame is obtained (see FIG. 12). In this case, with respect to the horizontal direction, a pixel position x n−1 1 obtained by rounding down the addition average value of x n−2 and x n and a pixel position obtained by rounding up the addition average value x n-1 2 is obtained. Similarly, with respect to the vertical direction, a pixel position y n−1 1 obtained by rounding down the addition average value of y n−2 and y n and a pixel position obtained by rounding up the addition average value y n-1 2 is obtained. That is, as the corresponding pixel position P in # n-1, (x n-1 1, y n-1 1), (x n-1 1, y n-1 2), (x n-1 2, y n −1 1) and (x n−1 2, y n−1 2) are acquired.

そして、ステップST37で、通過画素テーブルメモリ205Mにおける、ステップST32で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)を書き込む。 In step ST37, the addresses (x n−1 1, y n−1 1), (x n−1 1, y) of the area corresponding to the block pattern set in step ST32 in the passing pixel table memory 205M. n−1 2), (x n−1 2, y n−1 1), (x n−1 2, y n−1 2), the target pixel position (x n−2 , y n−2 ) and the corresponding pixel position (x n , y n ) of the #n frame are written.

次に、ステップST38で、#n−2フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST33に戻って、#n−2フレームの次の注目画素位置(xn-2,yn-2)を設定し、上述したと同様の処理を繰り返す。これにより、通過画素テーブルメモリ205Mにおける、ステップST32で設定されたブロックパターンに対応した領域には、当該ブロックパターンに対応した通過画素テーブル(図10参照)が生成される。 Next, in step ST38, it is determined whether or not the processing for all pixel positions in the # n-2 frame has been completed. If it is determined that the processing for all pixel positions has not been completed, the process returns to step ST33 to set the next target pixel position (x n-2 , y n-2 ) of the # n-2 frame. Repeat the same process. Thereby, a passing pixel table (see FIG. 10) corresponding to the block pattern is generated in an area corresponding to the block pattern set in step ST32 in the passing pixel table memory 205M.

また、ステップST38で、全画素位置に対する処理が終了したと判定するときは、ステップST39に進む。このステップST39では、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST32に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、通過画素テーブルメモリ205Mには、ステップST32で設定される各ブロックパターンに対応した通過画素テーブルが生成される。   If it is determined in step ST38 that the processing for all pixel positions has been completed, the process proceeds to step ST39. In step ST39, it is determined whether or not the processing for all the block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST32, the next block pattern is set, and the same processing as described above is repeated. Thus, a passing pixel table corresponding to each block pattern set in step ST32 is generated in the passing pixel table memory 205M.

ステップST39で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST40に進み、処理を終了する。   When it is determined in step ST39 that the processing for all the block patterns has been completed, the process proceeds to step ST40 and the processing is terminated.

図9に戻って、また、テーブル生成装置200は、MC画像生成部(動き補償画像生成部)206を有している。このMC画像生成部206は、#n−2フレームの画像信号および#nフレームの画像信号と、通過画素テーブル生成部205で生成された通過画素テーブルとを用い、各ブロックパターン毎に、#n−1フレームの各画素位置に対応して、通過画素テーブルから#n−2フレームおよび#nフレームの画素位置を求め、この求められた画素位置の画素値に基づいて#n−1フレームの画素値を求め、#n−1フレームの画像信号に対応した動き補償画像信号を生成する。
Returning to FIG. 9, the table generation apparatus 200 also includes an MC image generation unit (motion compensation image generation unit) 206. The MC image generation unit 206 uses the # n-2 frame image signal and the #n frame image signal, and the passing pixel table generated by the passing pixel table generation unit 205, for each block pattern. The pixel positions of the # n-2 frame and the #n frame are obtained from the passing pixel table corresponding to the pixel positions of the -1 frame, and the pixels of the # n-1 frame are obtained based on the pixel values of the obtained pixel positions. A value is obtained, and a motion compensated image signal corresponding to the image signal of # n-1 frame is generated.

図14は、MC画像生成部206の構成を示している。このMC画像生成部206は、ブロックパターンを設定するブロックパターン設定部221と、#n−1フレームの注目画素位置(xn-1,yn-1)を設定する注目画素位置設定部222とを有している。 FIG. 14 shows the configuration of the MC image generation unit 206. The MC image generation unit 206 includes a block pattern setting unit 221 that sets a block pattern, a target pixel position setting unit 222 that sets a target pixel position (x n−1 , y n−1 ) of the # n−1 frame, have.

また、MC画像生成部206は、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)の画素値を算出する画素値算出部223を有している。この画素値算出部223は、通過画素テーブル生成部205の通過画素テーブルメモリ205Mに生成された、ブロックパターン設定部221で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置を求める。 The MC image generation unit 206 includes a pixel value calculation unit 223 that calculates a pixel value of the target pixel position (x n−1 , y n−1 ) set by the target pixel position setting unit 222. The pixel value calculation unit 223 refers to the passing pixel table (see FIG. 10) corresponding to the block pattern set by the block pattern setting unit 221 generated in the passing pixel table memory 205M of the passing pixel table generation unit 205. Thus, the pixel positions of the # n-2 frame and the #n frame corresponding to the target pixel position (x n-1 , y n-1 ) of the # n-1 frame are obtained.

さらに、この画素値算出部223は、求められた#n−2フレームおよび#nフレームの画素位置の画素値を加算平均して、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値を算出する。例えば、図15に示すように、#n−1フレームの注目画素位置Pに対応した#n−2フレームおよび#nフレームの画素位置がQ1,Q2,R1,R2であるとき、注目画素位置Pの画素値は、画素位置Q1,Q2,R1,R2の画素値を加算平均して得られる。 Further, the pixel value calculation unit 223 adds and averages the obtained pixel values at the pixel positions of the # n-2 frame and the #n frame, and calculates the target pixel position (x n−1 , y of the # n−1 frame). n-1 ) pixel values are calculated. For example, as shown in FIG. 15, when the pixel positions of the # n-2 frame and the #n frame corresponding to the target pixel position P of the # n-1 frame are Q1, Q2, R1, and R2, the target pixel position P Is obtained by averaging the pixel values of the pixel positions Q1, Q2, R1, and R2.

また、MC画像生成部206は、書き込み部224を有している。この書き込み部224は、MC画像メモリ206Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域の、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、画素値算出部223で算出された当該注目画素位置(xn-1,yn-1)の画素値を書き込む。 The MC image generation unit 206 has a writing unit 224. The writing unit 224 has a target pixel position (x n−1 , y n) set by the target pixel position setting unit 222 in an area corresponding to the block pattern set by the block pattern setting unit 221 in the MC image memory 206M. −1 )), the pixel value of the target pixel position (x n−1 , y n−1 ) calculated by the pixel value calculation unit 223 is written.

また、MC画像生成部206は、選択済み画素数判定部225と、選択済みブロックパターン数判定部226とを有している。判定部225は、書き込み部224の処理終了を受けて、#n−1フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部222に、次の注目画素位置を設定するように促す。   The MC image generation unit 206 includes a selected pixel number determination unit 225 and a selected block pattern number determination unit 226. When the determination unit 225 determines that the processing for all pixel positions in the # n-1 frame has been completed upon receiving the processing end of the writing unit 224, and determines that the processing for all pixel positions has not ended. Prompts the target pixel position setting unit 222 to set the next target pixel position.

判定部226は、判定部225が全画素位置に対する処理が終了したと判定するとき、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部221に、次のブロックパターンを設定するように促す。   When the determination unit 225 determines that the process for all pixel positions has been completed, the determination unit 226 determines whether the process for all block patterns has been completed, and determines that the process for all block patterns has not been completed. If so, the block pattern setting unit 221 is urged to set the next block pattern.

次に、図14に示す通過画素テーブル生成部206の動作を説明する。
ブロックパターン設定部221では、複数のブロックパターンのうち、最初のブロックパターンが設定される。そして、注目画素位置設定部222では、#n−1フレームの最初の注目画素位置(xn-2,yn-2)が設定される。
Next, the operation of the passing pixel table generation unit 206 shown in FIG. 14 will be described.
The block pattern setting unit 221 sets the first block pattern among a plurality of block patterns. Then, the target pixel position setting unit 222 sets the first target pixel position (x n−2 , y n−2 ) of the # n−1 frame.

そして、画素値算出部223では、ブロックパターン設定部221で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置が求められ、その求められた画素位置の画素値が加算平均されて、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値が算出される。このように画素値算出部223で求められた#n−1フレームの注目画素位置(xn-1,yn-1)の画素値は、書き込み部224に供給される。 Then, the pixel value calculation unit 223 refers to the passing pixel table (see FIG. 10) corresponding to the block pattern set by the block pattern setting unit 221 and refers to the target pixel position (x n−1 ) of the # n−1 frame. , Y n-1 ), the pixel positions of the # n-2 frame and the #n frame are obtained, and the pixel values of the obtained pixel positions are added and averaged to obtain the target pixel position of the # n-1 frame. A pixel value of (x n−1 , y n−1 ) is calculated. In this way, the pixel value of the target pixel position (x n−1 , y n−1 ) of the # n−1 frame obtained by the pixel value calculation unit 223 is supplied to the writing unit 224.

書き込み部224では、MC画像メモリ206Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域の、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、画素値算出部223で算出された当該注目画素位置(xn-1,yn-1)の画素値が書き込まれる。 In the writing unit 224, the target pixel position (x n−1 , y n−) set by the target pixel position setting unit 222 in the area corresponding to the block pattern set by the block pattern setting unit 221 in the MC image memory 206M. 1 ), the pixel value at the target pixel position (x n−1 , y n−1 ) calculated by the pixel value calculation unit 223 is written.

書き込み部224の処理終了を受けて、選択済み画素数判定部225では、#n−1フレームの全画素位置に対する処理が終了したか否かが判定される。そして、この判定部225は、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部222に、次の注目画素位置を設定するように促す。   Upon completion of the processing of the writing unit 224, the selected pixel number determination unit 225 determines whether or not the processing for all pixel positions in the # n−1 frame has been completed. When the determination unit 225 determines that the processing for all pixel positions has not been completed, the determination unit 225 prompts the target pixel position setting unit 222 to set the next target pixel position.

そのため、注目画素位置設定部222で#n−1フレームの全画素位置が設定されて処理が行われるまで、上述した#n−1フレームの注目画素位置(xn-2,yn-2)に対応した処理が繰り返し行われる。これにより、MC画像メモリ205Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域に、当該ブロックパターンに対応した、動き補償画像信号が生成される。 Therefore, the target pixel position (x n−2 , y n−2 ) of the above-described # n−1 frame is processed until processing is performed after all the pixel positions of the # n−1 frame are set by the target pixel position setting unit 222. The processing corresponding to is repeated. Accordingly, a motion compensated image signal corresponding to the block pattern is generated in an area corresponding to the block pattern set by the block pattern setting unit 221 in the MC image memory 205M.

また、選択済み画素数判定部225で#n−1フレームの全画素位置に対する処理が終了したと判定されるとき、選択済みブロックパターン数判定部226では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部226は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部221に、次のブロックパターンを設定するように促す。   When the selected pixel number determination unit 225 determines that the processing for all the pixel positions of the # n−1 frame is completed, the selected block pattern number determination unit 226 determines whether the processing for all the block patterns is completed. Is determined. When the determination unit 226 determines that the processing for all the block patterns has not been completed, the determination unit 226 prompts the block pattern setting unit 221 to set the next block pattern.

そのため、ブロックパターン設定部221で全ブロックパターンが設定されて処理が行われるまで、上述した設定されたブロックパターンに対応した動き補償画像信号を生成する処理が繰り返し行われる。これにより、MC画像メモリ206Mには、ブロックパターン設定部221で設定される各ブロックパターンに対応した動き補償画像信号が生成される。   Therefore, the process for generating the motion compensated image signal corresponding to the set block pattern is repeated until all the block patterns are set and processed by the block pattern setting unit 221. Thereby, a motion compensation image signal corresponding to each block pattern set by the block pattern setting unit 221 is generated in the MC image memory 206M.

図14に示すMC画像生成部206における、動き補償画像信号を生成する処理について、図16に示すフローチャートを参照して説明する。
まず、ステップST41で、処理を開始し、ステップST42で、最初のブロックパターンを設定する。そして、ステップST43で、#n−1フレームの最初の注目画素位置(xn-1,yn-1)を設定する。
Processing for generating a motion compensated image signal in the MC image generation unit 206 shown in FIG. 14 will be described with reference to the flowchart shown in FIG.
First, processing is started in step ST41, and the first block pattern is set in step ST42. In step ST43, the first target pixel position (x n−1 , y n−1 ) of the # n−1 frame is set.

次に、ステップST44で、ステップST42で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、ステップST43で設定された#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置を求める。さらに、このステップST44で、求められた画素位置の画素値を加算平均して、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値を算出する。 Next, in step ST44, with reference to the passage pixel table corresponding to the block pattern set in step ST42 (see FIG. 10), set # n-1 frame the position of the pixel of interest in step ST43 (x n- 1 , y n-1 ), the pixel positions of the # n-2 frame and the #n frame are obtained. Further, in step ST44, the pixel values at the obtained pixel positions are averaged, and the pixel value at the target pixel position (x n−1 , y n−1 ) of the # n−1 frame is calculated.

次に、ステップST45で、MC画像メモリ206Mにおける、ステップST42で設定されたブロックパターンに対応した領域の、ステップST43で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、ステップST44で算出された当該注目画素位置(xn-1,yn-1)の画素値を書き込む。 Next, in step ST45, in the MC image memory 206M, the region corresponding to the block pattern set in step ST42 corresponds to the target pixel position (x n−1 , y n−1 ) set in step ST43. The pixel value of the target pixel position (x n−1 , y n−1 ) calculated in step ST44 is written in the address.

次に、ステップST46で、#n−1フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST43に戻って、#n−1フレームの次の注目画素位置(xn-1,yn-1)を設定し、上述したと同様の処理を繰り返す。これにより、MC画像メモリ206Mにおける、ステップST42で設定されたブロックパターンに対応した領域には、当該ブロックパターンに対応した動き補償画像信号が生成される。 Next, in step ST46, it is determined whether or not the processing for all pixel positions in the # n-1 frame has been completed. When it is determined that the processing for all pixel positions has not been completed, the process returns to step ST43 to set the next target pixel position (x n−1 , y n−1 ) of the # n−1 frame. Repeat the same process. Thereby, a motion compensated image signal corresponding to the block pattern is generated in an area corresponding to the block pattern set in step ST42 in the MC image memory 206M.

また、ステップST46で、全画素位置に対する処理が終了したと判定するときは、ステップST47に進む。このステップST47では、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST42に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、MC画像メモリ206Mには、ステップST42で設定される各ブロックパターンに対応した動き補償画像信号が生成される。   If it is determined in step ST46 that the processing for all pixel positions has been completed, the process proceeds to step ST47. In step ST47, it is determined whether or not the processing for all the block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST42, the next block pattern is set, and the same processing as described above is repeated. Thereby, a motion compensation image signal corresponding to each block pattern set in step ST42 is generated in the MC image memory 206M.

ステップST47で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST48に進み、処理を終了する。   When it is determined in step ST47 that the processing for all the block patterns has been completed, the process proceeds to step ST48 and the processing is terminated.

図9に戻って、また、テーブル生成装置200は、ブロック評価テーブル生成部207を有している。このブロック評価テーブル生成部207は、#n−1フレームの画像信号と、MC画像生成部206で生成された動き補償画像信号とを用いて、ブロック評価テーブルを生成する。すなわち、ブロック評価テーブル生成部207は、#n−1フレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置に対応した#n−1フレームの複数の画素データに基づいて、特徴量としてのクラスコードCLn-1を求めると共に、#n−1フレームの画像信号および動き補償画像信号のそれぞれからその画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、この算出された評価値を、そのブロックパターンおよび求められたクラスコードCLn-1に対応したアドレスの値に加算することで、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する。 Returning to FIG. 9, the table generation apparatus 200 also includes a block evaluation table generation unit 207. The block evaluation table generation unit 207 generates a block evaluation table using the # n−1 frame image signal and the motion compensated image signal generated by the MC image generation unit 206. That is, for each combination of the pixel position and block pattern of the # n-1 frame, the block evaluation table generation unit 207 uses the plurality of pixel data of the # n-1 frame corresponding to the pixel position as a feature amount. While obtaining the class code CL n−1 , an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the # n−1 frame and the motion compensated image signal is calculated. By adding the calculated evaluation value to the address value corresponding to the block pattern and the obtained class code CL n-1 , for each class code, each of the block patterns and the accumulated value of the evaluation values A block evaluation table indicating the correspondence is generated.

図17は、ブロック評価テーブル生成部207の構成を示している。このブロック評価テーブル生成部207は、#n−1フレームの注目画素位置(xn-1,yn-1)を設定する注目画素位置設定部231と、ブロックパターンを設定するブロックパターン設定部232とを有している。 FIG. 17 shows the configuration of the block evaluation table generation unit 207. The block evaluation table generation unit 207 includes a target pixel position setting unit 231 that sets a target pixel position (x n−1 , y n−1 ) of the # n−1 frame, and a block pattern setting unit 232 that sets a block pattern. And have.

また、ブロック評価テーブル生成部207は、クラスコード生成用画素ブロック取得部233を有している。この画素ブロック取得部233は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSを取得する(図18参照)。この場合、画素ブロック取得部233は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックSとして抽出する。ここで、この複数の画素データは、上述した動きベクトル検出装置100(図1参照)のクラスコード生成部104においてクラスコードを生成するために抽出される複数の画素データと同様に、注目画素位置(xn-1,yn-1)の画素を中心とするP1〜P9の9画素とされる(図2参照)。 The block evaluation table generation unit 207 has a class code generation pixel block acquisition unit 233. The pixel block acquisition unit 233 acquires a pixel block S for class code generation corresponding to the target pixel position (x n−1 , y n−1 ) from the image signal of # n−1 frame (FIG. 18). reference). In this case, the pixel block acquisition unit 233 extracts, as a pixel block S, a plurality of pieces of pixel data located in the vicinity of the target pixel position (x n−1 , y n−1 ) from the # n−1 frame image signal. . Here, the plurality of pieces of pixel data are similar to the plurality of pieces of pixel data extracted in order to generate the class code in the class code generation unit 104 of the motion vector detection device 100 (see FIG. 1) described above. There are nine pixels P1 to P9 centered on the pixel of (x n−1 , y n−1 ) (see FIG. 2).

また、ブロック評価テーブル生成部207は、画素ブロック取得部233で取得された画素ブロックSからクラスコードCLn-1を生成するクラスコード生成部234を有している。このクラスコード生成部234では、上述した動きベクトル検出装置100のクラスコード生成部104でクラスコードCLn-1を生成する場合と同様に、画素ブロックSを構成する複数の画素データのそれぞれを1ビットデータに符号化して、9ビットコードであるクラスコードCLn-1を取得する。 The block evaluation table generation unit 207 includes a class code generation unit 234 that generates a class code CL n-1 from the pixel block S acquired by the pixel block acquisition unit 233. In the class code generation unit 234, each of a plurality of pieces of pixel data constituting the pixel block S is set to 1 as in the case where the class code generation unit 104 of the motion vector detection device 100 described above generates the class code CL n- 1. It is encoded into bit data to obtain a class code CL n-1 that is a 9-bit code.

また、ブロック評価テーブル生成部207は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックT(図18参照)を取得する評価用画素ブロック取得部235を有している。この場合、画素ブロック取得部235は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックTとして抽出する。なお、画素ブロックTが上述したが画素ブロックSと同じであるときは、この画素ブロック取得部235として、上述した画素ブロック取得部233を兼用できる。 Further, the block evaluation table generation unit 207 obtains an evaluation pixel block T (see FIG. 18) corresponding to the target pixel position (x n−1 , y n−1 ) from the image signal of # n−1 frame. And an evaluation pixel block acquisition unit 235. In this case, the pixel block acquisition unit 235 extracts a plurality of pixel data located in the vicinity of the target pixel position (x n−1 , y n−1 ) as the pixel block T from the image signal of the # n−1 frame. . When the pixel block T is the same as the pixel block S described above, the pixel block acquisition unit 233 described above can also be used as the pixel block acquisition unit 235.

また、ブロック評価テーブル生成部207は、MC画像メモリ206Mに蓄積されている、ブロックパターン設定部232で設定されたブロックパターンに対応した動き補償画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックK(図18参照)を取得する評価用画素ブロック取得部236を有している。この場合、画素ブロック取得部236は、動き補償画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックKとして抽出する。 The block evaluation table generation unit 207 also calculates the target pixel position (x n−1 , y) from the motion compensation image signal corresponding to the block pattern set by the block pattern setting unit 232 stored in the MC image memory 206M. n-1 ) includes an evaluation pixel block acquisition unit 236 that acquires the evaluation pixel block K (see FIG. 18). In this case, the pixel block acquisition unit 236 extracts a plurality of pieces of pixel data located in the vicinity of the target pixel position (x n−1 , y n−1 ) as a pixel block K from the motion compensated image signal.

また、ブロック評価テーブル生成部207は、評価用画素ブロック取得部235,236でそれぞれ取得された画素ブロックT,Kに基づいて、評価値を算出する評価値算出部237を有している。評価値算出部237は、画素ブロックTを構成する複数の画素データと画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和を求める。   Further, the block evaluation table generation unit 207 includes an evaluation value calculation unit 237 that calculates an evaluation value based on the pixel blocks T and K acquired by the evaluation pixel block acquisition units 235 and 236, respectively. The evaluation value calculation unit 237 obtains an absolute difference value between corresponding pixel data between the plurality of pixel data constituting the pixel block T and the plurality of pixel data constituting the pixel block K, and further calculates the plurality of obtained plural By calculating the sum of the absolute differences, the absolute difference value sum as an evaluation value is obtained.

また、ブロック評価テーブル生成部207は、テーブル書き込み部238を有している。このテーブル書き込み部238は、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、評価値算出部237で算出された評価値を加算する。ここで、bは、ブロックパターン設定部232で設定されたブロックパターンの番号を示しており、CLn-1はクラスコード生成部234で生成されたクラスコードである。 Further, the block evaluation table generation unit 207 has a table writing unit 238. The table writing unit 238 adds the evaluation value calculated by the evaluation value calculation unit 237 to the value stored in the address (b, CL n-1 ) of the block evaluation table memory 207M. Here, b indicates a block pattern number set by the block pattern setting unit 232, and CL n−1 is a class code generated by the class code generation unit 234.

また、ブロック評価テーブル生成部207は、選択済みブロックパターン数判定部239と、選択済み画素数判定部240とを有している。判定部239は、テーブル書き込み部238の処理終了を受けて、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部232に、次のブロックパターンを設定するように促す。   The block evaluation table generation unit 207 includes a selected block pattern number determination unit 239 and a selected pixel number determination unit 240. The determination unit 239 determines whether or not the processing for all the block patterns has been completed in response to the completion of the processing of the table writing unit 238. When determining that the processing for all the block patterns has not been completed, the determination unit 239 The unit 232 is prompted to set the next block pattern.

判定部240は、判定部239が全ブロックパターンに対する処理が終了したと判定するとき、#n−1フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部231に、次の注目画素位置を設定するように促す。   When the determination unit 239 determines that the process for all the block patterns has been completed, the determination unit 240 determines whether or not the process for all pixel positions in the # n-1 frame has been completed, and the process for all pixel positions is completed. If it is determined that the target pixel position is not set, the target pixel position setting unit 231 is prompted to set the next target pixel position.

次に、図17に示すブロック評価テーブル生成部207の動作を説明する。
注目画素位置設定部231では、#n−1フレームの最初の注目画素位置(xn-1,yn-1)が設定される。そして、ブロックパターン設定部232では、複数のブロックパターンのうち、最初のブロックパターンが設定される。
Next, the operation of the block evaluation table generation unit 207 shown in FIG. 17 will be described.
The target pixel position setting unit 231 sets the first target pixel position (x n−1 , y n−1 ) of the # n−1 frame. The block pattern setting unit 232 sets the first block pattern among the plurality of block patterns.

クラスコード生成用画素ブロック取得部233では、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSが取得される(図18参照)。この画素ブロックSはクラスコード生成部234に供給される。このクラスコード生成部234では、画素ブロックSを構成する複数の画素データのそれぞれが1ビットデータに符号化されて、9ビットコードであるクラスコードCLn-1が得られる。このクラスコードCLn-1はテーブル書き込み部238に、アドレス情報として供給される。また、ブロックパターン設定部232からテーブル書き込み部238には、ブロックパターン番号bがアドレス情報として供給される。 The class code generation pixel block acquisition unit 233 acquires a class code generation pixel block S corresponding to the target pixel position (x n−1 , y n−1 ) from the # n−1 frame image signal. (See FIG. 18). The pixel block S is supplied to the class code generation unit 234. In the class code generation unit 234, each of a plurality of pixel data constituting the pixel block S is encoded into 1-bit data, and a class code CL n-1 that is a 9-bit code is obtained. This class code CL n-1 is supplied to the table writing unit 238 as address information. The block pattern number b is supplied from the block pattern setting unit 232 to the table writing unit 238 as address information.

評価用画素ブロック取得部235では、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックTが取得される(図18参照)。同様に、評価用画素ブロック取得部236では、MC画像メモリ206Mに蓄積されている、ブロックパターン設定部232で設定されたブロックパターンに対応した動き補償画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックKが取得される(図18参照)。これら画素ブロックT,Kは、それぞれ評価値算出部237に供給される。 The evaluation pixel block acquisition unit 235 acquires an evaluation pixel block T corresponding to the target pixel position (x n−1 , y n−1 ) from the image signal of # n−1 frame (see FIG. 18). ). Similarly, the evaluation pixel block acquisition unit 236 calculates the target pixel position (x n−1) from the motion compensation image signal corresponding to the block pattern set by the block pattern setting unit 232 accumulated in the MC image memory 206M. , Y n-1 ), the evaluation pixel block K is acquired (see FIG. 18). These pixel blocks T and K are supplied to the evaluation value calculation unit 237, respectively.

評価値算出部237では、画素ブロックTを構成する複数の画素データと画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和が求められる。このように評価値算出部237で算出された、ブロックパターン設定部232で設定されたブロックパターンの評価値はテーブル書き込み部238に供給される。テーブル書き込み部238は、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、評価値算出部237で算出された評価値を加算する。 In the evaluation value calculation unit 237, an absolute difference value between corresponding pixel data between a plurality of pixel data constituting the pixel block T and a plurality of pixel data constituting the pixel block K is obtained, and the plurality of obtained plural By calculating the sum of absolute difference values, the absolute difference value sum as an evaluation value is determined. The evaluation value of the block pattern set by the block pattern setting unit 232 calculated by the evaluation value calculation unit 237 is supplied to the table writing unit 238. The table writing unit 238 adds the evaluation value calculated by the evaluation value calculation unit 237 to the value stored at the address (b, CL n-1 ) of the block evaluation table memory 207M.

テーブル書き込み部238の処理終了を受けて、選択済みブロックパターン数判定部238では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部238は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部232に、次のブロックパターンを設定するように促す。   Upon completion of the processing of the table writing unit 238, the selected block pattern number determination unit 238 determines whether or not the processing for all the block patterns has been completed. When the determination unit 238 determines that the processing for all the block patterns has not been completed, the determination unit 238 prompts the block pattern setting unit 232 to set the next block pattern.

そのため、ブロックパターン設定部232で全ブロックパターンが設定されて処理が行われるまで、上述したブロックパターンに対応した評価値を評価値算出部237で算出し、テーブル書き込み部238が、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値にその評価値を加算する処理が、繰り返し行われる。 Therefore, until all block patterns are set by the block pattern setting unit 232 and processing is performed, the evaluation value corresponding to the block pattern described above is calculated by the evaluation value calculating unit 237, and the table writing unit 238 stores the block evaluation table memory. The process of adding the evaluation value to the value stored at the address (b, CL n-1 ) of 207M is repeatedly performed.

これにより、ブロック評価テーブルメモリ207Mにおける、注目画素位置(xn-1,yn-1)に係る特徴量としてのクラスコードCLn-1に対応した領域に記憶されている、各ブロックパターンの値に、対応する評価値が順次加算されていく。 As a result, each block pattern stored in the area corresponding to the class code CL n−1 as the feature amount related to the target pixel position (x n−1 , y n−1 ) in the block evaluation table memory 207M. The corresponding evaluation value is sequentially added to the value.

また、選択済みブロックパターン数判定部239で全ブロックパターンに対する処理が終了したと判定されるとき、選択済み画素数判定部240では、#n−1フレームの全画素に対する処理が終了したか否かが判定される。そして、この判定部240は、全画素に対する処理が終了していないと判定するときは、注目画素位置設定部231に、次の注目画素位置(xn-1,yn-1)を設定するように促す。 When the selected block pattern number determination unit 239 determines that the processing for all the block patterns has been completed, the selected pixel number determination unit 240 determines whether the processing for all the pixels in the # n−1 frame has been completed. Is determined. When the determination unit 240 determines that the processing for all the pixels has not been completed, the determination unit 240 sets the next target pixel position (x n−1 , y n−1 ) in the target pixel position setting unit 231. Encourage you to.

そのため、注目画素位置設定部231で#n−1フレームの全画素位置が注目画素位置(xn-1,yn-1)として設定されて処理が行われるまで、上述した注目画素位置(xn-1,yn-1)係る処理が繰り返し行われる。これにより、ブロック評価テーブルメモリ207Mには、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。 For this reason, the target pixel position ( xn−1 , y n−1 ) is set as the target pixel position (x n−1 , y n−1 ) in the target pixel position setting unit 231 until processing is performed. n-1 , y n-1 ) is repeatedly performed. As a result, a block evaluation table indicating the correspondence between each of the block patterns and the accumulated value of the evaluation values is generated in the block evaluation table memory 207M for each class code.

次に、図17に示すブロック評価テーブル生成部207における、ブロック評価テーブルを生成する処理について、図19に示すフローチャートを参照して説明する。
まず、ステップST51で、処理を開始し、ステップST52で、#n−1フレームの最初の注目画素位置(xn-1,yn-1)を設定する。そして、ステップST53で、#n−1フレームの画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSを取得する(図18参照)。さらに、ステップST54で、画素ブロックSを構成する複数の画素データのそれぞれを1ビットデータに符号化して、9ビットコードであるクラスコードCLn-1を生成する。
Next, processing for generating a block evaluation table in the block evaluation table generation unit 207 shown in FIG. 17 will be described with reference to a flowchart shown in FIG.
First, in step ST51, the process is started. In step ST52, the first target pixel position (x n−1 , y n−1 ) of the # n−1 frame is set. In step ST53, a pixel block S for class code generation corresponding to the target pixel position (x n−1 , y n−1 ) set in step ST52 is acquired from the image signal of # n−1 frame. (See FIG. 18). Further, in step ST54, each of a plurality of pixel data constituting the pixel block S is encoded into 1-bit data to generate a class code CL n-1 that is a 9-bit code.

次に、ステップST55で、#n−1フレームの画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックTを取得する(図18参照)。 Next, in step ST55, an evaluation pixel block T corresponding to the target pixel position (x n−1 , y n−1 ) set in step ST52 is acquired from the image signal of # n−1 frame ( (See FIG. 18).

次に、ステップST56で、最初のブロックパターンを設定する。このブロックパターンは、ブロックパターン番号bで特定され、最初はb=1とされる。そして、ステップST57で、MC画像メモリ206Mに蓄積されている、ステップST56で設定されたブロックパターンに対応した動き補償画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックKを取得する(図18参照)。 Next, in step ST56, an initial block pattern is set. This block pattern is specified by a block pattern number b, and initially b = 1. In step ST57, the target pixel position (x n−1 , y n) set in step ST52 is calculated from the motion compensated image signal corresponding to the block pattern set in step ST56 stored in the MC image memory 206M. -1 ) to obtain an evaluation pixel block K (see FIG. 18).

次に、ステップST58で、ステップST55で取得された画素ブロックTを構成する複数の画素データと、ステップST57で取得された画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和を算出する。そして、ステップST59で、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、ステップST58で算出された評価値を加算する。 Next, in step ST58, pixel data corresponding to each other between the plurality of pixel data constituting the pixel block T acquired in step ST55 and the plurality of pixel data constituting the pixel block K acquired in step ST57. Is obtained, and the sum of a plurality of obtained difference absolute values is obtained to calculate the sum of absolute differences as an evaluation value. In step ST59, the evaluation value calculated in step ST58 is added to the value stored in the address (b, CL n-1 ) of the block evaluation table memory 207M.

次に、ステップST60で、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST56に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、ブロック評価テーブルメモリ207Mにおける、注目画素位置(xn-1,yn-1)に係る特徴量としてのクラスコードCLn-1に対応した領域に記憶されている、各ブロックパターンの値に、対応する評価値が順次加算されていく。 Next, in step ST60, it is determined whether or not the processing for all block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST56, the next block pattern is set, and the same processing as described above is repeated. As a result, each block pattern stored in the area corresponding to the class code CL n−1 as the feature amount related to the target pixel position (x n−1 , y n−1 ) in the block evaluation table memory 207M. The corresponding evaluation value is sequentially added to the value.

また、ステップST60で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST61に進む。このステップST61では、#n−1フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST52に戻って、次の注目画素位置(xn-1,yn-1)を設定する。これにより、ブロック評価テーブルメモリ207Mには、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。 If it is determined in step ST60 that the processing for all block patterns has been completed, the process proceeds to step ST61. In this step ST61, it is determined whether or not the processing for all pixel positions in the # n-1 frame has been completed. If it is determined that the processing for all the pixel positions has not been completed, the process returns to step ST52 to set the next target pixel position (x n−1 , y n−1 ). As a result, a block evaluation table indicating the correspondence between each of the block patterns and the accumulated value of the evaluation values is generated in the block evaluation table memory 207M for each class code.

ステップST61で、全画素に対する処理が終了したと判定するときは、ステップST62に進み、処理を終了する。   When it is determined in step ST61 that the processing for all the pixels has been completed, the process proceeds to step ST62 and the processing is terminated.

図9に戻って、また、テーブル生成装置200は、マッチングブロックテーブル(図5、図6参照)を生成するマッチングブロックテーブル生成部208を有している。このテーブル生成部208は、上述したテーブル生成部207で生成されてブロック評価テーブルメモリ207Mに記憶されている、各クラスコードのブロック評価テーブルに基づいて、各クラスコード毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、マッチングブロックテーブルを生成する。そして、テーブル生成部208は、このように生成されるマッチングブロックテーブルを、マッチングブロックテーブルメモリ208に記憶しておく。   Returning to FIG. 9, the table generation apparatus 200 also includes a matching block table generation unit 208 that generates a matching block table (see FIGS. 5 and 6). This table generation unit 208 is used for block matching for each class code based on the block evaluation table of each class code generated by the table generation unit 207 and stored in the block evaluation table memory 207M. A block pattern of a power pixel block is determined, and a matching block table is generated. Then, the table generation unit 208 stores the matching block table generated in this way in the matching block table memory 208.

本実施の形態においては、上述したようにテーブル生成部207では評価値として差分絶対値和を求めているので、テーブル生成部208は、それぞれのクラスコードに関して評価値の累積値が最小となるブロックパターンを、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定する。   In the present embodiment, as described above, since the table generation unit 207 obtains the sum of absolute differences as the evaluation value, the table generation unit 208 has a block in which the cumulative value of the evaluation values is minimized for each class code. The pattern is determined as a block pattern of a pixel block to be used in block matching.

例えば、図20Aは、クラスコードCLaに関する、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルの内容を示している。このクラスコードCLaに関しては、累積値が最小となるブロックパターン番号baのブロックパターンが、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定される。また例えば、図20Bは、クラスコードCLbに関する、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルの内容を示している。このクラスコードCLbに関しては、累積値が最小となるブロックパターン番号1のブロックパターンが、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定される。なお、図20A,Bにおいて、bmaxはブロックパターン番号bの最大値を示している。   For example, FIG. 20A shows the contents of a block evaluation table indicating the correspondence between each of the block patterns and the accumulated value of the evaluation values regarding the class code CLa. Regarding this class code CLa, the block pattern of the block pattern number ba having the smallest accumulated value is determined as the block pattern of the pixel block to be used in block matching. Also, for example, FIG. 20B shows the contents of a block evaluation table indicating the correspondence between each block pattern and the accumulated value of the evaluation values regarding the class code CLb. Regarding this class code CLb, the block pattern of block pattern number 1 having the smallest accumulated value is determined as the block pattern of the pixel block to be used in block matching. 20A and 20B, bmax indicates the maximum value of the block pattern number b.

次に、図9に示すマッチングブロックテーブル生成装置200の動作を説明する。
入力端子201から画像信号が入力され、フレームメモリ202〜204は、連続した連続した第1〜第3のフレームの画像信号が蓄積された状態となる。この場合、フレームメモリ202に第1のフレームとしての#n−2フレームの画像信号が蓄積され、フレームメモリ203に第2のフレームとしての#n−1フレームの画像信号が蓄積され、フレームメモリ204に第3のフレームとしての#nフレームの画像信号が蓄積された状態となる。
Next, the operation of the matching block table generation device 200 shown in FIG. 9 will be described.
An image signal is input from the input terminal 201, and the frame memories 202 to 204 are in a state in which the image signals of the continuous first to third frames are accumulated. In this case, the image signal of # n-2 frame as the first frame is accumulated in the frame memory 202, the image signal of # n-1 frame as the second frame is accumulated in the frame memory 203, and the frame memory 204 In this state, the image signal of the #n frame as the third frame is accumulated.

通過画素テーブル生成部205では、フレームメモリ202に蓄積されている#n−2フレームの画像信号およびフレームメモリ204に蓄積されている#nフレームの画像信号が用いられ、通過画素テーブルが生成され、通過画素テーブルメモリ205Mに記憶される。この場合、各ブロックパターン毎に、#n−2フレームの各画素位置に対応した、#nフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出することで、#n−1フレームの各画素位置と#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図2参照)が生成される。   The passing pixel table generation unit 205 uses the # n-2 frame image signal stored in the frame memory 202 and the #n frame image signal stored in the frame memory 204 to generate a passing pixel table, It is stored in the passing pixel table memory 205M. In this case, for each block pattern, by detecting the pixel position of the #n frame corresponding to each pixel position of the # n-2 frame by performing block matching processing using the pixel block of the block pattern, A passing pixel table (see FIG. 2) indicating the correspondence between the pixel positions of the # n-1 frame and the pixel positions of the # n-2 frame and the #n frame is generated.

MC画像生成部206では、#n−2フレームの画像信号および#nフレームの画像信号と、通過画素テーブル生成部205で生成された、各ブロックパターンに対応した通過画素テーブルとが用いられ、補償用画像信号が生成され、MC画像メモリ206Mに記憶される。この場合、各ブロックパターン毎に、#n−1フレームの各画素位置に対応して、通過画素テーブルから#n−2フレームおよび#nフレームの画素位置を求め、この求められた画素位置の画素値に基づいて#n−1フレームの画素値を求めることで、#n−1フレームの画像信号に対応した動き補償画像信号が生成される。   The MC image generation unit 206 uses the # n-2 frame image signal and the #n frame image signal, and the pass pixel table corresponding to each block pattern generated by the pass pixel table generation unit 205, and compensates for it. An image signal for use is generated and stored in the MC image memory 206M. In this case, for each block pattern, the pixel positions of the # n-2 frame and the #n frame are obtained from the passing pixel table corresponding to the pixel positions of the # n-1 frame, and the pixel at the obtained pixel position is obtained. By obtaining the pixel value of the # n-1 frame based on the value, a motion compensated image signal corresponding to the image signal of the # n-1 frame is generated.

ブロック評価テーブル生成部207では、#n−1フレームの画像信号と、MC画像生成部206で生成された各ブロックパターンに対応した動き補償画像信号とが用いられて、ブロック評価テーブルが生成され、ブロック評価テーブルメモリ207Mに記憶される。この場合、#n−1フレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置に対応した複数の画素データに基づいて、特徴量としてのクラスコードCLn-1を求めると共に、#n−1フレームの画像信号および動き補償画像信号のそれぞれからその画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、この算出された評価値を、そのブロックパターンおよび求められたクラスコードCLn-2に対応したアドレスの値に加算することで、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。 In the block evaluation table generation unit 207, the block evaluation table is generated using the image signal of the # n-1 frame and the motion compensation image signal corresponding to each block pattern generated by the MC image generation unit 206. It is stored in the block evaluation table memory 207M. In this case, for each combination of the pixel position and block pattern of the # n-1 frame, a class code CL n-1 as a feature quantity is obtained based on a plurality of pixel data corresponding to the pixel position, and # n- An evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position is calculated from each of the image signal and the motion compensated image signal of one frame, and the calculated evaluation value is obtained as the block pattern and the calculated value. By adding to the value of the address corresponding to the class code CL n-2 , a block evaluation table indicating the correspondence between each block pattern and the accumulated evaluation value is generated for each class code.

マッチングブロックテーブル生成部208では、テーブル生成部207で生成されてブロック評価テーブルメモリ207Mに記憶されている、各クラスコードのブロック評価テーブルに基づいて、各クラスコード毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されて、マッチングブロックテーブルが生成され、マッチングブロックテーブルメモリ208Mに記憶される。   The matching block table generation unit 208 should be used for block matching for each class code based on the block evaluation table of each class code generated by the table generation unit 207 and stored in the block evaluation table memory 207M. The block pattern of the pixel block is determined, a matching block table is generated, and stored in the matching block table memory 208M.

このように、図9に示すマッチングブロックテーブル生成装置200により、特徴量としてのクラスコードとブロックパターンとの対応関係を示すマッチングブロックテーブルが生成される。この場合、あるクラスコードに対応するブロックパターンは、そのクラスコードが得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、学習によって求められる。   As described above, the matching block table generating apparatus 200 shown in FIG. 9 generates a matching block table indicating the correspondence between the class code as the feature quantity and the block pattern. In this case, a block pattern corresponding to a certain class code can detect a motion vector with high accuracy by using a pixel block to be used in block matching for the target pixel position where the class code is obtained as the block pattern. Sought by learning.

なお、上述実施の形態においては、特徴量として複数の画素データをそれぞれ1ビットデータに符号化して得られたクラスコードを取得するものを示したが、特徴量はこれに限定されるものではない。特徴量は、複数の画素データの特徴を表すものであればよい。例えば、複数の画素データからなる画素ブロックに対してDCT(Discrete Cosine Transform)等の直交変換を行って得られる係数データから特徴量を得るようにしてもよい。   In the above-described embodiment, a case has been described in which a class code obtained by encoding a plurality of pixel data into 1-bit data is obtained as a feature quantity. However, the feature quantity is not limited to this. . The feature amount only needs to represent features of a plurality of pixel data. For example, the feature amount may be obtained from coefficient data obtained by performing orthogonal transformation such as DCT (Discrete Cosine Transform) on a pixel block composed of a plurality of pixel data.

また、上述実施の形態においては、マッチング演算は差分絶対値和を得る演算を示したが、これに限定されるものではない。このマッチング演算は、第1の画素ブロックと第2の画素ブロックとの間の相関の程度を示す値をその結果として得ることができるものであればよい。例えば、マッチング演算は、差分二乗和を求める演算とされてもよい。   In the above-described embodiment, the matching calculation is a calculation for obtaining the sum of absolute differences. However, the present invention is not limited to this. This matching calculation only needs to be able to obtain a value indicating the degree of correlation between the first pixel block and the second pixel block as a result. For example, the matching operation may be an operation for obtaining a difference square sum.

また、上述実施の形態においては、各処理をハードウェアで処理するように説明しているが、例えば図21に示すようなハードウェア構成のコンピュータ300を用い、ソフトウェアで処理することも当然可能である。   In the above-described embodiment, each process is described as being performed by hardware. However, for example, a computer 300 having a hardware configuration as illustrated in FIG. 21, for example, may be processed by software. is there.

このコンピュータ300は、CPU(Central Processing Unit)331を内蔵している。このCPU31にはバス334を介して、入出力インタフェース335が接続されている。バス334には、ROM(Read Only Memory)332およびRAM(Random Access Memory)333が接続されている。   The computer 300 includes a CPU (Central Processing Unit) 331. An input / output interface 335 is connected to the CPU 31 via a bus 334. A ROM (Read Only Memory) 332 and a RAM (Random Access Memory) 333 are connected to the bus 334.

入出力インタフェース335には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部336、操作画面や処理結果を示す画面などを表示するCRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)等よりなる出力部337、プログラムや各種データを格納するハードディスクドライブ等よりなる記憶部338、およびモデム、LAN(Local Area Network)アダプタ等よりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部339が接続されている。また、磁気ディスク341、光ディスク342、光磁気ディスク343、および半導体メモリ344などの記録媒体に対してデータを読み書きするドライブ340が接続されている。   The input / output interface 335 includes an input unit 336 including an input device such as a keyboard and a mouse for a user to input an operation command, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal) for displaying an operation screen and a screen showing a processing result. Communication unit via a network represented by the Internet, including an output unit 337 including a display), a storage unit 338 including a hard disk drive for storing programs and various data, a modem, a LAN (Local Area Network) adapter, and the like. Is connected to the communication unit 339. A drive 340 for reading / writing data from / to a recording medium such as the magnetic disk 341, the optical disk 342, the magneto-optical disk 343, and the semiconductor memory 344 is connected.

CPU331に上述した一連の処理を実行させるプログラムは、磁気ディスク341(フレキシブルディスクを含む)、光ディスク342(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク343(MD(Mini Disc)を含む)、もしくは半導体メモリ344に格納された状態でコンピュータ300に供給され、ドライブ340によって読み出されて記憶部338に内蔵されるハードディスクドライブにインストールされている。記憶部338にインストールされているプログラムは、入力部336に入力されるユーザからのコマンドに対応するCPU331の指令によって、記憶部338からRAM333にロードされて実行される。   Programs for causing the CPU 331 to execute the above-described series of processes include a magnetic disk 341 (including a flexible disk), an optical disk 342 (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), and magneto-optical. It is supplied to the computer 300 in a state stored in the disk 343 (including MD (Mini Disc)) or the semiconductor memory 344, read by the drive 340, and installed in a hard disk drive built in the storage unit 338. The program installed in the storage unit 338 is loaded from the storage unit 338 to the RAM 333 and executed by a command from the CPU 331 corresponding to a command from the user input to the input unit 336.

なお、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。また、処理対象となる画像信号は、例えば記録媒体によって提供され、あるいは通信部318を介してネットワークから提供され、記憶部338に内蔵されるハードディスクドライブに蓄積されて処理される。   Note that the step of describing the program recorded in the recording medium includes not only the processing performed in time series according to the described order but also the processing executed in parallel or individually even if not necessarily processed in time series. Is also included. Further, the image signal to be processed is provided by, for example, a recording medium, or provided from a network via the communication unit 318, and is stored and processed in a hard disk drive built in the storage unit 338.

また、上述実施の形態においては、参照フレームFrの各画素位置毎に、その画素位置の近傍に位置する複数の画素データに基づいてその画素位置の特徴量としてのクラスコードCLn-2を得、そのクラスコードCLn-2と参照フレームの各画素位置との対応関係を示すテーブル(図4参照)を生成し、このテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した参照フレームFrの複数の画素位置を取得し、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックを、この参照フレームFrの複数の画素位置に対応した画素ブロックとして、演算量を大幅に低減するものを示した。 Further, in the above-described embodiment, for each pixel position of the reference frame Fr, the class code CL n-2 is obtained as a feature quantity of the pixel position based on a plurality of pixel data located in the vicinity of the pixel position. Then, a table (see FIG. 4) showing the correspondence between the class code CL n-2 and each pixel position of the reference frame is generated, and the class code CL n-1 related to the target pixel position of the target frame Fc is generated from this table. A plurality of pixel positions of the corresponding reference frame Fr are acquired, and a plurality of reference blocks of the reference frame Fr that are subjected to a matching operation with a reference block corresponding to the target pixel position of the target frame Fc As a pixel block corresponding to the above, one that greatly reduces the amount of calculation is shown.

しかし、この発明は、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックが、対象フレームFcの注目画素位置に対応した参照フレームFrのサーチエリア内の画素ブロックであるもの(図23参照)にも、同様に適用でき、動きベクトルの検出精度を高めることができる。   However, according to the present invention, a plurality of reference blocks of the reference frame Fr that are subjected to a matching operation with the reference block corresponding to the target pixel position of the target frame Fc are within the search area of the reference frame Fr corresponding to the target pixel position of the target frame Fc. The pixel block (see FIG. 23) can be similarly applied, and the motion vector detection accuracy can be improved.

注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用い、ブロックマッチング処理により動きベクトルを精度よく検出できるものであり、例えば動き補償予測符号化装置で動き補償を行うために動きベクトルを検出する用途に適用できる。   A motion vector can be accurately detected by block matching processing using a pixel block having a block pattern corresponding to the feature amount related to the target pixel position. For example, a motion vector is used to perform motion compensation in a motion compensated prediction encoding apparatus. Applicable for detecting purposes.

実施の形態としての動きベクトル検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the motion vector detection apparatus as embodiment. クラスコードを得るための複数の画素例を示す図である。It is a figure which shows the some pixel example for obtaining a class code. 動きベクトル算出部の構成を示すブロック図である。It is a block diagram which shows the structure of a motion vector calculation part. クラスコードと参照フレームの各画素位置との対応関係を示すテーブルの構造を示す図である。It is a figure which shows the structure of the table which shows the correspondence of a class code and each pixel position of a reference frame. マッチングブロックテーブルの一例を示す図である。It is a figure which shows an example of a matching block table. マッチングブロックテーブルの他の例を示す図である。It is a figure which shows the other example of a matching block table. 動きベクトル演算部の構成を示すブロック図である。It is a block diagram which shows the structure of a motion vector calculating part. 動きベクトル算出処理を示すフローチャートである。It is a flowchart which shows a motion vector calculation process. マッチングブロックテーブル生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of a matching block table production | generation apparatus. 通過画素テーブルを示す図である。It is a figure which shows a passage pixel table. 通過画素テーブル生成部の構成を示すブロック図である。It is a block diagram which shows the structure of a passage pixel table production | generation part. 通過画素テーブルの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of a passing pixel table. 通過画素テーブルの生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of a passing pixel table. MC画像生成部の構成を示すブロック図である。It is a block diagram which shows the structure of MC image generation part. MC画像生成処理を説明するための図である。It is a figure for demonstrating MC image generation processing. MC画像の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of MC image. ブロック評価テーブル生成部の構成を示すブロック図である。It is a block diagram which shows the structure of a block evaluation table production | generation part. ブロック評価テーブルの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of a block evaluation table. ブロック評価テーブルの生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of a block evaluation table. ブロック評価テーブルの内容例を示す図である。It is a figure which shows the example of the content of a block evaluation table. コンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a computer. 従来の動きベクトル検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional motion vector detection apparatus. 動きベクトルを検出する際の対象フレームと参照フレームとの対応関係を示す図である。It is a figure which shows the correspondence of the object frame at the time of detecting a motion vector, and a reference frame. 従来の動きベクトル検出処理を示すフローチャートである。It is a flowchart which shows the conventional motion vector detection process.

符号の説明Explanation of symbols

100・・・動きベクトル検出装置、101・・・入力端子、102,103・・・フレームメモリ、103・・・クラスコード生成部、105・・・動きベクトル算出部、106・・・出力端子、121・・・MEメモリ部、122・・・マッチングブロックテーブルメモリ、123・・・動きベクトル演算部、200・・・マッチングブロックテーブル生成装置、201・・・入力端子、202〜204・・・フレームメモリ、205・・・通過画素テーブル生成部、206・・・MC画像生成部、207・・・ブロック評価テーブル生成部、208・・・マッチングブロックテーブル生成部、300・・・コンピュータ
DESCRIPTION OF SYMBOLS 100 ... Motion vector detection apparatus, 101 ... Input terminal, 102, 103 ... Frame memory, 103 ... Class code generation part, 105 ... Motion vector calculation part, 106 ... Output terminal, DESCRIPTION OF SYMBOLS 121 ... ME memory part, 122 ... Matching block table memory, 123 ... Motion vector calculating part, 200 ... Matching block table production | generation apparatus, 201 ... Input terminal, 202-204 ... Frame Memory, 205... Passing pixel table generation unit, 206... MC image generation unit, 207... Block evaluation table generation unit, 208.

Claims (12)

第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出装置であって、
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る特徴量取得手段と、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルを記憶した記憶手段と、
上記記憶手段に記憶されているマッチングブロックテーブルから上記特徴量取得手段で得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得るブロックパターン情報取得手段と、
上記ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行うマッチング演算手段と、
上記マッチング演算手段で求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る動きベクトル取得手段とを備え
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出装置。
A motion vector detection apparatus that detects a motion vector by performing block matching processing using image signals of first to third frames,
Feature quantity acquisition means for extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature quantity related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Storage means for storing a matching block table indicating a correspondence relationship between the pattern and the feature amount related to the target pixel position;
Block pattern information acquisition means for obtaining block pattern information capable of identifying the positions of pixels constituting the block pattern corresponding to the feature quantity obtained by the feature quantity acquisition means from the matching block table stored in the storage means;
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained by the block pattern information obtaining unit, and the block pattern obtained by the block pattern information obtaining unit A matching calculation means for performing a matching calculation between each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the information;
Motion vector acquisition means for obtaining a motion vector corresponding to a target pixel position of the first frame based on a matching calculation result corresponding to the plurality of second pixel blocks obtained by the matching calculation means ;
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A motion vector detection device that is generated .
上記第2のフレームの各画素位置毎に、該画素位置の近傍に位置する複数の画素データに基づいて該画素位置の特徴量を得、該特徴量と上記第2のフレームの各画素位置との対応関係を示すテーブルを生成するテーブル生成手段と、
上記テーブル生成手段で生成されたテーブルから、上記特徴量取得手段で得られた特徴量に対応した上記第2のフレームの複数の画素位置を得る画素位置取得手段とをさらに備え、
上記第2のフレームの複数の第2の画素ブロックは、それぞれ上記画素位置取得手段で得られた複数の画素位置に対応した画素ブロックである請求項1に記載の動きベクトル検出装置。
For each pixel position of the second frame, a feature amount of the pixel position is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and the feature amount and each pixel position of the second frame are Table generating means for generating a table indicating the correspondence relationship between
A pixel position acquisition unit that obtains a plurality of pixel positions of the second frame corresponding to the feature amount obtained by the feature amount acquisition unit from the table generated by the table generation unit;
The motion vector detection device according to claim 1, wherein the plurality of second pixel blocks in the second frame are pixel blocks corresponding to the plurality of pixel positions obtained by the pixel position acquisition unit, respectively.
上記第2のフレームの複数の第2の画素ブロックは、上記第1のフレームの注目画素位置に対応した上記第2のフレームのサーチエリア内の画素ブロックである請求項1に記載の動きベクトル検出装置。   2. The motion vector detection according to claim 1, wherein the plurality of second pixel blocks of the second frame are pixel blocks in a search area of the second frame corresponding to a target pixel position of the first frame. apparatus. 上記特徴量取得手段は、上記複数の画素データをそれぞれ1ビットデータに符号化して得られるコードを上記特徴量とする請求項1に記載の動きベクトル検出装置。   The motion vector detection device according to claim 1, wherein the feature amount acquisition unit uses, as the feature amount, a code obtained by encoding each of the plurality of pixel data into 1-bit data. 上記マッチング演算手段で行われるマッチング演算は、上記第1の画素ブロックを構成する画素データと上記第2の画素ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、該求められた差分絶対値の和を求める演算である請求項1に記載の動きベクトル検出装置。   The matching calculation performed by the matching calculation means calculates a difference absolute value between corresponding pixel data between the pixel data constituting the first pixel block and the pixel data constituting the second pixel block, The motion vector detection apparatus according to claim 1, wherein the motion vector detection apparatus is an operation for obtaining a sum of the obtained absolute differences. 第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出方法であって、
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップとを備え
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法。
A motion vector detection method for detecting a motion vector by performing block matching processing using image signals of first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A motion vector detection method that is generated .
第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出するために、
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップと
を備え
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
In order to detect a motion vector by performing block matching processing using the image signals of the first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A computer-readable medium having recorded thereon a program for causing a computer to execute the generated motion vector detection method.
第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出するために、
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップと
を備え
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法をコンピュータに実行させるためのプログラム。
In order to detect a motion vector by performing block matching processing using the image signals of the first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A program for causing a computer to execute the generated motion vector detection method.
所定フレームの注目画素位置に対応した動きベクトルを、該注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する装置であって、
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を記憶する記憶手段と、
上記記憶手段に記憶されている上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する通過画素テーブル生成手段と、
上記記憶手段に記憶されている上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記通過画素テーブル生成手段で生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する動き補償画像生成手段と、
上記記憶手段に記憶されている上記第1のフレームの画像信号と、上記動き補償画像生成手段で生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成するブロック評価テーブル生成手段と、
上記ブロック評価テーブル生成手段で生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成するマッチングブロックテーブル生成手段とを備えるマッチングブロックテーブル生成装置。
Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position An apparatus for generating a matching block table showing a correspondence relationship between
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Storage means for storing the image signal of
Using the second frame image signal and the third frame image signal stored in the storage means, the third frame corresponding to each pixel position of the second frame for each block pattern. The pixel position of the frame is detected by performing block matching processing using the pixel block of the block pattern, and the pixel position of the first frame, the pixel position of the second frame, and the third frame Passing pixel table generating means for generating a passing pixel table showing the correspondence relationship of
Using the image signal of the second frame and the image signal of the third frame stored in the storage means, and the passing pixel table generated by the passing pixel table generating means, for each block pattern, Corresponding to each pixel position of the first frame, pixel positions of the second frame and the third frame are obtained from the passing pixel table, and the first frame is calculated based on the pixel value of the obtained pixel position. Motion compensation image generation means for obtaining a pixel value of the frame and generating a motion compensation image signal corresponding to the image signal of the first frame;
For each combination of pixel position and block pattern of the first frame, using the image signal of the first frame stored in the storage unit and the motion compensated image signal generated by the motion compensated image generation unit In addition, a feature amount is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and a pixel obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensation image signal By calculating an evaluation value indicating the degree of correlation between the blocks, and adding the calculated evaluation value to the address value corresponding to the block pattern and the obtained feature amount, a block is obtained for each feature amount. A block evaluation table generating means for generating a block evaluation table indicating the correspondence between each of the patterns and the cumulative value of the evaluation values;
Based on the block evaluation table of each feature quantity generated by the block evaluation table generating means, a block pattern of a pixel block to be used in the block matching is determined for each feature quantity, and the matching block table is generated. A matching block table generating device comprising matching block table generating means.
所定フレームの注目画素位置に対応した動きベクトルを、該注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する方法であって、
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップとを備えるマッチングブロックテーブル生成方法。
Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position A matching block table showing a correspondence relationship between
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Prepare the image signal of
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. 4. A matching block table generation method comprising four steps.
所定フレームの注目画素位置に対応した動きベクトルを、該注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成するために、
時間的に連続3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップと
を備えるマッチングブロックテーブル生成方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position In order to generate a matching block table showing the correspondence relationship with
Of the three consecutive frames in time, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame Prepare the image signal,
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. A computer-readable medium having recorded thereon a program for causing a computer to execute the matching block table generation method comprising the steps of 4.
所定フレームの注目画素位置に対応した動きベクトルを、該注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成するために、
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとのフレームの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップと
を備えるマッチングブロックテーブル生成方法をコンピュータに実行させるためのプログラム。
Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position In order to generate a matching block table showing the correspondence relationship with
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Prepare an image signal of
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. A program for causing a computer to execute a matching block table generation method comprising:
JP2003295514A 2003-08-19 2003-08-19 Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program Expired - Fee Related JP4547881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003295514A JP4547881B2 (en) 2003-08-19 2003-08-19 Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003295514A JP4547881B2 (en) 2003-08-19 2003-08-19 Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program

Publications (2)

Publication Number Publication Date
JP2005063319A JP2005063319A (en) 2005-03-10
JP4547881B2 true JP4547881B2 (en) 2010-09-22

Family

ID=34371735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003295514A Expired - Fee Related JP4547881B2 (en) 2003-08-19 2003-08-19 Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program

Country Status (1)

Country Link
JP (1) JP4547881B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282878A (en) * 1992-03-31 1993-10-29 Agency Of Ind Science & Technol Associative memory
JPH10117357A (en) * 1996-10-09 1998-05-06 Nec Corp Motion vector detector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282878A (en) * 1992-03-31 1993-10-29 Agency Of Ind Science & Technol Associative memory
JPH10117357A (en) * 1996-10-09 1998-05-06 Nec Corp Motion vector detector

Also Published As

Publication number Publication date
JP2005063319A (en) 2005-03-10

Similar Documents

Publication Publication Date Title
CN100356794C (en) Method and apparatus for generating motion vector in lamina motion evaluation
US7440619B2 (en) Image matching method and image interpolation method using the same
JP4224748B2 (en) Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, recording medium, and image processing apparatus
WO2005084036A1 (en) Motion vector detecting apparatus, motion vector detecting method, and computer program
JPH07504541A (en) Fractal coding method and system for data
US20060078156A1 (en) System and method for segmenting
JP2009212605A (en) Information processing method, information processor, and program
JP4547881B2 (en) Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program
KR20000052551A (en) Method and apparatus for coding moving image and medium for recording program of coding moving image
KR101089853B1 (en) Apparatus and method for generating coefficient data, apparatus and method for generating coefficient-seed data, information-signal processing apparatus, program, and medium having recorded the program thereon
JP2527182B2 (en) Image processing device
JP2010033532A (en) Electronic apparatus, motion vector detection method and program thereof
CN104392452B (en) A kind of DICOM medical image processing method based on application
JP4129788B2 (en) Image data processing apparatus and method, recording medium, and program
JP3834805B2 (en) Image conversion device, image conversion method, calculation device, calculation method, and recording medium
JP4144316B2 (en) Image data processing apparatus and method, recording medium, and program
CN111539263A (en) Video face recognition method based on aggregation countermeasure network
JP4239557B2 (en) Image processing apparatus and method, recording medium, and program
KR100982625B1 (en) Information signal processing device and processing method
JP4264531B2 (en) Image processing apparatus and method, recording medium, and program
JP2002051342A (en) Coding apparatus, method of coding and storage medium
JP4264803B2 (en) Image processing apparatus and method, learning apparatus and method, recording medium, and program
JP4329331B2 (en) Image processing apparatus and method, recording medium, and program
JP4207763B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP4534518B2 (en) Image signal processing apparatus, image signal processing method, program, and medium recording the same

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091015

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100115

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100628

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees