JP4547881B2 - Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program - Google Patents
Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program Download PDFInfo
- Publication number
- JP4547881B2 JP4547881B2 JP2003295514A JP2003295514A JP4547881B2 JP 4547881 B2 JP4547881 B2 JP 4547881B2 JP 2003295514 A JP2003295514 A JP 2003295514A JP 2003295514 A JP2003295514 A JP 2003295514A JP 4547881 B2 JP4547881 B2 JP 4547881B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- block
- pixel
- image signal
- pixel position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Description
この発明は、例えば動き補償予測符号化装置で動き補償を行うための動きベクトルを検出する際に適用して好適な動きベクトルの検出装置および検出方法、マッチングブロックテーブルの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。 The present invention is, for example, a motion vector detection device and detection method suitable for application when detecting a motion vector for performing motion compensation in a motion compensation prediction encoding device, a matching block table generation device and generation method, and The present invention relates to a program for executing each method.
詳しくは、この発明は、所定フレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用いることによって、動きベクトルを精度よく検出しようとした動きベクトル検出装置等に係るものである。 Specifically, according to the present invention, when a motion vector corresponding to a target pixel position of a predetermined frame is detected by performing a block matching process, a pixel block having a block pattern corresponding to a feature amount related to the target pixel position is used. The present invention relates to a motion vector detection device or the like that attempts to detect a motion vector with high accuracy.
例えば、MPEG2(Moving Picture Experts Group)方式等の画像信号を圧縮符号化する処理においては、隣接する2フレーム間の相関関係に基づく符号化処理、いわゆる動き補償フレーム間予測が用いられている。動き補償フレーム間予測では、隣接する2フレーム(一方を対象フレーム、他方を参照フレームと記述する)の間における各画素単位または所定サイズの画素ブロック単位の動きベクトルを検出する処理が必要となる。 For example, in a process of compressing and encoding an image signal such as an MPEG2 (Moving Picture Experts Group) system, an encoding process based on a correlation between two adjacent frames, so-called motion compensation interframe prediction, is used. In motion compensation inter-frame prediction, it is necessary to detect a motion vector for each pixel unit or for a pixel block unit of a predetermined size between two adjacent frames (one is described as a target frame and the other is referred to as a reference frame).
動きベクトルを検出する方法としては、従来、ブロックマッチング法が用いられている(例えば、特許文献1参照)。図22は、ブロックマッチング法に従って動きベクトルを検出する動きベクトル検出装置300の構成例を示している。
As a method for detecting a motion vector, a block matching method has been conventionally used (for example, see Patent Document 1). FIG. 22 shows a configuration example of a motion
この動きベクトル検出装置300は、画像信号が入力される入力端子301と、対象フレームFcの画像信号を蓄積するフレームメモリ302と、参照フレームFrの画像信号を蓄積するフレームメモリ303とを有している。入力端子301からあるフレームの画像信号がフレームメモリ302に供給されて書き込まれる際に、このフレームメモリ302に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ303に供給されて書き込まれる。
The motion
また、動きベクトル検出装置300は、フレームメモリ302に蓄積されている対象フレームFcの画像信号と、フレームメモリ303に蓄積されている参照フレームFrの画像信号とを用いて、対象フレームFcの各画素位置に対応した動きベクトルを検出する動き検出部304と、この動き検出部304で検出された動きベクトルを出力する出力端子305とを有している。
In addition, the motion
動き検出部304は、ブロックマッチング法に従って、上述したように対象フレームFcの各画素位置に対応した動きベクトルを検出する。図23および図24を用いて、動き検出部304における動きベクトルの検出処理について説明する。図23は、対象フレームFcと参照フレームFrの対応関係を示している。図24は、検出処理の手順を示している。
The
動き検出部304は、対象フレームFc内の全ての画素位置が、順次、注目画素位置に指定され、注目画素位置を中心とする所定サイズ(L×L画素)の基準ブロックと、参照フレームFrに設けられたサーチエリアSR内で移動される参照ブロック(基準ブロックと同じサイズ)との対応する画素対の画素値の差分絶対値和を、(1)式に従って演算する。
ΣiΣj=|Fc(i,j)−Frn(i,j)| ・・・(1)
The
ΣiΣj = | Fc (i, j) −Frn (i, j) | (1)
ただし、Fc(i,j)は基準ブロックの画素の画素値であり、Frn(i,j)は識別番号nの参照ブロックの画素の画素値である。また、Σiはiを1からLまで1ずつインクリメントしたときの総和演算を意味し、Σjはjを1からLまで1ずつインクリメントしたときの総和演算を意味するものとする。 Here, Fc (i, j) is the pixel value of the pixel of the base block, and Frn (i, j) is the pixel value of the pixel of the reference block with the identification number n. Also, Σi means a summation operation when i is incremented by 1 from 1 to L, and Σj means a summation operation when j is incremented by 1 from 1 to L.
そして、基準ブロックと参照ブロックとの対応する画素対の画素値の差分絶対値和が最小となるときの参照ブロックの中心の画素位置と注目画素位置との差分ベクトルを、当該注目画素位置に対応した動きベクトルとして算出する。 Then, the difference vector between the pixel position at the center of the reference block and the target pixel position when the sum of absolute differences of the pixel values of the corresponding pixel pairs of the base block and the reference block is minimized corresponds to the target pixel position. As a motion vector.
具体的には、対象フレームFcの注目画素位置に対して、動き検出部304は、以下の処理を行う。
Specifically, the
ステップS1で、参照フレームFrに、対象フレームFcの注目画素位置と同じ画素位置を中心として、基準ブロックよりも大きなサイズのサーチエリアSRを設定する。そして、ステップS2で、差分絶対値和の最小値を格納する変数minを、その最大値に初期化する。例えば、1画素の画素値が8ビット、基準ブロックのサイズが4×4画素である場合、変数minは、4096(=28×16)に初期化される。 In step S1, a search area SR having a size larger than that of the reference block is set in the reference frame Fr with the same pixel position as the target pixel position of the target frame Fc as the center. In step S2, a variable min that stores the minimum value of the sum of absolute differences is initialized to the maximum value. For example, when the pixel value of one pixel is 8 bits and the size of the reference block is 4 × 4 pixels, the variable min is initialized to 4096 (= 2 8 × 16).
次に、ステップS3で、サーチエリアSR内で移動させる参照ブロックの識別番号nを1に初期化する。そして、ステップS4で、差分絶対値和の演算結果を格納する変数sumを0に初期化する。 Next, in step S3, the identification number n of the reference block to be moved within the search area SR is initialized to 1. In step S4, a variable sum for storing the calculation result of the sum of absolute differences is initialized to zero.
次に、ステップS5で、対象フレームFcの基準ブロックと、参照フレームFrに設定したサーチエリアSR内の識別番号nの参照ブロックとの対応する場所に位置する画素対の画素値の差分絶対値和を演算して、変数sumに代入する。そして、ステップS6で、ステップS5の演算結果である変数sumと変数minを比較し、変数sumが変数minよりも小さいか否かを判定する。変数sumが変数minよりも小さいと判定した場合、ステップS7に進む。 Next, in step S5, the difference absolute value sum of the pixel values of the pixel pairs located at the corresponding positions of the reference block of the target frame Fc and the reference block of the identification number n in the search area SR set in the reference frame Fr. Is substituted into the variable sum. In step S6, the variable sum and the variable min, which are the calculation results of step S5, are compared to determine whether the variable sum is smaller than the variable min. If it is determined that the variable sum is smaller than the variable min, the process proceeds to step S7.
ステップS7では、変数minを変数sumで置換し、参照ブロックの識別番号nを動きベクトル番号として記憶する。このステップS7の処理の後、ステップS8に進む。なお、上述のステップS6で、変数sumが変数minよりも小さくないと判定された場合、ステップS7の処理をスキップし、ステップS8に進む。 In step S7, the variable min is replaced with the variable sum, and the identification number n of the reference block is stored as a motion vector number. After the process of step S7, the process proceeds to step S8. If it is determined in step S6 described above that the variable sum is not smaller than the variable min, the process of step S7 is skipped and the process proceeds to step S8.
ステップS8では、参照ブロックの識別番号nが最大値であるか否か、すなわち、サーチエリアSRの全域に参照ブロックを移動し終えたか否かを判定する。参照ブロックの識別番号nが最大値ではないと判定した場合、ステップS9に進む。ステップS9では、参照ブロックの識別番号nをインクリメントし、ステップS4の処理に戻って、それ以降の処理を繰り返す。 In step S8, it is determined whether or not the reference block identification number n is the maximum value, that is, whether or not the reference block has been moved to the entire search area SR. If it is determined that the identification number n of the reference block is not the maximum value, the process proceeds to step S9. In step S9, the identification number n of the reference block is incremented, the process returns to step S4, and the subsequent processes are repeated.
また、ステップS8で、参照ブロックの識別番号nが最大値であると判定した場合、すなわち、サーチエリアSRの全域に参照ブロックを移動し終えた場合、ステップS10に進む。このステップS10では、動きベクトル番号として記憶している識別番号nに対応する参照ブロックの中心の画素位置と、対象フレームFcの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして算出する。 If it is determined in step S8 that the reference block identification number n is the maximum value, that is, if the reference block has been moved to the entire search area SR, the process proceeds to step S10. In this step S10, the difference vector between the pixel position at the center of the reference block corresponding to the identification number n stored as the motion vector number and the target pixel position of the target frame Fc corresponds to the target pixel position of the target frame Fc. As a motion vector.
上述したように動きベクトル検出をブロックマッチング法で行う場合、ブロックマッチングを行う際の画素ブロックのブロックパターンをどのように設定するかが問題となる。すなわち、画素ブロックを小さく設定することで、小動きに対処できるが、逆にノイズに弱く、結果にバラツキが発生する。一方、画素ブロックを大きく設定することで、ノイズに強く、結果が安定するが、逆に小動きに対処できなくなる。 As described above, when motion vector detection is performed by the block matching method, how to set the block pattern of the pixel block when performing block matching becomes a problem. That is, by setting the pixel block to be small, it is possible to cope with small movements, but on the contrary, it is vulnerable to noise, resulting in variations in the results. On the other hand, by setting a large pixel block, it is resistant to noise and stabilizes the result, but on the contrary, it cannot cope with small movement.
この発明の目的は、適切なブロックパターンの画素ブロックを用いて動きベクトルを精度よく検出することにある。 An object of the present invention is to accurately detect a motion vector using a pixel block having an appropriate block pattern.
この発明に係る動きベクトル検出装置は、第1乃至第3の画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出装置であって、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データに基づいてその注目画素位置に係る特徴量を得る特徴量取得手段と、第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルを記憶した記憶手段と、この記憶手段に記憶されているマッチングブロックテーブルから特徴量取得手段で得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得るブロックパターン情報取得手段と、このブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、第1のフレームの注目画素位置に対応した第1の画素ブロックと、ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行うマッチング演算手段と、このマッチング演算手段で求められた複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルを得る動きベクトル取得手段とを備え、上記マッチングブロックテーブルは、上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで生成されたものである。 The motion vector detection apparatus according to the present invention is a motion vector detection apparatus that detects a motion vector by performing block matching processing using the first to third image signals, and includes a target pixel from the image signal of the first frame. Feature amount acquisition means for extracting a plurality of pixel data located in the vicinity of the position and obtaining a feature amount related to the target pixel position based on the plurality of pixel data, and a target pixel acquired from the image signal of the first frame For each block pattern, the pixel block according to the position, the image signal of the second frame that is the previous frame of the first frame, and the image signal of the third frame that is the subsequent frame of the first frame are used. Determined based on the evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the target pixel position obtained from the motion compensated image signal obtained A storage unit storing a matching block table indicating a correspondence relationship between the block pattern and the feature amount related to the target pixel position, and a feature amount obtained by the feature amount acquisition unit from the matching block table stored in the storage unit A block pattern information acquisition unit that obtains block pattern information that can identify the positions of the pixels constituting the corresponding block pattern, and a block pattern indicated by the block pattern information obtained by the block pattern information acquisition unit, of the first frame Matching between the first pixel block corresponding to the target pixel position and each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the block pattern information obtained by the block pattern information acquisition unit Matching calculation means for performing calculations and this matching operation Based on the matching operation result corresponding to a plurality of second pixel blocks obtained by means comprises a motion vector obtaining means for obtaining a motion vector corresponding to the target pixel position of the first frame, the matching block table The first frame image signal and the motion compensated image signal are used for each combination of the pixel position and block pattern of the first frame based on a plurality of pixel data located in the vicinity of the pixel position. In addition to obtaining the feature amount, an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position is calculated from each of the image signal of the first frame and the motion compensated image signal, and the calculated By adding the evaluation value to the address value corresponding to the block pattern and the calculated feature amount, for each feature amount, A block evaluation table showing a correspondence relationship between each of the block patterns and the accumulated value of the evaluation values is generated. Based on the generated block evaluation table of each feature amount, each feature amount is used in the block matching. This is generated by determining the block pattern of the power pixel block .
また、この発明に係る動きベクトル検出方法は、第1乃至第3のフレームの画像信号を用い、ブロックマッチング処理を行って動きベクトルを検出する動きベクトル検出方法であって、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データに基づいてその注目画素位置に係る特徴量を得る第1のステップと、第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、この第2のステップで得られたブロックパターン情報で示すブロックパターンの、第1のフレームの注目画素位置に対応した第1の画素ブロックと、第2のステップで得られたブロックパターン情報で示すブロックパターンの、第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、この第3のステップで求められた複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップとを備え、上記マッチングブロックテーブルは、上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで生成されたものである。
The motion vector detection method according to the present invention is a motion vector detection method for detecting a motion vector by performing block matching processing using the image signals of the first to third frames, and the image of the first frame. A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the signal and obtaining a feature amount related to the target pixel position based on the plurality of pixel data, and an image signal of the first frame Using the obtained pixel block at the target pixel position, the image signal of the second frame that is the previous frame of the first frame, and the image signal of the third frame that is the subsequent frame of the first frame An evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the target pixel position obtained from the motion compensated image signal obtained for each block pattern. The positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step are identified from the matching block table indicating the correspondence between the block pattern determined based on the feature amount and the feature amount related to the target pixel position. A second step of obtaining possible block pattern information, a first pixel block corresponding to the target pixel position of the first frame of the block pattern indicated by the block pattern information obtained in the second step, A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the block pattern information obtained in
また、この発明に係るプログラムは、上述した動きベクトル検出方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。 A program according to the present invention is for causing a computer to execute the motion vector detection method described above. A computer-readable medium according to the present invention records the above-described program.
この発明においては、第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データが抽出され、この複数の画素データに基づいてその注目画素位置に係る特徴量が得られる。この場合、特徴量は、複数の画素データの特徴を表すものであればよい。例えば、複数の画素データをそれぞれ1ビットデータに符号化して得られる複数ビットのコードが特徴量とされる。また例えば、複数の画素データからなる画素ブロックに対してDCT(Discrete Cosine Transform)等の直交変換を行って得られる係数データから特徴量を得るようにしてもよい。 In the present invention, a plurality of pixel data located in the vicinity of the target pixel position is extracted from the image signal of the first frame, and a feature amount related to the target pixel position is obtained based on the plurality of pixel data. In this case, the feature amount only needs to represent features of a plurality of pixel data. For example, a multi-bit code obtained by encoding a plurality of pixel data into 1-bit data is used as the feature amount. Further, for example, the feature amount may be obtained from coefficient data obtained by performing orthogonal transformation such as DCT (Discrete Cosine Transform) on a pixel block composed of a plurality of pixel data.
また、特徴量とブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブルが用意される。ここで、ある特徴量に対応するブロックパターンは、その特徴量が得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、予め学習によって求められる。 In addition, a matching block table indicating a correspondence relationship between the feature amount and the block pattern of the pixel block to be used for block matching is prepared. Here, the block pattern corresponding to a certain feature amount can detect a motion vector with high accuracy by using the pixel block to be used in block matching for the target pixel position where the feature amount is obtained as the block pattern. , Obtained by learning in advance.
このマッチングブロックテーブルから、上述した注目画素位置に係る特徴量に対応したブロックパターン情報が取得される。そして、この取得されたブロックパターン情報で示すブロックパターンの、第1のフレーム(対象フレーム)の注目画素位置に対応した第1の画素ブロック(基準ブロック)と、取得されたブロックパターン情報で示すブロックパターンの、第2のフレーム(参照フレーム)の複数の第2の画素ブロック(参照ブロック)のそれぞれとの間のマッチング演算が行われる。 From this matching block table, block pattern information corresponding to the feature amount related to the target pixel position described above is acquired. The first pixel block (reference block) corresponding to the target pixel position of the first frame (target frame) in the block pattern indicated by the acquired block pattern information, and the block indicated by the acquired block pattern information A matching operation is performed between each of the plurality of second pixel blocks (reference blocks) of the second frame (reference frame) of the pattern.
このマッチング演算は、第1の画素ブロックと第2の画素ブロックとの間の相関の程度を示す値をその結果として得ることができるものであればよい。例えば、マッチング演算は、第1の画素ブロックを構成する画素データと第2の画素ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、その求められた差分絶対値の和を求める演算とされる。また例えば、マッチング演算は、差分二乗和を求める演算とされてもよい。 This matching calculation only needs to be able to obtain a value indicating the degree of correlation between the first pixel block and the second pixel block as a result. For example, the matching operation obtains an absolute difference value between corresponding pixel data between the pixel data constituting the first pixel block and the pixel data constituting the second pixel block, and the obtained absolute difference value It is an operation for obtaining the sum of. For example, the matching operation may be an operation for obtaining a sum of squared differences.
複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、第1のフレームの注目画素位置に対応した動きベクトルが得られる。この場合、第1の画素ブロックとマッチングの程度が最良の第2のブロックの中心画素位置と注目画素値との差分ベクトルが動きベクトルとして求められる。 A motion vector corresponding to the target pixel position of the first frame is obtained based on the matching calculation result corresponding to the plurality of second pixel blocks. In this case, a difference vector between the center pixel position of the second block having the best matching level with the first pixel block and the target pixel value is obtained as a motion vector.
上述したように、この発明においては、第1のフレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、当該注目画素位置に対応した動きベクトルを精度よく検出できる。 As described above, in the present invention, when the motion vector corresponding to the target pixel position of the first frame is detected by performing block matching processing, the pixel of the block pattern corresponding to the feature amount related to the target pixel position Blocks are used, and block matching processing using pixel blocks having an appropriate block pattern can be performed, and a motion vector corresponding to the target pixel position can be detected with high accuracy.
例えば、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックは、例えば第1のフレームの注目画素位置に対応した第2のフレームのサーチエリア内の画素ブロックである。この場合、第2のフレームのサーチエリア内を対象として動きベクトルを検出できる。 For example, a plurality of second pixel blocks of the second frame that are subjected to matching calculation with the first pixel block corresponding to the target pixel position of the first frame are, for example, the first pixel block corresponding to the target pixel position of the first frame. This is a pixel block in the search area of the second frame. In this case, a motion vector can be detected in the search area of the second frame.
また例えば、第2のフレームの各画素位置毎に、その画素位置の近傍に位置する複数の画素データに基づいてその画素位置の特徴量を得、その特徴量と第2のフレームの各画素位置との対応関係を示すテーブルが生成され、このテーブルから上述した注目画素位置に係る特徴量に対応した第2のフレームの複数の画素位置が取得されるようにし、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックは、この第2のフレームの複数の画素位置に対応した画素ブロックとされる。この場合、マッチング演算をすべき第2の画素ブロックの個数を少なくできるので、演算量を大幅に低減できる。 Also, for example, for each pixel position of the second frame, a feature amount of the pixel position is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and the feature amount and each pixel position of the second frame Is generated, and a plurality of pixel positions of the second frame corresponding to the feature amount related to the target pixel position described above are acquired from the table, and the target pixel position of the first frame is acquired. The plurality of second pixel blocks in the second frame that are subjected to a matching operation with the first pixel block corresponding to the pixel block are pixel blocks corresponding to the plurality of pixel positions in the second frame. In this case, the number of second pixel blocks to be subjected to the matching calculation can be reduced, so that the calculation amount can be greatly reduced.
この発明に係るマッチングブロックテーブル生成装置は、所定フレームの注目画素位置に対応した動きベクトルを、その注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する装置であって、記憶手段と、通過画素テーブル生成手段と、動き補償画像生成手段と、ブロック評価テーブル生成手段と、マッチングブロックテーブル生成手段とを備えるものである。 The matching block table generation device according to the present invention detects a motion vector corresponding to a target pixel position of a predetermined frame by performing a block matching process using a pixel block of a block pattern corresponding to a feature amount of the target pixel position. An apparatus for generating a matching block table indicating a correspondence relationship between a feature quantity and a block pattern, which is used when storing, a storage means, a passing pixel table generation means, a motion compensation image generation means, and a block evaluation table generation Means and a matching block table generating means.
そして、記憶手段は、時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を記憶するものである。また、通過画素テーブル生成手段は、記憶手段に記憶されている第2のフレームの画像信号および第3のフレームの画像信号を用い、各ブロックパターン毎に、第2のフレームの各画素位置に対応した第3のフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、第1のフレームの各画素位置と、第2のフレームおよび第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成するものである。 The storage means is a first frame among three temporally continuous frames, the second frame that is the previous frame of the first frame, and the subsequent frame of the first frame. The image signal with the third frame is stored. The passing pixel table generating means uses the image signal of the second frame and the image signal of the third frame stored in the storage means, and corresponds to each pixel position of the second frame for each block pattern. was pixel position of the third frame, to detect performs block matching processing using the pixel block of the block pattern, and each pixel position of the first frame, the pixel position of the second frame and the third frame A passing pixel table showing the correspondence relationship is generated.
動き補償画像生成手段は、記憶手段に記憶されている第2のフレームの画像信号および第3のフレームの画像信号と、通過画素テーブル生成手段で生成された通過画素テーブルとを用い、各ブロックパターン毎に、第1のフレームの各画素位置に対応して、通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて第1のフレームの画素値を求め、第1のフレームの画像信号に対応した動き補償画像信号を生成するものである。 The motion compensated image generating means uses the second frame image signal and the third frame image signal stored in the storage means, and the passing pixel table generated by the passing pixel table generating means, and each block pattern every, corresponding to each pixel position of the first frame, obtains the pixel position of the second frame and the third frame from the passage pixel table, the first based on the pixel value of the pixel position obtained A pixel value of the frame is obtained, and a motion compensated image signal corresponding to the image signal of the first frame is generated.
ブロック評価テーブル生成手段は、記憶手段に記憶されている第1のフレームの画像信号と、動き補償画像生成手段で生成された動き補償画像信号とを用い、第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、第1のフレームの画像信号および動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、その算出された評価値を、そのブロックパターンおよび求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成するものである。 The block evaluation table generation means uses the first frame image signal stored in the storage means and the motion compensation image signal generated by the motion compensation image generation means, and uses the pixel position and block pattern of the first frame. For each combination, a feature amount is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and obtained from each of the image signal and the motion compensated image signal of the first frame corresponding to the pixel position. An evaluation value indicating the degree of correlation of the pixel block is calculated, and the calculated evaluation value is added to the value of the address corresponding to the block pattern and the calculated feature value, so that a block is obtained for each feature value. A block evaluation table indicating the correspondence between each pattern and the accumulated value of the evaluation values is generated.
マッチングブロックテーブル生成手段は、ブロック評価テーブル生成手段で生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、マッチングブロックテーブルを生成するものである。 The matching block table generation unit determines a block pattern of a pixel block to be used for block matching for each feature amount based on the block evaluation table of each feature amount generated by the block evaluation table generation unit, and a matching block A table is generated.
また、この発明に係るマッチングブロックテーブル生成方法は、所定フレームの注目画素位置に対応した動きベクトルを、その注目画素位置の特徴量に対応したブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出する際に使用される、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルを生成する方法であって、上述した通過画素テーブルを生成する第1のステップと、上述した動き補償画像信号を生成する第2のステップと、上述したブロック評価テーブルを生成する第3のステップと、上述したマッチングブロックテーブルを生成する第4のステップとを備えるものである。 Further, the matching block table generation method according to the present invention performs a block matching process using a motion vector corresponding to a target pixel position of a predetermined frame using a pixel block of a block pattern corresponding to a feature amount of the target pixel position. A method for generating a matching block table indicating a correspondence relationship between a feature quantity and a block pattern, which is used when detecting, a first step of generating the above-described passing pixel table, and the above-described motion compensation image signal , A third step of generating the block evaluation table described above, and a fourth step of generating the matching block table described above.
また、この発明に係るプログラムは、上述したマッチングブロックテーブル生成方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。 A program according to the present invention is for causing a computer to execute the above-described matching block table generation method. A computer-readable medium according to the present invention records the above-described program.
この発明においては、特徴量とブロックパターンとの対応関係を示すマッチングブロックテーブルが生成される。この場合、ある特徴量に対応するブロックパターンは、その特徴量が得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、学習によって求められる。 In the present invention, a matching block table showing the correspondence between the feature quantity and the block pattern is generated. In this case, the block pattern corresponding to a certain feature amount can detect a motion vector with high accuracy by using the pixel block to be used in block matching for the target pixel position where the feature amount is obtained as the block pattern. Sought by learning.
この発明によれば、第1のフレームの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素値に係る特徴量に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、動きベクトルを精度よく検出できる。 According to this invention, when the motion vector corresponding to the target pixel position of the first frame is detected by performing the block matching process, the pixel block having the block pattern corresponding to the feature amount related to the target pixel value is used. Thus, block matching processing using pixel blocks having an appropriate block pattern can be performed, and motion vectors can be detected with high accuracy.
またこの発明によれば、第1のフレームの注目画素位置に係る特徴量と同じ特徴量を持つ第2のフレームの複数の画素位置を取得し、第1のフレームの注目画素位置に対応した第1の画素ブロックとマッチング演算される第2のフレームの複数の第2の画素ブロックを、この取得された複数の画素位置に対応した画素ブロックとするものであり、マッチング演算をすべき第2の画素ブロックの個数を少なくできるので、演算量を大幅に低減できる。 Further, according to the present invention, a plurality of pixel positions of the second frame having the same feature amount as the feature amount related to the target pixel position of the first frame are obtained, and the second pixel position corresponding to the target pixel position of the first frame is acquired. A plurality of second pixel blocks in a second frame that are matched with one pixel block are set as pixel blocks corresponding to the obtained plurality of pixel positions. Since the number of pixel blocks can be reduced, the amount of calculation can be greatly reduced.
以下、この発明の実施の形態を図面を参照して説明する。図1は、実施の形態としての動きベクトル検出装置100の構成を示している。この動きベクトル検出装置100は、ブロックマッチング法に従って動きベクトルを検出する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration of a motion
この動きベクトル検出装置100は、画像信号が入力される入力端子101と、第1のフレームとしての対象フレームFcの画像信号を蓄積するフレームメモリ102と、第2のフレームとしての参照フレームFrの画像信号を蓄積するフレームメモリ103とを有している。
The motion
入力端子101からあるフレームの画像信号がフレームメモリ102に供給されて書き込まれる際に、このフレームメモリ102に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ103に供給されて書き込まれる。この場合、対象フレームFcの画像信号が#n−1フレームの画像信号であるとき、参照フレームFrの画像信号はその1フレーム前の#n−2フレームの画像信号となる。
When an image signal of a frame from the
また、動きベクトル検出装置100は、クラスコード生成部104を有している。このクラスコード生成部104は、対象フレームFcの各画素位置を順次注目画素位置として、当該注目画素位置に係る特徴量としてのクラスコードCLn-1を生成する。この場合、クラスコード生成部104は、フレームメモリ102に蓄積されている対象フレームFcの画像信号から、注目画素位置の近傍に位置する複数の画素データを抽出し、この複数の画素データのそれぞれを1ビットデータに符号化してクラスコードCLn-1を取得する。
In addition, the motion
ここで、注目位置の近傍に位置する複数の画素データは、例えば図2に示すように、注目画素を中心とするP1〜P9の9画素とされ、クラスコードCLn-1として9ビットコードが得られる。このクラスコードCLn-1は、例えば1ビットADRC(Adaptive Dynamic Range Coding)により求められる。 Here, as shown in FIG. 2, for example, the plurality of pieces of pixel data located in the vicinity of the target position are nine pixels P1 to P9 centered on the target pixel, and a 9-bit code is set as the class code CLn -1. can get. This class code CL n-1 is obtained, for example, by 1-bit ADRC (Adaptive Dynamic Range Coding).
1ビットADRCにおいては、複数の画素データから最大値MAXおよび最小値が検出され、さらにダイナミックレンジDR=MAX−MINが検出され、複数の画素データのそれぞれについて、その画素データから最小値MINが減算され、その減算値がDR/2で除算される。これにより、複数の画素データのそれぞれが1ビットデータに符号化され、それを所定の順番で並べたビット列がクラスコードCLn-1とされる。 In 1-bit ADRC, a maximum value MAX and a minimum value are detected from a plurality of pixel data, and further a dynamic range DR = MAX-MIN is detected. For each of a plurality of pixel data, the minimum value MIN is subtracted from the pixel data. The subtracted value is divided by DR / 2. Thereby, each of the plurality of pixel data is encoded into 1-bit data, and a bit string obtained by arranging the data in a predetermined order is set as a class code CL n−1 .
また、動きベクトル検出装置100は、フレームメモリ102に蓄積されている対象フレームFcの画像信号と、フレームメモリ103に蓄積されている参照フレームFrの画像信号と、さらにクラスコード生成部104で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1とを用いて、当該対象フレームFcの注目画素位置に対応した動きベクトルを求める動きベクトル算出部105と、この動きベクトル算出部105で得られた動きベクトルを出力する出力端子106とを有している。
In addition, the motion
図1に示す動きベクトル検出装置100の動作を説明する。
The operation of the motion
入力端子101に入力される画像信号はフレームメモリ102に供給されて書き込まれる。これにより、フレームメモリ102には、#n−1フレームの画像信号が対象フレームFcの画像信号として蓄積される。またこの際、フレームメモリ102に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ103に供給されて書き込まれる。これにより、フレームメモリ103には、#n−2フレームの画像信号が参照フレームFrの画像信号として蓄積される。
An image signal input to the
クラスコード生成部104では、対象フレームFcの各画素位置を順次注目画素位置とし、フレームメモリ102に蓄積されている対象フレームFcの画像信号に基づいて注目画素値の近傍に位置する複数の画素データが抽出され(図2参照)、この複数の画素データを用いて、当該注目画素位置に係る特徴量としてのクラスコードCLn-1が生成される。このクラスコード生成部104で生成されるクラスコードCLn-1は、動きベクトル算出部105に供給される。
In the class
動きベクトル算出部105では、フレームメモリ102に蓄積されている対象フレームFcの画像信号と、フレームメモリ103に蓄積されている参照フレームFrの画像信号と、さらにクラスコード生成部104で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1とから、当該対象フレームFcの注目画素位置に対応した動きベクトルが求められる。そして、この動きベクトル算出部105で得られた動きベクトルは出力端子106に導出される。
In the motion
次に、動きベクトル算出部105の詳細を説明する。図3は、動きベクトル算出部105の構成を示している。
この動きベクトル算出部105は、MEメモリ部121を有している。このMEメモリ部121には、クラスコードと参照フレームFrの各画素位置との対応関係を示すテーブルが記憶されている。このテーブルは、参照フレームFrの画像信号としての#n−2フレームの画像信号がフレームメモリ102に蓄積されている状態で、クラスコード生成部104で生成される当該#n−2フレームの各画素位置に係る特徴量としてのクラスコードCLn-2を用いて生成される。
Next, details of the motion
The motion
図4は、MEメモリ部121が記憶するテーブルの構造を示している。このテーブルは、特徴量アドレス0〜aと、フラグアドレス0〜bによって示される(a+1)×(b+1)個のセルにより構成される。以下、例えば、特徴量アドレス「1」、フラグアドレス「2」のセルをセル(1,2)と記述する。特徴量アドレスは、クラスコード生成部104によって生成される#n−2フレームの各画素位置に係る特徴量としてのクラスコードCLn-2に対応する。例えば、クラスコードが9ビットである場合、特徴量アドレスの最大値a=29−1となる。
FIG. 4 shows the structure of the table stored in the
特徴量アドレス0のフラグアドレス「1」以降のセルには、クラスコード生成部104によってクラスコード「000000000」が生成された#n−2フレームの画素位置の座標がラスタ順に格納される。特徴量アドレス「0」のフラグアドレス「0」のセル(0,0)には、クラスコード「000000000」が生成された画素位置の座標が既に格納されている、特徴量アドレス「0」のフラグアドレス「1」以降のセル、すなわち、使用済のセルの数が格納される。例えば、#n−2フレームの各画素位置のうち、3画素位置に対してそれぞれクラスコード「000000000」が生成された場合、セル(0,1)、セル(0,2)、セル(0,3)に3画素位置それぞれの座標が格納され、セル(0,0)に座標が格納されているセルの数である3が格納される。
In the cells after the flag address “1” of the
特徴量アドレス「1」のフラグアドレス「1」以降のセルには、クラスコード生成部104によってクラスコード「000000001」が生成された#n−2フレームの画素位置の座標がラスタ順に格納される。特徴量アドレス「1」のフラグアドレス「0」のセル(1,0)には、クラスコード「000000001」が生成された画素位置の座標が格納されている、特徴量アドレス「0」のフラグアドレス「1」以降のセルの数が格納される。例えば、#n−2フレームの各画素位置のうち、10画素位置に対して同一のクラスコード「000000001」が生成された場合、セル(1,1)、…、セル(1,10)に10画素位置それぞれの座標が格納され、セル(1,0)に、座標が格納されているセルの数である10が格納される。特徴量アドレス「2」以降のセルについても同様であるので、その説明は省略する。
In the cells after the flag address “1” of the feature amount address “1”, the coordinates of the pixel position of the # n-2 frame in which the class code “000000001” is generated by the class
また、MEメモリ部121は、上述したように記憶されているクラスコードと参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)に基づいて、クラスコード生成部104で生成される、対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した、参照フレームFrの画素位置の情報を、動きベクトルの候補位置情報として出力する。この場合、MEメモリ部121は、クラスコードCLn-1に対応した特徴量アドレスの部分を参照し、フラグアドレス「0」のセルに格納される数をmとするとき、フラグアドレス「1」〜「m」に格納される座標を動きベクトルの候補位置情報として出力する。またこの場合、MEメモリ部121は、mを動きベクトルの候補総数情報として出力する。
In addition, the
また、動きベクトル算出部105は、マッチングブロックテーブルメモリ122を有している。このメモリ122は、特徴量してのクラスコードとブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブルを記憶しており、クラスコード生成部104で生成される、対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した、ブロックパターン情報を出力する。このメモリ122は、マッチングブロックテーブルの記憶手段およびブロックパターン情報取得手段を構成している。各ブロックパターンは、ブロックの形状(四角形、十字形など)や画素数が異なるものである。
Further, the motion
図5は、マッチングブロックテーブルの一例を示している。この例では、ブロックパターンの情報として、ブロックパターン番号bが記憶されている。図6は、マッチングブロックテーブルの他の例を示している。この例では、ブロックパターンの情報として、画素位置コードが記憶されている。この画素位置コードは、中心画素位置に対する相対位置を示すものである。ここで、あるクラスコードに対応するブロックパターンは、そのクラスコードが得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、予め学習によって求められる。マッチングブロックテーブルの生成に関しては後述する。 FIG. 5 shows an example of the matching block table. In this example, a block pattern number b is stored as block pattern information. FIG. 6 shows another example of the matching block table. In this example, a pixel position code is stored as block pattern information. This pixel position code indicates a relative position with respect to the center pixel position. Here, the block pattern corresponding to a certain class code can detect a motion vector with high accuracy by using the pixel pattern to be used in block matching for the target pixel position where the class code is obtained as the block pattern. , Obtained by learning in advance. The generation of the matching block table will be described later.
また、動きベクトル算出部105は、MEメモリ部121より出力される、対象フレームFcの注目画素位置に対応した、動きベクトルの候補位置情報および候補総数情報と、メモリ122より出力される、対象フレームFcの注目画素位置に対応した、ブロックマッチングで使用すべき画素ブロックのブロックパターン情報と、フレームメモリ102(図1参照)に蓄積されている対象フレームFcの画像信号と、フレームメモリ103(図1参照)に蓄積されている参照フレームFrの画像信号とを用いて、対象フレームFcの注目画素位置に対応した動きベクトルを求める動きベクトル演算部123を有している。この動きベクトル演算部123は、マッチング演算手段および動きベクトル取得手段を構成している。
Further, the motion
すなわち、動きベクトル演算部123は、メモリ122から供給されるブロックパターン情報で示すブロックパターンの、対象フレームFcの注目画素位置に対応した、第1の画素ブロックとしての基準ブロックと、MEメモリ部121から供給される動きベクトルの候補位置情報で特定される、参照フレームFrの複数の画素位置に対応した、複数の第2の画素ブロックとしての参照ブロックのそれぞれとの間のマッチング演算を行う。また、動きベクトル演算部123は、複数の参照ブロックに対応したマッチング演算結果に基づいて、対象フレームFcの注目画素位置に対応した動きベクトルを求める。この場合、動きベクトル演算部123は、基準ブロックとマッチングの程度が最良である参照ブロックの中心画素位置と注目画素値との差分ベクトルを動きベクトルとして求める。
That is, the motion
図3に示す動きベクトル算出部105の動作を説明する。
クラスコード生成部104(図1参照)で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1は、MEメモリ部121に供給される。このMEメモリ部121には、クラスコードと参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)が記憶されている。
The operation of the motion
The class code CL n−1 as the feature amount related to the target pixel position of the target frame Fc generated by the class code generation unit 104 (see FIG. 1) is supplied to the
このMEメモリ部121からは、そのテーブルのうちクラスコードCLn-1に対応した特徴量アドレスの部分が参照され、そのクラスコードCLn-1に対応した参照フレームFrの複数の画素位置の座標が動きベクトルの候補位置情報として出力され、またその複数の画素位置の個数が動きベクトルの候補総数情報として出力される。このようにMEメモリ部121から出力される動きベクトルの候補位置情報および候補総数情報は動きベクトル演算部123に供給される。
The
また、クラスコード生成部104(図1参照)で生成された、対象フレームFcの注目画素位置に係る特徴量としてのクラスコードCLn-1は、マッチングブロックテーブルメモリ122に供給される。このメモリ122には、クラスコードとブロックマッチングで使用すべき画素ブロックのブロックパターンとの対応関係を示すマッチングブロックテーブル(図5、図6参照)が記憶されている。このメモリ122からは、そのテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応したブロックパターン情報が読み出されて出力される。このようにメモリ122から出力されるブロックパターン情報は、動きベクトル演算部123に供給される。
Further, the class code CL n−1 as the feature amount related to the target pixel position of the target frame Fc generated by the class code generation unit 104 (see FIG. 1) is supplied to the matching
動きベクトル演算部123では、メモリ122から供給されるブロックパターン情報で示すブロックパターンの、対象フレームFcの注目画素位置に対応した基準ブロックと、MEメモリ部121から供給される動きベクトルの候補位置情報で特定される、参照フレームFrの複数の画素位置に対応した、複数の参照ブロックのそれぞれとの間のマッチング演算が行われる。
In the motion
このマッチング演算は、フレームメモリ102に蓄積されている対象フレームFcの画像信号およびフレームメモリ103に蓄積されている参照フレームFrの画像信号を用いて行われる。本実施の形態においては、このマッチング演算は、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求める演算とされる。
This matching calculation is performed using the image signal of the target frame Fc stored in the
また、動きベクトル演算部123では、複数の参照ブロックに対応したマッチング演算結果に基づいて、対象フレームFcの注目画素位置に対応した動きベクトルが求められる。この場合、基準ブロックとマッチングの程度が最良である参照ブロックの中心画素位置と注目画素値との差分ベクトルが動きベクトルとして求められる。
In addition, the motion
次に、動きベクトル演算部123の詳細を説明する。図7は、動きベクトル演算部123の構成を示している。
この動きベクトル演算部123は、候補番号nを1に初期化する候補番号初期化部130と、この候補番号初期化部130における候補番号nの初期化を受けて、差分絶対値和の最小値minを初期化する最小値初期化部131を有している。最小値初期化部131は、ブロックパターン情報からブロック内の画素数を取得し、差分絶対値和の最小値minを、その最大値に初期化する。この場合、1画素の画素値が8ビットであるとき、最小値minは、(28×ブロック内の画素数)に初期化される。
Next, details of the motion
The motion
また、動きベクトル演算部123は、候補番号初期化部130における候補番号nの初期化あるいは後述する次候補番号決定部138における次の候補番号nの決定を受けて、評価値である差分絶対値和sumを0に初期化する評価値初期化部132と、この評価値初期化部132における差分絶対値和sumの初期化を受けて、候補番号nに対応した評価値である差分絶対値和sumを演算する評価値演算部133とを有している。
Further, the motion
評価値演算部133は、メモリ122(図3参照)から供給されるブロックパターン情報で示すブロックパターンに基づいて、対象フレームFcの注目画素位置に対応した基準ブロックを設定し、また参照フレームFrの候補番号nの候補位置に対応した参照ブロックを設定する。そして、この評価値演算部133は、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、差分絶対値和sumを求める。
The evaluation
また、動きベクトル演算部123は、評価値判定部134を有している。この評価値判定部134は、評価値演算部133で求められた評価値である差分絶対値和sumと、最小値初期化部131で初期化された、あるいは後述する最小値再設定部135で再設定された最小値minとを比較し、min>sumであるか否かを判定し、その判定結果を出力する。
The motion
また、動きベクトル演算部123は、最小値再設定部135と、動きベクトル番号設定部136とを有している。最小値再設定部135は、評価値判定部134の判定結果がmin>sumであることを示すとき、最小値minを、評価値演算部133で求められた差分絶対値和sumに再設定する。動きベクトル番号設定部136は、評価値判定部134の判定結果がmin>sumであることを示すとき、動きベクトル番号をそのときの候補番号nに設定する。
The motion
また、動きベクトル演算部123は、選択済み候補番号数判定部137を有している。この判定部137は、評価値判定部134で候補番号nに係る判定が行われる毎に、候補番号nが候補総数と同じであるか否かを判定し、候補番号nが候補総数と同じであるときは、動きベクトル番号設定部136で最終的に設定された動きベクトル番号を出力する。
In addition, the motion
また、動きベクトル演算部123は、候補番号判定部137の判定を受け、候補番号nが候補総数と同じでないとき、次の候補番号nを決定する次候補番号決定部138を有している。この場合、次候補番号決定部138は、候補番号nをインクリメントして、次の候補番号nを決定する。
In addition, the motion
また、動きベクトル演算部123は、判定部137から出力される動きベクトル番号を動きベクトルに変換する動きベクトル番号/動きベクトル変換部139を有している。この変換部139は、動きベクトル番号に対応した参照フレームの候補位置と対象フレームの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして求める。
Further, the motion
次に、図7に示す動きベクトル演算部123の動作を説明する。MEメモリ部121(図3参照)より出力される候補位置情報は、評価値演算部133に供給される。また、MEメモリ部121(図3参照)より出力される候補総数情報は、選択済み候補番号数判定部137に供給される。さらに、マッチングブロックテーブル122(図3参照)より出力されるブロックパターン情報は、最小値初期化部131および評価値演算部133に供給される。
Next, the operation of the motion
候補番号初期化部130では、候補番号nが1に初期化される。最小値初期化部131では、候補番号nの初期化を受けて、差分絶対値和の最小値minが、その最大値(28×ブロック内の画素数)に初期化される。この最小値初期化部131で得られる最小値minは評価値判定部134に供給される。
Candidate
また、評価値初期化部132では、候補番号nの初期化を受けて、評価値である差分絶対値和sumが0に初期化される。そして、評価値演算部133では、この差分絶対値和sumの初期化を受けて、候補番号1に対応した評価値である差分絶対値和sumが演算される。
In addition, the evaluation
この場合、評価値演算部133では、ブロックパターン情報で示すブロックパターンに基づいて、対象フレームFcの注目画素位置に対応した基準ブロックが設定され、また参照フレームFrの候補番号1の候補位置に対応した参照ブロックが設定される。そして、この評価値演算部133では、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値が求められ、さらに求められた複数の差分絶対値の和が求められることで、候補番号1の評価値である差分絶対値和sumが求められる。この評価値演算部133で求められた差分絶対値和sumは、評価値判定部134に供給される。
In this case, the evaluation
評価値演算部133では、評価値演算部133で求められた差分絶対値和sumと最小値初期化部131で初期化された最小値minとが比較され、min>sumであるか否かが判定される。この評価値判定部134の判定結果は最小値再設定部135および動きベクトル番号設定部136に供給される。最小値再設定部135では、判定結果がmin>sumであることを示すときは、最小値minが評価値演算部133で求められた差分絶対値和sumに再設定される。このように、最小値再設定部135で最小値minが再設定された場合、それ以降に評価値判定部134で使用される最小値minは、最小値初期化部131で初期化された最小値minではなく、当該再設定された最小値minとされる。また、動きベクトル番号設定部136では、判定結果がmin>sumであることを示すときは、候補番号1が動きベクトル番号として設定される。
In the evaluation
選択済み候補番号数判定部137では、評価値判定部134で候補番号1に係る判定が行われた後、候補番号1が候補総数と同じであるか否かが判定され、候補番号1が候補総数と同じであるときは、動きベクトル番号設定部136で最終的に設定された動きベクトル番号が出力される。候補番号nが候補総数と同じでないとき、次候補番号決定部138では、次の候補番号2が決定され、その候補番号2は評価値初期化部132に供給される。
In the selected candidate
以下、候補番号2について、上述した候補番号1の場合と同様の動作が行われる。以下、候補番号nが候補総数と同じ値となるまで、同様の動作が繰り返し行われる。これにより、動きベクトル番号設定部136では、候補総数分の各候補番号に対応した差分絶対値和sumのうち、最もその値が小さくなる候補番号が動きベクトル番号として最終的に設定される。そして、判定部137から動きベクトル番号/動きベクトル変換部139にその動きベクトル番号が供給される。そして、変換部139では、動きベクトル番号に対応した参照フレームFrの候補位置と対象フレームFcの注目画素位置との差分ベクトルが、対象フレームFcの注目画素位置に対応した動きベクトルとして求められる。
Thereafter, with respect to
次に、図3に示す動きベクトル算出部105における、注目画素位置に対応した動きベクトルを算出する処理について、図8に示すフローチャートを参照して説明する。
まず、ステップST11で、処理を開始し、ステップST12で、対象ブロックFcの注目画素位置に係るクラスコードCLn-1に対応した候補総数情報および候補位置情報を取得する。そして、ステップST12で、クラスコードCLn-1に対応したブロックパターン情報を取得する。
Next, processing for calculating a motion vector corresponding to the target pixel position in the motion
First, in step ST11, the process is started, and in step ST12, candidate total number information and candidate position information corresponding to the class code CL n-1 related to the target pixel position of the target block Fc are acquired. In step ST12, block pattern information corresponding to the class code CL n-1 is acquired.
その後に、ステップST14で、対象ブロックFcの注目画素位置に対応した動きベクトル情報を取得する。すなわち、ステップST15で、差分絶対値和の最小値を格納する変数minを、その最大値(28×ブロック内の画素数)に初期化する。そして、ステップST16で、候補番号nを1に初期化する。 Thereafter, in step ST14, motion vector information corresponding to the target pixel position of the target block Fc is acquired. That is, in step ST15, the variable min for storing the minimum value of the sum of absolute differences is initialized to the maximum value (2 8 × number of pixels in the block). In step ST16, the candidate number n is initialized to 1.
次に、ステップST17で、差分絶対値和の演算結果を格納する変数sumを0に初期化する。そして、ステップST18で、対象フレームFcの注目画素位置に、ステップST13で取得したブロックパターン情報で示されるブロックパターンの基準ブロックを設定し、参照フレームFrの識別番号nの候補位置に、ステップST13で取得したブロックパターン情報で示されるブロックパターンの参照ブロックを設定する。さらに、このステップST18で、基準ブロックを構成する画素データと参照ブロックを構成する画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた差分絶対値の和(差分絶対値和)を求め、変数sumに代入する。ここで、差分絶対値和の演算を、(2)式に従って行う。
Σi=|Fc(i)−Frn(i)| ・・・(2)
Next, in step ST17, a variable sum for storing the calculation result of the sum of absolute differences is initialized to zero. In step ST18, the reference block of the block pattern indicated by the block pattern information acquired in step ST13 is set at the target pixel position of the target frame Fc, and the candidate position of the identification number n of the reference frame Fr is set in step ST13. A reference block of the block pattern indicated by the acquired block pattern information is set. Further, in this step ST18, an absolute difference value between corresponding pixel data between the pixel data constituting the base block and the pixel data constituting the reference block is obtained, and the sum of the obtained absolute difference values (absolute difference) is obtained. (Sum of values) is obtained and assigned to the variable sum. Here, the calculation of the sum of absolute differences is performed according to equation (2).
Σi = | Fc (i) −Frn (i) | (2)
ただし、Fc(i)は基準ブロックにおける画素の画素値であり、Frn(i)は候補番号nの参照ブロックにおける画素の画素値である。また、Σiはiを1からL(=ブロック内の画素数)まで1ずつインクリメントしたときの総和演算を意味するものとする。そして、ステップS19で、ステップS18の演算結果である変数sumと変数minを比較し、変数sumが変数minよりも小さいか否かを判定する。変数sumが変数minよりも小さいと判定した場合、ステップST20に進む。 However, Fc (i) is the pixel value of the pixel in the standard block, and Frn (i) is the pixel value of the pixel in the reference block of candidate number n. Further, Σi means a sum operation when i is incremented by 1 from 1 to L (= number of pixels in the block). In step S19, the variable sum that is the calculation result of step S18 is compared with the variable min, and it is determined whether or not the variable sum is smaller than the variable min. If it is determined that the variable sum is smaller than the variable min, the process proceeds to step ST20.
ステップST20では、変数minを変数sumで置換し、候補番号nを動きベクトル番号として記憶する。このステップST20の処理の後、ステップST21に進む。なお、上述のステップST19で、変数sumが変数minよりも小さくないと判定された場合、ステップST20の処理をスキップし、ステップST21に進む。 In step ST20, variable min is replaced with variable sum, and candidate number n is stored as a motion vector number. After the process of step ST20, the process proceeds to step ST21. If it is determined in step ST19 that the variable sum is not smaller than the variable min, the process of step ST20 is skipped and the process proceeds to step ST21.
ステップST21では、候補番号nが候補総数と同じであるか否かを判定する。候補番号nが候補総数と同じでないときは、ステップST22で、候補番号nをインクリメントし、その後にステップST17に戻って、次の候補番号nについての処理を行う。一方、候補番号nが候補総数と同じであるときは、候補総数分の各候補番号についての処理を終了したことを意味し、ステップST23で、最終的に記憶されている動きベクトル番号に対応した、参照フレームFrの候補位置と、対象フレームFcの注目画素位置との差分ベクトルを、対象フレームFcの注目画素位置に対応した動きベクトルとして算出する。そして、ステップST24で、処理を終了する。 In step ST21, it is determined whether or not the candidate number n is the same as the total number of candidates. If the candidate number n is not the same as the total number of candidates, the candidate number n is incremented in step ST22, and then the process returns to step ST17 to perform processing for the next candidate number n. On the other hand, when the candidate number n is the same as the total number of candidates, this means that the processing for each candidate number for the total number of candidates has been completed, and in step ST23, the candidate corresponding to the motion vector number that is finally stored The difference vector between the candidate position of the reference frame Fr and the target pixel position of the target frame Fc is calculated as a motion vector corresponding to the target pixel position of the target frame Fc. And a process is complete | finished by step ST24.
以上説明したように、図1に示す動きベクトル検出装置100においては、対象フレームFcの注目画素位置に対応した動きベクトルをブロックマッチング処理を行って検出する際に、当該注目画素位置に係る特徴量としてのクラスコードCLn-1に対応したブロックパターンの画素ブロックを用いるものであり、適切なブロックパターンの画素ブロックによるブロックマッチング処理を行うことができ、当該注目画素位置に対応した動きベクトルを精度よく検出できる。
As described above, in the motion
また、図1に示す動きベクトル検出装置100においては、参照フレームFrの各画素位置毎に、その画素位置に対応した複数の画素データに基づいてその画素位置の特徴量としてのクラスコードCLn-2を得、そのクラスコードCLn-2と参照フレームFrの各画素位置との対応関係を示すテーブル(図4参照)が生成され、このテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した参照フレームFrの複数の画素位置を取得し、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックを、この参照フレームFrの複数の画素位置に対応した画素ブロックとするものであり、マッチング演算をすべき参照ブロックの個数を少なくでき、演算量を大幅に低減できる。
Further, in the motion
次に、マッチングブロックテーブルの生成について説明する。図9は、マッチングブロックテーブル生成装置200の構成を示している。
このテーブル生成装置200は、画像信号が入力される入力端子201と、連続した第1〜第3のフレームの画像信号を蓄積するフレームメモリ202〜204とを有している。
Next, generation of a matching block table will be described. FIG. 9 shows the configuration of the matching block
The
入力端子101からあるフレームの画像信号がフレームメモリ204に供給されて書き込まれる際に、このフレームメモリ204に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ203に供給されて書き込まれる。また、フレームメモリ204からあるフレームの画像信号がフレームメモリ203に供給されて書き込まれる際に、このフレームメモリ203に記憶されていた1フレーム前の画像信号が読み出されてフレームメモリ202に供給されて書き込まれる。
When an image signal of a frame from the
この場合、フレームメモリ202に第1のフレームとしての#n−2フレームの画像信号が蓄積され、フレームメモリ203に第2のフレームとしての#n−1フレームの画像信号が蓄積され、フレームメモリ204に第3のフレームとしての#nフレームの画像信号が蓄積された状態となる。
In this case, the image signal of # n-2 frame as the first frame is accumulated in the
また、テーブル生成装置200は、通過画素テーブル生成部205を有している。この通過画素テーブル生成部205は、フレームメモリ202に蓄積されている#n−2フレームの画像信号およびフレームメモリ204に蓄積されている#nフレームの画像信号を用い、各ブロックパターン毎に、#n−2フレームの各画素位置に対応した、#nフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、#n−1フレームの各画素位置と#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図10参照)を生成する。
The
図11は、通過画素テーブル生成部205の構成を示している。この通過画素テーブル生成部205は、ブロックパターンを設定するブロックパターン設定部211と、#n−2フレームの注目画素位置(xn-2,yn-2)を設定する注目画素位置設定部212とを有している。
FIG. 11 shows the configuration of the passing pixel
また、通過画素テーブル生成部205は、ブロックマッチング部213を有している。このブロックマッチング部213は、#n−2フレームに注目画素位置(xn-2,yn-2)に対応し、ブロックパターン設定部211で設定されたブロックパターンに対応した基準ブロックを設定し、また#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ブロックパターン設定部211で設定されたブロックパターンに対応した複数の参照ブロックを設定する。そして、ブロックマッチング部213は、基準ブロックと複数の参照ブロックのそれぞれとの間における差分絶対値和を順次求める。
The passing pixel
また、通過画素テーブル生成部205は、#n−2フレームの注目画素位置(xn-2,yn-2)に対応した、#nフレームの画素位置(xn,yn)を決定する対応画素位置決定部214を有している。この対応画素位置決定部214は、ブロックマッチング部213で求められた複数の参照ブロックのそれぞれに対応した差分絶対値和のうち、最小の差分絶対値和に対応した参照ブロックの中心画素位置を、#nフレームの画素位置(xn,yn)に決定する。
Further, the passing pixel
また、通過画素テーブル生成部205は、テーブル書き込み部215を有している。このテーブル書き込み部215は、注目画素位置設定部212で設定された注目画素位置(xn-2,yn-2)および対応画素位置決定部214で決定された画素位置(xn,yn)を用い、#n−1における対応画素位置Pを求める(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値を求め、この加算平均値に切り下げ処理を行って得られる画素位置xn-11と、この加算平均値に切り上げ処理を行って得られる画素位置xn-12とを求める。同様に、垂直方向に関しては、yn-2,ynの加算平均値を求め、この加算平均値に切り下げ処理を行って得られる画素位置yn-11と、この加算平均値に切り上げ処理を行って得られる画素位置yn-12とを求める。これにより、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)が得られる。
The passing pixel
さらに、テーブル書き込み部215は、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)を書き込む。
Further, the
また、通過画素テーブル生成部205は、選択済み画素数判定部216と、選択済みブロックパターン数判定部217とを有している。判定部216は、テーブル書き込み部215の処理終了を受けて、#n−2フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部212に、次の注目画素位置を設定するように促す。
The passing pixel
判定部217は、判定部216が全画素位置に対する処理が終了したと判定するとき、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部211に、次のブロックパターンを設定するように促す。
When the
次に、図11に示す通過画素テーブル生成部205の動作を説明する。
ブロックパターン設定部211では、複数のブロックパターンのうち、最初のブロックパターンが設定される。そして、注目画素位置設定部212では、#n−2フレームの最初の注目画素位置(xn-2,yn-2)が設定される。
Next, the operation of the passing pixel
The block pattern setting unit 211 sets the first block pattern among a plurality of block patterns. Then, the target pixel
ブロックマッチング部213では、#n−2フレームに注目画素位置(xn-2,yn-2)に対応し、ブロックパターン設定部211で設定されたブロックパターンに対応した基準ブロックが設定され、また#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ブロックパターン設定部211で設定されたブロックパターンに対応した複数の参照ブロックが設定される。そして、このブロックマッチング部213では、基準ブロックと複数の参照ブロックのそれぞれとの間における差分絶対値和が順次求められる。 In the block matching unit 213, the reference block corresponding to the target pixel position (x n-2 , y n-2 ) in the # n-2 frame and corresponding to the block pattern set in the block pattern setting unit 211 is set, Also, a plurality of reference blocks corresponding to the block pattern set by the block pattern setting unit 211 are set in the search area corresponding to the above noted pixel position (x n-2 , y n-2 ) of the #n frame. The The block matching unit 213 sequentially obtains the sum of absolute differences between the base block and each of the plurality of reference blocks.
このようにブロックマッチング部213で求められた複数の参照ブロックにそれぞれ対応した差分絶対値和は、対応画素位置決定部214に供給される。この対応画素位置決定部214では、この複数の参照ブロックにそれぞれ対応した差分絶対値和のうち、最小の差分絶対値和が検出され、この最小の差分絶対値に対応した参照ブロックの中心画素位置が、#nフレームの画素位置(xn,yn)に決定される。
In this manner, the sum of absolute differences corresponding to the plurality of reference blocks obtained by the block matching unit 213 is supplied to the corresponding pixel
テーブル書き込み部215では、注目画素位置設定部212で設定された注目画素位置(xn-2,yn-2)および対応画素値決定部214で決定された画素位置(xn,yn)を用い、#n−1における対応画素位置Pが求められる(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値に切り下げ処理を行って得られる画素位置xn-11と、その加算平均値に切り上げ処理を行って得られる画素位置xn-12とが求められる。同様に、垂直方向に関しては、yn-2,ynの加算平均値に切り下げ処理を行って得られる画素位置yn-11と、その加算平均値に切り上げ処理を行って得られる画素位置yn-12とが求められる。すなわち、テーブル書き込み部215では、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)が得られる。
In the
そして、このテーブル書き込み部215では、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)が書き込まれる。
In the
テーブル書き込み部215の処理終了を受けて、選択済み画素数判定部216では、#n−2フレームの全画素位置に対する処理が終了したか否かが判定される。そして、この判定部216は、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部212に、次の注目画素位置を設定するように促す。
Upon completion of the processing of the
そのため、注目画素位置設定部212で#n−2フレームの全画素位置が設定されて処理が行われるまで、上述した#n−2フレームの注目画素位置(xn-2,yn-2)に対応した処理が繰り返し行われる。これにより、通過画素テーブルメモリ205Mにおける、ブロックパターン設定部211で設定されたブロックパターンに対応した領域に、当該ブロックパターンに対応した、#n−1フレームの各画素位置と、#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図10参照)が生成される。
Therefore, the target pixel position (x n-2 , y n-2 ) of the # n-2 frame described above is processed until all pixel positions of the # n-2 frame are set and processed by the target pixel
また、選択済み画素数判定部216で#n−2フレームの全画素位置に対する処理が終了したと判定されるとき、選択済みブロックパターン数判定部217では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部217は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部211に、次のブロックパターンを設定するように促す。
When the selected pixel
そのため、ブロックパターン設定部211で全ブロックパターンが設定されて処理が行われるまで、上述した設定されたブロックパターンに対応した通過画素テーブル(図10参照)を生成する処理が繰り返し行われる。これにより、通過画素テーブル205Mには、ブロックパターン設定部211で設定される各ブロックパターンに対応した通過画素テーブルが生成される。 Therefore, the process of generating the passing pixel table (see FIG. 10) corresponding to the set block pattern is repeated until all the block patterns are set and processed by the block pattern setting unit 211. Thereby, a passing pixel table corresponding to each block pattern set by the block pattern setting unit 211 is generated in the passing pixel table 205M.
図11に示す通過画素テーブル生成部205における、通過画素テーブルを生成する処理について、図13に示すフローチャートを参照して説明する。
まず、ステップST31で、処理を開始し、ステップST32で、最初のブロックパターンを設定する。そして、ステップST33で、#n−2フレームの最初の注目画素位置(xn-2,yn-2)を設定する。
Processing for generating a passing pixel table in the passing pixel
First, in step ST31, the process is started, and in step ST32, the first block pattern is set. In step ST33, the first target pixel position (x n-2 , y n-2 ) of the # n-2 frame is set.
次に、ステップST34で、#n−2フレームに、ステップST32で設定されたブロックパターンに対応した、注目画素位置(xn-2,yn-2)を含む基準ブロックを設定する。そして、ステップST35で、#nフレームの上述の注目画素位置(xn-2,yn-2)に対応したサーチエリア内に、ステップST32で設定されたブロックパターンに対応した複数の参照ブロックを設定する。そして、このステップST35で、基準ブロックと複数の参照ブロックのそれぞれとの間でブロックマッチング処理をして、#nフレームにおける注目画素位置(xn-2,yn-2)に対応した画素位置(xn,yn)を取得する。この場合、マッチング演算結果としての差分絶対値和が最小となる参照ブロックの中心の画素位置を、画素位置(xn,yn)として取得する。 Next, in step ST34, a reference block including the target pixel position (x n-2 , y n-2 ) corresponding to the block pattern set in step ST32 is set in the # n-2 frame. In step ST35, a plurality of reference blocks corresponding to the block pattern set in step ST32 are included in the search area corresponding to the above-described target pixel position (x n-2 , y n-2 ) of the #n frame. Set. In step ST35, block matching processing is performed between the base block and each of the plurality of reference blocks, and the pixel position corresponding to the target pixel position (x n-2 , y n-2 ) in the #n frame. (X n , y n ) is acquired. In this case, the pixel position at the center of the reference block that minimizes the sum of absolute differences as the matching calculation result is acquired as the pixel position (x n , y n ).
次に、ステップST36で、ステップST33で設定された注目画素位置(xn-2,yn-2)およびステップST35で取得された画素位置(xn,yn)を用い、#n−1フレームにおける対応画素位置Pを求める(図12参照)。この場合、水平方向に関しては、xn-2,xnの加算平均値に切り下げ処理を行って得られる画素位置xn-11と、その加算平均値に切り上げ処理を行って得られる画素位置xn-12とを求める。同様に、垂直方向に関しては、yn-2,ynの加算平均値に切り下げ処理を行って得られる画素位置yn-11と、その加算平均値に切り上げ処理を行って得られる画素位置yn-12とを求める。すなわち、#n−1における対応画素位置Pとして、(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)を取得する。
Next, used in step ST36, the set noticed pixel position in step ST33 (x n-2, y n-2) and the obtained pixel positions in step ST35 (x n, y n) a, # n-1 A corresponding pixel position P in the frame is obtained (see FIG. 12). In this case, with respect to the horizontal direction, a pixel position x n−1 1 obtained by rounding down the addition average value of x n−2 and x n and a pixel position obtained by rounding up the addition average value x n-1 2 is obtained. Similarly, with respect to the vertical direction, a
そして、ステップST37で、通過画素テーブルメモリ205Mにおける、ステップST32で設定されたブロックパターンに対応した領域の、アドレス(xn-11,yn-11)、(xn-11,yn-12)、(xn-12,yn-11)、(xn-12,yn-12)に、#n−2フレームの注目画素位置(xn-2,yn-2)およびそれに対応した#nフレームの画素位置(xn,yn)を書き込む。 In step ST37, the addresses (x n−1 1, y n−1 1), (x n−1 1, y) of the area corresponding to the block pattern set in step ST32 in the passing pixel table memory 205M. n−1 2), (x n−1 2, y n−1 1), (x n−1 2, y n−1 2), the target pixel position (x n−2 , y n−2 ) and the corresponding pixel position (x n , y n ) of the #n frame are written.
次に、ステップST38で、#n−2フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST33に戻って、#n−2フレームの次の注目画素位置(xn-2,yn-2)を設定し、上述したと同様の処理を繰り返す。これにより、通過画素テーブルメモリ205Mにおける、ステップST32で設定されたブロックパターンに対応した領域には、当該ブロックパターンに対応した通過画素テーブル(図10参照)が生成される。
Next, in step ST38, it is determined whether or not the processing for all pixel positions in the # n-2 frame has been completed. If it is determined that the processing for all pixel positions has not been completed, the process returns to step ST33 to set the next target pixel position (x n-2 , y n-2 ) of the # n-2 frame. Repeat the same process. Thereby, a passing pixel table (see FIG. 10) corresponding to the block pattern is generated in an area corresponding to the block pattern set in step ST32 in the passing
また、ステップST38で、全画素位置に対する処理が終了したと判定するときは、ステップST39に進む。このステップST39では、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST32に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、通過画素テーブルメモリ205Mには、ステップST32で設定される各ブロックパターンに対応した通過画素テーブルが生成される。
If it is determined in step ST38 that the processing for all pixel positions has been completed, the process proceeds to step ST39. In step ST39, it is determined whether or not the processing for all the block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST32, the next block pattern is set, and the same processing as described above is repeated. Thus, a passing pixel table corresponding to each block pattern set in step ST32 is generated in the passing
ステップST39で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST40に進み、処理を終了する。 When it is determined in step ST39 that the processing for all the block patterns has been completed, the process proceeds to step ST40 and the processing is terminated.
図9に戻って、また、テーブル生成装置200は、MC画像生成部(動き補償画像生成部)206を有している。このMC画像生成部206は、#n−2フレームの画像信号および#nフレームの画像信号と、通過画素テーブル生成部205で生成された通過画素テーブルとを用い、各ブロックパターン毎に、#n−1フレームの各画素位置に対応して、通過画素テーブルから#n−2フレームおよび#nフレームの画素位置を求め、この求められた画素位置の画素値に基づいて#n−1フレームの画素値を求め、#n−1フレームの画像信号に対応した動き補償画像信号を生成する。
Returning to FIG. 9, the
図14は、MC画像生成部206の構成を示している。このMC画像生成部206は、ブロックパターンを設定するブロックパターン設定部221と、#n−1フレームの注目画素位置(xn-1,yn-1)を設定する注目画素位置設定部222とを有している。
FIG. 14 shows the configuration of the MC
また、MC画像生成部206は、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)の画素値を算出する画素値算出部223を有している。この画素値算出部223は、通過画素テーブル生成部205の通過画素テーブルメモリ205Mに生成された、ブロックパターン設定部221で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置を求める。
The MC
さらに、この画素値算出部223は、求められた#n−2フレームおよび#nフレームの画素位置の画素値を加算平均して、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値を算出する。例えば、図15に示すように、#n−1フレームの注目画素位置Pに対応した#n−2フレームおよび#nフレームの画素位置がQ1,Q2,R1,R2であるとき、注目画素位置Pの画素値は、画素位置Q1,Q2,R1,R2の画素値を加算平均して得られる。
Further, the pixel
また、MC画像生成部206は、書き込み部224を有している。この書き込み部224は、MC画像メモリ206Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域の、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、画素値算出部223で算出された当該注目画素位置(xn-1,yn-1)の画素値を書き込む。
The MC
また、MC画像生成部206は、選択済み画素数判定部225と、選択済みブロックパターン数判定部226とを有している。判定部225は、書き込み部224の処理終了を受けて、#n−1フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部222に、次の注目画素位置を設定するように促す。
The MC
判定部226は、判定部225が全画素位置に対する処理が終了したと判定するとき、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部221に、次のブロックパターンを設定するように促す。
When the
次に、図14に示す通過画素テーブル生成部206の動作を説明する。
ブロックパターン設定部221では、複数のブロックパターンのうち、最初のブロックパターンが設定される。そして、注目画素位置設定部222では、#n−1フレームの最初の注目画素位置(xn-2,yn-2)が設定される。
Next, the operation of the passing pixel
The block
そして、画素値算出部223では、ブロックパターン設定部221で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置が求められ、その求められた画素位置の画素値が加算平均されて、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値が算出される。このように画素値算出部223で求められた#n−1フレームの注目画素位置(xn-1,yn-1)の画素値は、書き込み部224に供給される。
Then, the pixel
書き込み部224では、MC画像メモリ206Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域の、注目画素位置設定部222で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、画素値算出部223で算出された当該注目画素位置(xn-1,yn-1)の画素値が書き込まれる。
In the
書き込み部224の処理終了を受けて、選択済み画素数判定部225では、#n−1フレームの全画素位置に対する処理が終了したか否かが判定される。そして、この判定部225は、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部222に、次の注目画素位置を設定するように促す。
Upon completion of the processing of the
そのため、注目画素位置設定部222で#n−1フレームの全画素位置が設定されて処理が行われるまで、上述した#n−1フレームの注目画素位置(xn-2,yn-2)に対応した処理が繰り返し行われる。これにより、MC画像メモリ205Mにおける、ブロックパターン設定部221で設定されたブロックパターンに対応した領域に、当該ブロックパターンに対応した、動き補償画像信号が生成される。
Therefore, the target pixel position (x n−2 , y n−2 ) of the above-described # n−1 frame is processed until processing is performed after all the pixel positions of the # n−1 frame are set by the target pixel
また、選択済み画素数判定部225で#n−1フレームの全画素位置に対する処理が終了したと判定されるとき、選択済みブロックパターン数判定部226では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部226は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部221に、次のブロックパターンを設定するように促す。
When the selected pixel
そのため、ブロックパターン設定部221で全ブロックパターンが設定されて処理が行われるまで、上述した設定されたブロックパターンに対応した動き補償画像信号を生成する処理が繰り返し行われる。これにより、MC画像メモリ206Mには、ブロックパターン設定部221で設定される各ブロックパターンに対応した動き補償画像信号が生成される。
Therefore, the process for generating the motion compensated image signal corresponding to the set block pattern is repeated until all the block patterns are set and processed by the block
図14に示すMC画像生成部206における、動き補償画像信号を生成する処理について、図16に示すフローチャートを参照して説明する。
まず、ステップST41で、処理を開始し、ステップST42で、最初のブロックパターンを設定する。そして、ステップST43で、#n−1フレームの最初の注目画素位置(xn-1,yn-1)を設定する。
Processing for generating a motion compensated image signal in the MC
First, processing is started in step ST41, and the first block pattern is set in step ST42. In step ST43, the first target pixel position (x n−1 , y n−1 ) of the # n−1 frame is set.
次に、ステップST44で、ステップST42で設定されたブロックパターンに対応した通過画素テーブル(図10参照)を参照して、ステップST43で設定された#n−1フレームの注目画素位置(xn-1,yn-1)に対応した、#n−2フレームおよび#nフレームの画素位置を求める。さらに、このステップST44で、求められた画素位置の画素値を加算平均して、#n−1フレームの注目画素位置(xn-1,yn-1)の画素値を算出する。 Next, in step ST44, with reference to the passage pixel table corresponding to the block pattern set in step ST42 (see FIG. 10), set # n-1 frame the position of the pixel of interest in step ST43 (x n- 1 , y n-1 ), the pixel positions of the # n-2 frame and the #n frame are obtained. Further, in step ST44, the pixel values at the obtained pixel positions are averaged, and the pixel value at the target pixel position (x n−1 , y n−1 ) of the # n−1 frame is calculated.
次に、ステップST45で、MC画像メモリ206Mにおける、ステップST42で設定されたブロックパターンに対応した領域の、ステップST43で設定された注目画素位置(xn-1,yn-1)に対応したアドレスに、ステップST44で算出された当該注目画素位置(xn-1,yn-1)の画素値を書き込む。
Next, in step ST45, in the
次に、ステップST46で、#n−1フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST43に戻って、#n−1フレームの次の注目画素位置(xn-1,yn-1)を設定し、上述したと同様の処理を繰り返す。これにより、MC画像メモリ206Mにおける、ステップST42で設定されたブロックパターンに対応した領域には、当該ブロックパターンに対応した動き補償画像信号が生成される。
Next, in step ST46, it is determined whether or not the processing for all pixel positions in the # n-1 frame has been completed. When it is determined that the processing for all pixel positions has not been completed, the process returns to step ST43 to set the next target pixel position (x n−1 , y n−1 ) of the # n−1 frame. Repeat the same process. Thereby, a motion compensated image signal corresponding to the block pattern is generated in an area corresponding to the block pattern set in step ST42 in the
また、ステップST46で、全画素位置に対する処理が終了したと判定するときは、ステップST47に進む。このステップST47では、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST42に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、MC画像メモリ206Mには、ステップST42で設定される各ブロックパターンに対応した動き補償画像信号が生成される。
If it is determined in step ST46 that the processing for all pixel positions has been completed, the process proceeds to step ST47. In step ST47, it is determined whether or not the processing for all the block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST42, the next block pattern is set, and the same processing as described above is repeated. Thereby, a motion compensation image signal corresponding to each block pattern set in step ST42 is generated in the
ステップST47で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST48に進み、処理を終了する。 When it is determined in step ST47 that the processing for all the block patterns has been completed, the process proceeds to step ST48 and the processing is terminated.
図9に戻って、また、テーブル生成装置200は、ブロック評価テーブル生成部207を有している。このブロック評価テーブル生成部207は、#n−1フレームの画像信号と、MC画像生成部206で生成された動き補償画像信号とを用いて、ブロック評価テーブルを生成する。すなわち、ブロック評価テーブル生成部207は、#n−1フレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置に対応した#n−1フレームの複数の画素データに基づいて、特徴量としてのクラスコードCLn-1を求めると共に、#n−1フレームの画像信号および動き補償画像信号のそれぞれからその画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、この算出された評価値を、そのブロックパターンおよび求められたクラスコードCLn-1に対応したアドレスの値に加算することで、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する。
Returning to FIG. 9, the
図17は、ブロック評価テーブル生成部207の構成を示している。このブロック評価テーブル生成部207は、#n−1フレームの注目画素位置(xn-1,yn-1)を設定する注目画素位置設定部231と、ブロックパターンを設定するブロックパターン設定部232とを有している。
FIG. 17 shows the configuration of the block evaluation
また、ブロック評価テーブル生成部207は、クラスコード生成用画素ブロック取得部233を有している。この画素ブロック取得部233は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSを取得する(図18参照)。この場合、画素ブロック取得部233は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックSとして抽出する。ここで、この複数の画素データは、上述した動きベクトル検出装置100(図1参照)のクラスコード生成部104においてクラスコードを生成するために抽出される複数の画素データと同様に、注目画素位置(xn-1,yn-1)の画素を中心とするP1〜P9の9画素とされる(図2参照)。
The block evaluation
また、ブロック評価テーブル生成部207は、画素ブロック取得部233で取得された画素ブロックSからクラスコードCLn-1を生成するクラスコード生成部234を有している。このクラスコード生成部234では、上述した動きベクトル検出装置100のクラスコード生成部104でクラスコードCLn-1を生成する場合と同様に、画素ブロックSを構成する複数の画素データのそれぞれを1ビットデータに符号化して、9ビットコードであるクラスコードCLn-1を取得する。
The block evaluation
また、ブロック評価テーブル生成部207は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックT(図18参照)を取得する評価用画素ブロック取得部235を有している。この場合、画素ブロック取得部235は、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックTとして抽出する。なお、画素ブロックTが上述したが画素ブロックSと同じであるときは、この画素ブロック取得部235として、上述した画素ブロック取得部233を兼用できる。
Further, the block evaluation
また、ブロック評価テーブル生成部207は、MC画像メモリ206Mに蓄積されている、ブロックパターン設定部232で設定されたブロックパターンに対応した動き補償画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックK(図18参照)を取得する評価用画素ブロック取得部236を有している。この場合、画素ブロック取得部236は、動き補償画像信号から、注目画素位置(xn-1,yn-1)の近傍に位置する複数の画素データを画素ブロックKとして抽出する。
The block evaluation
また、ブロック評価テーブル生成部207は、評価用画素ブロック取得部235,236でそれぞれ取得された画素ブロックT,Kに基づいて、評価値を算出する評価値算出部237を有している。評価値算出部237は、画素ブロックTを構成する複数の画素データと画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和を求める。
Further, the block evaluation
また、ブロック評価テーブル生成部207は、テーブル書き込み部238を有している。このテーブル書き込み部238は、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、評価値算出部237で算出された評価値を加算する。ここで、bは、ブロックパターン設定部232で設定されたブロックパターンの番号を示しており、CLn-1はクラスコード生成部234で生成されたクラスコードである。
Further, the block evaluation
また、ブロック評価テーブル生成部207は、選択済みブロックパターン数判定部239と、選択済み画素数判定部240とを有している。判定部239は、テーブル書き込み部238の処理終了を受けて、全ブロックパターンに対する処理が終了したか否かを判定し、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部232に、次のブロックパターンを設定するように促す。
The block evaluation
判定部240は、判定部239が全ブロックパターンに対する処理が終了したと判定するとき、#n−1フレームの全画素位置に対する処理が終了したか否かを判定し、全画素位置に対する処理が終了していないと判定するときは、注目画素位置設定部231に、次の注目画素位置を設定するように促す。
When the
次に、図17に示すブロック評価テーブル生成部207の動作を説明する。
注目画素位置設定部231では、#n−1フレームの最初の注目画素位置(xn-1,yn-1)が設定される。そして、ブロックパターン設定部232では、複数のブロックパターンのうち、最初のブロックパターンが設定される。
Next, the operation of the block evaluation
The target pixel
クラスコード生成用画素ブロック取得部233では、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSが取得される(図18参照)。この画素ブロックSはクラスコード生成部234に供給される。このクラスコード生成部234では、画素ブロックSを構成する複数の画素データのそれぞれが1ビットデータに符号化されて、9ビットコードであるクラスコードCLn-1が得られる。このクラスコードCLn-1はテーブル書き込み部238に、アドレス情報として供給される。また、ブロックパターン設定部232からテーブル書き込み部238には、ブロックパターン番号bがアドレス情報として供給される。
The class code generation pixel block acquisition unit 233 acquires a class code generation pixel block S corresponding to the target pixel position (x n−1 , y n−1 ) from the # n−1 frame image signal. (See FIG. 18). The pixel block S is supplied to the class
評価用画素ブロック取得部235では、#n−1フレームの画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックTが取得される(図18参照)。同様に、評価用画素ブロック取得部236では、MC画像メモリ206Mに蓄積されている、ブロックパターン設定部232で設定されたブロックパターンに対応した動き補償画像信号から、注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックKが取得される(図18参照)。これら画素ブロックT,Kは、それぞれ評価値算出部237に供給される。
The evaluation pixel
評価値算出部237では、画素ブロックTを構成する複数の画素データと画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和が求められる。このように評価値算出部237で算出された、ブロックパターン設定部232で設定されたブロックパターンの評価値はテーブル書き込み部238に供給される。テーブル書き込み部238は、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、評価値算出部237で算出された評価値を加算する。
In the evaluation
テーブル書き込み部238の処理終了を受けて、選択済みブロックパターン数判定部238では、全ブロックパターンに対する処理が終了したか否かが判定される。そして、この判定部238は、全ブロックパターンに対する処理が終了していないと判定するときは、ブロックパターン設定部232に、次のブロックパターンを設定するように促す。
Upon completion of the processing of the
そのため、ブロックパターン設定部232で全ブロックパターンが設定されて処理が行われるまで、上述したブロックパターンに対応した評価値を評価値算出部237で算出し、テーブル書き込み部238が、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値にその評価値を加算する処理が、繰り返し行われる。
Therefore, until all block patterns are set by the block pattern setting unit 232 and processing is performed, the evaluation value corresponding to the block pattern described above is calculated by the evaluation
これにより、ブロック評価テーブルメモリ207Mにおける、注目画素位置(xn-1,yn-1)に係る特徴量としてのクラスコードCLn-1に対応した領域に記憶されている、各ブロックパターンの値に、対応する評価値が順次加算されていく。
As a result, each block pattern stored in the area corresponding to the class code CL n−1 as the feature amount related to the target pixel position (x n−1 , y n−1 ) in the block
また、選択済みブロックパターン数判定部239で全ブロックパターンに対する処理が終了したと判定されるとき、選択済み画素数判定部240では、#n−1フレームの全画素に対する処理が終了したか否かが判定される。そして、この判定部240は、全画素に対する処理が終了していないと判定するときは、注目画素位置設定部231に、次の注目画素位置(xn-1,yn-1)を設定するように促す。
When the selected block pattern
そのため、注目画素位置設定部231で#n−1フレームの全画素位置が注目画素位置(xn-1,yn-1)として設定されて処理が行われるまで、上述した注目画素位置(xn-1,yn-1)係る処理が繰り返し行われる。これにより、ブロック評価テーブルメモリ207Mには、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。
For this reason, the target pixel position ( xn−1 , y n−1 ) is set as the target pixel position (x n−1 , y n−1 ) in the target pixel
次に、図17に示すブロック評価テーブル生成部207における、ブロック評価テーブルを生成する処理について、図19に示すフローチャートを参照して説明する。
まず、ステップST51で、処理を開始し、ステップST52で、#n−1フレームの最初の注目画素位置(xn-1,yn-1)を設定する。そして、ステップST53で、#n−1フレームの画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、クラスコード生成用の画素ブロックSを取得する(図18参照)。さらに、ステップST54で、画素ブロックSを構成する複数の画素データのそれぞれを1ビットデータに符号化して、9ビットコードであるクラスコードCLn-1を生成する。
Next, processing for generating a block evaluation table in the block evaluation
First, in step ST51, the process is started. In step ST52, the first target pixel position (x n−1 , y n−1 ) of the # n−1 frame is set. In step ST53, a pixel block S for class code generation corresponding to the target pixel position (x n−1 , y n−1 ) set in step ST52 is acquired from the image signal of # n−1 frame. (See FIG. 18). Further, in step ST54, each of a plurality of pixel data constituting the pixel block S is encoded into 1-bit data to generate a class code CL n-1 that is a 9-bit code.
次に、ステップST55で、#n−1フレームの画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックTを取得する(図18参照)。 Next, in step ST55, an evaluation pixel block T corresponding to the target pixel position (x n−1 , y n−1 ) set in step ST52 is acquired from the image signal of # n−1 frame ( (See FIG. 18).
次に、ステップST56で、最初のブロックパターンを設定する。このブロックパターンは、ブロックパターン番号bで特定され、最初はb=1とされる。そして、ステップST57で、MC画像メモリ206Mに蓄積されている、ステップST56で設定されたブロックパターンに対応した動き補償画像信号から、ステップST52で設定された注目画素位置(xn-1,yn-1)に対応した、評価用画素ブロックKを取得する(図18参照)。 Next, in step ST56, an initial block pattern is set. This block pattern is specified by a block pattern number b, and initially b = 1. In step ST57, the target pixel position (x n−1 , y n) set in step ST52 is calculated from the motion compensated image signal corresponding to the block pattern set in step ST56 stored in the MC image memory 206M. -1 ) to obtain an evaluation pixel block K (see FIG. 18).
次に、ステップST58で、ステップST55で取得された画素ブロックTを構成する複数の画素データと、ステップST57で取得された画素ブロックKを構成する複数の画素データとの間で対応する画素データ同士の差分絶対値を求め、さらに求められた複数の差分絶対値の和を求めることで、評価値としての差分絶対値和を算出する。そして、ステップST59で、ブロック評価テーブルメモリ207Mのアドレス(b,CLn-1)に記憶されている値に、ステップST58で算出された評価値を加算する。
Next, in step ST58, pixel data corresponding to each other between the plurality of pixel data constituting the pixel block T acquired in step ST55 and the plurality of pixel data constituting the pixel block K acquired in step ST57. Is obtained, and the sum of a plurality of obtained difference absolute values is obtained to calculate the sum of absolute differences as an evaluation value. In step ST59, the evaluation value calculated in step ST58 is added to the value stored in the address (b, CL n-1 ) of the block
次に、ステップST60で、全ブロックパターンに対する処理が終了したか否かを判定する。全ブロックパターンに対する処理が終了していないと判定するときは、ステップST56に戻って、次のブロックパターンを設定し、上述したと同様の処理を繰り返す。これにより、ブロック評価テーブルメモリ207Mにおける、注目画素位置(xn-1,yn-1)に係る特徴量としてのクラスコードCLn-1に対応した領域に記憶されている、各ブロックパターンの値に、対応する評価値が順次加算されていく。
Next, in step ST60, it is determined whether or not the processing for all block patterns has been completed. When it is determined that the processing for all the block patterns has not been completed, the process returns to step ST56, the next block pattern is set, and the same processing as described above is repeated. As a result, each block pattern stored in the area corresponding to the class code CL n−1 as the feature amount related to the target pixel position (x n−1 , y n−1 ) in the block
また、ステップST60で、全ブロックパターンに対する処理が終了したと判定するときは、ステップST61に進む。このステップST61では、#n−1フレームの全画素位置に対する処理が終了したか否かを判定する。全画素位置に対する処理が終了していないと判定するときは、ステップST52に戻って、次の注目画素位置(xn-1,yn-1)を設定する。これにより、ブロック評価テーブルメモリ207Mには、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。
If it is determined in step ST60 that the processing for all block patterns has been completed, the process proceeds to step ST61. In this step ST61, it is determined whether or not the processing for all pixel positions in the # n-1 frame has been completed. If it is determined that the processing for all the pixel positions has not been completed, the process returns to step ST52 to set the next target pixel position (x n−1 , y n−1 ). As a result, a block evaluation table indicating the correspondence between each of the block patterns and the accumulated value of the evaluation values is generated in the block
ステップST61で、全画素に対する処理が終了したと判定するときは、ステップST62に進み、処理を終了する。 When it is determined in step ST61 that the processing for all the pixels has been completed, the process proceeds to step ST62 and the processing is terminated.
図9に戻って、また、テーブル生成装置200は、マッチングブロックテーブル(図5、図6参照)を生成するマッチングブロックテーブル生成部208を有している。このテーブル生成部208は、上述したテーブル生成部207で生成されてブロック評価テーブルメモリ207Mに記憶されている、各クラスコードのブロック評価テーブルに基づいて、各クラスコード毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、マッチングブロックテーブルを生成する。そして、テーブル生成部208は、このように生成されるマッチングブロックテーブルを、マッチングブロックテーブルメモリ208に記憶しておく。
Returning to FIG. 9, the
本実施の形態においては、上述したようにテーブル生成部207では評価値として差分絶対値和を求めているので、テーブル生成部208は、それぞれのクラスコードに関して評価値の累積値が最小となるブロックパターンを、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定する。
In the present embodiment, as described above, since the
例えば、図20Aは、クラスコードCLaに関する、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルの内容を示している。このクラスコードCLaに関しては、累積値が最小となるブロックパターン番号baのブロックパターンが、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定される。また例えば、図20Bは、クラスコードCLbに関する、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルの内容を示している。このクラスコードCLbに関しては、累積値が最小となるブロックパターン番号1のブロックパターンが、ブロックマッチングで使用すべき画素ブロックのブロックパターンに決定される。なお、図20A,Bにおいて、bmaxはブロックパターン番号bの最大値を示している。
For example, FIG. 20A shows the contents of a block evaluation table indicating the correspondence between each of the block patterns and the accumulated value of the evaluation values regarding the class code CLa. Regarding this class code CLa, the block pattern of the block pattern number ba having the smallest accumulated value is determined as the block pattern of the pixel block to be used in block matching. Also, for example, FIG. 20B shows the contents of a block evaluation table indicating the correspondence between each block pattern and the accumulated value of the evaluation values regarding the class code CLb. Regarding this class code CLb, the block pattern of
次に、図9に示すマッチングブロックテーブル生成装置200の動作を説明する。
入力端子201から画像信号が入力され、フレームメモリ202〜204は、連続した連続した第1〜第3のフレームの画像信号が蓄積された状態となる。この場合、フレームメモリ202に第1のフレームとしての#n−2フレームの画像信号が蓄積され、フレームメモリ203に第2のフレームとしての#n−1フレームの画像信号が蓄積され、フレームメモリ204に第3のフレームとしての#nフレームの画像信号が蓄積された状態となる。
Next, the operation of the matching block
An image signal is input from the
通過画素テーブル生成部205では、フレームメモリ202に蓄積されている#n−2フレームの画像信号およびフレームメモリ204に蓄積されている#nフレームの画像信号が用いられ、通過画素テーブルが生成され、通過画素テーブルメモリ205Mに記憶される。この場合、各ブロックパターン毎に、#n−2フレームの各画素位置に対応した、#nフレームの画素位置を、そのブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出することで、#n−1フレームの各画素位置と#n−2フレームおよび#nフレームの画素位置との対応関係を示す通過画素テーブル(図2参照)が生成される。
The passing pixel
MC画像生成部206では、#n−2フレームの画像信号および#nフレームの画像信号と、通過画素テーブル生成部205で生成された、各ブロックパターンに対応した通過画素テーブルとが用いられ、補償用画像信号が生成され、MC画像メモリ206Mに記憶される。この場合、各ブロックパターン毎に、#n−1フレームの各画素位置に対応して、通過画素テーブルから#n−2フレームおよび#nフレームの画素位置を求め、この求められた画素位置の画素値に基づいて#n−1フレームの画素値を求めることで、#n−1フレームの画像信号に対応した動き補償画像信号が生成される。
The MC
ブロック評価テーブル生成部207では、#n−1フレームの画像信号と、MC画像生成部206で生成された各ブロックパターンに対応した動き補償画像信号とが用いられて、ブロック評価テーブルが生成され、ブロック評価テーブルメモリ207Mに記憶される。この場合、#n−1フレームの画素位置およびブロックパターンの組み合わせ毎に、その画素位置に対応した複数の画素データに基づいて、特徴量としてのクラスコードCLn-1を求めると共に、#n−1フレームの画像信号および動き補償画像信号のそれぞれからその画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、この算出された評価値を、そのブロックパターンおよび求められたクラスコードCLn-2に対応したアドレスの値に加算することで、各クラスコード毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成される。
In the block evaluation
マッチングブロックテーブル生成部208では、テーブル生成部207で生成されてブロック評価テーブルメモリ207Mに記憶されている、各クラスコードのブロック評価テーブルに基づいて、各クラスコード毎に、ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されて、マッチングブロックテーブルが生成され、マッチングブロックテーブルメモリ208Mに記憶される。
The matching block
このように、図9に示すマッチングブロックテーブル生成装置200により、特徴量としてのクラスコードとブロックパターンとの対応関係を示すマッチングブロックテーブルが生成される。この場合、あるクラスコードに対応するブロックパターンは、そのクラスコードが得られた注目画素位置についてのブロックマッチングで使用すべき画素ブロックをそのブロックパターンとすることで精度よく動きベクトルを検出できるように、学習によって求められる。
As described above, the matching block
なお、上述実施の形態においては、特徴量として複数の画素データをそれぞれ1ビットデータに符号化して得られたクラスコードを取得するものを示したが、特徴量はこれに限定されるものではない。特徴量は、複数の画素データの特徴を表すものであればよい。例えば、複数の画素データからなる画素ブロックに対してDCT(Discrete Cosine Transform)等の直交変換を行って得られる係数データから特徴量を得るようにしてもよい。 In the above-described embodiment, a case has been described in which a class code obtained by encoding a plurality of pixel data into 1-bit data is obtained as a feature quantity. However, the feature quantity is not limited to this. . The feature amount only needs to represent features of a plurality of pixel data. For example, the feature amount may be obtained from coefficient data obtained by performing orthogonal transformation such as DCT (Discrete Cosine Transform) on a pixel block composed of a plurality of pixel data.
また、上述実施の形態においては、マッチング演算は差分絶対値和を得る演算を示したが、これに限定されるものではない。このマッチング演算は、第1の画素ブロックと第2の画素ブロックとの間の相関の程度を示す値をその結果として得ることができるものであればよい。例えば、マッチング演算は、差分二乗和を求める演算とされてもよい。 In the above-described embodiment, the matching calculation is a calculation for obtaining the sum of absolute differences. However, the present invention is not limited to this. This matching calculation only needs to be able to obtain a value indicating the degree of correlation between the first pixel block and the second pixel block as a result. For example, the matching operation may be an operation for obtaining a difference square sum.
また、上述実施の形態においては、各処理をハードウェアで処理するように説明しているが、例えば図21に示すようなハードウェア構成のコンピュータ300を用い、ソフトウェアで処理することも当然可能である。
In the above-described embodiment, each process is described as being performed by hardware. However, for example, a
このコンピュータ300は、CPU(Central Processing Unit)331を内蔵している。このCPU31にはバス334を介して、入出力インタフェース335が接続されている。バス334には、ROM(Read Only Memory)332およびRAM(Random Access Memory)333が接続されている。
The
入出力インタフェース335には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部336、操作画面や処理結果を示す画面などを表示するCRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)等よりなる出力部337、プログラムや各種データを格納するハードディスクドライブ等よりなる記憶部338、およびモデム、LAN(Local Area Network)アダプタ等よりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部339が接続されている。また、磁気ディスク341、光ディスク342、光磁気ディスク343、および半導体メモリ344などの記録媒体に対してデータを読み書きするドライブ340が接続されている。
The input /
CPU331に上述した一連の処理を実行させるプログラムは、磁気ディスク341(フレキシブルディスクを含む)、光ディスク342(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク343(MD(Mini Disc)を含む)、もしくは半導体メモリ344に格納された状態でコンピュータ300に供給され、ドライブ340によって読み出されて記憶部338に内蔵されるハードディスクドライブにインストールされている。記憶部338にインストールされているプログラムは、入力部336に入力されるユーザからのコマンドに対応するCPU331の指令によって、記憶部338からRAM333にロードされて実行される。
Programs for causing the
なお、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。また、処理対象となる画像信号は、例えば記録媒体によって提供され、あるいは通信部318を介してネットワークから提供され、記憶部338に内蔵されるハードディスクドライブに蓄積されて処理される。
Note that the step of describing the program recorded in the recording medium includes not only the processing performed in time series according to the described order but also the processing executed in parallel or individually even if not necessarily processed in time series. Is also included. Further, the image signal to be processed is provided by, for example, a recording medium, or provided from a network via the communication unit 318, and is stored and processed in a hard disk drive built in the
また、上述実施の形態においては、参照フレームFrの各画素位置毎に、その画素位置の近傍に位置する複数の画素データに基づいてその画素位置の特徴量としてのクラスコードCLn-2を得、そのクラスコードCLn-2と参照フレームの各画素位置との対応関係を示すテーブル(図4参照)を生成し、このテーブルから対象フレームFcの注目画素位置に係るクラスコードCLn-1に対応した参照フレームFrの複数の画素位置を取得し、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックを、この参照フレームFrの複数の画素位置に対応した画素ブロックとして、演算量を大幅に低減するものを示した。 Further, in the above-described embodiment, for each pixel position of the reference frame Fr, the class code CL n-2 is obtained as a feature quantity of the pixel position based on a plurality of pixel data located in the vicinity of the pixel position. Then, a table (see FIG. 4) showing the correspondence between the class code CL n-2 and each pixel position of the reference frame is generated, and the class code CL n-1 related to the target pixel position of the target frame Fc is generated from this table. A plurality of pixel positions of the corresponding reference frame Fr are acquired, and a plurality of reference blocks of the reference frame Fr that are subjected to a matching operation with a reference block corresponding to the target pixel position of the target frame Fc As a pixel block corresponding to the above, one that greatly reduces the amount of calculation is shown.
しかし、この発明は、対象フレームFcの注目画素位置に対応した基準ブロックとマッチング演算される参照フレームFrの複数の参照ブロックが、対象フレームFcの注目画素位置に対応した参照フレームFrのサーチエリア内の画素ブロックであるもの(図23参照)にも、同様に適用でき、動きベクトルの検出精度を高めることができる。 However, according to the present invention, a plurality of reference blocks of the reference frame Fr that are subjected to a matching operation with the reference block corresponding to the target pixel position of the target frame Fc are within the search area of the reference frame Fr corresponding to the target pixel position of the target frame Fc. The pixel block (see FIG. 23) can be similarly applied, and the motion vector detection accuracy can be improved.
注目画素位置に係る特徴量に対応したブロックパターンの画素ブロックを用い、ブロックマッチング処理により動きベクトルを精度よく検出できるものであり、例えば動き補償予測符号化装置で動き補償を行うために動きベクトルを検出する用途に適用できる。 A motion vector can be accurately detected by block matching processing using a pixel block having a block pattern corresponding to the feature amount related to the target pixel position. For example, a motion vector is used to perform motion compensation in a motion compensated prediction encoding apparatus. Applicable for detecting purposes.
100・・・動きベクトル検出装置、101・・・入力端子、102,103・・・フレームメモリ、103・・・クラスコード生成部、105・・・動きベクトル算出部、106・・・出力端子、121・・・MEメモリ部、122・・・マッチングブロックテーブルメモリ、123・・・動きベクトル演算部、200・・・マッチングブロックテーブル生成装置、201・・・入力端子、202〜204・・・フレームメモリ、205・・・通過画素テーブル生成部、206・・・MC画像生成部、207・・・ブロック評価テーブル生成部、208・・・マッチングブロックテーブル生成部、300・・・コンピュータ
DESCRIPTION OF
Claims (12)
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る特徴量取得手段と、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルを記憶した記憶手段と、
上記記憶手段に記憶されているマッチングブロックテーブルから上記特徴量取得手段で得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得るブロックパターン情報取得手段と、
上記ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記ブロックパターン情報取得手段で得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行うマッチング演算手段と、
上記マッチング演算手段で求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る動きベクトル取得手段とを備え、
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出装置。 A motion vector detection apparatus that detects a motion vector by performing block matching processing using image signals of first to third frames,
Feature quantity acquisition means for extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature quantity related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Storage means for storing a matching block table indicating a correspondence relationship between the pattern and the feature amount related to the target pixel position;
Block pattern information acquisition means for obtaining block pattern information capable of identifying the positions of pixels constituting the block pattern corresponding to the feature quantity obtained by the feature quantity acquisition means from the matching block table stored in the storage means;
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained by the block pattern information obtaining unit, and the block pattern obtained by the block pattern information obtaining unit A matching calculation means for performing a matching calculation between each of the plurality of second pixel blocks of the second frame of the block pattern indicated by the information;
Motion vector acquisition means for obtaining a motion vector corresponding to a target pixel position of the first frame based on a matching calculation result corresponding to the plurality of second pixel blocks obtained by the matching calculation means ;
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A motion vector detection device that is generated .
上記テーブル生成手段で生成されたテーブルから、上記特徴量取得手段で得られた特徴量に対応した上記第2のフレームの複数の画素位置を得る画素位置取得手段とをさらに備え、
上記第2のフレームの複数の第2の画素ブロックは、それぞれ上記画素位置取得手段で得られた複数の画素位置に対応した画素ブロックである請求項1に記載の動きベクトル検出装置。 For each pixel position of the second frame, a feature amount of the pixel position is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and the feature amount and each pixel position of the second frame are Table generating means for generating a table indicating the correspondence relationship between
A pixel position acquisition unit that obtains a plurality of pixel positions of the second frame corresponding to the feature amount obtained by the feature amount acquisition unit from the table generated by the table generation unit;
The motion vector detection device according to claim 1, wherein the plurality of second pixel blocks in the second frame are pixel blocks corresponding to the plurality of pixel positions obtained by the pixel position acquisition unit, respectively.
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップとを備え、
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法。 A motion vector detection method for detecting a motion vector by performing block matching processing using image signals of first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A motion vector detection method that is generated .
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップと
を備え、
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。 In order to detect a motion vector by performing block matching processing using the image signals of the first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A computer-readable medium having recorded thereon a program for causing a computer to execute the generated motion vector detection method.
上記第1のフレームの画像信号から注目画素位置の近傍に位置する複数の画素データを抽出し、該複数の画素データに基づいて該注目画素位置に係る特徴量を得る第1のステップと、
上記第1のフレームの画像信号から取得した注目画素位置に係る画素ブロックと、上記第1のフレームの前フレームである上記第2のフレームの画像信号と上記第1のフレームの後フレームである上記第3のフレームの画像信号を用いてブロックパターン毎に求めた動き補償画像信号から取得した上記注目画素位置に対応した画素ブロックとから求めた相関の程度を示す評価値に基づいて決定されたブロックパターンと上記注目画素位置に係る特徴量との対応関係を示すマッチングブロックテーブルから、上記第1のステップで得られた特徴量に対応したブロックパターンを構成する画素の位置を識別可能なブロックパターン情報を得る第2のステップと、
上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第1のフレームの注目画素位置に対応した第1の画素ブロックと、上記第2のステップで得られたブロックパターン情報で示すブロックパターンの、上記第2のフレームの複数の第2の画素ブロックのそれぞれとの間のマッチング演算を行う第3のステップと、
上記第3のステップで求められた上記複数の第2の画素ブロックに対応したマッチング演算結果に基づいて、上記第1のフレームの注目画素位置に対応した動きベクトルを得る第4のステップと
を備え、
上記マッチングブロックテーブルは、
上記第1のフレームの画像信号と上記動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値が算出され、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルが生成され、
その生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンが決定されることで
生成されたものである
動きベクトル検出方法をコンピュータに実行させるためのプログラム。 In order to detect a motion vector by performing block matching processing using the image signals of the first to third frames,
A first step of extracting a plurality of pixel data located in the vicinity of the target pixel position from the image signal of the first frame, and obtaining a feature amount related to the target pixel position based on the plurality of pixel data;
The pixel block related to the target pixel position acquired from the image signal of the first frame, the image signal of the second frame that is the previous frame of the first frame, and the frame that is the subsequent frame of the first frame A block determined based on an evaluation value indicating the degree of correlation obtained from the pixel block corresponding to the pixel position of interest obtained from the motion compensated image signal obtained for each block pattern using the image signal of the third frame Block pattern information that can identify the positions of the pixels constituting the block pattern corresponding to the feature amount obtained in the first step from the matching block table indicating the correspondence between the pattern and the feature amount related to the target pixel position. A second step of obtaining
The first pixel block corresponding to the target pixel position of the first frame in the block pattern indicated by the block pattern information obtained in the second step, and the block pattern information obtained in the second step A third step of performing a matching operation between each of the plurality of second pixel blocks of the second frame in the block pattern shown;
And a fourth step of obtaining a motion vector corresponding to the target pixel position of the first frame based on the matching calculation result corresponding to the plurality of second pixel blocks obtained in the third step. ,
The matching block table is
Using the image signal of the first frame and the motion compensated image signal, for each combination of the pixel position and the block pattern of the first frame, the feature is based on a plurality of pixel data located in the vicinity of the pixel position And calculating an evaluation value indicating the degree of correlation of the pixel block obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensated image signal. A block evaluation table showing the correspondence between each of the block patterns and the accumulated value of the evaluation values for each feature amount by adding the value to the address value corresponding to the block pattern and the obtained feature amount Is generated,
Based on the generated block evaluation table for each feature amount, the block pattern of the pixel block to be used in the block matching is determined for each feature amount.
A program for causing a computer to execute the generated motion vector detection method.
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を記憶する記憶手段と、
上記記憶手段に記憶されている上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する通過画素テーブル生成手段と、
上記記憶手段に記憶されている上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記通過画素テーブル生成手段で生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する動き補償画像生成手段と、
上記記憶手段に記憶されている上記第1のフレームの画像信号と、上記動き補償画像生成手段で生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成するブロック評価テーブル生成手段と、
上記ブロック評価テーブル生成手段で生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成するマッチングブロックテーブル生成手段とを備えるマッチングブロックテーブル生成装置。 Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position An apparatus for generating a matching block table showing a correspondence relationship between
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Storage means for storing the image signal of
Using the second frame image signal and the third frame image signal stored in the storage means, the third frame corresponding to each pixel position of the second frame for each block pattern. The pixel position of the frame is detected by performing block matching processing using the pixel block of the block pattern, and the pixel position of the first frame, the pixel position of the second frame, and the third frame Passing pixel table generating means for generating a passing pixel table showing the correspondence relationship of
Using the image signal of the second frame and the image signal of the third frame stored in the storage means, and the passing pixel table generated by the passing pixel table generating means, for each block pattern, Corresponding to each pixel position of the first frame, pixel positions of the second frame and the third frame are obtained from the passing pixel table, and the first frame is calculated based on the pixel value of the obtained pixel position. Motion compensation image generation means for obtaining a pixel value of the frame and generating a motion compensation image signal corresponding to the image signal of the first frame;
For each combination of pixel position and block pattern of the first frame, using the image signal of the first frame stored in the storage unit and the motion compensated image signal generated by the motion compensated image generation unit In addition, a feature amount is obtained based on a plurality of pixel data located in the vicinity of the pixel position, and a pixel obtained corresponding to the pixel position from each of the image signal of the first frame and the motion compensation image signal By calculating an evaluation value indicating the degree of correlation between the blocks, and adding the calculated evaluation value to the address value corresponding to the block pattern and the obtained feature amount, a block is obtained for each feature amount. A block evaluation table generating means for generating a block evaluation table indicating the correspondence between each of the patterns and the cumulative value of the evaluation values;
Based on the block evaluation table of each feature quantity generated by the block evaluation table generating means, a block pattern of a pixel block to be used in the block matching is determined for each feature quantity, and the matching block table is generated. A matching block table generating device comprising matching block table generating means.
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップとを備えるマッチングブロックテーブル生成方法。 Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position A matching block table showing a correspondence relationship between
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Prepare the image signal of
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. 4. A matching block table generation method comprising four steps.
時間的に連続3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップと
を備えるマッチングブロックテーブル生成方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。 Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position In order to generate a matching block table showing the correspondence relationship with
Of the three consecutive frames in time, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame Prepare the image signal,
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. A computer-readable medium having recorded thereon a program for causing a computer to execute the matching block table generation method comprising the steps of 4.
時間的に連続する3つのフレームのうちの第1のフレームと、上記第1のフレームの前フレームである上記第2のフレームと、上記第1のフレームの後フレームである上記第3のフレームとのフレームの画像信号を用意し、
上記第2のフレームの画像信号および上記第3のフレームの画像信号を用い、各ブロックパターン毎に、上記第2のフレームの各画素位置に対応した上記第3のフレームの画素位置を、該ブロックパターンの画素ブロックを用いたブロックマッチング処理を行って検出し、上記第1のフレームの各画素位置と、上記第2のフレームおよび上記第3のフレームの画素位置との対応関係を示す通過画素テーブルを生成する第1のステップと、
上記第2のフレームの画像信号および上記第3のフレームの画像信号と、上記第1のステップで生成された通過画素テーブルとを用い、各ブロックパターン毎に、上記第1のフレームの各画素位置に対応して、上記通過画素テーブルから第2のフレームおよび第3のフレームの画素位置を求め、該求められた画素位置の画素値に基づいて上記第1のフレームの画素値を求め、上記第1のフレームの画像信号に対応した動き補償画像信号を生成する第2のステップと、
上記第1のフレームの画像信号と、上記第2のステップで生成された動き補償画像信号とを用い、上記第1のフレームの画素位置およびブロックパターンの組み合わせ毎に、該画素位置の近傍に位置する複数の画素データに基づいて特徴量を求めると共に、上記第1のフレームの画像信号および上記動き補償画像信号のそれぞれから該画素位置に対応して得られる画素ブロックの相関の程度を示す評価値を算出し、該算出された評価値を、該ブロックパターンおよび上記求められた特徴量に対応したアドレスの値に加算することで、各特徴量毎に、ブロックパターンのそれぞれと評価値の累積値との対応関係を示すブロック評価テーブルを生成する第3のステップと、
上記第3のステップで生成された各特徴量のブロック評価テーブルに基づいて、各特徴量毎に、上記ブロックマッチングで使用すべき画素ブロックのブロックパターンを決定し、上記マッチングブロックテーブルを生成する第4のステップと
を備えるマッチングブロックテーブル生成方法をコンピュータに実行させるためのプログラム。 Feature quantity and block pattern used when detecting a motion vector corresponding to a target pixel position of a predetermined frame by performing block matching processing using a pixel block of a block pattern corresponding to the feature quantity of the target pixel position In order to generate a matching block table showing the correspondence relationship with
Of the three consecutive frames, the first frame, the second frame that is the previous frame of the first frame, and the third frame that is the subsequent frame of the first frame; Prepare an image signal of
Using the image signal of the second frame and the image signal of the third frame, for each block pattern, the pixel position of the third frame corresponding to each pixel position of the second frame A passing pixel table that is detected by performing a block matching process using a pixel block of a pattern and indicates the correspondence between the pixel positions of the first frame and the pixel positions of the second frame and the third frame A first step of generating
Using the image signal of the second frame and the image signal of the third frame, and the passing pixel table generated in the first step, each pixel position of the first frame for each block pattern Corresponding to the passing pixel table, the pixel position of the second frame and the third frame are obtained, the pixel value of the first frame is obtained based on the pixel value of the obtained pixel position, A second step of generating a motion compensated image signal corresponding to the image signal of one frame;
Using the image signal of the first frame and the motion-compensated image signal generated in the second step, each pixel position and block pattern combination of the first frame is positioned in the vicinity of the pixel position. An evaluation value indicating a degree of correlation of pixel blocks obtained from the image signal of the first frame and the motion compensation image signal in correspondence with the pixel position, while obtaining a feature amount based on a plurality of pixel data And adding the calculated evaluation value to the address value corresponding to the block pattern and the calculated feature value, for each feature value, the accumulated value of each of the block patterns and the evaluation value. A third step of generating a block evaluation table indicating a correspondence relationship with
Based on the block evaluation table for each feature value generated in the third step, a block pattern of a pixel block to be used in the block matching is determined for each feature value, and the matching block table is generated. A program for causing a computer to execute a matching block table generation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003295514A JP4547881B2 (en) | 2003-08-19 | 2003-08-19 | Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003295514A JP4547881B2 (en) | 2003-08-19 | 2003-08-19 | Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005063319A JP2005063319A (en) | 2005-03-10 |
JP4547881B2 true JP4547881B2 (en) | 2010-09-22 |
Family
ID=34371735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003295514A Expired - Fee Related JP4547881B2 (en) | 2003-08-19 | 2003-08-19 | Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4547881B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282878A (en) * | 1992-03-31 | 1993-10-29 | Agency Of Ind Science & Technol | Associative memory |
JPH10117357A (en) * | 1996-10-09 | 1998-05-06 | Nec Corp | Motion vector detector |
-
2003
- 2003-08-19 JP JP2003295514A patent/JP4547881B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282878A (en) * | 1992-03-31 | 1993-10-29 | Agency Of Ind Science & Technol | Associative memory |
JPH10117357A (en) * | 1996-10-09 | 1998-05-06 | Nec Corp | Motion vector detector |
Also Published As
Publication number | Publication date |
---|---|
JP2005063319A (en) | 2005-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100356794C (en) | Method and apparatus for generating motion vector in lamina motion evaluation | |
US7440619B2 (en) | Image matching method and image interpolation method using the same | |
JP4224748B2 (en) | Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, recording medium, and image processing apparatus | |
WO2005084036A1 (en) | Motion vector detecting apparatus, motion vector detecting method, and computer program | |
JPH07504541A (en) | Fractal coding method and system for data | |
US20060078156A1 (en) | System and method for segmenting | |
JP2009212605A (en) | Information processing method, information processor, and program | |
JP4547881B2 (en) | Motion vector detection device and detection method, matching block table generation device and generation method, program for executing each method, and computer-readable medium storing the program | |
KR20000052551A (en) | Method and apparatus for coding moving image and medium for recording program of coding moving image | |
KR101089853B1 (en) | Apparatus and method for generating coefficient data, apparatus and method for generating coefficient-seed data, information-signal processing apparatus, program, and medium having recorded the program thereon | |
JP2527182B2 (en) | Image processing device | |
JP2010033532A (en) | Electronic apparatus, motion vector detection method and program thereof | |
CN104392452B (en) | A kind of DICOM medical image processing method based on application | |
JP4129788B2 (en) | Image data processing apparatus and method, recording medium, and program | |
JP3834805B2 (en) | Image conversion device, image conversion method, calculation device, calculation method, and recording medium | |
JP4144316B2 (en) | Image data processing apparatus and method, recording medium, and program | |
CN111539263A (en) | Video face recognition method based on aggregation countermeasure network | |
JP4239557B2 (en) | Image processing apparatus and method, recording medium, and program | |
KR100982625B1 (en) | Information signal processing device and processing method | |
JP4264531B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP2002051342A (en) | Coding apparatus, method of coding and storage medium | |
JP4264803B2 (en) | Image processing apparatus and method, learning apparatus and method, recording medium, and program | |
JP4329331B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4207763B2 (en) | Motion vector detection apparatus, motion vector detection method, and computer program | |
JP4534518B2 (en) | Image signal processing apparatus, image signal processing method, program, and medium recording the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090907 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090918 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091015 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091102 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100115 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100615 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100628 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130716 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |