JP4626158B2 - Motion vector detection apparatus, motion vector detection method, and computer program - Google Patents

Motion vector detection apparatus, motion vector detection method, and computer program Download PDF

Info

Publication number
JP4626158B2
JP4626158B2 JP2004056255A JP2004056255A JP4626158B2 JP 4626158 B2 JP4626158 B2 JP 4626158B2 JP 2004056255 A JP2004056255 A JP 2004056255A JP 2004056255 A JP2004056255 A JP 2004056255A JP 4626158 B2 JP4626158 B2 JP 4626158B2
Authority
JP
Japan
Prior art keywords
pixel
motion vector
candidate
vector
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004056255A
Other languages
Japanese (ja)
Other versions
JP2005252359A (en
Inventor
哲二郎 近藤
健治 高橋
和志 吉川
貴規 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004056255A priority Critical patent/JP4626158B2/en
Priority to CNB2005800063599A priority patent/CN100525455C/en
Priority to PCT/JP2005/002786 priority patent/WO2005084036A1/en
Publication of JP2005252359A publication Critical patent/JP2005252359A/en
Priority to KR1020067016529A priority patent/KR101098394B1/en
Priority to US11/467,777 priority patent/US8064522B2/en
Application granted granted Critical
Publication of JP4626158B2 publication Critical patent/JP4626158B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラムに関する。さらに詳細には、動画像データからの動きベクトル検出処理を実行する動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラムに関する。   The present invention relates to a motion vector detection device, a motion vector detection method, and a computer program. More specifically, the present invention relates to a motion vector detection apparatus, a motion vector detection method, and a computer program that execute a motion vector detection process from moving image data.

近年の情報処理装置、通信端末の高機能化、高速通信インフラの整備、さらに、DVD、Blu−rayディスクなどの高密度記録媒体の普及などに伴い、ネットワークを介した動画像データの配信、あるいは高密度記録媒体を利用した動画像データの記憶、再生などが盛んに行なわれるようになってきた。このような状況に伴って、動画像データに対するデータ処理、例えば符号化処理などにおける効率性や高速性の向上が求められている。   With the recent enhancement of information processing devices and communication terminals, high-speed communication infrastructure, and the spread of high-density recording media such as DVDs and Blu-ray discs, Storage and reproduction of moving image data using a high-density recording medium has been actively performed. Along with this situation, there is a demand for improved efficiency and high speed in data processing for moving image data, for example, encoding processing.

動画像データの高能率符号化における動き補償型画像符号化、交通監視システムあるいは自律走行車両の視覚センサにおける動物体の検出処理、速度検出処理などにおいては、画像データ中に含まれる各物体の動きの方向および大きさ(速度)を検出する処理、すなわち、動きベクトルの検出処理が必要となる。   Motion-compensated image coding in high-efficiency coding of moving image data, moving object detection processing, speed detection processing, etc. in a visual sensor of a traffic monitoring system or autonomous vehicle, movement of each object included in the image data Therefore, a process for detecting the direction and magnitude (speed) of the image, that is, a motion vector detection process is required.

例えば、動き補償型画像符号化処理の一例として、動画の高能率符号化の国際的標準方式であるMPEG(Moving Picture Coding Experts Group)方式が提案されているが、このMPEG方式は、DCT(Discrete Cosine Transform)と動き補償予測符号化とを組み合わせた符号化を行なう方式である。動き補償予測符号化においては、動画像データを構成する現フレームと、1つ前の前フレームの連続フレームにおける画像信号レベルの相関を検出し、検出した相関に基づいて動きベクトルを求め、検出した動きベクトルに基づく動き画像の補正処理を行うことで、効率的な符号化を達成している。   For example, as an example of motion compensation type image encoding processing, an MPEG (Moving Picture Coding Experts Group) method, which is an international standard method for high-efficiency video encoding, has been proposed. This MPEG method is a DCT (Discrete). This is a method of performing coding that combines (Coscine Transform) and motion compensated prediction coding. In motion-compensated predictive coding, a correlation between image signal levels in a current frame constituting moving image data and a continuous frame of the immediately preceding frame is detected, and a motion vector is obtained based on the detected correlation. Efficient encoding is achieved by performing a motion image correction process based on the motion vector.

動きベクトルの検出方法の一つとして、ブロックマッチング法が知られている。図1を参照して、ブロックマッチング法の概要を説明する。動画像を構成する時間的に連続するフレーム画像、例えば図に示す時間(t)の現フレーム[F]20と、時間(t−1)の前フレーム[Ft−1]10を抽出する。フレーム画像の1画面を複数の画素で構成される小さな領域(以下、ブロックと称する)m画素×nラインに分割する。 As one of motion vector detection methods, a block matching method is known. The outline of the block matching method will be described with reference to FIG. For example, a current frame [F t ] 20 at time (t) and a previous frame [F t-1 ] 10 at time (t−1) shown in the figure are extracted. . One screen of the frame image is divided into small areas (hereinafter referred to as blocks) composed of a plurality of pixels, m pixels × n lines.

現フレーム[F]20を参照フレームとし、参照フレームの検査ブロックBy21を、所定のサーチエリア22内で移動し、前フレーム[Ft−1]10の基準ブロックBx11と最も画素値差分の少ない、すなわち画素値が最も合致する(最も相関の大きな)検査ブロックを検出する。前フレーム[Ft−1]10の基準ブロックBx11が、この現フレーム[F]20から検出した相関の高い検査ブロックの位置に動いたと推定する。この推定された動きを示すベクトルに基づいて、各画素の動きベトクルを求める。このように、ブロックマッチング法は、所定のブロック(m×n)単位で、フレーム間の相関判定(マッチング判定)処理を行い、動きベクトルを求める手法である。 The current frame [F t ] 20 is set as a reference frame, and the check block By21 of the reference frame is moved within a predetermined search area 22, and has the smallest pixel value difference from the reference block Bx11 of the previous frame [F t-1 ] 10. That is, the test block having the best pixel value (the most correlated) is detected. It is estimated that the reference block Bx11 of the previous frame [F t−1 ] 10 has moved to the position of the highly correlated test block detected from the current frame [F t ] 20. Based on the vector indicating the estimated motion, a motion vector of each pixel is obtained. As described above, the block matching method is a method for obtaining a motion vector by performing a correlation determination (matching determination) process between frames in a predetermined block (m × n) unit.

ブロックマッチング法において、動きベクトルはブロック毎に求められる。各ブロックの相関、すなわち合致の程度を表す評価値としては、例えば、基準ブロックBx内の複数の画素と、検査ブロックBy内の複数の画素との間で空間的に同一位置の画素同士の値を減算してフレーム差を求め、算出したフレーム差の絶対値を積算することで算出されるフレーム差絶対値和が適用される。あるいは、フレーム差の二乗和等を使用することも可能である。   In the block matching method, a motion vector is obtained for each block. As an evaluation value representing the correlation of each block, that is, the degree of coincidence, for example, values of pixels at the same spatial position between a plurality of pixels in the reference block Bx and a plurality of pixels in the inspection block By The frame difference is obtained by subtracting the frame difference, and the sum of the absolute values of the calculated frame differences is added. Alternatively, the sum of squares of frame differences can be used.

しかし、上述のブロックマッチング法は、サーチエリア内の全てのデータの比較を行う全探索であるため、検出に要する比較の回数が非常に多く、動き検出に時間がかかる欠点があった。   However, since the block matching method described above is a full search for comparing all data in the search area, the number of comparisons required for detection is very large, and there is a drawback that it takes time for motion detection.

また、ブロック内に動き部分と静止部分とが含まれるような場合、ブロックを単位として検出された動きは、正確にはブロック内の個々の画素の動きに対応するとは言えない。このような問題は、ブロックサイズの設定により調整可能であるが、例えば、ブロックを大きくすると、演算量の増大に加えて、ブロック内の複数動きの問題が発生し易くなる。逆に、ブロック内に複数の動きが含まれないように、ブロックのサイズを小さくした場合には、マッチングの判断の領域が小さくなるので、動き検出の精度が低下する問題が生じる。すなわち、ブロックマッチングを行う際、基準ブロックと似た検査ブロック、すなわち基準ブロックと相関の高い検査ブロックが多数出現する可能性が高くなる。これらは、動きに起因しないものが含まれるからであり、動き検出の精度が低下する。例えば、文字テロップが水平または垂直方向に動く時には、反復パターンの影響が現れやすい。漢字の文字パターンの場合では、同じ文字でも、小さな部分に分割すると、同一のパターンとなることが多い。従って、ブロック内に複数の動きが混在する場合には、正確な動きを求めることが難しいという問題があった。   In addition, when a moving part and a stationary part are included in a block, it cannot be said that the movement detected in units of blocks corresponds to the movement of individual pixels in the block. Such a problem can be adjusted by setting the block size. For example, if the block is enlarged, the problem of multiple motions in the block is likely to occur in addition to an increase in the amount of calculation. On the other hand, when the block size is reduced so that a plurality of motions are not included in the block, the matching determination area is reduced, which causes a problem that the accuracy of motion detection is lowered. That is, when block matching is performed, there is a high possibility that many inspection blocks similar to the reference block, that is, many inspection blocks having a high correlation with the reference block appear. This is because those not caused by motion are included, and the accuracy of motion detection decreases. For example, when a character telop moves in a horizontal or vertical direction, the influence of a repetitive pattern tends to appear. In the case of kanji character patterns, the same character often has the same pattern when divided into small parts. Therefore, there is a problem that it is difficult to obtain an accurate movement when a plurality of movements are mixed in a block.

本特許出願に係る出願人は、例えば特許文献1において、演算量を増大させることなく、1画素毎の動きベクトルを検出でき、且つ、誤検出を防止した動きベクトル検出方法および検出装置を提案している。   The applicant of the present patent application proposes a motion vector detection method and a detection apparatus that can detect a motion vector for each pixel without increasing the amount of calculation and prevent erroneous detection in Patent Document 1, for example. ing.

特許文献1において開示している動きベクトル検出処理のポイントは、画素またはブロック毎に評価値を算出して動きベクトルを決定するのではなく、第1ステップの処理として、フレームの一方に複数画素からなる複数ブロックを設定して、各ブロックの代表点を設定し、各代表点と他方のフレームに設定したサーチエリアの各画素との相関を調べ、相関情報に基づく評価値を算出して、評価値に基づく相関情報としての評価値テーブルを形成し、その評価値テーブルから、複数の候補ベクトルを抽出する。次に、第2ステップの処理として、抽出した候補ベクトルから、1画素毎に最良と思われる候補ベクトルを選択して対応付けて、各画素毎の動きベクトルとして決定する。このように、
評価値テーブルの生成処理、
評価値テーブルに基づく候補ベクトルの選択処理、
各画素対応の動きベクトルとして、複数の候補ベクトルから最適なものを対応付ける処理
以上の処理によって、各画素毎の動きベクトルを求める方式である。この方式を、以下、候補ベクトル方式と称する。
The point of the motion vector detection process disclosed in Patent Document 1 is that a motion vector is not determined by calculating an evaluation value for each pixel or block, but as a first step process, a plurality of pixels are added to one of the frames. Set multiple blocks, set representative points of each block, examine the correlation between each representative point and each pixel in the search area set in the other frame, calculate the evaluation value based on the correlation information, and evaluate An evaluation value table as correlation information based on values is formed, and a plurality of candidate vectors are extracted from the evaluation value table. Next, as a process of the second step, a candidate vector that seems to be the best for each pixel is selected from the extracted candidate vectors and associated with them, and determined as a motion vector for each pixel. in this way,
Evaluation value table generation processing,
Candidate vector selection processing based on the evaluation value table,
Process for associating an optimal one of a plurality of candidate vectors as a motion vector corresponding to each pixel This is a method for obtaining a motion vector for each pixel by the above process. This method is hereinafter referred to as a candidate vector method.

候補ベクトル方式による動きベクトル検出処理の利点は、評価値テーブルに基づいて、限られた数の候補ベクトルを抽出しておくことで、演算量の軽減が図れること。また、動きベクトルの誤検出が起りやすい被写体の境界部分においても、予め絞り込んである候補ベクトルの中から、各画素に対応する最良の動きベクトルを判定することが可能となることなどがある。従来は、各画素の動きベクトルをフレーム間の画素の差分などを評価値として算出し、評価値をフレーム全画素について求める全探索処理を実行する方式がとられていたが、候補ベクトル方式では、予め絞り込んである候補ベクトルの中から、各画素に対応する最良の動きベクトルを判定する処理が可能であるので、全探索処理と比較して、同じ評価値が発生する確率が減り、誤検出が防止される。   The advantage of the motion vector detection processing by the candidate vector method is that the calculation amount can be reduced by extracting a limited number of candidate vectors based on the evaluation value table. In addition, even in a boundary portion of a subject where erroneous detection of a motion vector is likely to occur, it may be possible to determine the best motion vector corresponding to each pixel from candidate vectors narrowed down in advance. Conventionally, a method has been adopted in which a motion vector of each pixel is calculated as a pixel difference between frames as an evaluation value, and a full search process is performed to obtain an evaluation value for all pixels in the frame. Since it is possible to determine the best motion vector corresponding to each pixel from the candidate vectors that have been narrowed down in advance, the probability that the same evaluation value will occur is reduced compared to the full search process, and erroneous detection is prevented. Is prevented.

しかし、この候補ベクトルに基づいて、各画素対応の最終的な動きベクトルを決定する際には、ブロックマッチング処理が行なわれる。ブロックマッチング処理は、前フレームの着目画素の近傍の画素をブロックとして設定し、ブロック内に含まれる複数の画素の全体的な相関を検出する処理である。ブロックマッチングを適用して正確な動きベクトルの決定処理を行なうためには、ブロックサイズを大きくし正確な相関判定を行なうことが必要となる。ブロックサイズを大きくすると、相関算出のための演算として実行される差分絶対値総和演算の様な評価値の計算量が多くなり、効率が低下し、また、画素値を保持するためのメモリも大きくすることが必要となり、ハードウェア規模が大きくなるという問題点を生じさせる。
特開2001−61152号公報
However, block matching processing is performed when determining the final motion vector corresponding to each pixel based on this candidate vector. The block matching process is a process for setting a pixel in the vicinity of the target pixel in the previous frame as a block and detecting the overall correlation of a plurality of pixels included in the block. In order to perform accurate motion vector determination processing by applying block matching, it is necessary to increase the block size and perform accurate correlation determination. When the block size is increased, the amount of calculation of evaluation values such as the sum of absolute differences executed as the calculation for correlation calculation increases, the efficiency decreases, and the memory for holding pixel values also increases. This causes a problem that the hardware scale becomes large.
JP 2001-61152 A

本発明は、上述の問題点に鑑みてなされたものであり、例えば候補ベクトル方式に基づく動きベクトル検出処理において、複数の候補ベクトルから各画素対応の動きベクトルを決定する際にブロックマッチングを適用せず、正確な動きベクトルの決定を行なうことを可能とした動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of the above problems. For example, in motion vector detection processing based on a candidate vector method, block matching is applied when determining a motion vector corresponding to each pixel from a plurality of candidate vectors. It is an object of the present invention to provide a motion vector detection device, a motion vector detection method, and a computer program that enable accurate motion vector determination.

本発明の第1の側面は、
動画像データから動きベクトルを検出する動きベクトル検出装置であり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成する評価値テーブル形成部と、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出する候補ベクトル抽出部と、
前記候補ベクトルから各画素に対応する動きベクトルを決定する動きベクトル決定部とを有し、
前記動きベクトル決定部は、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定する構成であり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出し、該差分と予め規定した閾値との比較を実行して、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定することを特徴とする動きベクトル検出装置にある。
The first aspect of the present invention is:
A motion vector detection device for detecting a motion vector from moving image data;
An evaluation value table forming unit that generates an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction unit that detects a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A motion vector determination unit that determines a motion vector corresponding to each pixel from the candidate vector,
The motion vector determination unit
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri configuration der to determine the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process that executes the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the neighborhood region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A motion vector detection apparatus is characterized in that a motion vector corresponding to a pixel of interest is determined based on a correlation determination process based on a positional relationship .

さらに、本発明の動きベクトル検出装置の一実施態様において、前記動きベクトル決定部は、動きベクトルを対応付ける着目画素の近傍領域から隣接画素との画素値差分絶対値が最大の画素を特徴画素として抽出することを特徴とする。 Furthermore, in one embodiment of the motion vector detection device of the present invention, the motion vector determination unit extracts, as a feature pixel, a pixel having a maximum pixel value difference absolute value from an adjacent pixel from a neighboring region of the pixel of interest associated with the motion vector. It is characterized by doing.

さらに、本発明の動きベクトル検出装置の一実施態様において、前記動きベクトル決定部は、動きベクトルを対応付ける着目画素の近傍領域から複数の特徴画素を抽出することを特徴とする。 Furthermore, in an embodiment of the motion vector detection device of the present invention, the motion vector determination unit extracts a plurality of feature pixels from a neighborhood region of the pixel of interest associated with the motion vector.

さらに、本発明の動きベクトル検出装置の一実施態様において、前記動きベクトル決定部は、動きベクトルを対応付ける着目画素の近傍領域から着目画素との画素値差分の最大の画素と最小の2つの画素を特徴画素として抽出することを特徴とする。 Furthermore, in one embodiment of the motion vector detection device of the present invention, the motion vector determination unit calculates a maximum pixel and a minimum of two pixels having a pixel value difference from the pixel of interest from a neighboring region of the pixel of interest associated with the motion vector. and extracting as a feature pixel.

さらに、本発明の第2の側面は、
動画像データから動きベクトルを検出する動きベクトル検出方法であり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成する評価値テーブル形成ステップと、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出する候補ベクトル抽出ステップと、
前記候補ベクトルから各画素に対応する動きベクトルを決定する動きベクトル決定ステップとを有し、
前記動きベクトル決定ステップは、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定するステップであり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出し、該差分と予め規定した閾値との比較を実行して、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定することを特徴とする動きベクトル検出方法にある。
Furthermore, the second aspect of the present invention provides
A motion vector detection method for detecting a motion vector from moving image data,
An evaluation value table forming step for generating an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction step of detecting a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A motion vector determining step for determining a motion vector corresponding to each pixel from the candidate vector,
The motion vector determination step includes:
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri step der to determine the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process that executes the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the neighborhood region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A motion vector detection method is characterized in that a motion vector corresponding to a pixel of interest is determined based on a correlation determination process based on a positional relationship .

さらに、本発明の第3の側面は、
動きベクトル検出装置において、動画像データから動きベクトルを検出する処理を実行させるコンピュータ・プログラムであり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成させる評価値テーブル形成ステップと、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出させる候補ベクトル抽出ステップと、
前記候補ベクトルから各画素に対応する動きベクトルを決定させる動きベクトル決定ステップを実行させるプログラムであり、
前記動きベクトル決定ステップは、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定させるステップであり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出させて、該差分と予め規定した閾値との比較を実行させて、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出させ、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定させることを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
In the motion vector detection device, a computer program for executing processing for detecting a motion vector from moving image data,
An evaluation value table forming step for generating an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction step of detecting a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A program for executing a motion vector determination step for determining a motion vector corresponding to each pixel from the candidate vector ,
The motion vector determination step includes:
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri step der to make determining the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process for executing the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the vicinity region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A computer program is characterized in that a motion vector corresponding to a pixel of interest is determined based on a correlation determination process based on a positional relationship .

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The computer program of the present invention is, for example, a storage medium or communication medium provided in a computer-readable format to a computer system capable of executing various program codes, such as a CD, FD, or MO. It is a computer program that can be provided by a recording medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、動画像データからの動きベクトル検出処理において、各画素対応の動きベクトルを複数の候補ベクトルから選択決定する処理において、動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、その特徴画素の位置情報、または画素値情報に基づいて相関判定を実行し、動きベクトルの決定処理を行なう構成としたので、ブロックマッチング処理を適用する必要がなく、相関算出のための演算として差分絶対値総和演算などの評価値計算両を削減することができ、処理効率が向上し、また、画素値を保持するためのメモリも小さくすることが可能となりハードウェア規模の小型化が実現される。   According to the configuration of the present invention, in the motion vector detection process from moving image data, in the process of selecting and determining the motion vector corresponding to each pixel from the plurality of candidate vectors, the feature pixel is detected from the vicinity region of the target pixel to which the motion vector is associated. Since it is configured to extract and perform correlation determination based on the position information of the feature pixel or pixel value information and perform motion vector determination processing, it is not necessary to apply block matching processing, and for correlation calculation It is possible to reduce both the evaluation value calculation such as the difference absolute value sum operation as the calculation, improve the processing efficiency, and also reduce the memory for holding the pixel value, thereby reducing the hardware scale. Realized.

以下、図面を参照しながら本発明の動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラムの詳細について説明する。なお、説明は、以下の項目順に行なう。
1.代表点マッチングによる評価値テーブルの生成、候補ベクトル方式の概要
2.動きベクトル検出装置全体構成および動きベクトル検出処理手順
3.特徴画素に基づく動きベクトル決定処理の詳細
Hereinafter, a motion vector detection device, a motion vector detection method, and a computer program according to the present invention will be described in detail with reference to the drawings. The description will be made in the order of the following items.
1. 1. Generation of evaluation value table by representative point matching, overview of candidate vector method 2. Overall configuration of motion vector detection device and motion vector detection processing procedure Details of motion vector decision processing based on feature pixels

[1.代表点マッチングによる評価値テーブルの生成、候補ベクトル方式の概要]
以下、説明する動きベクトル検出処理においては、代表点マッチング法を適用する。代表点マッチング法については、本特許出願人が先に出願し、特許取得済みである特許2083999号公報に開示されている。すなわち、以下、説明する動きベクトル検出処理は、前述の背景技術の欄で説明した候補ベクトル方式(特開2001−61152号公報に開示)を適用するとともに、代表点マッチング法を利用した処理例である。
[1. Generation of evaluation value table by representative point matching, overview of candidate vector method]
Hereinafter, in the motion vector detection process described below, a representative point matching method is applied. The representative point matching method is disclosed in Japanese Patent No. 2083999, which was previously filed by the applicant of this patent and has been patented. In other words, the motion vector detection process described below is a process example using the candidate vector method (disclosed in Japanese Patent Application Laid-Open No. 2001-61152) described in the background section and using the representative point matching method. is there.

なお、以下の説明においては、動画像データを構成する1フレームを1画面として、各画面(フレーム)間の相互検証処理によってフレームにおける動きベクトル検出処理を行う例について説明するが、本発明は、このような処理例に限らず、例えば、1フレームを細分化とした1フィールドを1画面として扱い、1フィールド単位の動きベクトル検出処理を行なう場合などにも適用可能である。   In the following description, an example in which one frame constituting moving image data is set as one screen and a motion vector detection process in a frame is performed by a mutual verification process between the respective screens (frames) will be described. The present invention is not limited to such a processing example, and can be applied to, for example, a case where one field divided into one frame is treated as one screen and motion vector detection processing is performed in units of one field.

また、以下に説明する処理例は、主にテレビジョン信号に基づく動画像データに対する処理例として説明するが、本発明は、テレビジョン信号以外の様々な動画像データに対しても適用可能である。また、映像信号を処理対象とする場合においてもインターレース信号およびノンインターレース信号の何れでもよい。   The processing example described below will be described mainly as a processing example for moving image data based on a television signal. However, the present invention is also applicable to various moving image data other than a television signal. . Also, when a video signal is a processing target, either an interlace signal or a non-interlace signal may be used.

図2〜図4を参照して、本発明における動きベクトル検出処理において適用する代表点マッチング法による評価値テーブルの作成処理、評価値テーブルに基づく候補ベクトルの抽出処理、抽出した候補ベクトルに基づく各画素に対応する動きベクトル設定処理の概要について説明する。   With reference to FIGS. 2 to 4, an evaluation value table creation process based on the representative point matching method applied in the motion vector detection process according to the present invention, a candidate vector extraction process based on the evaluation value table, and each of the extracted candidate vector based processes An outline of the motion vector setting process corresponding to the pixel will be described.

動画像を構成する時間的に連続するフレーム画像、例えば図に示す時間(t)の現フレーム[F]80と、時間(t−1)の前フレーム[Ft−1]70を抽出する。 For example, a current frame [F t ] 80 at time (t) and a previous frame [F t-1 ] 70 at time (t−1) shown in FIG. .

例えば、現フレーム[F]80を参照フレームとし、前フレーム[Ft−1]70を、m画素×nラインの複数のブロックに分割し、各ブロックを代表する代表点Ryを設定する。各ブロックの代表点は、例えば、
a.ブロックの中心位置の画素値、
b.ブロック内のすべての画素の画素値の平均値、
c.ブロック内のすべての画素の画素値の中間値、
等の、ブロックを代表する画素値が対応付けられる。
For example, the current frame [F t ] 80 is a reference frame, the previous frame [F t−1 ] 70 is divided into a plurality of blocks of m pixels × n lines, and a representative point Ry representing each block is set. The representative points of each block are, for example,
a. The pixel value at the center of the block,
b. The average pixel value of all the pixels in the block,
c. An intermediate value of the pixel values of all the pixels in the block,
Etc., pixel values representing blocks are associated with each other.

代表点マッチング法では、前フレーム[Ft−1]70に設定したブロックの代表点Ry71に対応させて、現フレーム[F]80に所定のサーチエリア81を設定し、設定したサーチエリア81内に含まれる各画素の画素値と代表点Ry71の画素値との比較を行なう。サーチエリア81は例えば、p画素×qラインの画素領域として設定される。 In the representative point matching method, a predetermined search area 81 is set in the current frame [F t ] 80 corresponding to the representative point Ry 71 of the block set in the previous frame [F t−1 ] 70, and the set search area 81 is set. The pixel value of each pixel included in the pixel is compared with the pixel value of the representative point Ry71. The search area 81 is set as a pixel area of p pixels × q lines, for example.

すなわち、上記a〜cのいずれかの代表点画素値と、サーチエリア81内の各画素の画素値を比較検証して、評価値(例えば、フレーム差や判定結果)を算出する。評価値は、サーチエリア81の各偏移毎(各画素位置毎)に算出される。前フレーム[Ft−1]70に設定したブロックの代表点各々に対応して、現フレーム[F]80にサーチエリアが設定され、代表点画素値と、対応するサーチエリア内の各画素の画素値を比較に基づく評価値を取得し、1画面内の全ての代表点について積算する。従って、サーチエリアと同一の大きさの評価値テーブルが形成される。 That is, the representative point pixel value of any one of the above a to c and the pixel value of each pixel in the search area 81 are compared and verified to calculate an evaluation value (for example, frame difference or determination result). The evaluation value is calculated for each shift (each pixel position) in the search area 81. A search area is set in the current frame [F t ] 80 corresponding to each representative point of the block set in the previous frame [F t−1 ] 70, and the representative point pixel value and each pixel in the corresponding search area are set. Evaluation values based on the comparison of the pixel values are acquired and integrated for all representative points in one screen. Therefore, an evaluation value table having the same size as the search area is formed.

なお、各代表点に対応するサーチエリアは、図3(A)に示すように隣接するサーチエリアと一部が重なり合うように設定しても良い。図3(A)に示す例では、サーチエリアをp×q(画素またはライン)の領域に設定した例であり、例えば、前フレーム[Ft−1]70に設定したブロックの代表点71aに対応するサーチエリア81aと、前フレーム[Ft−1]70に設定したブロックの代表点71bに対応するサーチエリア81bとが重なりを持つ領域として設定される。 The search area corresponding to each representative point may be set so that a part thereof overlaps with an adjacent search area as shown in FIG. In the example shown in FIG. 3A, the search area is set to an area of p × q (pixels or lines). For example, the representative point 71a of the block set in the previous frame [F t−1 ] 70 is set. The corresponding search area 81a and the search area 81b corresponding to the representative point 71b of the block set in the previous frame [F t-1 ] 70 are set as an overlapping area.

このように、サーチエリアは、各代表点に対応付けられて設定され、各代表点と、その代表点に対応して設定されたサーチエリア内の画素との比較が実行されて、比較値に基づいて、例えば相関の度合いが高いほど(画素値の一致度合いが高いほど)高い評価値が設定され、各サーチエリアの構成画素に対応する評価値が設定される。   In this way, the search area is set in association with each representative point, and each representative point is compared with the pixels in the search area set in correspondence with the representative point to obtain a comparison value. Based on this, for example, the higher the degree of correlation (the higher the degree of matching of pixel values), the higher the evaluation value is set, and the evaluation values corresponding to the constituent pixels of each search area are set.

各サーチエリアにおける評価値は、図3(B)に示すように積算され、その結果として、図3(C)に示すような評価値テーブル90が生成される。評価値テーブルは、前フレーム[Ft−1]70に設定した例えばn個のブロックに設定された各ブロックの代表点Ry1〜nと、参照フレームである現フレーム[F]80に設定した各代表点Ry1〜nに対応するサーチエリア内の各画素との比較に基づく評価値、例えば差分絶対値のしきい値判定結果の積算値として算出され、サーチエリアと同一の大きさの評価値テーブルとして形成される。 The evaluation values in each search area are integrated as shown in FIG. 3B, and as a result, an evaluation value table 90 as shown in FIG. 3C is generated. The evaluation value table is set to the representative points Ry1 to Ryn of each block set to, for example, n blocks set in the previous frame [F t-1 ] 70 and the current frame [F t ] 80 which is a reference frame. An evaluation value based on a comparison with each pixel in the search area corresponding to each representative point Ry1 to n, for example, an integrated value of a threshold determination result of an absolute difference value, and an evaluation value having the same size as the search area Formed as a table.

評価値テーブル90においては、サーチエリアの各偏移位置(i,j)における画素値と代表点との相関が高い場合に、ピーク(極値)が発生する。評価値テーブルに出現するピークは、動画像データの画面の表示物体の移動に対応する。   In the evaluation value table 90, a peak (extreme value) occurs when the correlation between the pixel value and the representative point at each shift position (i, j) in the search area is high. The peak appearing in the evaluation value table corresponds to the movement of the display object on the screen of the moving image data.

例えば、画面(フレーム)全体が同一の動きをした場合は、サーチエリア(p×q)と同一の大きさの評価値テーブルにおいて、その動き方向、距離を持つベクトルの終点に対応する位置に1つのピークが出現する。また、画面(フレーム)内に2つの異なる動きをした物体があった場合は、サーチエリア(p×q)と同一の大きさの評価値テーブルにおいて、その異なる動き方向、距離を持つ2つのベクトルの終点に対応する2つの位置に2つのピークが出現する。なお、静止部分がある場合は、静止部分に対応するピークも出現する。   For example, when the entire screen (frame) moves in the same manner, the evaluation value table having the same size as the search area (p × q) has 1 in the position corresponding to the end point of the vector having the movement direction and distance. Two peaks appear. If there are two objects with different movements in the screen (frame), two vectors having different movement directions and distances in the evaluation value table having the same size as the search area (p × q). Two peaks appear at two positions corresponding to the end point of. When there is a stationary part, a peak corresponding to the stationary part also appears.

このような評価値テーブルに出現するピークに基づいて、前フレーム[Ft−1]70と、参照フレームである現フレーム[F]80とにおける動きベクトルの候補(候補ベクトル)を求める。 Based on such peaks appearing in the evaluation value table, motion vector candidates (candidate vectors) in the previous frame [F t−1 ] 70 and the current frame [F t ] 80 which is a reference frame are obtained.

評価値テーブルに出現したピークに基づいて、複数の候補ベクトルを抽出した後、フレームの各画素について、抽出した候補ベクトルから最も適応する候補ベクトルをそれぞれ選択して、各画素に対応する動きベクトルとして設定する。   After extracting a plurality of candidate vectors based on the peak appearing in the evaluation value table, for each pixel of the frame, select the most suitable candidate vector from the extracted candidate vectors, and use it as a motion vector corresponding to each pixel. Set.

抽出候補ベクトルに基づいて実行する各画素に対応する動きベクトルの設定処理について図4を参照して説明する。   A motion vector setting process corresponding to each pixel to be executed based on the extraction candidate vector will be described with reference to FIG.

図4(a)において、中央の画素91が前フレーム[Ft−1]の1つの画素を示している。この画素は例えば輝度値(α)を有している。また、前述の評価値テーブルに出現したピークに基づいて、複数の候補ベクトルが抽出済みであり、これらの候補ベクトルを図に示す候補ベクトルA,B,Cであるとする。前フレーム[Ft−1]の1つの画素91は、これらの候補ベクトルのいずれかに従って移動して、現フレーム[F]の画素に対応する位置に表示されると判定される。 In FIG. 4A, the center pixel 91 represents one pixel of the previous frame [F t-1 ]. This pixel has, for example, a luminance value (α). Also, it is assumed that a plurality of candidate vectors have already been extracted based on the peaks that have appeared in the evaluation value table, and these candidate vectors are candidate vectors A, B, and C shown in the figure. It is determined that one pixel 91 of the previous frame [F t−1 ] moves according to any of these candidate vectors and is displayed at a position corresponding to the pixel of the current frame [F t ].

図4(a)において、画素a95、画素b96、画素c97は、前フレーム[Ft−1]の1つの画素91から候補ベクトルA,B,Cに基づいて移動先として推定される各画素位置の現フレーム[F]の画素を示している。これらの3画素を含むブロックの画素値と、画素91を含むブロックの画素値との相関がブロックマッチング処理によって判定され、最も高い対応にある組が選択され、その選択した組に設定された候補ベクトルを画素91の動きベクトルとする。 In FIG. 4A, a pixel a95, a pixel b96, and a pixel c97 are pixel positions estimated as movement destinations from one pixel 91 in the previous frame [F t−1 ] based on candidate vectors A, B, and C. The pixels of the current frame [F t ] are shown. The correlation between the pixel value of the block including these three pixels and the pixel value of the block including the pixel 91 is determined by the block matching process, the pair having the highest correspondence is selected, and the candidate set in the selected pair Let the vector be the motion vector of the pixel 91.

ブロックマッチング処理を適用する理由は、1つの画素のみの対応を検査すると以下の問題点が発生するからである。
(1)着目するフレームのある画素と参照フレーム内でn個の候補ベクトルに関して、動きベクトル先の画素との相関性が同じ、もしくは似ている画素が複数存在し、どの動きベクトルが正しい動きベクトルか、相関性の高さを表す画素差分絶対値(以後MC残差と呼ぶ)だけでは判断することが困難である。
(2)正しい動きベクトルであれば、その動きベクトル先の画素とのMC残差が最も小さいと考えられるが、実際には画像データにはノイズなどの影響により、正しい動きベクトル先の画素とのMC残差が候補ベクトルの中で最小とは限らない。
The reason for applying the block matching process is that the following problem occurs when the correspondence of only one pixel is inspected.
(1) For n candidate vectors in a reference frame and n candidate vectors in a reference frame, there are a plurality of pixels having the same or similar correlation with the pixels ahead of the motion vector, and which motion vector is the correct motion vector Alternatively, it is difficult to make a determination only with a pixel difference absolute value (hereinafter referred to as an MC residual) representing a high degree of correlation.
(2) If the motion vector is correct, the MC residual with the pixel ahead of the motion vector is considered to be the smallest, but in actuality, the image data is different from the pixel behind the correct motion vector due to the influence of noise or the like. The MC residual is not necessarily the smallest among the candidate vectors.

これらの問題点があるために、1画素だけのMC残差だけでは判断できないので、ブロックサイズの複数の画素を用いて、着目する画素を中心としたブロック内の画素と候補ベクトル先のブロック内の画素の相関を検査する。   Because of these problems, it is not possible to make a judgment based on the MC residual of only one pixel. Therefore, using a plurality of pixels having a block size, the pixels in the block centering on the pixel of interest and the candidate vector destination block Check the correlation of the pixels.

具体的なブロックマッチング処理について、図4(b)を参照して説明する。図4(b)に示す様に、候補ベクトルによって指示されるブロックに含まれる複数画素の相関の指標値として、差分絶対値総和(SAD)を下式に従って算出する。

Figure 0004626158
A specific block matching process will be described with reference to FIG. As shown in FIG. 4B, the sum of absolute differences (SAD) is calculated according to the following equation as an index value for correlation of a plurality of pixels included in the block indicated by the candidate vector.
Figure 0004626158

ここでFt−1(x、y)は着目する前フレームの輝度レベル、F(x+v、y+v)は参照先の現フレームにおける動きベクトル先の輝度レベル、M×Nは評価に用いるブロックサイズである。 Here, F t-1 (x, y) is the luminance level of the previous frame of interest, F t (x + v x , y + v y ) is the luminance level of the motion vector destination in the reference current frame, and M × N is used for evaluation. Block size.

上記式によって算出される差分絶対値総和(SAD)が最小となる候補ベクトル(v,v)を着目画素の動きベクトルとする方法などが適用される。しかし、ブロックマッチングの様なブロックを用いた動きベクトル割り当では、動きベクトルの割り当て性能を向上させるためにブロックサイズを大きくする必要があるが、差分絶対値総和の様な評価値を計算するには計算量が多くなり、そのためにハードウェア規模が大きくなるという問題点を生じさせる。 For example, a method of using a candidate vector (v x , v y ) having the smallest difference absolute value sum (SAD) calculated by the above formula as a motion vector of the pixel of interest is applied. However, in motion vector allocation using blocks such as block matching, it is necessary to increase the block size in order to improve motion vector allocation performance, but to calculate evaluation values such as the sum of absolute differences Causes a problem that the amount of calculation increases, and thus the hardware scale increases.

これらの問題を解決した代表点マッチングによる動きベクトル検出処理構成については、後段の、[3.特徴画素に基づく動きベクトル決定処理の詳細]の項目において詳細に説明する。   The motion vector detection processing configuration based on representative point matching that solves these problems is described in [3. Details of motion vector determination processing based on feature pixels] will be described in detail.

なお、上述したように、代表点マッチングは、各ブロックを代表する代表点を設定し、設定した代表点のみについての評価値算出を行なって候補ベクトルを設定することが可能であり、限られた数の代表点のみの評価値算出を行なうことで、評価値算出に要する演算量を減少させることができ、高速処理が可能となる。   Note that, as described above, the representative point matching is limited because it is possible to set a representative point representing each block, calculate an evaluation value for only the set representative point, and set a candidate vector. By calculating the evaluation value of only a few representative points, the amount of calculation required for calculating the evaluation value can be reduced, and high-speed processing is possible.

[2.動きベクトル検出装置全体構成および動きベクトル検出処理手順]
動きベクトル検出処理を実行する本発明の動きベクトル検出装置の一実施例構成を図5に示し、動きベクトル検出処理の処理シーケンスを図6のフローチャートに示す。
[2. Overall configuration of motion vector detection apparatus and motion vector detection processing procedure]
FIG. 5 shows the configuration of an embodiment of the motion vector detection apparatus of the present invention for executing the motion vector detection process, and the processing sequence of the motion vector detection process is shown in the flowchart of FIG.

動きベクトル検出装置は、図5に示すように、評価値テーブル形成部101、候補ベクトル抽出部102、動きベクトル決定部103、制御部(コントローラ)104を有する。評価値テーブル形成部101は、動きベクトル検出処理対象となる画像データを入力端子を介して入力し、評価値テーブルを生成する。入力画像は、例えば、ラスタスキャンにより得られる画像データである。画像データは、例えば、ディジタルカラー映像信号のコンポーネント信号中の輝度信号を含む。   As shown in FIG. 5, the motion vector detection apparatus includes an evaluation value table forming unit 101, a candidate vector extraction unit 102, a motion vector determination unit 103, and a control unit (controller) 104. The evaluation value table forming unit 101 inputs image data to be subjected to motion vector detection processing via an input terminal, and generates an evaluation value table. The input image is image data obtained by raster scanning, for example. The image data includes, for example, a luminance signal in a component signal of a digital color video signal.

入力画像データは、評価値テーブル形成部101に供給され、前述した代表点マッチング法をベースとして、サーチエリアと同一の大きさの評価値テーブルを形成する。図6のフローにおけるステップS101の処理である。   The input image data is supplied to the evaluation value table forming unit 101, and an evaluation value table having the same size as the search area is formed based on the representative point matching method described above. This is the process of step S101 in the flow of FIG.

候補ベクトル抽出部102は、評価値テーブル形成部101において生成した評価値テーブルから、1画面内の候補ベクトルとして、複数の動きベクトルを抽出する。すなわち、前述したように、評価値テーブルに出現したピークに基づいて、複数の候補ベクトルを抽出する。図6のフローにおけるステップS102の処理である。   The candidate vector extraction unit 102 extracts a plurality of motion vectors as candidate vectors in one screen from the evaluation value table generated by the evaluation value table forming unit 101. That is, as described above, a plurality of candidate vectors are extracted based on the peaks that appear in the evaluation value table. This is the process of step S102 in the flow of FIG.

動きベクトル決定部103では、候補ベクトル抽出部102において抽出した複数の候補ベクトルを対象として、全フレームの各画素毎に、候補ベクトルによって対応付けられるフレーム間の画素間の相関をブロックマッチング等により判定し、最も相関の高い対応となったブロックを結ぶ候補ベクトルを、その画素に対応する動きベクトルとして設定する。図6のフローにおけるステップS103の処理である。この処理は、先に図4を参照して説明した処理である。   The motion vector determination unit 103 determines, for each pixel in all frames, the correlation between pixels associated with the candidate vector by block matching or the like for each of the plurality of candidate vectors extracted by the candidate vector extraction unit 102. Then, a candidate vector that connects the blocks having the highest correlation is set as a motion vector corresponding to the pixel. This is the process of step S103 in the flow of FIG. This process is the process described above with reference to FIG.

動きベクトル決定部103では、1つの画面(フレーム)に含まれるすべての画素について、候補ベクトルから最適なベクトルの選択処理を行い、各画素に対応する動きベクトルを決定し、決定した動きベクトルを出力する。前述したように、候補ベクトルから各画素に対応する動きベクトルを決定する際にはブロックマッチングが適用可能であるが、本発明においては、ブロックマッチングを適用せず、特徴画素位置情報に基づく動きベクトルの決定処理を実行する。この構成の詳細については、後段で説明する。   The motion vector determination unit 103 performs an optimal vector selection process from candidate vectors for all pixels included in one screen (frame), determines a motion vector corresponding to each pixel, and outputs the determined motion vector To do. As described above, block matching can be applied when determining a motion vector corresponding to each pixel from candidate vectors. However, in the present invention, block matching is not applied, and a motion vector based on feature pixel position information is used. Execute the determination process. Details of this configuration will be described later.

制御部104は、評価値テーブル形成部101、候補ベクトル抽出部102、動きベクトル決定部103における処理タイミングの制御、中間データのメモリに対する格納、出力処理制御などを行なう。   The control unit 104 performs processing timing control in the evaluation value table forming unit 101, candidate vector extraction unit 102, motion vector determination unit 103, storage of intermediate data in a memory, output processing control, and the like.

以上が、代表点マッチングをベースとした動きベクトル検出装置において実行する評価値テーブル生成と、候補ベクトル方式を適用した動きベクトル検出処理の概要である。   The above is the outline of the evaluation value table generation executed in the motion vector detection device based on representative point matching and the motion vector detection processing to which the candidate vector method is applied.

[3.特徴画素に基づく動きベクトル決定処理の詳細]
図5を参照して説明したように、代表点マッチングを適用した動きベクトル検出装置は、評価値テーブル形成部101、候補ベクトル抽出部102、動きベクトル決定部103を有し、評価値テーブル形成部101において、入力画像データに基づいて評価値テーブルを生成し、候補ベクトル抽出部102において、評価値テーブルから複数の候補ベクトルを抽出し、さらに、動きベクトル決定部103において、複数の候補ベクトルから各画素対応の動きベクトルを決定するという処理を行なうものである。
[3. Details of motion vector determination processing based on feature pixels]
As described with reference to FIG. 5, the motion vector detection device to which representative point matching is applied includes the evaluation value table forming unit 101, the candidate vector extracting unit 102, and the motion vector determining unit 103, and the evaluation value table forming unit 101, an evaluation value table is generated based on the input image data, a candidate vector extraction unit 102 extracts a plurality of candidate vectors from the evaluation value table, and a motion vector determination unit 103 further extracts each of the plurality of candidate vectors from the plurality of candidate vectors. A process of determining a motion vector corresponding to a pixel is performed.

しかし、前述したように、動きベクトル決定部103における動きベクトルの決定精度を向上させるためには、ブロックマッチングにおける適用ブロックサイズを大きくする必要がある。ブロックサイズを大きくすると、ブロックに含まれる多数の画素値をメモリに保持することが必要となり、また、前述した差分絶対値総和の算出処理においては、ブロックに含まれる多数の画素値に基づく演算処理を行なうことが必要となる。結果としてハードウェア規模を大きくする必要が発生し、また処理効率を低下させてしまうという問題がある。   However, as described above, in order to improve the determination accuracy of the motion vector in the motion vector determination unit 103, it is necessary to increase the applied block size in block matching. When the block size is increased, it is necessary to store a large number of pixel values included in the block in the memory, and in the calculation process of the sum of absolute differences described above, an arithmetic process based on a large number of pixel values included in the block Must be performed. As a result, it is necessary to increase the hardware scale, and there is a problem that the processing efficiency is lowered.

そこで、本発明では、動きベクトル決定部103において実行する動きベクトルの決定処理にブロックマッチングを適用せず、特徴画素位置情報に基づく動きベクトル決定処理を実行する。この動きベクトル決定部の処理の詳細について、以下、説明する。   Therefore, in the present invention, the motion vector determination process based on the feature pixel position information is executed without applying block matching to the motion vector determination process executed by the motion vector determination unit 103. Details of the processing of the motion vector determination unit will be described below.

なお、以下、特徴画素位置情報に基づく動きベクトル決定処理構成について、
(1)2点マッチング方式による動きベクトル決定処理
(2)3点マッチング方式による動きベクトル決定処理
の2つの処理構成について順次説明する。
Hereinafter, regarding the motion vector determination processing configuration based on the feature pixel position information,
Two processing configurations of (1) motion vector determination processing by the two-point matching method and (2) motion vector determination processing by the three-point matching method will be sequentially described.

(1)2点マッチング方式による動きベクトル決定処理
まず、2点マッチング方式による動きベクトル決定処理について説明する。図7に本実施例に係る動きベクトル検出装置の動きベクトル決定部の詳細構成を示す。図7に示す動きベクトル決定部200は、図5に示す動きベクトル検出装置の動きベクトル決定部103に相当する。
(1) Motion vector determination processing by the two-point matching method First, motion vector determination processing by the two-point matching method will be described. FIG. 7 shows a detailed configuration of the motion vector determination unit of the motion vector detection device according to the present embodiment. The motion vector determination unit 200 illustrated in FIG. 7 corresponds to the motion vector determination unit 103 of the motion vector detection device illustrated in FIG.

図7に示す動きベクトル決定部200は、図5に示す候補ベクトル抽出部102から前述した評価値テーブルに基づいて決定した複数の候補ベクトル情報を入力し、各画素毎に対応付ける動きベクトルを決定する処理を実行する。   The motion vector determination unit 200 illustrated in FIG. 7 receives a plurality of candidate vector information determined based on the above-described evaluation value table from the candidate vector extraction unit 102 illustrated in FIG. 5 and determines a motion vector to be associated with each pixel. Execute the process.

本実施例に係る動きベクトル決定部200は、図7に示すように、画素相関判定部210、仮判定部221、ゲート222、付加情報演算部250、特徴画素位置相関判定部230を有する。画素相関判定部210は、現フレームメモリ211、前フレームメモリ212、画素値差分算出部213、絶対値算出部214を有する。特徴画素位置相関判定部230は、現フレーム付加情報メモリ231、前フレーム付加情報メモリ232、相関判定部233を有する。付加情報演算部250の詳細は、図9以下を参照して説明する。   As illustrated in FIG. 7, the motion vector determination unit 200 according to the present embodiment includes a pixel correlation determination unit 210, a temporary determination unit 221, a gate 222, an additional information calculation unit 250, and a feature pixel position correlation determination unit 230. The pixel correlation determination unit 210 includes a current frame memory 211, a previous frame memory 212, a pixel value difference calculation unit 213, and an absolute value calculation unit 214. The feature pixel position correlation determination unit 230 includes a current frame additional information memory 231, a previous frame additional information memory 232, and a correlation determination unit 233. Details of the additional information calculation unit 250 will be described with reference to FIG.

画素相関判定部210は、画像信号を入力する。この入力画像は、例えば、ラスタスキャンにより得られる画像データである。画像データは、例えば、ディジタルカラー映像信号のコンポーネント信号中の輝度信号を含む。   The pixel correlation determination unit 210 receives an image signal. This input image is, for example, image data obtained by raster scanning. The image data includes, for example, a luminance signal in a component signal of a digital color video signal.

画像データは、フレームデータ毎に入力され、まず、現フレームメモリ211に格納されて、次に前フレームメモリ212に格納される。従って、画素相関判定部210は、2つの連続するフレームデータをメモリに保持する。   The image data is input for each frame data, and is first stored in the current frame memory 211 and then stored in the previous frame memory 212. Accordingly, the pixel correlation determination unit 210 holds two consecutive frame data in the memory.

さらに、画素相関判定部210は、図5に示す候補ベクトル抽出部102から候補ベクトル情報を入力し、候補ベクトル情報に基づいて前フレームの各画素、すなわち動きベクトルを決定すべき画素(着目画素)毎に、複数の候補ベクトルの指示する現フレームの画素位置を特定し、前フレームの着目画素と複数の候補ベクトルの指示する現フレームの画素との差分を画素値差分算出部213において算出し、絶対値算出部214においてその差分絶対値を算出して、仮判定部221に出力する。   Furthermore, the pixel correlation determination unit 210 receives candidate vector information from the candidate vector extraction unit 102 illustrated in FIG. 5, and each pixel of the previous frame, that is, a pixel (target pixel) for which a motion vector is to be determined based on the candidate vector information. For each time, the pixel position of the current frame indicated by the plurality of candidate vectors is specified, and the difference between the pixel of interest of the previous frame and the pixel of the current frame indicated by the plurality of candidate vectors is calculated in the pixel value difference calculation unit 213, The absolute value calculation unit 214 calculates the difference absolute value and outputs it to the temporary determination unit 221.

これらの一連の処理について、図8を参照して説明する。図8に示すのは入力フレーム(現フレーム)画像データ300と、過去フレーム(前フレーム)画像データ310である。これらのフレームデータは、現フレームメモリ211と、前フレームメモリ212に格納されたデータである。   A series of these processes will be described with reference to FIG. FIG. 8 shows input frame (current frame) image data 300 and past frame (previous frame) image data 310. These frame data are data stored in the current frame memory 211 and the previous frame memory 212.

画素相関判定部210は、図5に示す候補ベクトル抽出部102から候補ベクトル情報を入力しており、これらが、図8に示すa〜gの候補ベクトルである。これらは、前述した評価値テーブルのピーク検出によって求められた候補ベクトルである。   The pixel correlation determination unit 210 receives candidate vector information from the candidate vector extraction unit 102 illustrated in FIG. 5, and these are candidate vectors a to g illustrated in FIG. 8. These are candidate vectors obtained by peak detection in the evaluation value table described above.

画素相関判定部210は、候補ベクトル情報に基づいて前フレームの各画素、すなわち動きベクトルを決定すべき画素(着目画素)毎に、複数の候補ベクトルの指示する現フレームの画素位置を特定する。例えば図8の過去フレーム(前フレーム)画像データ310の着目画素311について、複数の候補ベクトルの指示する現フレームの画素位置A〜Gが特定される。   The pixel correlation determination unit 210 specifies the pixel position of the current frame indicated by the plurality of candidate vectors for each pixel of the previous frame, that is, for each pixel (target pixel) whose motion vector should be determined based on the candidate vector information. For example, for the pixel of interest 311 of the past frame (previous frame) image data 310 of FIG. 8, the pixel positions A to G of the current frame indicated by the plurality of candidate vectors are specified.

画素値差分算出部213は、過去フレーム(前フレーム)画像データ310の着目画素311と、候補ベクトルの指示する現フレームの画素位置A〜Gの画素値各々との差分を算出する。絶対値算出部214は、これらの差分絶対値、すなわち画素差分絶対値(MC残差)を算出して、仮判定部221に出力する。   The pixel value difference calculation unit 213 calculates a difference between the pixel of interest 311 of the past frame (previous frame) image data 310 and the pixel values of the pixel positions A to G of the current frame indicated by the candidate vector. The absolute value calculation unit 214 calculates these difference absolute values, that is, pixel difference absolute values (MC residuals), and outputs them to the temporary determination unit 221.

仮判定部221は、着目画素と、複数の候補ベクトルによって決定される各画素との差分絶対値(MC残差)を入力する。例えばn個の候補ベクトルがある場合、n個の差分絶対値(MC残差)[di]を入力する。ただしi=1〜nである。   The provisional determination unit 221 inputs an absolute difference value (MC residual) between the pixel of interest and each pixel determined by a plurality of candidate vectors. For example, when there are n candidate vectors, n differential absolute values (MC residuals) [di] are input. However, i = 1 to n.

仮判定部221は、n個の差分絶対値(MC残差)[di]から、着目画素311に対応する動きベクトルの絞込みを行う。具体的には、n個の((差分絶対値(MC残差)[di]から、MC残差の小さいものを選択する。   The provisional determination unit 221 narrows down the motion vector corresponding to the pixel of interest 311 from the n differential absolute values (MC residuals) [di]. Specifically, a small MC residual is selected from n ((difference absolute value (MC residual) [di].

n個のMC残差の最小値をdmin、予め定められた閾値をTHとして、
di-dmin≦TH
を満たす画素とdminを満たす画素のいずれかを指示する候補ベクトルを選択する。
Assuming that the minimum value of n MC residuals is dmin and a predetermined threshold is TH,
di-dmin ≦ TH
A candidate vector is selected that indicates either a pixel that satisfies dmin or a pixel that satisfies dmin.

図8の例では、例えば、A〜Eの画素中、A,C,Eが上記基準を満たす画素として選別されたとすると、これらの選別候補ベクトル情報が、仮判定部221からゲート222に出力され、図5に示す候補ベクトル抽出部102から入力される候補ベクトル情報から、この選別された候補ベクトル情報のみが、特徴画素位置相関判定部230に入力される。   In the example of FIG. 8, for example, if A, C, and E are selected as pixels satisfying the above-mentioned criteria among the pixels A to E, the selection candidate vector information is output from the temporary determination unit 221 to the gate 222. From the candidate vector information input from the candidate vector extraction unit 102 illustrated in FIG. 5, only the selected candidate vector information is input to the feature pixel position correlation determination unit 230.

特徴画素位置相関判定部230では、仮判定部221によって選別された候補ベクトルから、1つの画素対応の動きベクトルを決定する処理を実行する。この特徴画素位置相関判定部230では、付加情報演算部250から入力する着目画素の近傍画素の特徴画素位置情報に基づいて画素値相関判定処理を行い、仮判定部221によって選別された候補ベクトルから1つの動きベクトルを決定する処理を行なう。   The feature pixel position correlation determination unit 230 executes a process of determining a motion vector corresponding to one pixel from the candidate vectors selected by the temporary determination unit 221. The feature pixel position correlation determination unit 230 performs a pixel value correlation determination process based on the feature pixel position information of the neighboring pixels of the target pixel input from the additional information calculation unit 250, and uses the candidate vector selected by the temporary determination unit 221. Processing for determining one motion vector is performed.

図9を参照して、付加情報演算部250の詳細構成について説明する。付加情報演算部250は、例えば、着目画素の近傍の画素中、隣接画素との画素値差分絶対値がもっとも大きくなる画素を特徴画素として抽出する。   With reference to FIG. 9, the detailed structure of the additional information calculating part 250 is demonstrated. For example, the additional information calculation unit 250 extracts, from the pixels in the vicinity of the target pixel, the pixel having the largest pixel value difference absolute value with the adjacent pixel as the feature pixel.

図9に示す付加情報演算部250は、レジスタ252、画素値差分算出部253、絶対値算出部254からなる隣接画素差分絶対値算出部251と、レジスタ255、最大差分値検出部256、最大差分画素位置検出部257、レジスタ258を有する。   9 includes an adjacent pixel difference absolute value calculation unit 251 including a register 252, a pixel value difference calculation unit 253, and an absolute value calculation unit 254, a register 255, a maximum difference value detection unit 256, and a maximum difference. A pixel position detection unit 257 and a register 258 are included.

隣接画素差分絶対値算出部251では、動きベクトル検出処理対象となる画像信号を入力し、レジスタ252に画像フレームデータを格納する。画素値差分算出部253では、レジスタ252に格納された画像データの隣接画素の差分を順次算出し、絶対値算出部254では、隣接画素の差分の絶対値を順次算出して、最大差分値検出部256に出力する。   The adjacent pixel difference absolute value calculation unit 251 inputs an image signal to be subjected to motion vector detection processing and stores image frame data in the register 252. The pixel value difference calculation unit 253 sequentially calculates the difference between adjacent pixels of the image data stored in the register 252, and the absolute value calculation unit 254 sequentially calculates the absolute value of the difference between adjacent pixels to detect the maximum difference value. To the unit 256.

図10を参照して、具体的な処理について説明する。付加情報演算部250では、レジスタ252に格納された画像データの隣接画素の差分絶対値を順次算出することで、例えば着目画素の近傍領域の画素において、隣接画素との差分絶対値が最大の画素を特定する。なお、着目画素の近傍領域の画素とは、着目画素の水平方向の前後−8〜+7画素の範囲等、あらかじめ設定された画素領域である。   Specific processing will be described with reference to FIG. The additional information calculation unit 250 sequentially calculates the absolute difference value of adjacent pixels of the image data stored in the register 252 so that, for example, the pixel having the maximum difference absolute value with the adjacent pixel in the pixel in the vicinity region of the target pixel. Is identified. The pixel in the vicinity region of the target pixel is a pixel region set in advance, such as a range of −8 to +7 pixels before and after the target pixel in the horizontal direction.

図10の例では、着目画素281の近傍領域において、隣接画素との差分絶対値が最大となる画素282が特定される。   In the example of FIG. 10, the pixel 282 having the maximum difference absolute value with the adjacent pixel is specified in the vicinity region of the target pixel 281.

図9に示す最大差分値検出部256は、順次入力する隣接画素の差分絶対値をレジスタ255に格納しながら、比較処理を実行し、所定領域、すなわち、−8〜+7の16画素毎に最大の画素値差分絶対値を持つ画素差分値を検出する。すなわち、図11に示すように、16画素毎に最大の画素値差分絶対値を持つ画素差分値MAXa、MAXb、MAXcを順次検出する。   The maximum difference value detection unit 256 shown in FIG. 9 performs comparison processing while sequentially storing the difference absolute values of adjacent pixels that are sequentially input in the register 255, and the maximum difference value is maximum for every 16 pixels in a predetermined region, that is, −8 to +7. A pixel difference value having a pixel value difference absolute value is detected. That is, as shown in FIG. 11, pixel difference values MAXa, MAXb, and MAXc having the maximum pixel value difference absolute value for every 16 pixels are sequentially detected.

最大差分値検出部256の検出した所定領域毎(例えば16画素毎)の最大画素差分絶対値を持つ画素情報は、最大差分画素位置検出部257に入力され、所定領域毎(例えば16画素毎)の最大差分画素位置情報が検出され、レジスタ258に格納される。   Pixel information having the maximum pixel difference absolute value for each predetermined region (for example, every 16 pixels) detected by the maximum difference value detection unit 256 is input to the maximum difference pixel position detection unit 257, and for each predetermined region (for example, every 16 pixels). Is detected and stored in the register 258.

例えば図10に示す例では、着目画素281の近傍領域において、隣接画素との差分絶対値が最大となる画素282の画素位置は、着目画素を画素位置:0としたとき、[+4]の画素位置である。   For example, in the example illustrated in FIG. 10, the pixel position of the pixel 282 having the maximum absolute difference from the adjacent pixel in the vicinity region of the target pixel 281 is a pixel of [+4] when the target pixel is set to pixel position: 0. Position.

レジスタ258に格納された所定領域毎(例えば16画素毎)の最大差分画素位置情報が、現フレーム付加情報格納メモリ231に順次出力される。   The maximum difference pixel position information for each predetermined area (for example, every 16 pixels) stored in the register 258 is sequentially output to the current frame additional information storage memory 231.

図7に戻り、動きベクトル決定部200の処理について説明を続ける。図9を参照して説明した付加情報演算部250からの特徴画素位置情報は、図7に示す特徴画素位置相関判定部230の現フレーム付加情報メモリ231に格納される。現フレーム付加情報メモリ231には、1つのフレームに対応して抽出された所定領域毎(例えば16画素毎)の最大差分画素位置情報が格納される。各フレーム処理ステップ毎に現フレーム付加情報メモリ231の情報は、前フレーム付加情報メモリ232に移動して格納されることになる。   Returning to FIG. 7, the description of the process of the motion vector determination unit 200 will be continued. The feature pixel position information from the additional information calculation unit 250 described with reference to FIG. 9 is stored in the current frame additional information memory 231 of the feature pixel position correlation determination unit 230 shown in FIG. The current frame additional information memory 231 stores maximum difference pixel position information for each predetermined area (for example, every 16 pixels) extracted corresponding to one frame. The information in the current frame additional information memory 231 is moved and stored in the previous frame additional information memory 232 for each frame processing step.

現フレーム付加情報メモリ231には、さらに、仮判定部221からの出力、すなわち、仮判定部221によって選別された選別候補ベクトル情報が入力される。   The current frame additional information memory 231 further receives an output from the temporary determination unit 221, that is, selection candidate vector information selected by the temporary determination unit 221.

相関判定部233は、着目画素の近傍領域において抽出された特徴画素に基づいて、仮判定部221によって選別された選別候補ベクトルから、着目画素に対応する唯一の動きベクトルを決定する処理を実行する。   The correlation determination unit 233 executes a process of determining a unique motion vector corresponding to the target pixel from the selection candidate vectors selected by the temporary determination unit 221 based on the feature pixels extracted in the vicinity region of the target pixel. .

相関判定部233における動きベクトル決定処理について、図12を参照して説明する。図12に示すのは、先に図8を参照して説明したと同様の入力フレーム(現フレーム)画像データ301と、過去フレーム(前フレーム)画像データ310である。   The motion vector determination process in the correlation determination unit 233 will be described with reference to FIG. FIG. 12 shows input frame (current frame) image data 301 and past frame (previous frame) image data 310 similar to those described above with reference to FIG.

入力フレーム(現フレーム)画像データ301には、先に図8を参照して説明した仮判定部による候補ベクトル選別処理によって選別された候補ベクトルa,c,eを示してある。 The input frame (current frame) image data 301 shows candidate vectors a, c, and e that have been selected by the candidate vector selection process by the provisional determination unit described above with reference to FIG.

特徴画素位置相関判定部230における相関判定部233は、過去フレーム(前フレーム)画像データ310から選択した着目画素、すなわち、動きベクトルを対応付ける画素としての着目画素311の近傍領域における特徴画素位置データに基づいて、候補ベクトルa,c,eから1つの動きベクトルを決定する。   The correlation determination unit 233 in the feature pixel position correlation determination unit 230 converts the target pixel selected from the past frame (previous frame) image data 310, that is, the feature pixel position data in the vicinity region of the target pixel 311 as a pixel to which a motion vector is associated. Based on this, one motion vector is determined from the candidate vectors a, c, e.

図12に示す例において、着目画素311の近傍領域の特徴画素位置が、着目画素311の画素位置を[0]としたとき、画素位置[−3]であることが、付加情報演算部250からの入力情報によって判定される。なお、図12においては、近傍領域を着目画素の−4〜+3の8画素領域として示してある。   In the example illustrated in FIG. 12, the additional information calculation unit 250 indicates that the characteristic pixel position in the vicinity region of the target pixel 311 is the pixel position [−3] when the pixel position of the target pixel 311 is [0]. It is determined by the input information. In FIG. 12, the neighboring area is shown as an 8-pixel area of −4 to +3 of the target pixel.

相関判定部233では、着目画素311の近傍領域の特徴画素位置と、選別候補ベクトルa,c,eの指示する対応画素位置A,C,Eの近傍領域における特徴画素位置の相関を判定する。図に示す例では、選別候補ベクトルaの指示する対応画素位置Aの近傍領域301には、画素位置Aを[0]としたとき、特徴画素が[−3]の位置に出現している。この特徴画素は、前述の付加情報演算部において、所定領域単位の画素領域毎に選択された特徴画素であり、画素位置Aの近傍領域として設定された領域における隣接画素差分絶対値の最大画素である。   The correlation determination unit 233 determines the correlation between the feature pixel position in the vicinity region of the target pixel 311 and the feature pixel position in the vicinity region of the corresponding pixel positions A, C, and E indicated by the selection candidate vectors a, c, and e. In the example shown in the figure, in the vicinity region 301 of the corresponding pixel position A indicated by the selection candidate vector a, when the pixel position A is set to [0], a feature pixel appears at the position [−3]. This feature pixel is a feature pixel selected for each pixel area in a predetermined area unit in the additional information calculation unit described above, and is the maximum pixel of the adjacent pixel difference absolute value in the area set as the vicinity area of the pixel position A. is there.

選別候補ベクトルcの指示する対応画素位置Cの近傍領域302には、画素位置Cを[0]としたとき、特徴画素が[−2]の位置に出現しており、選別候補ベクトルeの指示する対応画素位置Eの近傍領域303には、画素位置Eを[0]としたとき、特徴画素が[+2]の位置に出現している。   In the neighborhood region 302 of the corresponding pixel position C indicated by the selection candidate vector c, when the pixel position C is set to [0], the feature pixel appears at the position [−2], and the selection candidate vector e is indicated. In the vicinity region 303 of the corresponding pixel position E, the characteristic pixel appears at the position [+2] when the pixel position E is set to [0].

着目画素311の近傍領域の特徴画素は、着目画素位置を[0]としたとき、特徴画素が[−3]の位置に出現している。この特徴画素位置は、候補ベクトルaの示す画素Aの近傍領域301における特徴画素位置[−3]と対応する。他の2つの候補ベクトルc,eの示す画素C,Eの近傍領域302,303における特徴画素位置[−2],[+2]とは対応しない。   The feature pixel in the vicinity region of the target pixel 311 appears at the position [−3] when the target pixel position is [0]. This feature pixel position corresponds to the feature pixel position [−3] in the vicinity region 301 of the pixel A indicated by the candidate vector a. It does not correspond to the characteristic pixel positions [−2] and [+2] in the neighboring areas 302 and 303 of the pixels C and E indicated by the other two candidate vectors c and e.

この結果、着目画素311に対応する動きベクトルとして、候補ベクトルaが選択決定される。   As a result, the candidate vector a is selected and determined as the motion vector corresponding to the pixel of interest 311.

相関判定部233は、このような処理をフレームの構成画素について順次、着目画素として設定し、設定した着目画素毎に上述と同様の近傍領域の特徴画素位置の相関判定処理を実行し、フレーム構成画素各々に対応する動きベクトルを選別候補ベクトルから選択して決定する。   The correlation determination unit 233 sequentially sets such processing as the pixel of interest for the constituent pixels of the frame, and executes the correlation determination processing of the feature pixel positions in the neighboring region for each of the set target pixels, as described above. A motion vector corresponding to each pixel is selected from the selection candidate vectors and determined.

このように、図7に示す動きベクトル決定部では、着目画素の近傍領域の画素値に基づいて、特徴画素位置を特定し、着目画素の近傍領域における特徴画素の着目画素位置に対応する相対位置と、仮判定部221によって選別された候補ベクトルの指示する画素の近傍領域の特徴画素位置との相関を判定し、最も相関の高い特徴画素位置を持つ画素を指示する候補ベクトルを着目画素に対応する動きベクトルとして決定する。   As described above, the motion vector determination unit illustrated in FIG. 7 identifies the feature pixel position based on the pixel value in the vicinity area of the target pixel, and the relative position corresponding to the target pixel position of the feature pixel in the vicinity area of the target pixel. And the candidate pixel selected by the tentative determination unit 221 with the feature pixel position in the vicinity region of the pixel indicated by the candidate vector, and the candidate vector indicating the pixel having the highest correlated feature pixel position is associated with the target pixel. The motion vector to be determined is determined.

以上の動きベクトル決定処理シーケンスについて、図13に示すフローチャートを参照して説明する。   The above motion vector determination processing sequence will be described with reference to the flowchart shown in FIG.

図13に示すフローの各ステップの処理について説明する。図13に示すフローは、1つの着目画素に対する動きベクトルの決定処理であり、フレーム画像の構成画素のすべてについて動きベクトルの決定を行なう場合は、フレーム画像の構成画素を順次、着目画素として設定し図13に示すフローを各着目画素毎に実行する。   Processing of each step in the flow shown in FIG. 13 will be described. The flow shown in FIG. 13 is a motion vector determination process for one target pixel. When determining a motion vector for all the constituent pixels of the frame image, the constituent pixels of the frame image are sequentially set as the target pixel. The flow shown in FIG. 13 is executed for each pixel of interest.

まず、ステップS201において実行する処理は、着目画素と、n個の候補ベクトルによって指示される画素との差分絶対値、すなわちMC残差dnを算出する処理である。この処理は、図7の動きベクトル決定部200の画素相関判定部210において実行される。   First, the process executed in step S201 is a process of calculating a difference absolute value between the pixel of interest and a pixel indicated by n candidate vectors, that is, an MC residual dn. This process is executed in the pixel correlation determination unit 210 of the motion vector determination unit 200 in FIG.

ステップS202〜S204は、仮判定部221における処理である。仮判定部221は、ステップS202において、n個の差分絶対値(MC残差)[di]を入力し、n個のMC残差の最小値:dminを検出する。   Steps S202 to S204 are processes in the temporary determination unit 221. In step S202, the temporary determination unit 221 receives n differential absolute values (MC residuals) [di], and detects a minimum value of n MC residuals: dmin.

ステップS203で、i=0(0≦i<n)の初期設定を行い、ステップS204において、予め定められた閾値をTHとして、
di-dmin≦TH
を満たすか否かを判定する。
In step S203, i = 0 (0 ≦ i <n) is initially set. In step S204, a predetermined threshold is set as TH.
di-dmin ≦ TH
It is determined whether or not the above is satisfied.

ステップS204において実行する処理は、先に図8を前述した候補ベクトルからの選別処理として実行する仮判定処理である。di-dmin≦THを満足しないと判定した場合は、選別候補ベクトルではないと判定され、ステップS205、S206で実行する注目画素の近傍領域の特徴画素位置に基づく相関判定を行なうことなく、ステップS207に進む。   The process executed in step S204 is a provisional determination process executed as the selection process from the candidate vector described above with reference to FIG. If it is determined that di-dmin ≦ TH is not satisfied, it is determined that the vector is not a selection candidate vector, and step S207 is performed without performing correlation determination based on the feature pixel position in the vicinity region of the target pixel executed in steps S205 and S206. Proceed to

ステップS204において実行する仮判定処理において、di-dmin≦THを満足する場合、選別候補ベクトルとして選択され、ステップS205に進む。ステップS205、S206の処理は、図7に示す動きベクトル決定部200の特徴画素位置相関判定部230の処理である。   In the provisional determination process executed in step S204, if di-dmin ≦ TH is satisfied, the selection candidate vector is selected, and the process proceeds to step S205. The processing in steps S205 and S206 is the processing of the feature pixel position correlation determination unit 230 of the motion vector determination unit 200 shown in FIG.

ステップS205では、特徴画素位置の相関性を判定する。この処理は、先に図12を参照して説明したように、着目画素の近傍領域における特徴画素の位置と、選別候補ベクトルとして選択された画素の近傍領域の特徴画素位置の相関、すなわち位置の対応があるか否かを判定する処理である。   In step S205, the correlation of the feature pixel position is determined. As described above with reference to FIG. 12, this processing is performed by correlating the position of the feature pixel in the vicinity area of the target pixel and the feature pixel position in the vicinity area of the pixel selected as the selection candidate vector, that is, This is a process for determining whether or not there is a correspondence.

ステップS206では、相関のより高いものを選択する処理を実行し、ステップS207において、iの値に基づいて、すべての候補ベクトルの検証が済んだか否かを判定し、済んでいない場合は、ステップS209に進み、iの値を更新(1インクリメント)して、ステップS204以下の処理を繰り返し実行する。   In step S206, a process of selecting a higher correlation is executed, and in step S207, it is determined whether or not all candidate vectors have been verified based on the value of i. Proceeding to S209, the value of i is updated (incremented by 1), and the processes after step S204 are repeatedly executed.

すべての候補ベクトルについての検証が終了すると、ステップS208に進み、その時点で、選択されている最も相関の高い、すなわち、ステップS205において算出した着目画素の近傍領域における特徴画素の位置と、選別候補ベクトルとして選択された画素の近傍領域の特徴画素位置の相関の高いものに対応する候補ベクトルを、処理対象としての注目画素に対応する動きベクトルとして決定する。   When the verification for all candidate vectors is completed, the process proceeds to step S208, and at that time, the position of the feature pixel in the neighborhood region of the pixel of interest calculated in step S205 having the highest correlation, that is, the selection candidate is selected. A candidate vector corresponding to a highly correlated feature pixel position in the vicinity region of the pixel selected as the vector is determined as a motion vector corresponding to the target pixel as a processing target.

上述したように、本実施例における2点マッチング方式による動きベクトル決定処理では、候補ベクトルから動きベクトルの決定処理において、ブロックマッチング処理を行なうことなく、着目画素とその近傍の特徴画素位置情報を用いる構成である。従ってブロックマッチング処理において適用するブロックの大きに応じた多数の画素値に基づく相関算出計算を行なう必要がなり、効率的な処理が可能となる。   As described above, in the motion vector determination process by the two-point matching method in the present embodiment, the target pixel and the feature pixel position information in the vicinity thereof are used without performing the block matching process in the motion vector determination process from the candidate vector. It is a configuration. Therefore, it is necessary to perform correlation calculation calculation based on a large number of pixel values according to the size of the block applied in the block matching process, and an efficient process is possible.

なお、入力画素データがラスタスキャン順に入力される場合、着目画素に対して水平方向に限定した近傍領域内で差分絶対値が最大となる画素位置の検出処理や、隣接画素差分絶対値が最大となる画素位置などの検出処理、すなわち、付加情報演算部250における付加情報算出処理は、図5における評価値テーブル形成部101において実行する評価値テーブル形成処理に並行して実行可能であり、評価値テーブル形成処理の終了時には、付加情報を算出済みとすることが可能であり、新たな処理実行時間を設定することがなく、処理速度を低下させることのない動きベクトル検出処理が可能となる。   When the input pixel data is input in raster scan order, the detection processing of the pixel position where the absolute difference value is maximum in the vicinity region limited to the horizontal direction with respect to the target pixel, or the adjacent pixel difference absolute value is maximum. The pixel position detection process, that is, the additional information calculation process in the additional information calculation unit 250 can be executed in parallel with the evaluation value table forming process executed in the evaluation value table forming unit 101 in FIG. At the end of the table formation process, additional information can be calculated, and a new process execution time is not set, and a motion vector detection process without reducing the processing speed is possible.

なお、上述の実施例では、着目画素の近傍領域として、着目画素位置を[0]として、−8〜+7の16画素や、−4〜+3の8画素を例として説明したが、これらは、任意の領域として設定可能である。また、入力画素がラスタスキャン順であることを考慮して、水平方向の右側のみの範囲に近傍領域を設定すれば、ラスタスキャン順の入力画素値に基づく隣接画素比較処理が可能となり、画素値メモリ領域を小さくすることが可能となり、よりハードウェア規模を小さくできる。   In the above-described embodiment, as the vicinity region of the pixel of interest, the pixel position of interest is [0], and 16 pixels of −8 to +7 and 8 pixels of −4 to +3 are described as examples. It can be set as an arbitrary area. Considering that the input pixels are in raster scan order, if neighboring regions are set only in the right side in the horizontal direction, adjacent pixel comparison processing based on the input pixel values in raster scan order becomes possible. The memory area can be reduced, and the hardware scale can be further reduced.

上述の実施例では、画素の近傍領域を設定し、付加情報演算部250において、近傍領域における隣接画素差分絶対値の最大となる画素位置を特徴画素情報として算出し、この特徴画素情報を相関判定に適用する構成、すなわち、
(a)隣接画素差分絶対値の最大となる画素の位置
を適用する構成としたが、隣接画素差分絶対値の最大となる画素位置情報のみを相関判定に適用する構成以外に、例えば以下の情報を相関判定情報として適用した構成も可能である。
(b)隣接画素差分絶対値が最大となる画素の位置と画素値
In the above-described embodiment, a neighboring region of a pixel is set, and the additional information calculation unit 250 calculates a pixel position having the maximum adjacent pixel difference absolute value in the neighboring region as feature pixel information, and this feature pixel information is correlated. The configuration applied to
(A) The position of the pixel having the maximum adjacent pixel difference absolute value is applied. However, in addition to the configuration in which only the pixel position information having the maximum adjacent pixel difference absolute value is applied to the correlation determination, for example, the following information A configuration in which is applied as correlation determination information is also possible.
(B) Position and pixel value of the pixel having the maximum adjacent pixel difference absolute value

上記(b)隣接画素差分絶対値の最大となる画素の位置と画素値を相関判定情報として適用する場合の付加情報演算部250の構成例を図14に示す。   FIG. 14 shows a configuration example of the additional information calculation unit 250 when the pixel position and the pixel value having the maximum adjacent pixel difference absolute value are applied as the correlation determination information.

図14に示す付加情報演算部250の構成は、図9に示す付加情報演算部250の構成とほぼ同様であり、レジスタ252、画素値差分算出部253、絶対値算出部254からなる隣接画素差分絶対値算出部251と、レジスタ255、最大差分値検出部256、最大差分画素位置検出部257、レジスタ258を有する。   The configuration of the additional information calculation unit 250 illustrated in FIG. 14 is substantially the same as the configuration of the additional information calculation unit 250 illustrated in FIG. 9, and the adjacent pixel difference including the register 252, the pixel value difference calculation unit 253, and the absolute value calculation unit 254. An absolute value calculation unit 251, a register 255, a maximum difference value detection unit 256, a maximum difference pixel position detection unit 257, and a register 258 are included.

隣接画素差分絶対値算出部251では、動きベクトル検出処理対象となる画像信号を入力し、レジスタ252に画像フレームデータを格納する。画素値差分算出部253では、レジスタ252に格納された画像データの隣接画素の差分を順次算出し、絶対値算出部254では、隣接画素の差分の絶対値を順次算出して、最大差分値検出部256に出力する。   The adjacent pixel difference absolute value calculation unit 251 inputs an image signal to be subjected to motion vector detection processing and stores image frame data in the register 252. The pixel value difference calculation unit 253 sequentially calculates the difference between adjacent pixels of the image data stored in the register 252, and the absolute value calculation unit 254 sequentially calculates the absolute value of the difference between adjacent pixels to detect the maximum difference value. To the unit 256.

最大差分値検出部256は、順次入力する隣接画素の差分絶対値をレジスタ255に格納しながら、比較処理を実行し、所定領域、例えば16画素毎に最大の画素値差分絶対値を持つ画素差分値を検出する。   The maximum difference value detection unit 256 performs comparison processing while sequentially storing the difference absolute values of adjacent pixels that are sequentially input in the register 255, and the pixel difference having the maximum pixel value difference absolute value for each predetermined area, for example, every 16 pixels. Detect value.

最大差分値検出部256の検出した所定領域毎(例えば16画素毎)の画素値差分絶対値を持つ画素情報は、最大差分画素位置検出部257に入力され、所定領域毎(例えば16画素毎)の最大差分画素位置情報が検出され、レジスタ258に格納される。   Pixel information having a pixel value difference absolute value for each predetermined region (for example, every 16 pixels) detected by the maximum difference value detection unit 256 is input to the maximum difference pixel position detection unit 257, and for each predetermined region (for example, every 16 pixels). Is detected and stored in the register 258.

先の図9を参照して説明した付加情報演算部250は、レジスタ258に格納された位置情報のみを現フレーム付加情報メモリ231に出力し、位置情報に基づく相関判定処理を行なう構成としていた。この図14に示す付加情報演算部250は、レジスタ258に格納された最大差分画素位置を示す位置情報のみならず、最大差分画素位置の画素値情報をレジスタ255から現フレーム付加情報メモリ231に出力する。   The additional information calculation unit 250 described with reference to FIG. 9 is configured to output only the position information stored in the register 258 to the current frame additional information memory 231 and perform a correlation determination process based on the position information. 14 outputs not only the position information indicating the maximum difference pixel position stored in the register 258 but also the pixel value information of the maximum difference pixel position from the register 255 to the current frame additional information memory 231. To do.

図7に示す特徴画素位置相関判定部230では、この2つのデータ、すなわち、隣接画素差分絶対値の最大となる画素の位置情報と画素値情報の2つの情報を適用して相関判定処理を実行する。   In the characteristic pixel position correlation determination unit 230 shown in FIG. 7, the correlation determination processing is executed by applying the two pieces of data, that is, the two pieces of information of the pixel position information and the pixel value information that have the maximum adjacent pixel difference absolute value. To do.

例えば、先に説明した図12において、選別候補ベクトルのいずれもが、着目画素の近傍領域において検出された画素位置と同一の位置に特徴画素を有している場合であっても、さらに、画素値の相関を検証することで、最も一致度合いの高いものを選択して、これをその注目画素の動きベクトルとして決定することができる。   For example, in FIG. 12 described above, even when any of the selection candidate vectors has a characteristic pixel at the same position as the pixel position detected in the vicinity region of the target pixel, By verifying the correlation of values, the one with the highest degree of matching can be selected and determined as the motion vector of the pixel of interest.

このように、位置情報のみだけでなく、位置情報と画素値レベル情報や画素値レベル差情報の両方を相関判定に用いることで、より正確な動きベクトルの決定が可能しとなる。   Thus, not only position information but also both position information and pixel value level information and pixel value level difference information are used for correlation determination, whereby a more accurate motion vector can be determined.

なお、上述した2点マッチングは、物体は面積を持って動くという仮定を利用しているが、例えば特徴画素が着目画素から遠い位置に設定されると、同一物体である可能性が低下する。そこで、特徴画素位置の一致程度だけでなく、特徴画素との距離を相関性に反映した処理を行なう構成としてもよい。すなわち、着目画素に近い位置の特徴画素については相関判定の際に重みを大きくし、着目画素から遠い位置の特徴画素については相関判定の際に重みを小さくする構成である。   Note that the above-described two-point matching uses the assumption that the object moves with an area. However, for example, if the feature pixel is set at a position far from the target pixel, the possibility that the object is the same object decreases. In view of this, it is possible to adopt a configuration in which not only the degree of matching of the feature pixel position but also the process of reflecting the distance to the feature pixel in the correlation is performed. In other words, the feature pixel at a position close to the target pixel is increased in weight at the correlation determination, and the feature pixel at a position far from the target pixel is decreased at the correlation determination.

(2)3点マッチング方式による動きベクトル決定処理
次に、3点マッチング方式による動きベクトル決定処理について説明する。図15に本実施例に係る動きベクトル検出装置の動きベクトル決定部の詳細構成を示す。図15に示す動きベクトル決定部400は、図5に示す動きベクトル検出装置の動きベクトル決定部103に相当する。
(2) Motion vector determination processing by the three-point matching method Next, motion vector determination processing by the three-point matching method will be described. FIG. 15 shows a detailed configuration of the motion vector determination unit of the motion vector detection device according to the present embodiment. The motion vector determination unit 400 illustrated in FIG. 15 corresponds to the motion vector determination unit 103 of the motion vector detection device illustrated in FIG.

図15に示す動きベクトル決定部400は、図5に示す候補ベクトル抽出部102から前述した評価値テーブルに基づいて決定した複数の候補ベクトル情報を入力し、各画素毎に対応付ける動きベクトルを決定する処理を実行する。   A motion vector determination unit 400 shown in FIG. 15 receives a plurality of candidate vector information determined based on the above-described evaluation value table from the candidate vector extraction unit 102 shown in FIG. 5, and determines a motion vector to be associated with each pixel. Execute the process.

図15に示すように、本実施例に係る動きベクトル決定部400は、画素相関判定部410、仮判定部421、付加情報演算部450、現フレーム付加情報メモリ422、前フレーム付加情報メモリ423、近傍領域情報相関判定部430を有する。画素相関判定部410は、現フレームメモリ411、前フレームメモリ412、画素値差分算出部413、絶対値算出部414を有する。近傍領域情報相関判定部430は、レジスタ431,432、ゲート433、相関判定部434を有する。付加情報演算部450の詳細は、図15を参照して説明する。   As shown in FIG. 15, the motion vector determination unit 400 according to this embodiment includes a pixel correlation determination unit 410, a temporary determination unit 421, an additional information calculation unit 450, a current frame additional information memory 422, a previous frame additional information memory 423, A neighborhood region information correlation determination unit 430 is included. The pixel correlation determination unit 410 includes a current frame memory 411, a previous frame memory 412, a pixel value difference calculation unit 413, and an absolute value calculation unit 414. The neighborhood area information correlation determination unit 430 includes registers 431 and 432, a gate 433, and a correlation determination unit 434. Details of the additional information calculation unit 450 will be described with reference to FIG.

画素相関判定部410は、画像信号を入力する。この入力画像は、先に、図5を参照して説明したように、例えば、ラスタスキャンにより得られる画像データである。画像データは、例えば、ディジタルカラー映像信号のコンポーネント信号中の輝度信号を含む。   The pixel correlation determination unit 410 receives an image signal. This input image is image data obtained by, for example, raster scanning, as described above with reference to FIG. The image data includes, for example, a luminance signal in a component signal of a digital color video signal.

画像データは、フレームデータ毎に入力され、まず、現フレームメモリ411に格納されて、次に前フレームメモリ412に格納される。従って、画素相関判定部410は、2つの連続するフレームデータをメモリに保持する。   The image data is input for each frame data, and is first stored in the current frame memory 411 and then stored in the previous frame memory 412. Accordingly, the pixel correlation determination unit 410 holds two consecutive frame data in the memory.

さらに、画素相関判定部410は、図5に示す候補ベクトル抽出部102から候補ベクトル情報を入力し、候補ベクトル情報に基づいて前フレームの各画素、すなわち動きベクトルを決定すべき画素(着目画素)毎に、複数の候補ベクトルの指示する現フレームの画素位置を特定し、前フレームの着目画素と複数の候補ベクトルの指示する現フレームの画素との差分を画素値差分算出部413において算出し、絶対値算出部414においてその差分絶対値を算出して、仮判定部421に出力する。これらの一連の処理は、先の2点マッチングの場合と同様である。   Furthermore, the pixel correlation determination unit 410 receives candidate vector information from the candidate vector extraction unit 102 illustrated in FIG. 5, and each pixel of the previous frame, that is, a pixel (target pixel) for which a motion vector is to be determined based on the candidate vector information. For each time, the pixel position of the current frame indicated by the plurality of candidate vectors is specified, and the difference between the target pixel of the previous frame and the pixel of the current frame indicated by the plurality of candidate vectors is calculated by the pixel value difference calculation unit 413, The absolute value calculation unit 414 calculates the difference absolute value and outputs it to the temporary determination unit 421. A series of these processes is the same as in the case of the above two-point matching.

仮判定部421は、着目画素と、複数の候補ベクトルによって決定される各画素との差分絶対値(MC残差)を入力する。例えばn個の候補ベクトルがある場合、n個の差分絶対値(MC残差)[di]を入力する。ただしi=1〜nである。   The provisional determination unit 421 inputs an absolute difference value (MC residual) between the pixel of interest and each pixel determined by a plurality of candidate vectors. For example, when there are n candidate vectors, n differential absolute values (MC residuals) [di] are input. However, i = 1 to n.

仮判定部421は、n個の差分絶対値(MC残差)[di]から、着目画素に対応する動きベクトルの絞込みを行う。具体的には、n個の((差分絶対値(MC残差)[di]から、MC残差の小さいものを選択する。この処理も先の2点マッチングの場合と同様であり、例えば、n個のMC残差の最小値をdmin、予め定められた閾値をTHとして、
di-dmin≦TH
を満たす画素とdminを満たす画素のいずれかを指示する候補ベクトルを選択する。
The provisional determination unit 421 narrows down the motion vector corresponding to the pixel of interest from the n differential absolute values (MC residuals) [di]. Specifically, a small MC residual is selected from n ((difference absolute value (MC residual) [di]. This process is the same as in the previous two-point matching. For example, Assuming that the minimum value of n MC residuals is dmin and a predetermined threshold is TH,
di-dmin ≦ TH
A candidate vector is selected that indicates either a pixel that satisfies dmin or a pixel that satisfies dmin.

先に説明した図8の例では、例えば、A〜Eの画素中、A,C,Eが上記基準を満たす画素として選別されたとすると、これらの選別候補ベクトル情報が、仮判定部421からゲート433に出力され、図5に示す候補ベクトル抽出部102から入力される候補ベクトル情報から、この選別された候補ベクトル情報のみが、近傍領域情報相関判定部430に入力される。   In the example of FIG. 8 described above, for example, if A, C, and E are selected as pixels satisfying the above-mentioned criteria among the pixels A to E, the selection candidate vector information is gated from the temporary determination unit 421. Only the candidate vector information selected from the candidate vector information input to the candidate vector extraction unit 102 shown in FIG. 5 and input from the candidate vector extraction unit 102 shown in FIG. 5 is input to the neighborhood region information correlation determination unit 430.

本実施例の画相関判定部410は、さらに、画相関判定部410の現フレームメモリ411から注目画素の近傍領域の2つの画素の画素情報が近傍領域情報相関判定部430のレジスタ432に入力され、さらに、画相関判定部410の前フレームメモリ412から候補ベクトルによって示されるn個の指示画素に対応する2画素、すなわちn×2画素が近傍領域情報相関判定部430のレジスタ431に入力される。   In the image correlation determination unit 410 of the present embodiment, the pixel information of two pixels in the vicinity region of the target pixel is further input from the current frame memory 411 of the image correlation determination unit 410 to the register 432 of the vicinity region information correlation determination unit 430. Furthermore, two pixels corresponding to the n instruction pixels indicated by the candidate vectors, that is, n × 2 pixels, are input from the previous frame memory 412 of the image correlation determination unit 410 to the register 431 of the neighborhood region information correlation determination unit 430. .

近傍領域におけるどの画素を出力するかは、それぞれ現フレーム付加情報メモリ422と、前フレーム付加情報メモリ423およびn個の候補ベクトル情報の出力によって決定される。   Which pixel to output in the vicinity region is determined by the output of the current frame additional information memory 422, the previous frame additional information memory 423, and n pieces of candidate vector information.

現フレーム付加情報メモリ422と、前フレーム付加情報メモリ423には、付加情報演算部450の演算結果が出力されることになる。   The calculation result of the additional information calculation unit 450 is output to the current frame additional information memory 422 and the previous frame additional information memory 423.

図16を参照して、付加情報演算部450の詳細構成について説明する。付加情報演算部450は、例えば、着目画素の近傍の画素中、着目画素との画素値差分が最大の画素と、着目画素との画素値差分が最小の画素、これら2つの画素を特徴画素として抽出する。   With reference to FIG. 16, the detailed structure of the additional information calculating part 450 is demonstrated. For example, the additional information calculation unit 450 uses, as feature pixels, a pixel having the largest pixel value difference from the pixel of interest and a pixel having the smallest pixel value difference from the pixel of interest among the pixels in the vicinity of the pixel of interest. Extract.

図16に示す付加情報演算部450は、レジスタ452、画素値差分算出部453からなる着目画素差分算出部451と、差分最大値画素情報取得部(MAX)454、差分最小値画素情報取得部(MIN)455、最大差分画素位置検出部456、レジスタ457、最小差分画素位置検出部458、レジスタ459を有する。   16 includes a register 452, a target pixel difference calculation unit 451 including a pixel value difference calculation unit 453, a maximum difference pixel information acquisition unit (MAX) 454, and a minimum difference pixel information acquisition unit ( MIN) 455, a maximum difference pixel position detection unit 456, a register 457, a minimum difference pixel position detection unit 458, and a register 459.

着目画素差分算出部451では、動きベクトル検出処理対象となる画像信号を入力し、レジスタ452に画像フレームデータを格納する。画素値差分算出部453では、レジスタ452に格納された画像データの近傍領域の差分を順次算出し、最大差分値を持つ画素情報を差分最大値画素情報取得部(MAX)454に格納し、最小差分値を持つ画素情報を差分最小値画素情報取得部(MIN)455に格納する。なお、これらの画素情報には、画素位置情報が含まれる。   The target pixel difference calculation unit 451 inputs an image signal to be a motion vector detection processing target, and stores image frame data in the register 452. The pixel value difference calculation unit 453 sequentially calculates the difference between the neighboring regions of the image data stored in the register 452, stores the pixel information having the maximum difference value in the difference maximum value pixel information acquisition unit (MAX) 454, and sets the minimum Pixel information having a difference value is stored in a difference minimum value pixel information acquisition unit (MIN) 455. Note that these pieces of pixel information include pixel position information.

図17を参照して、具体的な処理について説明する。付加情報演算部450では、レジスタ452に格納された画像データについて、着目画素と、着目画素の近傍画素値との差分を順次算出することで、例えば着目画素の近傍領域の画素において、着目画素と最大差分値を持つ画素情報と、最小差分値を持つ画素情報を取得する。なお、着目画素の近傍領域の画素とは、例えば、着目画素の水平方向の前後−8〜+7画素の範囲、あるいは2次元領域において設定されたブロックなどのあらかじめ設定された画素領域である。   A specific process will be described with reference to FIG. The additional information calculation unit 450 sequentially calculates the difference between the target pixel and the neighboring pixel value of the target pixel with respect to the image data stored in the register 452, so that, for example, in the pixel in the vicinity region of the target pixel, Pixel information having the maximum difference value and pixel information having the minimum difference value are acquired. The pixel in the vicinity region of the target pixel is, for example, a pixel region set in advance such as a range of −8 to +7 pixels in the horizontal direction of the target pixel or a block set in the two-dimensional region.

図17の例では、着目画素481の近傍領域において、着目画素と最大差分値を持つ画素は、着目画素481の画素位置を[0]としたとき、画素482、すなわち画素位置[−5]の画素が着目画素と最大差分値を持つ画素、すなわち空間勾配の最大画素として選択され1つの特徴画素として画素情報が取得される。また、着目画素と最小差分値を持つ画素は、着目画素481の画素位置を[0]としたとき、画素483、すなわち画素位置[−1]の画素が着目画素と最小差分値を持つ画素、すなわち空間勾配の最小画素として選択され1つの特徴画素として画素情報が取得される。   In the example of FIG. 17, the pixel having the maximum difference value with the target pixel in the vicinity region of the target pixel 481 is the pixel 482, that is, the pixel position [−5] when the pixel position of the target pixel 481 is set to [0]. The pixel is selected as a pixel having a maximum difference value from the pixel of interest, that is, the maximum pixel of the spatial gradient, and pixel information is acquired as one feature pixel. The pixel having the minimum difference value from the target pixel is a pixel 483, that is, a pixel having a minimum difference value from the target pixel when the pixel position of the target pixel 481 is [0], That is, pixel information is acquired as one feature pixel selected as the smallest pixel of the spatial gradient.

図16に示す差分最大値画素情報取得部(MAX)454は、順次入力する画素の差分情報に基づいて、所定領域、例えば−8〜+7の16画素毎に注目画素に対して差分最大値となる画素を検出する。差分最小値画素情報取得部(MIN)455は、順次入力する画素の差分情報に基づいて、所定領域毎に注目画素に対して差分最小値となる画素を検出する。   The maximum difference pixel information acquisition unit (MAX) 454 illustrated in FIG. 16 determines the maximum difference value for the target pixel for each of 16 pixels of a predetermined region, for example, −8 to +7, based on the difference information of the pixels that are sequentially input. Is detected. The difference minimum value pixel information acquisition unit (MIN) 455 detects a pixel having a minimum difference value with respect to the target pixel for each predetermined region, based on the difference information of the sequentially input pixels.

差分最大値画素情報取得部(MAX)454の検出した所定領域毎の最大画素差分値を持つ画素情報は、最大差分画素位置検出部456に入力され、所定領域毎(例えば16画素毎)の最大差分画素位置情報が検出され、レジスタ457に格納される。   Pixel information having the maximum pixel difference value for each predetermined region detected by the maximum difference pixel information acquisition unit (MAX) 454 is input to the maximum difference pixel position detection unit 456, and the maximum for each predetermined region (for example, every 16 pixels). Difference pixel position information is detected and stored in the register 457.

差分最小値画素情報取得部(MIN)455の検出した所定領域毎の最小画素差分値を持つ画素情報は、最小差分画素位置検出部458に入力され、所定領域毎(例えば16画素毎)の最小差分画素位置情報が検出され、レジスタ459に格納される。   Pixel information having the minimum pixel difference value for each predetermined region detected by the minimum difference pixel information acquisition unit (MIN) 455 is input to the minimum difference pixel position detection unit 458, and is minimum for each predetermined region (for example, every 16 pixels). Difference pixel position information is detected and stored in the register 459.

例えば図17に示す例では、着目画素481の近傍領域において、着目画素との差分が最大となる画素482の画素位置は、着目画素を画素位置:0としたとき、[−5]の画素位置であり、着目画素との差分が最小となる画素483の画素位置は、着目画素を画素位置:0としたとき、[−1]の画素位置である。   For example, in the example shown in FIG. 17, the pixel position of the pixel 482 having the maximum difference from the target pixel in the vicinity region of the target pixel 481 is the pixel position [−5] when the target pixel is set to pixel position: 0. The pixel position of the pixel 483 that minimizes the difference from the pixel of interest is the pixel position [−1] when the pixel of interest is pixel position: 0.

レジスタ457に格納された所定領域毎(例えば16画素毎)の最大差分画素位置情報と、レジスタ459に格納された所定領域毎(例えば16画素毎)の最小差分画素位置情報が現フレーム付加情報格納メモリ422に順次出力される。   The maximum difference pixel position information for each predetermined area (for example, every 16 pixels) stored in the register 457 and the minimum difference pixel position information for each predetermined area (for example, every 16 pixels) stored in the register 459 are stored in the current frame additional information. The data is sequentially output to the memory 422.

図15に戻り、動きベクトル決定部400の処理について説明を続ける。図16参照して説明した付加情報演算部450からの特徴画素位置情報は、図15に示す現フレーム付加情報メモリ422に入力される。フレーム処理ごとに付加情報は、前フレーム付加情報メモリ423に移動する。   Returning to FIG. 15, the description of the process of the motion vector determination unit 400 will be continued. The feature pixel position information from the additional information calculation unit 450 described with reference to FIG. 16 is input to the current frame additional information memory 422 shown in FIG. The additional information moves to the previous frame additional information memory 423 for each frame process.

現フレーム付加情報メモリ422に入力された現フレームメモリの付加情報、すなわち、注目画素に対応する2つの特徴画素位置情報、すなわち注目画素との最大差分を持つ画素位置情報と、注目画素との最小差分を持つ画素位置情報とが画素相関判定部410の現フレームメモリ411に出力され、この出力情報に基づいて、この2点の画素情報が、近傍領域情報判定部430のレジスタ432に格納される。この画素情報には画素位置情報が含まれる。   Additional information of the current frame memory input to the current frame additional information memory 422, that is, two pieces of feature pixel position information corresponding to the target pixel, that is, pixel position information having a maximum difference from the target pixel, and a minimum of the target pixel The pixel position information having the difference is output to the current frame memory 411 of the pixel correlation determination unit 410, and the pixel information of the two points is stored in the register 432 of the neighborhood region information determination unit 430 based on the output information. . This pixel information includes pixel position information.

また、前フレーム付加情報メモリ423に入力された前フレームメモリの付加情報、すなわち、すなわち注目画素との最大差分を持つ画素位置情報と、注目画素との最小差分を持つ画素位置情報とが画素相関判定部410の前フレームメモリ412に出力される。前フレームメモリ412には、さらに候補ベクトル抽出部からn個の候補ベクトル情報が入力され、候補ベクトル情報によって指示される各画素毎に決定される近傍領域から2つの特徴画素が特定され、n×2の特徴画素情報が近傍領域情報判定部430のレジスタ431に格納される。この画素情報には画素位置情報が含まれる。   Further, the additional information of the previous frame memory input to the previous frame additional information memory 423, that is, the pixel position information having the maximum difference from the target pixel and the pixel position information having the minimum difference from the target pixel are correlated with each other. The data is output to the previous frame memory 412 of the determination unit 410. The previous frame memory 412 further receives n candidate vector information from the candidate vector extraction unit, specifies two feature pixels from the neighboring region determined for each pixel indicated by the candidate vector information, and n × The second feature pixel information is stored in the register 431 of the neighborhood area information determination unit 430. This pixel information includes pixel position information.

レジスタ431に格納されたn×2の特徴画素情報は、ゲート433を介し相関判定部434に出力される。ゲート433では、n個の候補ベクトルから仮判定部421における仮判定処理によって選別された選別候補ベクトルに基づいて、選別候補ベクトルに対応する画素の近傍領域の特徴画素情報のみが相関判定部434に出力される。   The n × 2 feature pixel information stored in the register 431 is output to the correlation determination unit 434 via the gate 433. In the gate 433, only the feature pixel information in the neighborhood region of the pixel corresponding to the selection candidate vector is sent to the correlation determination unit 434 based on the selection candidate vector selected by the temporary determination process in the temporary determination unit 421 from the n candidate vectors. Is output.

一方、着目画素の特徴画素情報は、直接相関判定部434に出力される。相関判定部434では、これらの特徴画素の相関判定処理を行い、選別候補ベクトルから唯一の動きベクトルを決定する。   On the other hand, the feature pixel information of the pixel of interest is directly output to the correlation determination unit 434. The correlation determination unit 434 performs correlation determination processing of these feature pixels, and determines a unique motion vector from the selection candidate vectors.

相関判定部434における動きベクトル決定処理について、図18を参照して説明する。図18に示すのは、先に図8を参照して説明したと同様の入力フレーム(現フレーム)画像データ500と、過去フレーム(前フレーム)画像データ510である。   The motion vector determination process in the correlation determination unit 434 will be described with reference to FIG. FIG. 18 shows input frame (current frame) image data 500 and past frame (previous frame) image data 510 similar to those described above with reference to FIG.

入力フレーム(現フレーム)画像データ500には、先に図8を参照して説明した仮判定部による候補ベクトル選別処理によって選別された候補ベクトルa,c,eを示してある。   The input frame (current frame) image data 500 shows candidate vectors a, c, and e that have been selected by the candidate vector selection process by the provisional determination unit described above with reference to FIG.

近傍領域情報判定部430における相関判定部433は、過去フレーム(前フレーム)画像データ510から選択した着目画素、すなわち、動きベクトルを対応付ける画素としての着目画素511の近傍領域における特徴画素位置データに基づいて、候補ベクトルa,c,eから1つの動きベクトルを決定する。   The correlation determination unit 433 in the vicinity region information determination unit 430 is based on the feature pixel position data in the vicinity region of the pixel of interest selected from the past frame (previous frame) image data 510, that is, the pixel of interest 511 as a pixel associated with the motion vector. Thus, one motion vector is determined from the candidate vectors a, c, e.

図18に示す例において、着目画素511の近傍領域は、2次元のブロック領域としている。この近傍領域の設定は、任意であり、前述の2点マッチングと同様、水平方向の一次元領域に設定してもよい。   In the example shown in FIG. 18, the region near the target pixel 511 is a two-dimensional block region. The setting of this neighborhood region is arbitrary, and may be set in a one-dimensional region in the horizontal direction as in the above-described two-point matching.

着目画素511の画素位置を中心にしたとき、注目画素と最大差分画素となる画素位置である空間勾配最大画素512と、注目画素と最小差分画素となる画素位置である空間勾配最小画素513が決定する。   When the pixel position of the target pixel 511 is centered, a spatial gradient maximum pixel 512 that is a pixel position that becomes the maximum difference pixel with the target pixel and a spatial gradient minimum pixel 513 that is a pixel position that becomes the minimum difference pixel with the target pixel are determined. To do.

一方、入力フレーム(現フレーム)500においても、各選別候補ベクトルによって指示される画素を中心として設定される画素領域、すなわち選別候補ベクトルaによって設定される画素領域501、選別候補ベクトルcによって設定される画素領域502、選別候補ベクトルeによって設定される画素領域503それぞれにおいて、中心画素との最大差分画素となる画素位置である空間勾配最大画素と、中心画素と最小差分画素となる画素位置である空間勾配最小画素が決定する。   On the other hand, the input frame (current frame) 500 is also set by the pixel area set around the pixel indicated by each selection candidate vector, that is, the pixel area 501 set by the selection candidate vector a and the selection candidate vector c. In the pixel area 502 and the pixel area 503 set by the selection candidate vector e, the spatial gradient maximum pixel that is the pixel position that becomes the maximum difference pixel from the center pixel and the pixel position that becomes the minimum difference pixel from the center pixel The spatial gradient minimum pixel is determined.

相関判定部433では、着目画素511の近傍領域の特徴画素位置と、選別候補ベクトルa,c,eの指示する対応画素位置の近傍領域における特徴画素位置の相関を判定する。   The correlation determination unit 433 determines the correlation between the feature pixel position in the vicinity region of the pixel of interest 511 and the feature pixel position in the vicinity region of the corresponding pixel position indicated by the selection candidate vectors a, c, and e.

図に示す例では、選別候補ベクトルaの指示する近傍領域501は、着目画素511の近傍領域の特徴画素位置に対応する位置となっており、他の2つの選別候補ベクトルc,eの指示する近傍領域502,503は、着目画素511の近傍領域の特徴画素位置に対応する位置となっていない。   In the example shown in the figure, the neighboring area 501 indicated by the selection candidate vector a is a position corresponding to the feature pixel position in the vicinity area of the pixel of interest 511, and the other two selection candidate vectors c and e indicate. The neighboring areas 502 and 503 are not at positions corresponding to the characteristic pixel positions in the neighboring area of the pixel of interest 511.

この結果、着目画素511に対応する動きベクトルとして、候補ベクトルaが選択決定される。   As a result, the candidate vector a is selected and determined as the motion vector corresponding to the target pixel 511.

相関判定部433は、このような処理をフレームの構成画素について順次、着目画素として設定し、設定した着目画素毎に上述と同様の近傍領域の特徴画素位置の相関判定処理を実行し、フレーム構成画素各々に対応する動きベクトルを選別候補ベクトルから選択して決定する。   The correlation determination unit 433 sequentially sets such processing as the pixel of interest for the constituent pixels of the frame, executes the correlation determination processing of the feature pixel positions in the vicinity region for each of the set target pixels, and performs frame configuration. A motion vector corresponding to each pixel is selected from the selection candidate vectors and determined.

このように、図15に示す動きベクトル決定部400では、着目画素の近傍領域の画素値に基づいて、2つの特徴画素位置を特定し、着目画素の近傍領域における特徴画素の着目画素位置に対応する相対位置と、仮判定部221によって選別された候補ベクトルの指示する画素の近傍領域の特徴画素位置との相関を判定し、最も相関の高い特徴画素位置を持つ画素を指示する候補ベクトルを着目画素に対応する動きベクトルとして決定する。   As described above, the motion vector determination unit 400 illustrated in FIG. 15 identifies two feature pixel positions based on the pixel values in the vicinity area of the target pixel, and corresponds to the target pixel positions of the feature pixels in the vicinity area of the target pixel. The correlation between the relative position to be detected and the feature pixel position in the vicinity region of the pixel indicated by the candidate vector selected by the temporary determination unit 221 is determined, and the candidate vector indicating the pixel having the highest correlation feature pixel position is focused on It is determined as a motion vector corresponding to the pixel.

以上の動きベクトル決定処理シーケンスについて、図19に示すフローチャートを参照して説明する。図19に示すフローは、1つの着目画素に対する動きベクトルの決定処理であり、フレーム画像の構成画素のすべてについて動きベクトルの決定を行なう場合は、フレーム画像の構成画素を順次、着目画素として設定し図19に示すフローを各着目画素毎に実行する。   The above motion vector determination processing sequence will be described with reference to the flowchart shown in FIG. The flow shown in FIG. 19 is a motion vector determination process for one target pixel. When determining a motion vector for all the constituent pixels of the frame image, the constituent pixels of the frame image are sequentially set as the target pixel. The flow shown in FIG. 19 is executed for each pixel of interest.

まず、ステップS301において実行する処理は、着目画素と、n個の候補ベクトルによって指示される画素との差分絶対値、すなわちMC残差dnを算出する処理である。この処理は、図15の動きベクトル決定部400の画素相関判定部410において実行される。   First, the process executed in step S301 is a process for calculating the absolute difference value between the pixel of interest and the pixel indicated by the n candidate vectors, that is, the MC residual dn. This process is executed in the pixel correlation determination unit 410 of the motion vector determination unit 400 in FIG.

ステップS302〜S304は、仮判定部421における処理である。仮判定部421は、ステップS302において、n個の差分絶対値(MC残差)[di]を入力し、n個のMC残差の最小値:dminを検出する。   Steps S302 to S304 are processes in the temporary determination unit 421. In step S302, the provisional determination unit 421 inputs n differential absolute values (MC residuals) [di], and detects the minimum value of d MC residuals: dmin.

ステップS303で、i=0(0≦i<n)の初期設定を行い、ステップS304において、予め定められた閾値をTHとして、
di-dmin≦TH
を満たすか否かを判定する。
In step S303, i = 0 (0 ≦ i <n) is initially set. In step S304, a predetermined threshold is set as TH.
di-dmin ≦ TH
It is determined whether or not the above is satisfied.

ステップS304において実行する処理は、先に図8を前述した候補ベクトルからの選別処理として実行する仮判定処理である。di-dmin≦THを満足しないと判定した場合は、選別候補ベクトルではないと判定され、ステップS305、S306、S307で実行する注目画素の近傍領域の特徴画素位置に基づく相関判定を行なうことなく、ステップS308に進む。   The process executed in step S304 is a provisional determination process executed as the selection process from the candidate vector described above with reference to FIG. If it is determined that di-dmin ≦ TH is not satisfied, it is determined that the vector is not a selection candidate vector, and the correlation determination based on the feature pixel position in the vicinity region of the target pixel is performed in steps S305, S306, and S307. Proceed to step S308.

ステップS304において実行する仮判定処理において、di-dmin≦THを満足する場合、選別候補ベクトルとして選択され、ステップS305に進む。   When di-dmin ≦ TH is satisfied in the provisional determination process executed in step S304, the selection candidate vector is selected, and the process proceeds to step S305.

ステップS305では、特徴画素位置の相関性を判定する。この処理は、先に図16を参照して説明したように、着目画素の近傍領域における2つの特徴画素の位置と、選別候補ベクトルとして選択された画素の近傍領域の2つの特徴画素位置の相関、すなわち位置の対応があるか否かを判定する処理である。   In step S305, the correlation of the feature pixel position is determined. As described above with reference to FIG. 16, this processing correlates the positions of two feature pixels in the vicinity region of the target pixel and the two feature pixel positions in the vicinity region of the pixel selected as the selection candidate vector. That is, it is a process for determining whether or not there is a correspondence between positions.

ステップS306では、相関のより高いものを選択する処理を実行し、ステップS307において、iの値に基づいて、すべての候補ベクトルの検証が済んだか否かを判定し、済んでいない場合は、ステップS310に進み、iの値を更新(1インクリメント)して、ステップS304以下の処理を繰り返し実行する。   In step S306, a process of selecting a higher correlation is executed, and in step S307, it is determined whether or not all candidate vectors have been verified based on the value of i. Proceeding to S310, the value of i is updated (incremented by 1), and the processing after step S304 is repeatedly executed.

すべての候補ベクトルについての検証が終了すると、ステップS308に進み、その時点で、選択されている最も相関の高い、すなわち、ステップS305において算出した着目画素の近傍領域における2つの特徴画素の位置と、選別候補ベクトルとして選択された画素の近傍領域の特徴画素位置の相関の高いものに対応する候補ベクトルを、処理対象としての注目画素に対応する動きベクトルとして決定する。   When the verification for all candidate vectors is completed, the process proceeds to step S308, at which time the position of the two feature pixels in the neighborhood of the pixel of interest calculated in step S305 having the highest correlation, that is, selected in step S305, A candidate vector corresponding to a highly correlated feature pixel position in the neighborhood region of the pixel selected as the selection candidate vector is determined as a motion vector corresponding to the target pixel as a processing target.

上述したように、本実施例における3点マッチング方式による動きベクトル決定処理では、候補ベクトルから動きベクトルの決定処理において、ブロックマッチング処理を行なうことなく、着目画素とその近傍の2つの特徴画素位置情報を用いる構成である。従ってブロックマッチング処理において適用するブロックの大きに応じた多数の画素値に基づく相関算出計算を行なう必要がなり、効率的な処理が可能となる。   As described above, in the motion vector determination process using the three-point matching method in the present embodiment, the pixel of interest and the information on the position of two feature pixels in the vicinity thereof are not performed in the process of determining the motion vector from the candidate vector without performing the block matching process. It is the structure using. Therefore, it is necessary to perform correlation calculation calculation based on a large number of pixel values according to the size of the block applied in the block matching process, and an efficient process is possible.

上述の実施例では、現フレームと前フレームの2つの特徴画素位置を適用して位置情報に基づき相関判定を行なったが、着目画素に対応する特徴画素位置における画素値に基づく相関判定処理を行なう構成としてもよい。すなわち着目画素と、その近傍領域における2つの特徴画素の画素値を用いて、計3点のみを用いたブロックマッチングを行なう構成である。この処理シーケンスについて、図20を参照して説明する。   In the above embodiment, the correlation determination is performed based on the position information by applying the two feature pixel positions of the current frame and the previous frame, but the correlation determination process is performed based on the pixel value at the feature pixel position corresponding to the target pixel. It is good also as a structure. In other words, the block matching is performed using only a total of three points using the pixel value of the pixel of interest and two feature pixels in the vicinity region. This processing sequence will be described with reference to FIG.

図20は、先に説明した図18と同様、入力フレーム(現フレーム)画像データ600と、過去フレーム(前フレーム)画像データ610である。   FIG. 20 shows input frame (current frame) image data 600 and past frame (previous frame) image data 610, as in FIG. 18 described above.

入力フレーム(現フレーム)画像データ600には、先に図8を参照して説明した仮判定部による候補ベクトル選別処理によって選別された候補ベクトルa,c,eを示してある。   The input frame (current frame) image data 600 shows candidate vectors a, c, and e that have been selected by the candidate vector selection process by the provisional determination unit described above with reference to FIG.

近傍領域情報判定部430における相関判定部433は、過去フレーム(前フレーム)画像データ510から選択した着目画素、すなわち、動きベクトルを対応付ける画素としての着目画素511の近傍領域における特徴画素位置データに基づいて、候補ベクトルa,c,eから1つの動きベクトルを決定する。   The correlation determination unit 433 in the vicinity region information determination unit 430 is based on the feature pixel position data in the vicinity region of the pixel of interest selected from the past frame (previous frame) image data 510, that is, the pixel of interest 511 as a pixel associated with the motion vector. Thus, one motion vector is determined from the candidate vectors a, c, e.

図20に示す例において、着目画素611の近傍領域は、2次元のブロック領域としている。この近傍領域の設定は、任意であり、前述の2点マッチングと同様、水平方向の一次元領域に設定してもよい。   In the example shown in FIG. 20, the vicinity region of the pixel of interest 611 is a two-dimensional block region. The setting of this neighborhood region is arbitrary, and may be set in a one-dimensional region in the horizontal direction as in the above-described two-point matching.

着目画素611の画素位置を中心にしたとき、注目画素と最大差分画素となる画素位置である空間勾配最大画素612と、注目画素と最小差分画素となる画素位置である空間勾配最小画素613が決定する。   When the pixel position of the pixel of interest 611 is centered, the spatial gradient maximum pixel 612 that is the pixel position that is the pixel of interest and the maximum difference pixel, and the spatial gradient minimum pixel 613 that is the pixel position of the pixel of interest and the minimum difference pixel are determined. To do.

一方、入力フレーム(現フレーム)600においては、各選別候補ベクトルによって指示される画素を中心として設定される画素領域、すなわち選別候補ベクトルaによって設定される画素領域601、選別候補ベクトルcによって設定される画素領域602、選別候補ベクトルeによって設定される画素領域603それぞれにおいて、過去フレームにおいて検出された注目画素611に対する空間勾配最大画素612と、空間勾配最小画素613の各位置に対応する画素がピックアップされて、図15に示す近傍領域情報相関判定部430に出力される。   On the other hand, in the input frame (current frame) 600, the pixel area set around the pixel indicated by each selection candidate vector, that is, the pixel area 601 set by the selection candidate vector a, and the selection candidate vector c are set. In each of the pixel area 602 and the pixel area 603 set by the selection candidate vector e, pixels corresponding to the positions of the spatial gradient maximum pixel 612 and the spatial gradient minimum pixel 613 for the target pixel 611 detected in the past frame are picked up. Then, it is output to the neighborhood region information correlation determination unit 430 shown in FIG.

図20に示すように、各選別候補ベクトルa,c,eによって指示される各画素領域601,602,603から、過去フレームにおいて検出された注目画素611に対する空間勾配最大画素612と、空間勾配最小画素613の各位置に対応する画素がピックアップされ相関判定を行なう。   As shown in FIG. 20, from each pixel region 601, 602, 603 indicated by each selection candidate vector a, c, e, the spatial gradient maximum pixel 612 for the target pixel 611 detected in the past frame, and the spatial gradient minimum A pixel corresponding to each position of the pixel 613 is picked up and a correlation is determined.

すなわち、図15に示す近傍領域情報相関判定部430において、これらの画素間の画素値相関判定を実行する。すなわち、注目画素611に対する空間勾配最大画素612と、空間勾配最小画素613の各位置の画素と、各画素領域601,602,603の対応位置の画素値との相関判定を行なう。なお、中心画素については、仮判定部421において相関判定が実行されており、結果として、3点のみを利用したマッッチング処理結果が得られ、この3点マッチング処理によって最も相関の高いと判定されたデータに対応する選別候補ベクトルが、着目画素に対応する動きベクトルとして決定される。   That is, the neighborhood value information correlation determination unit 430 illustrated in FIG. 15 performs pixel value correlation determination between these pixels. That is, a correlation determination is performed between the pixel at each position of the spatial gradient maximum pixel 612 and the spatial gradient minimum pixel 613 with respect to the pixel of interest 611 and the pixel values at corresponding positions of the pixel regions 601, 602, and 603. For the center pixel, correlation determination is performed in the temporary determination unit 421. As a result, a matching processing result using only three points is obtained, and it is determined that the highest correlation is obtained by the three-point matching processing. A selection candidate vector corresponding to the data is determined as a motion vector corresponding to the pixel of interest.

図21に上記手法による動きベクトル決定処理フローを示す。図21に示す処理フロー中、ステップS401〜S404の処理は、先に図19を参照して説明した処理フローのステップS301〜S304の処理と同様であり、仮判定部における選別候補ベクトルが抽出される処理である。   FIG. 21 shows a motion vector determination processing flow according to the above method. In the processing flow shown in FIG. 21, the processing in steps S401 to S404 is the same as the processing in steps S301 to S304 in the processing flow described above with reference to FIG. Process.

ステップS405では、3画素によるブロックマッチングを実行する。すなわち、図20を参照して説明したように、選別候補ベクトルによって指示される各画素領域から、過去フレームにおいて検出された注目画素に対する空間勾配最大画素と、空間勾配最小画素の各位置に対応する画素がピックアップされて相関が判定される。中心画素、すなわち注目画素位置に対応する画素相関情報については、仮判定部の判定結果を参照する。   In step S405, block matching with three pixels is executed. That is, as described with reference to FIG. 20, each pixel region indicated by the selection candidate vector corresponds to each position of the spatial gradient maximum pixel and the spatial gradient minimum pixel with respect to the target pixel detected in the past frame. Pixels are picked up and correlation is determined. For the pixel correlation information corresponding to the center pixel, that is, the target pixel position, the determination result of the temporary determination unit is referred to.

これらの3点のマッチング検証によって相関判定が実行されて、最も高い相関を示すベクトルを注目画素対応の動きベクトルとして決定する。ステップS406〜S408,S410の処理は、先に図19を参照して説明した処理フローのステップS306〜S308、S310と同様の処理であり説明を省略する。   Correlation determination is executed by matching these three points, and a vector showing the highest correlation is determined as a motion vector corresponding to the target pixel. The processes in steps S406 to S408 and S410 are the same as steps S306 to S308 and S310 in the process flow described above with reference to FIG.

このように、3点マッチング方式を適用した候補ベクトルから動きベクトルの決定処理では、注目画素近傍(ブロック)内の全ての画素を適用した相関判定を行なうことなく、着目画素とその近傍の2つの特徴画素位置情報や画素値情報を用いる構成である。従ってブロックマッチング処理において適用するブロックの大きさに応じた多数の画素値に基づく相関算出計算を行なう必要がなくなり、効率的な処理が可能となる。   As described above, in the motion vector determination process from the candidate vector to which the three-point matching method is applied, the correlation determination using all the pixels in the vicinity (block) of the target pixel is not performed, and the two pixels in the vicinity of the target pixel and the vicinity thereof are determined. This is a configuration using characteristic pixel position information and pixel value information. Therefore, it is not necessary to perform correlation calculation based on a large number of pixel values according to the size of the block applied in the block matching process, and an efficient process is possible.

なお、上述した2つの処理、すなわち、図19を参照して説明した特徴画素位置の相関情報を利用した相関判定による動きベクトル決定処理と、図21を参照して説明した画素値の相関情報を利用した相関判定による動きベクトル決定処理を併用した処理も可能である。   The two processes described above, that is, the motion vector determination process based on the correlation determination using the correlation information of the characteristic pixel position described with reference to FIG. 19 and the correlation information of the pixel value described with reference to FIG. A process using a motion vector determination process based on the correlation determination that is used is also possible.

図22に特徴画素位置の相関情報を利用した相関判定と、画素値の相関情報を利用した相関判定による動きベクトル決定処理を併用した処理シーケンスを説明するフローを示す。   FIG. 22 shows a flow for explaining a processing sequence in which correlation determination using correlation information of characteristic pixel positions and motion vector determination processing by correlation determination using correlation information of pixel values are used together.

図22に示す処理フロー中、ステップS501〜S504の処理は、先に図19を参照して説明した処理フローのステップS301〜S304の処理と同様であり、仮判定部における選別候補ベクトルが抽出される処理である。   In the processing flow shown in FIG. 22, the processing in steps S501 to S504 is the same as the processing in steps S301 to S304 in the processing flow described above with reference to FIG. Process.

ステップS505では、特徴画素位置の相関性を判定する。この処理は、先に図16を参照して説明したように、着目画素の近傍領域における2つの特徴画素の位置と、選別候補ベクトルとして選択された画素の近傍領域の2つの特徴画素位置の相関、すなわち位置の対応があるか否かを判定する処理である。   In step S505, the correlation of the feature pixel position is determined. As described above with reference to FIG. 16, this processing correlates the positions of two feature pixels in the vicinity region of the target pixel and the two feature pixel positions in the vicinity region of the pixel selected as the selection candidate vector. That is, it is a process for determining whether or not there is a correspondence between positions.

次に、ステップS506において、3画素によるブロックマッチングを実行する。すなわち、図20を参照して説明したように、選別候補ベクトルによって指示される各画素領域から、過去フレームにおいて検出された注目画素に対する空間勾配最大画素と、空間勾配最小画素の各位置に対応する画素がピックアップされて相関が判定される。中心画素、すなわち注目画素位置に対応する画素相関情報については、仮判定部の判定結果を参照する。   Next, in step S506, block matching with three pixels is executed. That is, as described with reference to FIG. 20, each pixel region indicated by the selection candidate vector corresponds to each position of the spatial gradient maximum pixel and the spatial gradient minimum pixel with respect to the target pixel detected in the past frame. Pixels are picked up and correlation is determined. For the pixel correlation information corresponding to the center pixel, that is, the target pixel position, the determination result of the temporary determination unit is referred to.

ステップS507では、ステップS505の相関判定と、ステップS506の相関判定の両者を考慮して最も高い相関を示すベクトルを選択する。ステップS508〜S510の処理は、先に図19を参照して説明した処理フローのステップS307〜S308、S310と同様の処理であり説明を省略する。   In step S507, a vector showing the highest correlation is selected in consideration of both the correlation determination in step S505 and the correlation determination in step S506. The processing in steps S508 to S510 is the same as the processing in steps S307 to S308 and S310 in the processing flow described above with reference to FIG.

このように、画素位置の相関と、3点マッチング方式を適用した候補ベクトルから動きベクトルの決定処理においても、注目画素近傍(ブロック)内の全ての画素を適用した相関判定を行なう必要はなく、きわめて少ない画素情報を用いるのみの構成であり、ブロックマッチング処理において適用するブロックの大きに応じた多数の画素値に基づく相関算出計算を行なう必要がなり、効率的な処理が可能となる。   Thus, even in the motion vector determination processing from the candidate vector to which the correlation between the pixel position and the three-point matching method is applied, it is not necessary to perform the correlation determination using all the pixels in the vicinity of the target pixel (block). The configuration uses only a very small amount of pixel information, and it is necessary to perform a correlation calculation calculation based on a large number of pixel values according to the size of a block to be applied in the block matching processing, thereby enabling efficient processing.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.

なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.

例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の構成によれば、動画像データからの動きベクトル検出処理において、各画素対応の動きベクトルを複数の候補ベクトルから選択決定する処理において、動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、その特徴画素の位置情報、または画素値情報に基づいて相関判定を実行し、動きベクトルの決定処理を行なう構成としたので、ブロックマッチング処理を適用する必要がなく、相関算出のための演算として差分絶対値総和演算などの評価値計算両を削減することができ、処理効率が向上し、また、画素値を保持するためのメモリも小さくすることが可能となりハードウェア規模の小型化が実現される。従って、動画像データの符号化処理などを実行する画像処理装置などにおいて本発明を適用することにより、より正確な動きベクトル検出処理が可能となる。   As described above, according to the configuration of the present invention, in a motion vector detection process from moving image data, a pixel of interest to which a motion vector is associated in a process of selecting and determining a motion vector corresponding to each pixel from a plurality of candidate vectors. It is necessary to apply block matching processing because the feature pixel is extracted from the neighborhood region of the image, the correlation is determined based on the position information of the feature pixel or the pixel value information, and the motion vector is determined. In addition, it is possible to reduce both evaluation value calculations such as the absolute difference sum calculation as the calculation for correlation calculation, improving the processing efficiency and reducing the memory for holding pixel values. Miniaturization of hardware scale is realized. Therefore, by applying the present invention to an image processing apparatus or the like that executes moving image data encoding processing or the like, more accurate motion vector detection processing can be performed.

ブロックマッチング法の概要を説明する図である。It is a figure explaining the outline | summary of a block matching method. 動きベクトル検出処理において適用する代表点マッチング法による評価値テーブルの作成処理、評価値テーブルに基づく候補ベクトルの抽出処理、抽出した候補ベクトルに基づく各画素に対応する動きベクトルの設定処理の概要について説明する図(その1)である。Explains the outline of the evaluation value table creation process by the representative point matching method applied in the motion vector detection process, the candidate vector extraction process based on the evaluation value table, and the motion vector setting process corresponding to each pixel based on the extracted candidate vector (No. 1) 動きベクトル検出処理において適用する代表点マッチング法による評価値テーブルの作成処理、評価値テーブルに基づく候補ベクトルの抽出処理、抽出した候補ベクトルに基づく各画素に対応する動きベクトルの設定処理の概要について説明する図(その2)である。Explains the outline of the evaluation value table creation process by the representative point matching method applied in the motion vector detection process, the candidate vector extraction process based on the evaluation value table, and the motion vector setting process corresponding to each pixel based on the extracted candidate vector (No. 2) 動きベクトル検出処理において適用する代表点マッチング法による評価値テーブルの作成処理、評価値テーブルに基づく候補ベクトルの抽出処理、抽出した候補ベクトルに基づく各画素に対応する動きベクトルの設定処理の概要について説明する図(その3)である。Explains the outline of the evaluation value table creation process by the representative point matching method applied in the motion vector detection process, the candidate vector extraction process based on the evaluation value table, and the motion vector setting process corresponding to each pixel based on the extracted candidate vector (No. 3) 動きベクトル検出処理を実行する本発明の動きベクトル検出装置の一実施例構成を示す図である。It is a figure which shows one Example structure of the motion vector detection apparatus of this invention which performs a motion vector detection process. 動きベクトル検出処理を実行する本発明の動きベクトル検出装置の処理シーケンスを説明するフローチャートである。It is a flowchart explaining the process sequence of the motion vector detection apparatus of this invention which performs a motion vector detection process. 本発明の動きベクトル検出装置の動きベクトル決定部の詳細構成を示す図である。It is a figure which shows the detailed structure of the motion vector determination part of the motion vector detection apparatus of this invention. 動きベクトル決定部の仮判定部における処理について説明する図である。It is a figure explaining the process in the temporary determination part of a motion vector determination part. 本発明の動きベクトル決定部の付加情報演算部の詳細構成を示す図である。It is a figure which shows the detailed structure of the additional information calculating part of the motion vector determination part of this invention. 付加情報演算部で検出する特徴画素について説明する図である。It is a figure explaining the characteristic pixel detected in an additional information calculating part. 付加情報演算部で検出する特徴画素検出処理態様について説明する図である。It is a figure explaining the feature pixel detection process aspect detected in an additional information calculating part. 本発明の動きベクトル検出装置の動きベクトル決定部において実行する処理の詳細を説明する図である。It is a figure explaining the detail of the process performed in the motion vector determination part of the motion vector detection apparatus of this invention. 本発明の動きベクトル検出装置の動きベクトル決定処理のシーケンスを説明するフローチャート図である。It is a flowchart figure explaining the sequence of the motion vector determination process of the motion vector detection apparatus of this invention. 本発明の動きベクトル決定部の付加情報演算部の構成例を示す図である。It is a figure which shows the structural example of the additional information calculating part of the motion vector determination part of this invention. 本発明の動きベクトル検出装置の動きベクトル決定部の詳細構成(実施例2)を示す図である。It is a figure which shows the detailed structure (Example 2) of the motion vector determination part of the motion vector detection apparatus of this invention. 本発明の動きベクトル決定部の付加情報演算部の構成例を示す図である。It is a figure which shows the structural example of the additional information calculating part of the motion vector determination part of this invention. 付加情報演算部で検出する特徴画素について説明する図である。It is a figure explaining the characteristic pixel detected in an additional information calculating part. 本発明の動きベクトル検出装置の動きベクトル決定部において実行する処理の詳細を説明する図である。It is a figure explaining the detail of the process performed in the motion vector determination part of the motion vector detection apparatus of this invention. 本発明の動きベクトル検出装置の動きベクトル決定処理のシーケンスを説明するフローチャート図である。It is a flowchart figure explaining the sequence of the motion vector determination process of the motion vector detection apparatus of this invention. 本発明の動きベクトル検出装置の動きベクトル決定部において実行する処理の詳細を説明する図である。It is a figure explaining the detail of the process performed in the motion vector determination part of the motion vector detection apparatus of this invention. 本発明の動きベクトル検出装置の動きベクトル決定処理のシーケンスを説明するフローチャート図である。It is a flowchart figure explaining the sequence of the motion vector determination process of the motion vector detection apparatus of this invention. 本発明の動きベクトル検出装置の動きベクトル決定処理のシーケンスを説明するフローチャート図である。It is a flowchart figure explaining the sequence of the motion vector determination process of the motion vector detection apparatus of this invention.

符号の説明Explanation of symbols

10 前フレーム
11 検査ブロックBy
12 サーチエリア
20 現フレーム
21 基準ブロックBx
70 前フレーム
71 代表点Ry
80 現フレーム
81 サーチエリア
90 評価値テーブル
91 前フレーム画素
95,96,97 現フレーム画素
101 評価値テーブル形成部
102 候補ベクトル抽出部
103 動きベクトル決定部
104 制御部(コントローラ)
200 動きベクトル決定部
210 画素相関判定部
211 現フレームメモリ
212 前フレームメモリ
213 画素値差分算出部
214 絶対値算出部
221 仮判定部
222 ゲート
230 特徴画素位置相関判定部
231 現フレーム付加情報メモリ
232 前フレーム付加情報メモリ
233 相関判定部
250 付加情報演算部
251 隣接画素差分絶対値算出部
252 レジスタ
253 画素値差分算出部
254 絶対値算出部
255 レジスタ
256 最大差分値検出部
257 最大差分画素位置検出部
258 レジスタ
281 着目画素
282 特徴画素(隣接画素差分絶対値最大画素)
300 入力フレーム(現フレーム)画像データ
310 過去フレーム(前フレーム)画像データ
301,302,303 近傍領域
311 着目画素
400 動きベクトル決定部
410 画素相関判定部
411 現フレームメモリ
412 前フレームメモリ
413 画素値差分算出部
414 絶対値算出部
421 仮判定部
422 現フレーム付加情報メモリ
423 前フレーム付加情報メモリ
430 近傍領域情報相関判定部
431,432 レジスタ
433 ゲート
434 相関判定部
450 付加情報演算部
451 着目画素差分算出部
452 レジスタ
453 画素値差分算出部
454 差分最大値画素情報取得部(MAX)
455 差分最小値画素情報取得部(MIN)
456 最大差分画素位置検出部
457 レジスタ
458 最小差分画素位置検出部
459 レジスタ
481 着目画素
482 空間勾配最大画素
483 空間勾配最小画素
500 入力フレーム(現フレーム)画像データ
510 過去フレーム(前フレーム)画像データ
501,502,503 近傍領域
511 着目画素
512 空間勾配最大画素
513 空間勾配最小画素
600 入力フレーム(現フレーム)画像データ
610 過去フレーム(前フレーム)画像データ
601,602,603 近傍領域
611 着目画素
612 空間勾配最大画素
613 空間勾配最小画素
10 Previous frame 11 Inspection block By
12 Search area 20 Current frame 21 Reference block Bx
70 Front frame 71 Representative point Ry
80 Current Frame 81 Search Area 90 Evaluation Value Table 91 Previous Frame Pixel 95, 96, 97 Current Frame Pixel 101 Evaluation Value Table Forming Unit 102 Candidate Vector Extraction Unit 103 Motion Vector Determination Unit 104 Control Unit (Controller)
200 Motion vector determination unit 210 Pixel correlation determination unit 211 Current frame memory 212 Previous frame memory 213 Pixel value difference calculation unit 214 Absolute value calculation unit 221 Temporary determination unit 222 Gate 230 Feature pixel position correlation determination unit 231 Current frame additional information memory 232 Previous Frame additional information memory 233 Correlation determining section 250 Additional information calculating section 251 Adjacent pixel difference absolute value calculating section 252 Register 253 Pixel value difference calculating section 254 Absolute value calculating section 255 Register 256 Maximum difference value detecting section 257 Maximum difference pixel position detecting section 258 Register 281 Pixel of interest 282 Feature pixel (Adjacent pixel difference absolute value maximum pixel)
300 Input frame (current frame) image data 310 Past frame (previous frame) image data 301, 302, 303 Neighborhood region 311 Pixel of interest 400 Motion vector determination unit 410 Pixel correlation determination unit 411 Current frame memory 412 Previous frame memory 413 Pixel value difference Calculation unit 414 Absolute value calculation unit 421 Temporary determination unit 422 Current frame additional information memory 423 Previous frame additional information memory 430 Neighborhood information correlation determination unit 431, 432 Register 433 Gate 434 Correlation determination unit 450 Additional information calculation unit 451 Calculation of target pixel difference Unit 452 Register 453 Pixel value difference calculation unit 454 Difference maximum value pixel information acquisition unit (MAX)
455 Difference minimum value pixel information acquisition unit (MIN)
456 Maximum difference pixel position detection unit 457 Register 458 Minimum difference pixel position detection unit 459 Register 481 Pixel of interest 482 Spatial gradient maximum pixel 483 Spatial gradient minimum pixel 500 Input frame (current frame) image data 510 Past frame (previous frame) image data 501 , 502, 503 Neighborhood region 511 Pixel of interest 512 Spatial gradient maximum pixel 513 Spatial gradient minimum pixel 600 Input frame (current frame) image data 610 Past frame (previous frame) image data 601, 602, 603 Neighborhood region 611 Pixel of interest 612 Spatial gradient Maximum pixel 613 Spatial gradient minimum pixel

Claims (6)

動画像データから動きベクトルを検出する動きベクトル検出装置であり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成する評価値テーブル形成部と、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出する候補ベクトル抽出部と、
前記候補ベクトルから各画素に対応する動きベクトルを決定する動きベクトル決定部とを有し、
前記動きベクトル決定部は、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定する構成であり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出し、該差分と予め規定した閾値との比較を実行して、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定することを特徴とする動きベクトル検出装置。
A motion vector detection device for detecting a motion vector from moving image data;
An evaluation value table forming unit that generates an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction unit that detects a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A motion vector determination unit that determines a motion vector corresponding to each pixel from the candidate vector,
The motion vector determination unit
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri configuration der to determine the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process that executes the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the neighborhood region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A motion vector detection apparatus that determines a motion vector corresponding to a pixel of interest based on a correlation determination process based on a positional relationship .
前記動きベクトル決定部は、
動きベクトルを対応付ける着目画素の近傍領域から隣接画素との画素値差分絶対値が最大の画素を特徴画素として抽出することを特徴とする請求項1に記載の動きベクトル検出装置。
The motion vector determination unit
Motion vector detection device according to claim 1, characterized in that the pixel value difference absolute value from the neighboring region and the adjacent pixels of the pixel of interest to map the motion vector is extracted as the feature pixel maximum pixel.
前記動きベクトル決定部は、
動きベクトルを対応付ける着目画素の近傍領域から複数の特徴画素を抽出することを特徴とする請求項1に記載の動きベクトル検出装置。
The motion vector determination unit
Motion vector detection device according to claim 1, characterized in that extracts a plurality of characteristic pixels from the neighboring region of the target pixel to associate the motion vector.
前記動きベクトル決定部は、
動きベクトルを対応付ける着目画素の近傍領域から着目画素との画素値差分の最大の画素と最小の2つの画素を特徴画素として抽出することを特徴とする請求項に記載の動きベクトル検出装置。
The motion vector determination unit
Motion vector detection device according to claim 3, characterized in that extracting a feature pixel maximum pixel and the minimum of the two pixels of the pixel value difference between the target pixel from the neighboring region of the target pixel to associate the motion vector.
動画像データから動きベクトルを検出する動きベクトル検出方法であり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成する評価値テーブル形成ステップと、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出する候補ベクトル抽出ステップと、
前記候補ベクトルから各画素に対応する動きベクトルを決定する動きベクトル決定ステップとを有し、
前記動きベクトル決定ステップは、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定するステップであり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出し、該差分と予め規定した閾値との比較を実行して、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定することを特徴とする動きベクトル検出方法。
A motion vector detection method for detecting a motion vector from moving image data,
An evaluation value table forming step for generating an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction step of detecting a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A motion vector determining step for determining a motion vector corresponding to each pixel from the candidate vector,
The motion vector determination step includes:
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri step der to determine the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process that executes the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the neighborhood region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A motion vector detection method, comprising: determining a motion vector corresponding to a pixel of interest based on a correlation determination process based on a positional relationship .
動きベクトル検出装置において、動画像データから動きベクトルを検出する処理を実行させるコンピュータ・プログラムであり、
時間軸上における異なるフレーム間の画素値相関情報に基づいて評価値テーブルを生成させる評価値テーブル形成ステップと、
前記評価値テーブルに基づいて動画像データのフレーム構成画素に対応する動きベクトルの候補ベクトルを検出させる候補ベクトル抽出ステップと、
前記候補ベクトルから各画素に対応する動きベクトルを決定させる動きベクトル決定ステップを実行させるプログラムであり、
前記動きベクトル決定ステップは、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出し、該特徴画素に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定させるステップであり、
動きベクトルを対応付ける着目画素の画素値と、前記候補ベクトルによって指示される指示画素の画素値との差分を算出させて、該差分と予め規定した閾値との比較を実行させて、差分が閾値以下となる指示画素を指示する候補ベクトルを相関の高い候補ベクトルとして選別する処理を実行する仮判定処理によって選別した選別候補ベクトルのみを対象として以下の相関判定処理、すなわち、
動きベクトルを対応付ける着目画素の近傍領域から特徴画素を抽出させ、着目画素と該特徴画素との相対的な位置関係と、前記選別候補ベクトルの指示画素と指示画素近傍の特徴画素との相対的な位置関係に基づく相関判定処理に基づいて、着目画素に対応する動きベクトルを決定させることを特徴とするコンピュータ・プログラム。
In the motion vector detection device, a computer program for executing processing for detecting a motion vector from moving image data,
An evaluation value table forming step for generating an evaluation value table based on pixel value correlation information between different frames on the time axis;
A candidate vector extraction step of detecting a candidate vector of a motion vector corresponding to a frame constituent pixel of moving image data based on the evaluation value table;
A program for executing a motion vector determination step for determining a motion vector corresponding to each pixel from the candidate vector ,
The motion vector determination step includes:
The feature pixel is extracted from the region near the pixel of interest associated motion vector, based on the correlation determination process based on the feature pixel, Ri step der to make determining the motion vector corresponding to the target pixel,
The difference between the pixel value of the pixel of interest associated with the motion vector and the pixel value of the designated pixel indicated by the candidate vector is calculated, and the difference is compared with a predetermined threshold value. The following correlation determination process for only the selection candidate vector selected by the provisional determination process for executing the process of selecting the candidate vector indicating the designated pixel as a highly correlated candidate vector:
A feature pixel is extracted from the vicinity region of the target pixel to which the motion vector is associated, the relative positional relationship between the target pixel and the feature pixel, and the relative relationship between the instruction pixel of the selection candidate vector and the feature pixel in the vicinity of the instruction pixel. A computer program for determining a motion vector corresponding to a pixel of interest based on a correlation determination process based on a positional relationship .
JP2004056255A 2004-03-01 2004-03-01 Motion vector detection apparatus, motion vector detection method, and computer program Expired - Fee Related JP4626158B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004056255A JP4626158B2 (en) 2004-03-01 2004-03-01 Motion vector detection apparatus, motion vector detection method, and computer program
CNB2005800063599A CN100525455C (en) 2004-03-01 2005-02-22 Motion vector detecting apparatus, motion vector detection method and computer program
PCT/JP2005/002786 WO2005084036A1 (en) 2004-03-01 2005-02-22 Motion vector detecting apparatus, motion vector detecting method, and computer program
KR1020067016529A KR101098394B1 (en) 2004-03-01 2006-08-17 Motion vector detecting apparatus and motion vector detecting method
US11/467,777 US8064522B2 (en) 2004-03-01 2006-08-28 Motion-vector detecting device, motion-vector detecting method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004056255A JP4626158B2 (en) 2004-03-01 2004-03-01 Motion vector detection apparatus, motion vector detection method, and computer program

Publications (2)

Publication Number Publication Date
JP2005252359A JP2005252359A (en) 2005-09-15
JP4626158B2 true JP4626158B2 (en) 2011-02-02

Family

ID=35032481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004056255A Expired - Fee Related JP4626158B2 (en) 2004-03-01 2004-03-01 Motion vector detection apparatus, motion vector detection method, and computer program

Country Status (2)

Country Link
JP (1) JP4626158B2 (en)
CN (1) CN100525455C (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101221476B (en) * 2007-11-27 2010-08-11 埃派克森微电子(上海)有限公司 Estimation method for image matching effect
JP4623111B2 (en) * 2008-03-13 2011-02-02 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4697275B2 (en) * 2008-07-30 2011-06-08 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and program
JP2010114596A (en) * 2008-11-05 2010-05-20 Sony Corp Motion vector detection apparatus, motion vector processing method and program
CN101419711B (en) * 2008-12-15 2012-05-30 东软集团股份有限公司 Method and device for estimating self moving parameter of vehicle
CN102215321B (en) * 2010-04-08 2013-07-24 联咏科技股份有限公司 Mobile detection method and device
JP2014007658A (en) * 2012-06-26 2014-01-16 Jvc Kenwood Corp Motion vector derivation device, method and program
CN104899853B (en) 2014-03-04 2019-12-06 腾讯科技(深圳)有限公司 Image area dividing method and device
CN104780362A (en) * 2015-04-24 2015-07-15 宏祐图像科技(上海)有限公司 Video static logo detecting method based on local feature description
WO2017082698A1 (en) * 2015-11-11 2017-05-18 삼성전자 주식회사 Method and apparatus for decoding video, and method and apparatus for encoding video
AT517836B1 (en) * 2015-11-19 2017-05-15 Avl List Gmbh Method and test bench for carrying out a test for a test object
WO2020113419A1 (en) * 2018-12-04 2020-06-11 华为技术有限公司 Image processing method and device
JP7331769B2 (en) * 2020-04-30 2023-08-23 トヨタ自動車株式会社 Position estimation system and position estimation method
CN112367486B (en) * 2020-10-30 2023-03-28 维沃移动通信有限公司 Video processing method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275179A (en) * 1995-03-20 1996-10-18 Daewoo Electron Co Ltd Video signal encoding device
JP2001061152A (en) * 1999-08-23 2001-03-06 Sony Corp Motion detection method and motion detector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275179A (en) * 1995-03-20 1996-10-18 Daewoo Electron Co Ltd Video signal encoding device
JP2001061152A (en) * 1999-08-23 2001-03-06 Sony Corp Motion detection method and motion detector

Also Published As

Publication number Publication date
JP2005252359A (en) 2005-09-15
CN1926881A (en) 2007-03-07
CN100525455C (en) 2009-08-05

Similar Documents

Publication Publication Date Title
JP4121376B2 (en) Local constraints for motion matching
KR101098394B1 (en) Motion vector detecting apparatus and motion vector detecting method
JP4991101B2 (en) Temporary motion vector filtering
JP4626158B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP3640257B2 (en) Method for classifying pixels of moving image and determining prediction field of pixel motion vector
KR100973429B1 (en) Background motion vector detection
JP2005210697A (en) Frame rate conversion for motion compensation
JP5445467B2 (en) Credit information section detection method, credit information section detection device, and credit information section detection program
JP2011141824A (en) Image processing apparatus, image processing method and program
JP2005528708A (en) Unit and method for estimating current motion vector
JP2005535028A (en) System and segmentation method for segmentation
JP5492223B2 (en) Motion vector detection apparatus and method
JP4622264B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP2008171247A (en) Motion detecting device, method and program
JP4525064B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP4622265B2 (en) Motion vector detection device, motion vector detection method, and program
JP2005167976A (en) Motion vector detecting device and motion vector detecting program
JP3175914B2 (en) Image encoding method and image encoding device
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP2009021864A (en) Motion vector searching apparatus
JP4207764B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP4250598B2 (en) Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method
CN104980623A (en) Method For Detecting Foreground
JP4207763B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP3237815B2 (en) Motion vector search method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100504

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees