JP4512983B2 - Image processing apparatus and method, recording medium, and program - Google Patents
Image processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP4512983B2 JP4512983B2 JP2004116007A JP2004116007A JP4512983B2 JP 4512983 B2 JP4512983 B2 JP 4512983B2 JP 2004116007 A JP2004116007 A JP 2004116007A JP 2004116007 A JP2004116007 A JP 2004116007A JP 4512983 B2 JP4512983 B2 JP 4512983B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- frame
- motion vector
- vector
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、動きベクトルに基づいて生成される画像の品質を向上することができるようにした画像処理装置および方法、記録媒体、並びにプログラムに関する。 The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly to an image processing apparatus and method, a recording medium, and a program that can improve the quality of an image generated based on a motion vector. About.
従来、画像のフレーム周波数を変換する画像処理装置においては、例えば、特許文献1に記載の勾配法、またはブロックマッチング法などを用いることにより、動きベクトルの検出が行われ、検出された動きベクトルが、生成される内挿フレームに割り付けられる。しかしながら、これらの動きベクトル検出方法においては、常に、動きベクトルが求められるわけではなく、注目画素の動きベクトルを求めることができなかったり、もしくは、求められた動きベクトルが不安定であるなど、動きベクトルの信頼度に問題がある場合があった。
Conventionally, in an image processing apparatus that converts a frame frequency of an image, a motion vector is detected by using, for example, a gradient method or a block matching method described in
また、検出された動きベクトルを、生成される内挿フレームに割り付ける場合においても、内挿フレーム上のすべての画素に、動きベクトルが割り付けられるわけではない。 Further, even when the detected motion vector is allocated to the generated interpolation frame, the motion vector is not allocated to all the pixels on the interpolation frame.
このような場合、画像処理装置は、動きベクトルを求まらないままにするか、または、動きベクトルを0ベクトル(すなわち、静止状態)にすることにより対応していた。 In such a case, the image processing apparatus has coped with the motion vector being left unobtained or by making the motion vector a zero vector (that is, a stationary state).
しかしながら、求まらないままの動きベクトルや0ベクトルにされた動きベクトルは、注目画素が属するオブジェクトに適した動きであるとは、必ずしも言えず、これらの動きベクトルを用いて生成された画像に、例えば、不連続性などの視覚劣化を、少なからずもたらしてしまう課題があった。 However, a motion vector that has not been obtained or a motion vector that has been set to a zero vector is not necessarily a motion suitable for the object to which the pixel of interest belongs, and an image generated using these motion vectors For example, there has been a problem of causing visual deterioration such as discontinuity.
また、上述したような従来の動きベクトル検出方法で求められた動きベクトル、または、内挿フレームの画素に割り付けられた動きベクトルは、同じオブジェクト内の動きであるにも拘わらず、動き相関のない(周辺画素の動きベクトルと似ていない)動きベクトルとして求められることが多く、この動きベクトルは、誤って求められた可能性が高い、すなわち、あまり確からしくないことが多いという課題があった。 In addition, the motion vector obtained by the conventional motion vector detection method as described above or the motion vector assigned to the pixel of the interpolation frame has no motion correlation even though it is motion in the same object. In many cases, it is obtained as a motion vector (not similar to the motion vectors of surrounding pixels), and there is a problem that this motion vector is likely to be obtained in error, that is, it is often not very accurate.
本発明は、このような状況に鑑みてなされたものであり、前段の処理において動きベクトルが割り付けられなかった画素に、より少ない演算量で、確からしい動きベクトルを割り付けることができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to allocate a probable motion vector to a pixel to which a motion vector has not been allocated in the previous processing with a smaller amount of computation. It is.
本発明の画像処理装置は、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算手段と、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルを割り付ける割付手段と、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであるか否かを判断する判断手段とを含み、評価値演算手段は、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであると判断された場合、その動きベクトルについての評価値の演算をスキップすることを特徴とする。
評価値演算手段には、他の注目ブロックに対する処理において、割付手段によって割り付けられた動きベクトルについて、評価値を演算させることができる。
The image processing apparatus according to the present invention includes, for each target block that is a target block on the third frame, which includes a target pixel that is a plurality of target pixels adjacent to each other on the third frame. In addition, the pixels around the target block are assigned to the target pixel or the adjacent pixels in the order of the priority assigned to the adjacent pixel and the target pixel that are arranged adjacent to the target block. For the motion vector, the pixel value of the pixel of the first frame belonging to the first region centered on the start point of the motion vector in the first frame and the second of the motion vector centered on the end point of the second frame of the motion vector. Evaluation value calculation means for calculating an evaluation value indicating a correlation with the pixel value of the pixel of the second frame belonging to the region, and when the evaluation value is calculated for a predetermined number of motion vectors , Of the target pixel of the target block, the motion in the target pixel motion vector is not allocated, to the allocation means for allocating a motion vector evaluation value is computed indicating that correlation is strongest, attempts calculating an evaluation value Judgment means for judging whether or not the magnitude and direction of the vector are the same as the magnitude and orientation of the motion vector that has already been computed, and the evaluation value computing means tries to compute the evaluation value. When it is determined that the magnitude and direction of the motion vector to be evaluated are the same as the magnitude and direction of the motion vector that has already been calculated, the calculation of the evaluation value for the motion vector is skipped. To do.
The evaluation value calculation means can calculate the evaluation value for the motion vector assigned by the assignment means in the processing for the other block of interest.
評価値演算手段は、優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルと第3のフレームとが交差する点を注目ブロック内の点に移動させた場合、その位置における動きベクトルの第1のフレームの始点を中心とした第1の領域に属する画素の画素値と、その位置における動きベクトルの第2のフレームの終点を中心とした第2の領域に属する画素の画素値との相関を示す評価値を演算するようにすることができる。 When the evaluation value calculating means moves the point where the motion vector assigned to the target pixel or the adjacent pixel and the third frame intersect in order of priority to a point in the target block, the motion vector at that position A pixel value of a pixel belonging to the first region centered on the start point of the first frame, and a pixel value of a pixel belonging to the second region centered on the end point of the second frame of the motion vector at that position An evaluation value indicating the correlation can be calculated.
評価値演算手段は、隣接画素に比較して注目画素が優先する優先順位であって、注目画素のラスタスキャン順に対応する注目画素の優先順位、および隣接画素のラスタスキャン順に対応する隣接画素の優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、評価値を演算するようにすることができる。 The evaluation value calculation means is a priority order in which the target pixel has priority over the adjacent pixel, and the priority order of the target pixel corresponding to the raster scan order of the target pixel and the priority of the adjacent pixel corresponding to the raster scan order of the adjacent pixel. Evaluation values can be calculated for motion vectors assigned to the target pixel or adjacent pixels in order of rank.
評価値演算手段は、第1の領域に属する画素の画素値と第2の領域に属する画素の画素値との差分絶対値和である評価値を演算するようにすることができる。 The evaluation value calculation means can calculate an evaluation value that is a sum of absolute differences between a pixel value of a pixel belonging to the first area and a pixel value of a pixel belonging to the second area.
本発明の画像処理方法、記録媒体のプログラム、またはプログラムは、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算ステップと、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルを割り付ける割付ステップと、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであるか否かを判断する判断ステップとを含み、評価値演算ステップにおいて、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであると判断された場合、その動きベクトルについての評価値の演算をスキップすることを特徴とする。 An image processing method , a recording medium program, or a program according to the present invention includes a target pixel on a third frame, which includes a target pixel that is a plurality of target pixels adjacent to each other on the third frame. For each target block that is a target block, the target pixel in the order of the priority assigned to the adjacent pixel and the target pixel that are pixels adjacent to the target block and that are adjacent to the target block Alternatively, for a motion vector assigned to an adjacent pixel, the pixel value of the pixel of the first frame belonging to the first region centered on the start point of the first frame of the motion vector and the second frame of the motion vector An evaluation value calculating step for calculating an evaluation value indicating a correlation with the pixel value of the pixel of the second frame belonging to the second region centered on the end point in When the evaluation value is calculated for the motion vector of, the allocation that allocates the motion vector for which the evaluation value indicating the strongest correlation is calculated to the target pixel to which the motion vector is not allocated among the target pixels of the target block And a determination step for determining whether or not the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector that has already been calculated. In the value calculation step, when it is determined that the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated, The calculation of the evaluation value is skipped .
本発明の画像処理装置および方法、記録媒体、並びにプログラムにおいては、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値が演算され、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルが割り付けられる。また、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであるか否かが判断され、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであると判断された場合、その動きベクトルについての評価値の演算がスキップされる。 In the image processing apparatus and method, the recording medium, and the program of the present invention, the attention on the third frame, which is composed of a plurality of attention pixels that are adjacent to each other on the third frame. For each target block that is a target block, the pixels in the vicinity of the target block that are adjacent to the target block and in the order of priority assigned to the target pixel For a motion vector assigned to a pixel or an adjacent pixel, the pixel value of the pixel of the first frame belonging to the first region centered on the start point of the first frame of the motion vector, and the second of the motion vector An evaluation value indicating a correlation with the pixel value of the pixel of the second frame belonging to the second region centering on the end point in the frame is calculated, and a predetermined number of motion vectors are calculated. If the evaluation value is computed for, among the target pixel of the target block, the target pixel motion vector is not allocated, allocated motion vector evaluation value is computed indicating that correlation is strongest. Further, it is determined whether or not the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated, and the evaluation value is to be calculated. When it is determined that the magnitude and direction of the motion vector are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated, the calculation of the evaluation value for the motion vector is skipped.
本発明によれば、前段の処理において動きベクトルが割り付けられなかった画素に、動きベクトルを割り付けることができる。また、本発明によれば、前段の処理において動きベクトルが割り付けられなかった画素に、より少ない演算量で、動きベクトルを割り付けることができる。 According to the present invention, a motion vector can be assigned to a pixel to which no motion vector has been assigned in the previous processing. Further, according to the present invention, a motion vector can be allocated to a pixel to which a motion vector has not been allocated in the previous process with a smaller amount of calculation.
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Accordingly, although there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
本発明によれば画像処理装置が提供される。この画像処理装置は、第1のフレーム(例えば、フレームt)および第2のフレーム(例えば、フレームt+1)を基に検出された動きベクトルであって、第1のフレームを始点とし第2のフレームを終点とする動きベクトルと、第1のフレームおよび第2のフレームの間に配置される第3のフレーム(例えば、内挿フレーム)とが交差する点の近傍の、第3のフレーム上の画素にその動きベクトルを割り付けて、割り付けられた動きベクトルに基づいて、第3のフレームの画素の画素値を生成する画像処理装置であって、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック(例えば、図48の補償処理対象ブロック1021)毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位(例えば、図48で示される優先順位)の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値(例えば、評価値DFD)を演算する評価値演算手段(例えば、図47の評価値演算部1002)と、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルを割り付ける割付手段(例えば、図47のベクトル補償部1001)と、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであるか否かを判断する判断手段(例えば、図47の同一ベクトル判定部1004)とを含み、評価値演算手段は、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであると判断された場合、その動きベクトルについての評価値の演算をスキップする。
According to the present invention, an image processing apparatus is provided. This image processing apparatus is a motion vector detected based on a first frame (for example, frame t) and a second frame (for example, frame t + 1), and is a second frame starting from the first frame. A pixel on the third frame in the vicinity of a point where a motion vector whose end point is and a third frame (for example, an interpolation frame) arranged between the first frame and the second frame intersect An image processing apparatus for generating a pixel value of a pixel of a third frame based on the allocated motion vector, wherein a plurality of adjacent pixels on the third frame are adjacent to each other. For each target block (for example, the compensation
評価値演算手段は、優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルと第3のフレームとが交差する点を注目ブロック内の点(例えば、図48の1である優先順位が付されている注目画素の位置)に移動させた場合、その位置における動きベクトルの第1のフレームの始点を中心とした第1の領域に属する画素の画素値と、その位置における動きベクトルの第2のフレームの終点を中心とした第2の領域に属する画素の画素値との相関を示す評価値を演算するようにすることができる。
The evaluation value calculating means determines a point in the target block (for example, the
評価値演算手段は、隣接画素に比較して注目画素が優先する優先順位であって、注目画素のラスタスキャン順に対応する注目画素の優先順位(例えば、図48の1乃至4のいずれかである優先順位)、および隣接画素のラスタスキャン順に対応する隣接画素の優先順位(例えば、図48の5乃至16のいずれかである優先順位)の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、評価値を演算するようにすることができる。 The evaluation value calculation means is a priority order in which the target pixel has priority over the adjacent pixels, and is a priority order of the target pixel corresponding to the raster scan order of the target pixel (for example, any one of 1 to 4 in FIG. 48). Priority) and the priority of adjacent pixels corresponding to the raster scan order of the adjacent pixels (for example, the priority of any one of 5 to 16 in FIG. 48). An evaluation value can be calculated for.
評価値演算手段は、第1の領域に属する画素の画素値と第2の領域に属する画素の画素値との差分絶対値和である評価値を演算するようにすることができる。 The evaluation value calculation means can calculate an evaluation value that is a sum of absolute differences between a pixel value of a pixel belonging to the first area and a pixel value of a pixel belonging to the second area.
本発明によれば、画像処理方法またはプログラムが提供される。この画像処理方法またはプログラムは、第1のフレーム(例えば、フレームt)および第2のフレーム(例えば、フレームt+1)を基に検出された動きベクトルであって、第1のフレームを始点とし第2のフレームを終点とする動きベクトルと、第1のフレームおよび第2のフレームの間に配置される第3のフレーム(例えば、内挿フレーム)とが交差する点の近傍の、第3のフレーム上の画素にその動きベクトルを割り付けて、割り付けられた動きベクトルに基づいて、第3のフレームの画素の画素値を生成する画像処理方法であって、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック(例えば、図48の補償処理対象ブロック1021)毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位(例えば、図48で示される優先順位)の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値(例えば、評価値DFD)を演算する評価値演算ステップ(例えば、図54のステップS1013の処理)と、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルを割り付ける割付ステップ(例えば、図55のステップS1021の処理)と、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであるか否かを判断する判断ステップ(例えば、図54のステップS1011の処理)とを含み、評価値演算ステップにおいて、評価値を演算しようとする動きベクトルの大きさおよび向きが、評価値が既に演算された動きベクトルの大きさおよび向きと同じであると判断された場合、その動きベクトルについての評価値の演算をスキップする。
According to the present invention, an image processing method or program is provided. This image processing method or program is a motion vector detected based on a first frame (for example, frame t) and a second frame (for example, frame t + 1), and the second frame starting from the first frame. On the third frame in the vicinity of the point where the motion vector whose end point is the third frame and the third frame (for example, the interpolation frame) arranged between the first frame and the second frame intersect An image processing method for assigning a motion vector to a pixel of the image and generating a pixel value of a pixel of the third frame based on the assigned motion vector, and adjacent to each other on the third frame A target block which is a target block on the third frame and includes a target pixel which is a plurality of target pixels (for example, the compensation
このプログラムは、記録媒体(例えば、図1の磁気ディスク31)に記録することができる。
This program can be recorded on a recording medium (for example, the
以下、図を参照して本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した信号処理装置1の構成例を表している。信号処理装置1は、例えば、パーソナルコンピュータなどで構成される。図1において、CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記憶部18に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。
FIG. 1 shows a configuration example of a
CPU11にはまた、バス14を介して入出力インタフェース15が接続されている。入出力インタフェース15には、キーボード、マウス、マイクロフォンなどよりなる入力部16、ディスプレイ、スピーカなどよりなる出力部17が接続されている。CPU11は、入力部16から入力される指令に対応して各種の処理を実行する。そして、CPU11は、処理の結果、得られた画像や音声等を出力部17に出力する。
An input /
入出力インタフェース15に接続されている記憶部18は、例えばハードディスクなどで構成され、CPU11が実行するプログラムや各種のデータを記憶する。通信部19は、インターネット、その他のネットワークを介して外部の装置と通信する。また、通信部19を介してプログラムを取得し、記憶部18に記憶してもよい。
The
入出力インタフェース15に接続されているドライブ20は、磁気ディスク31、光ディスク32、光磁気ディスク33、或いは半導体メモリ34などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部18に転送され、記憶される。
The
なお、信号処理装置1は、例えば、テレビジョン受像機、光ディスクプレーヤなど、または、それらの信号処理部とすることもできる。
Note that the
図2は、信号処理装置1を示すブロック図である。
FIG. 2 is a block diagram showing the
なお、信号処理装置1の各機能をハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、本明細書の各ブロック図は、ハードウェアのブロック図と考えても、ソフトウェアによる機能ブロック図と考えてもよい。
It does not matter whether each function of the
図2に構成を示す信号処理装置1においては、例えば、フレーム周波数24Hzのプログレッシブ画像信号(以下、24P信号と称する)の画像が入力され、入力された画像(入力画像)が、フレーム周波数60Hzのプログレッシブ画像信号(以下、60P信号と称する)の画像に変換されて、出力される。すなわち、図2は、画像処理装置である信号処理装置の構成を示す図である。
In the
信号処理装置1に入力された24P信号の入力画像は、フレームメモリ51、ベクトル検出部52、ベクトル割付部54、割付補償部57、および画像補間部58に供給される。フレームメモリ51は、入力画像をフレーム単位で記憶する。フレームメモリ51は、時刻t+1の入力画像の1つ前の時刻tのフレームを記憶する。フレームメモリ51に記憶される時刻tのフレームは、ベクトル検出部52、ベクトル割付部54、割付補償部57、および画像補間部58に供給される。なお、以下、フレームメモリ51上の時刻tのフレームをフレームtと称し、時刻t+1の入力画像のフレームを、フレームt+1と称する。
The input image of the 24P signal input to the
ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶する。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。ベクトル検出部52の構成の詳細は、後述する。検出ベクトルメモリ53は、フレームtにおいて、ベクトル検出部52により検出された動きベクトルを記憶する。
The
ベクトル割付部54は、24P信号のフレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する60P信号のフレーム(以下、60P信号のフレームは、24P信号のフレームと区別するため、内挿フレームとも称する)上の画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。ベクトル割付部54の構成の詳細は、後述する。
The
割付ベクトルメモリ55は、ベクトル割付部54により割り付けられた動きベクトルを、内挿フレームの各画素に対応させて記憶する。割付フラグメモリ56は、内挿フレームの画素毎に、割り付けられる動きベクトルの有無を示す割付フラグを記憶している。例えば、True(1)である割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、False(0)である割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。
The
割付補償部57は、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを割り付けた着目画素の割付フラグを1(True)に書き換える。割付補償部57の構成の詳細は、後述する。
The
画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよび次のフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の画像を、図示せぬ後段に出力する。なお、以下においては、画素値を、適宜、輝度値とも称する。
The
図3は、本発明に係る信号処理装置1における処理の原理を説明する図である。図3の例においては、点線が、信号処理装置1に入力される、時刻t,t+1,およびt+2における24P信号のフレームを表しており、実線が、入力された24P信号から信号処理装置1により、生成される時刻t,t+0.4,t+0.8,t+1.2,t+1.6,およびt+2における60P信号の内挿フレームを表している。
FIG. 3 is a diagram for explaining the principle of processing in the
一般に、24P信号を、60P信号に変換するためには、5/2倍のフレームが必要になる。すなわち、2枚の24P信号の画像から5枚の60P信号の画像が生成されなければならない。このとき、生成される60P信号の内挿フレームは、そのフレーム間隔を等しくするために、24P信号上での時間位相が0.0,0.4,0.8,1.2,および1.6となる位置に配置される。この中で、時間位相が0.0である時刻tの1フレームを除く4フレーム(t+0.4,t+0.8,t+1.2,およびt+1.6のフレーム)は、24P信号上には存在しない画像である。したがって、信号処理装置1は、24P信号の画像が入力されると、24P信号の時刻tおよび時刻t+1の2枚のフレームから、4つの内挿フレームを生成する。したがって、信号処理装置1からは、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚のフレームからなる60P信号の画像が出力される。
Generally, in order to convert a 24P signal into a 60P signal, 5/2 times as many frames are required. That is, five 60P signal images must be generated from two 24P signal images. At this time, the generated interpolated frame of the 60P signal has a time phase of 0.0, 0.4, 0.8, 1.2, and 1 on the 24P signal in order to equalize the frame interval. 6 is arranged at a position. Among these, 4 frames (frames of t + 0.4, t + 0.8, t + 1.2, and t + 1.6) except for one frame at time t with a time phase of 0.0 do not exist on the 24P signal. It is an image. Therefore, when the image of the 24P signal is input, the
以上のようにして、信号処理装置1は、24P信号の画像から60P信号の画像に、フレーム周波数を変換する処理を実行する。
As described above, the
なお、原理的には、上述したように、24P信号の時刻tおよび時刻t+1の2枚のフレームから、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚の60P信号のフレームが新しく生成されるが、実際には、図3の例の場合、24P信号の時刻tおよび時刻t+1の2枚のフレームに基づいて、t,t+0.4,t+0.8の60P信号のフレームが生成され、24P信号の時刻t+1およびt+2の2枚のフレームに基づいて、t+1.2,t+1.6,およびt+2の60P信号のフレームが生成される。 In principle, as described above, from the two frames at time t and time t + 1 of the 24P signal, five frames at times t, t + 0.4, t + 0.8, t + 1.2, and t + 1.6 are obtained. A frame of 60P signal is newly generated. Actually, in the example of FIG. 3, 60P of t, t + 0.4, and t + 0.8 is based on two frames at time t and time t + 1 of the 24P signal. A frame of the signal is generated, and a frame of the 60P signal of t + 1.2, t + 1.6, and t + 2 is generated based on the two frames at the times t + 1 and t + 2 of the 24P signal.
図4は、本発明の処理をより具体的に説明する図である。図4の例においては、太線矢印は、各状態への遷移を表しており、矢印Tは、状態81乃至85における時間の経過方向を表している。また、状態81乃至85は、信号処理装置1を構成する各部への入出力時の、24P信号の時刻tのフレームt、時刻tの次の時刻t+1のフレームt+1、または、フレームtおよびフレームt+1の間に生成される60P信号の内挿フレームFの状態を概念的に表している。すなわち、実際には、例えば、状態82に示されるような動きベクトルが検出されたフレームは入力されず、フレームと動きベクトルは、別々に入力される。
FIG. 4 is a diagram for more specifically explaining the processing of the present invention. In the example of FIG. 4, a thick arrow represents a transition to each state, and an arrow T represents a time passage direction in the
状態81は、ベクトル検出部52に入力される、24P信号のフレームtおよびフレームt+1の状態を表している。状態81のフレームt上の黒点は、フレームt上の画素を表している。ベクトル検出部52は、状態81のフレームt上の画素が、次の時刻のフレームt+1において、どの位置に移動するかを検出し、その動きを、状態82のフレームt上に示されるように、各画素に対応する動きベクトルとして出力する。この2フレーム間の動きベクトルの検出方法には、ブロックマッチング法または勾配法などが用いられる。なお、このとき、画素に複数の動きベクトルが検出された場合、ベクトル検出部52は、各動きベクトルについて、後述する評価値を求め、その評価値に基づいて動きベクトルを選択する。
The
状態82は、ベクトル割付部54に入力される、フレームtおよびフレームt+1の状態を表している。状態82において、フレームtの各画素の矢印は、ベクトル検出部52により検出された動きベクトルを表している。
A
ベクトル割付部54は、状態82のフレームtの各画素に対して検出された動きベクトルを、次のフレームt+1まで延長させ、予め設定されている時間位相(例えば、図3のt+0.4)にある内挿フレームF上のどの位置を通過するかを求める。これは、フレームtおよびフレームt+1の間が一定動きであると仮定すると、動きベクトルが内挿フレームFを通過した点が、そのフレームでの画素位置となるためである。したがって、ベクトル割付部54は、この通過する動きベクトルを、状態83の内挿フレームF上の近傍4画素に割り付ける。また、このとき、内挿フレームの画素によっては、動きベクトルが存在しない場合、あるいは、複数の動きベクトルが、割付候補となりうる場合がある。後者のような場合には、ベクトル割付部54は、ベクトル検出部52と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。
The
状態83は、割付補償部57に入力される、フレームtおよびフレームt+1、並びに動きベクトルが割り付けられた内挿フレームFの状態を表している。状態83の内挿フレームFにおいては、ベクトル割付部54により動きベクトルが割り付けられている画素と、動きベクトルが割り付けられなかった画素が示されている。
A
割付補償部57は、状態83の動きベクトルが割り付けられていない画素に対して、その画素の周辺画素に割り付けられている動きベクトルを用いて補う。これは、ある着目画素の近傍領域が同じ動きであるという仮定が成り立つならば、着目画素の周辺画素の動きベクトルと、その着目画素の動きベクトルは似たものであるからである。これにより、動きベクトルが割り付けられなかった画素にも、ある程度正確な動きベクトルが与えられ、状態84の内挿フレームF上のすべての画素に動きベクトルが割り付けられる。なお、この場合にも、複数の周辺画素の動きベクトルが候補として存在するため、割付補償部57は、ベクトル割付部54と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。
The
状態84は、画像補間部58に入力される、フレームtおよびフレームt+1、並びに、すべての画素に動きベクトルが割り付けられた内挿フレームFの状態を表している。これらのすべての画素に割り付けられた動きベクトルにより、画像補間部58は、内挿フレームF上の画素と、2枚のフレームtおよびフレームt+1の画素の位置関係を決定することができる。したがって、画像補間部58は、内挿フレームF上に割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、状態85の内挿フレームFの黒点に示されるように、内挿フレームF上の画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の画像を、図示せぬ後段に出力する。
A
次に、図5を参照して、本発明に係る信号処理装置1において用いられる動きベクトルの評価値を説明する。図4を参照して上述したように、信号処理装置1の各部(ベクトル検出部52、ベクトル割付部54、および割付補償部57)において、後段の処理に最適な動きベクトルが選択される。このとき、信号処理装置1の各部においては、動きベクトルに対する評価値として、2つのフレームの注目するベクトル量分ずらしたブロック間の相関値を表す差分絶対値和(DFD(Displaced Frame Difference))が用いられる。
Next, with reference to FIG. 5, the evaluation value of the motion vector used in the
図5の例においては、時刻tのフレームt上の画素位置pを中心としたm×nのブロック、および、時刻t+1のフレームt+1上の画素位置pから注目する動きベクトルvのベクトル量分ずらした画素位置p+vを中心としたm×nのブロックの2つのブロックが示されている。これら2つのブロック間において求められる差分絶対値和DFDt(p)は、次の式(1)で表される。
In the example of FIG. 5, the m × n block centered on the pixel position p on the frame t at the time t and the vector amount of the motion vector v of interest are shifted from the pixel position p on the frame t + 1 at the
ここで、Ft(p)は、時刻tにおける画素位置pの輝度値を表しており、m×nは、差分絶対値和を求めるためのDFD演算範囲(ブロック)を表している。この差分絶対値和は、2つのフレームにおけるDFD演算範囲(ブロック)間の相関値を表しているため、一般的には、この差分絶対値和が小さいほどフレーム間のブロックの波形が一致しており、差分絶対値和が小さいほど、動きベクトルvの信頼度が高いと判定される。これにより、この差分絶対値和は、複数の候補の中から、最も確からしい動きベクトルを選ぶ場合などに用いられる。 Here, F t (p) represents the luminance value at the pixel position p at time t, and m × n represents the DFD calculation range (block) for obtaining the sum of absolute differences. Since this difference absolute value sum represents a correlation value between DFD calculation ranges (blocks) in two frames, generally, the smaller the difference absolute value sum, the more the waveform of the block between the frames matches. Thus, it is determined that the reliability of the motion vector v is higher as the difference absolute value sum is smaller. Thereby, this sum of absolute differences is used when the most probable motion vector is selected from a plurality of candidates.
したがって、以降、信号処理装置1の各部(ベクトル検出部52、ベクトル割付部54、および割付補償部57)においては、動きベクトルが選択される場合の評価値として、特に言及しない場合には、差分絶対値和(以下、評価値DFDと称する)が用いられることとする。
Therefore, hereinafter, in each unit (
次に、図6のフローチャートを参照して、信号処理装置1のフレーム周波数を変換する処理を説明する。
Next, the process of converting the frame frequency of the
ステップS1において、ベクトル検出部52は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力し、ステップS2に進む。なお、このとき、ベクトル割付部54、割付補償部57および画像補間部58は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力する。
In step S1, the
ステップS2において、ベクトル検出部52は、動きベクトル検出処理を実行し、ステップS3に進む。すなわち、ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像である次のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶し、ステップS3に進む。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。また、動きベクトルの候補が複数ある場合には、各動きベクトルに対して、評価値DFDが求められ、求められた評価値DFDに基づいた信頼度の高い動きベクトルが検出される。すなわち、この場合、動きベクトルを検出する着目ブロックにおいて、最も確からしい動きベクトルが選択され、検出される。ステップS2における、動きベクトル検出処理の詳細は、後述する。
In step S2, the
ステップS3において、ベクトル割付部54は、ベクトル割付処理を実行し、ステップS4に進む。すなわち、ベクトル割付部54は、ステップS3において、フレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する内挿フレーム上の着目画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。例えば、Trueである割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、Falseである割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。なお、各画素において、動きベクトルの候補が複数ある場合には、各動きベクトルに対して、評価値DFDが求められ、求められた評価値DFDに基づいた信頼度の高い動きベクトルが割り付けられる。すなわち、この場合、動きベクトルを割り付ける着目画素において、最も確からしい動きベクトルが選択され、割り付けられる。ステップS3における、ベクトル割付処理の詳細は、後述する。
In step S3, the
ステップS4において、割付補償部57は、割付補償処理を実行し、ステップS5に進む。すなわち、割付補償部57は、ステップS4において、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを補い、割付けた着目画素の割付フラグを1(True)に書き換える。なお、周辺画素の動きベクトルが複数ある場合には、各動きベクトルに対して、評価値DFDが求められ、求められた評価値DFDに基づいた、信頼度の高い動きベクトルが割り付けられる。すなわち、この場合、動きベクトルを割り付ける着目画素において、最も確からしい動きベクトルが選択され、割り付けられる。ステップS4における、割付補償処理の詳細は、後述する。
In step S4, the
ステップS5において、画像補間部58は、画像補間処理を実行する。すなわち、画像補間部58は、ステップS5において、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、ステップS6に進む。ステップS5における、画像補間処理の詳細は後述する。画像補間部58は、ステップS6において、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の画像を、図示せぬ後段に出力し、ステップS7に進む。
In step S5, the
ステップS7において、ベクトル検出部52は、すべてのフレームの処理が終了したか否かを判断し、すべてのフレームの処理が終了していないと判断した場合、ステップS1に戻り、それ以降の処理を繰り返す。一方、ベクトル検出部52は、ステップS7において、すべてのフレームの処理が終了したと判断した場合、フレーム周波数を変換する処理を終了する。
In step S7, the
以上のように、本発明に係る信号処理装置1は、24P信号の入力画像のフレームから動きベクトルを検出し、検出した動きベクトルを、60P信号のフレーム上の画素に割付け、割付けられた動きベクトルに基づいて、60P信号のフレーム上の画素値を生成する。このとき、信号処理装置1は、各処理において、評価値DFD(差分絶対値和)に基づく、より信頼度の高い動きベクトルを選択し、後段に出力する。したがって、信号処理装置1においては、動きが破綻することなどが抑制され、より精度のよい画像を生成することができる。
As described above, the
次に、画像補間部58の構成の詳細について説明する。
Next, details of the configuration of the
図7は、画像補間部58の構成を示すブロック図である。図7に構成を示す画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、60P信号の画像を出力する処理を行う。
FIG. 7 is a block diagram illustrating a configuration of the
図7の例において、時刻tの画像のフレームtは、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1は、空間フィルタ92−2およびバッファ95に入力される。
In the example of FIG. 7, the frame t of the image at time t is input to the spatial filter 92-1, and the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2 and the
補間制御部91は、割付ベクトルメモリ55の内挿フレームの画素を選択し、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求める。すなわち、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。
The
また、補間制御部91は、予め設定されている内挿フレームの時間位相(時刻)に基づいて、フレームtとフレームt+1の間における補間重みを求め、求めた補間重みを、乗算器93−1および93−2に設定する。例えば、内挿フレームの時刻が、フレームt+1の時刻t+1から「k」離れた時刻で、かつ、フレームtの時刻tから「1−k」離れた時刻である場合(すなわち、内挿フレームが時刻tと時刻t+1を「1−k」:「k」に内分する時刻に生成される場合)、補間制御部91は、乗算器93−1に「1−k」の補間重みを設定し、乗算器93−2に「k」の補間重みを設定する。
Further, the
空間フィルタ92−1および92−2は、例えば、キュービックフィルタなどにより構成される。空間フィルタ92−1は、入力されるフレームt上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt上の画素値を求め、求めた画素値を乗算器93−1に出力する。空間フィルタ92−2は、入力されるフレームt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt+1上の画素値を求め、求めた画素値を乗算器93−2に出力する。
Spatial filters 92-1 and 92-2 are constituted by cubic filters, for example. The spatial filter 92-1 is a pixel value on the frame t corresponding to the pixel of the interpolation frame based on the input pixel value of the pixel on the frame t and the spatial shift amount supplied from the
なお、内挿フレームの画素の位置が、フレームtまたはフレームt+1上の画素の位置と一致しない場合(すなわち、内挿フレームの画素の位置が、フレームtまたはフレームt+1において画素以下成分である場合)、空間フィルタ92−1および92−2は、フレームtまたはフレームt+1における内挿フレームの画素の位置の周辺4画素の画素値を用いて、周辺4画素の距離の逆比の和を求めることにより、内挿フレームの画素に対応するフレーム上の画素値を求める。すなわち、画素以下位置の画素値は、周辺4画素との距離を基にした線形補間で値が求められる(その詳細は後述する)。
When the position of the pixel in the interpolation frame does not match the position of the pixel on frame t or frame t + 1 (that is, when the position of the pixel in the interpolation frame is a component equal to or less than the pixel in frame t or frame t + 1). The spatial filters 92-1 and 92-2 obtain the sum of the inverse ratios of the distances of the four surrounding pixels by using the pixel values of the four surrounding pixels at the position of the pixel of the interpolation frame in the frame t or the
乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。
The multiplier 93-1 multiplies the pixel value on the frame t input from the spatial filter 92-1 by the interpolation weight “1-k” set by the
加算器94は、乗算器93−1から入力される画素値と、乗算器93−2から入力される画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された内挿フレームの画素値を、バッファ95に出力する。バッファ95は、入力されたフレームt+1をバッファしている。バッファ95は、生成された内挿フレームを出力し、その次に、予め設定されている60Pフレームの時間位相(時刻)に基づいて、必要に応じて、バッファしているフレームt+1を出力することにより、60P信号の画像を、図示せぬ後段に出力する。
The
以上のように構成される画像補間部58の画像補間処理の詳細を、図8のフローチャートを参照して説明する。
Details of the image interpolation processing of the
補間制御部91は、ステップS51において、処理する内挿フレームの時間位相に基づいて、フレームtとフレームt+1の間における内挿フレームの補間重み(例えば、「k」および「1−k」)を求め、求められた補間重みを、乗算器93−1および93−2にそれぞれ設定し、ステップS52に進む。補間制御部91は、ステップS52において、割付ベクトルメモリ55の内挿フレームの画素を選択し、ステップS53に進む。なお、内挿フレーム上の画素は、フレームの左上の画素からラスタスキャン順に選択される。
In step S51, the
補間制御部91は、ステップS53において、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求め、求められた空間シフト量を、それぞれ空間フィルタ92−1および92−2に供給し、ステップS54に進む。具体的には、補間制御部91は、ステップS53において、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。
In step S53, based on the motion vector assigned to the selected pixel, the
時刻tの画像のフレームtの画素値は、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1の画素値は、空間フィルタ92−2に入力されている。ステップS54において、空間フィルタ92−1および92−2は、入力されるフレームtおよびt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、各フレーム上の画素値を求め、求めた画素値を乗算器93−1および93−2にそれぞれ出力し、ステップS55に進む。
The pixel value of the frame t of the image at time t is input to the spatial filter 92-1, and the pixel value of the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2. In step S54, the spatial filters 92-1 and 92-2 determine the pixels of the interpolation frame based on the pixel values of the pixels on the input frames t and t + 1 and the spatial shift amount supplied from the
乗算器93−1および93−2は、ステップS55において、空間フィルタ92−1または92−2から入力される各フレーム上の画素値に、補間制御部91により設定された補間重みを重み付けし、重み付けされた画素値を、加算器94に出力し、ステップS56に進む。すなわち、乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。
In Step S55, the multipliers 93-1 and 93-2 weight the interpolation weight set by the
加算器94は、ステップS56において、乗算器93−1により重み付けされた画素値と、乗算器93−2により重み付けされた画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された画素値を、バッファ95に出力し、ステップS57に進む。補間制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したか否かを判断し、内挿フレーム上のすべての画素についての処理が終了していないと判断した場合、ステップS52に戻り、それ以降の処理を繰り返す。互換制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したと判断した場合、画像補間処理を終了する。
In step S56, the
以上のように、内挿フレームに割り付けられた動きベクトルに基づいて、内挿フレームの画素値が生成され、上述した図6のステップS6において、バッファ95により、内挿フレームが出力され、その次に、必要に応じて、フレームt+1が出力されることにより、60P信号の画像が、後段に出力される。したがって、内挿フレームの画素に、最も確からしい動きベクトルが割り付くので、精度のよい内挿フレームを生成することができる。
As described above, the pixel value of the interpolation frame is generated based on the motion vector assigned to the interpolation frame, and the interpolation frame is output by the
次に、ベクトル検出部52の構成の詳細について説明する。
Next, details of the configuration of the
図9は、ベクトル検出部52の構成を示すブロック図である。図9に構成を示すベクトル検出部52は、入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、フレームt上の動きベクトルを検出する。この動きベクトルを検出する処理は、複数の画素からなる所定のブロック毎に実行される。
FIG. 9 is a block diagram showing the configuration of the
初期ベクトル選択部101は、所定のブロック毎に、過去の動きベクトルの検出結果から求められる信頼度が高い動きベクトルを、勾配法に用いられる初期値となる初期ベクトルV0として、反復勾配法演算部103に出力する。具体的には、初期ベクトル選択部101は、検出ベクトルメモリ53に記憶される過去に求められた周辺のブロックの動きベクトルや、シフト初期ベクトルメモリ107に記憶されるシフト初期ベクトルを、初期ベクトルの候補ベクトルとして選択する。そして、初期ベクトル選択部101は、フレームtとフレームt+1を用いて、候補ベクトルの評価値DFDを求め、候補ベクトルの中から、求められた評価値DFDに基づく、最も信頼度が高いものを選択し、初期ベクトルV0として出力する。なお、初期ベクトル選択部101の構成の詳細は、後述する。
The initial
プリフィルタ102−1および102−2は、ローパスフィルタやガウシアンフィルタにより構成され、それぞれ、入力される画像のフレームtおよびフレームt+1のノイズ成分を除去し、反復勾配法演算部103に出力する。
The pre-filters 102-1 and 102-2 are configured by a low-pass filter and a Gaussian filter, respectively, and remove noise components of the frame t and the frame t + 1 of the input image, and output them to the iterative gradient
反復勾配法演算部103は、初期ベクトル選択部101から入力された初期ベクトルV0と、プリフィルタ102−1および102−2を介して入力されるフレームtおよびフレームt+1を用いて、所定のブロック毎に、勾配法により、動きベクトルVnを算出する。反復勾配法演算部103は、初期ベクトルV0と、算出された動きベクトルVnをベクトル評価部104に出力する。また、反復勾配法演算部103は、ベクトル評価部104による動きベクトルの評価結果に基づいて、勾配法の演算を繰り返し行い、動きベクトルVnを算出する。なお、反復勾配法演算部103の構成の詳細は、後述する。
The iterative gradient
ベクトル評価部104は、反復勾配法演算部103からの動きベクトルVn−1(または初期ベクトルV0)と、動きベクトルVnの評価値DFDを求め、求められた評価値DFDに基づいて、反復勾配法演算部103を制御し、勾配法の演算を繰り返し実行させ、最終的に、評価値DFDに基づく、信頼性の高いものを選択し、動きベクトルVとして、検出ベクトルメモリ53に記憶する。このとき、ベクトル評価部104は、動きベクトルVとともに、その動きベクトルVに対して求められた評価値DFDを、シフト初期ベクトル割付部105に供給する。
The
シフト初期ベクトル割付部105は、ベクトル評価部104より動きベクトルVおよびその評価値DFDが供給されると、次のフレーム上の着目ブロックを通過する動きベクトルを、その着目ブロックにシフトさせた、シフト初期ベクトルとして設定する。換言すると、シフト初期ベクトル割付部105は、動きベクトルVの終点のブロックと同じ位置の次のフレーム上の着目ブロックを始点とした、動きベクトルVと同じ大きさで同じ向きの動きベクトルを、シフト初期ベクトルとして設定する。そして、シフト初期ベクトル割付部105は、設定したシフト初期ベクトルを、着目ブロックに対応させて、シフト初期ベクトルメモリ107に割り付ける。
When the motion vector V and the evaluation value DFD are supplied from the
具体的には、シフト初期ベクトル割付部105は、シフト初期ベクトルとして割り付けられた動きベクトルVの評価値DFDを、着目ブロックに対応させて、評価値メモリ106に記憶させておき、同じ着目ブロックを通過する(すなわち、着目ブロックと同じ位置の過去のフレームのブロックを終点とする)他の動きベクトルVの評価値DFDと比較する。そして、シフト初期ベクトル割付部105は、評価値DFDに基づく、信頼度が高いとされた動きベクトルVを、着目ブロックにシフトさせ、着目ブロックのシフト初期ベクトルとして、シフト初期ベクトルメモリ107に割り付ける。なお、シフト初期ベクトル割付部105の構成の詳細は、後述する。
Specifically, the shifted initial
次に、ベクトル検出部52において用いられる勾配法の原理について説明する。まず、動画像中において、水平、垂直、時間軸を用いた座標(x,y,t)で表される画素の輝度値をg(x,y,t)とする。ここで、着目画素(x0,y0,t0)が、微小時間中に、(dx,dy,dt)だけ変位したとき、水平、垂直、時間軸の勾配(差分差)を、それぞれgx(x0,y0,t0),gy(x0,y0,t0),gt(x0,y0,t0)と表すと、変位後の画素の輝度値は、Taylor展開近似を用いて、次の式(2)で表される。
Next, the principle of the gradient method used in the
g(x0+dx,y0+dy,t0+dt)
≒ g(x0,y0,t0)+gx(x0,y0,t0)dx
+ gy(x0,y0,t0)dy+gt(x0,y0,t0)dt
・・・(2)
g (x 0 + dx, y 0 + dy, t 0 + dt)
≒ g (x 0 , y 0 , t 0 ) + gx (x 0 , y 0 , t 0 ) dx
+ Gy (x 0 , y 0 , t 0 ) dy + gt (x 0 , y 0 , t 0 ) dt
... (2)
ここで、動画像中のある着目画素が1フレーム後に水平vx,垂直vyだけ移動した場合(以降、(vx,vy)と表す)、その画素の輝度値は、次の式(3)で表される。 Here, when a pixel of interest in a moving image moves by horizontal vx and vertical vy after one frame (hereinafter, expressed as (vx, vy)), the luminance value of the pixel is expressed by the following equation (3). Is done.
g(x0+vx,y0+vy,t0+1) = g(x0,y0,t0)
・・・(3)
g (x 0 + vx, y 0 + vy,
... (3)
式(2)を式(3)に代入すると、次の式(4)で表される。 When Expression (2) is substituted into Expression (3), it is expressed by the following Expression (4).
gx(x0,y0,t0)vx+gy(x0,y0,t0)vy
+gt(x0,y0,t0) = 0
・・・(4)
gx (x 0 , y 0 , t 0 ) vx + gy (x 0 , y 0 , t 0 ) vy
+ Gt (x 0 , y 0 , t 0 ) = 0
... (4)
式(4)は、vx,vyの2変数の式であるので、着目1画素に対する単独の式では、その解を求めることができない。そこで、次に説明するように、着目画素の周辺領域であるブロックを1つの処理単位として考え、ブロック(周辺領域)内の全画素が同じ動き(vx,vy)をすると仮定し、各画素について同様の式を立てる。仮定が前提となるが、2変数に対して周辺画素の個数の式が得られる。したがって、それらの式を連立させ、ブロック内全画素の動き補償フレーム差分の自乗和が最小になるような(vx,vy)を求める。 Since the equation (4) is a two-variable equation of vx and vy, the solution cannot be obtained with a single equation for the target pixel. Therefore, as described below, a block that is a peripheral region of the target pixel is considered as one processing unit, and it is assumed that all pixels in the block (peripheral region) have the same movement (vx, vy). Build a similar formula. Assuming an assumption, an expression for the number of neighboring pixels is obtained for two variables. Therefore, these equations are combined to obtain (vx, vy) that minimizes the sum of squares of motion compensation frame differences of all pixels in the block.
画素(x,y,t)が1フレーム間に(vx,vy)だけ移動したとき、その動き補償フレーム間差分dは、次の式(5)で表される。 When the pixel (x, y, t) moves by (vx, vy) by one frame, the motion compensation inter-frame difference d is expressed by the following equation (5).
d = g(x+vx,y+vy,t+1)−g(x,y,t)
= Δxvx+Δyvy+Δt
・・・(5)
d = g (x + vx, y + vy, t + 1) −g (x, y, t)
= Δxvx + Δyvy + Δt
... (5)
式(5)において、Δx=gx(x,y,t)であり、水平方向の勾配を表し、Δy=gy(x,y,t)であり、垂直方向の勾配を表し、Δt=gt(x,y,t)であり、時間方向の勾配を表す。これらを用いて、動き補償フレーム間差分の自乗和をEとすると、式(6)で表される。 In equation (5), Δx = gx (x, y, t), which represents a horizontal gradient, Δy = gy (x, y, t), which represents a vertical gradient, Δt = gt ( x, y, t), which represents the gradient in the time direction. Using these, assuming that the square sum of the difference between motion compensation frames is E, it is expressed by Equation (6).
E = Σd2
= Σ(Δx2vx2+Δy2vy2+2ΔxΔyvxvy
+2ΔxΔtvx+2ΔyΔtvy+Δt2)
=vx2ΣΔx2+vy2ΣΔy2+2vxvyΣΔxΔy
+2vxΣΔxΔt+2vyΣΔyΔt+ΣΔt2
・・・(6)
E = Σd 2
= Σ (Δx 2 vx 2 + Δy 2 vy 2 + 2ΔxΔyvxvy
+ 2ΔxΔtvx + 2ΔyΔtvy + Δt 2 )
= Vx 2 ΣΔx 2 + vy 2 ΣΔy 2 +2 vxvy ΣΔxΔy
+ 2vxΣΔxΔt + 2vyΣΔyΔt + ΣΔt 2
... (6)
ここで、Eが最小となる(vx,vy)は、各変数における偏微分値が0になるとき、すなわち、δE/δvx=δE/δvy=0の条件が成立するときなので、式(6)から、次の式(7)および式(8)となる。 Here, E becomes the minimum (vx, vy) when the partial differential value in each variable becomes 0, that is, when the condition of δE / δvx = δE / δvy = 0 is satisfied. Thus, the following equations (7) and (8) are obtained.
vxΣΔx2+vyΣΔxΔy+ΣΔxΔt = 0
・・・(7)
vyΣΔy2+vxΣΔxΔy+ΣΔyΔt = 0
・・・(8)
vxΣΔx 2 + vyΣΔxΔy + ΣΔxΔt = 0
... (7)
vyΣΔy 2 + vxΣΔxΔy + ΣΔyΔt = 0
... (8)
これらの式(7)および式(8)から、求めたい動きである(vx,vy)は、次の式(9)を演算することにより求めることができる。 From these equations (7) and (8), (vx, vy) which is the desired motion can be obtained by calculating the following equation (9).
ここで、図10を参照して、具体的に説明する。図10の例において、矢印Xは、水平方向を示しており、矢印Yは、垂直方向を示している。また、矢印Tは、図中、右奥の時刻tのフレームtから、左手前の時刻t+1のフレームt+1への時間の経過方向を示している。なお、図10の例においては、各フレームは、着目画素pの周辺領域(ブロック)として、勾配法演算に用いられる8画素×8画素の領域のみ示されている。 Here, it demonstrates concretely with reference to FIG. In the example of FIG. 10, an arrow X indicates the horizontal direction, and an arrow Y indicates the vertical direction. In addition, an arrow T indicates the direction of time passage from the frame t at the time t in the back right to the frame t + 1 at the time t + 1 in the left front. In the example of FIG. 10, each frame shows only an area of 8 pixels × 8 pixels used for the gradient method calculation as a peripheral area (block) of the pixel of interest p.
フレームtにおいて、左上の画素から下に5番目、右に5番目の画素である着目画素pの動きベクトルV(vx,vy)を、上述した勾配法を用いて求める場合、動きベクトルV(vx,vy)は、着目画素pのx,y方向のそれぞれについて求められる隣接画素pxおよびpyとの輝度の差分差(すなわち、勾配)ΔxおよびΔy、フレームt+1において求められる着目画素pの同位相に位置する画素qとの時間方向の輝度の差分差(勾配)Δtを、着目画素pの周辺領域(8画素×8画素)のすべての画素について求め、それらの差分差を、式(9)を用いて演算することにより、求めることができる。
In the frame t, when the motion vector V (vx, vy) of the pixel of interest p, which is the fifth pixel down from the upper left pixel and the fifth pixel on the right, is obtained using the gradient method described above, the motion vector V (vx , Vy) is the difference in luminance (ie, gradient) Δx and Δy between adjacent pixels px and py obtained for the x and y directions of the pixel of interest p, and the same phase of the pixel of interest p obtained in
すなわち、勾配法とは、2フレーム間において、勾配Δx,Δy,およびΔtを求め、求められたΔx,Δy,およびΔtから、差分自乗和を用いて、統計的に、動きベクトルV(vx,vy)を算出するものである。 That is, the gradient method calculates gradients Δx, Δy, and Δt between two frames, and statistically calculates the motion vector V (vx, Δt from the obtained Δx, Δy, and Δt using the sum of squares of differences. vy).
一般的に、このような勾配法を用いた動きベクトル検出方法においては、微小動きに対して精度の高い結果が得られる。しかしながら、実際の動画像の中で動きを求めようとするとする場合、この勾配法は、その動き量が大きすぎるため実用的とはいえない。これに対応して、この勾配法を複数回反復する方法が考えられる。勾配法を反復して実行することにより、各演算で求められる動き量が収束するため、徐々に正しい動きが求められる。 Generally, in a motion vector detection method using such a gradient method, a highly accurate result can be obtained for a minute motion. However, when trying to obtain a motion in an actual moving image, this gradient method is not practical because the amount of motion is too large. Correspondingly, a method of repeating this gradient method a plurality of times is conceivable. By repeatedly executing the gradient method, the amount of motion obtained by each calculation converges, so that a correct motion is gradually obtained.
しかしながら、ただ、勾配法を反復するだけでは、リアルタイム処理を行おうとした場合、演算時間の面から実用的ではない。そこで、ベクトル検出部52においては、過去フレームと現在フレームでの周辺画素の動きに基づいて求められる初期ベクトルを、初期値として用いることで、勾配法の繰り返し回数を軽減している。すなわち、動きの起点となる着目画素から、初期ベクトルが指す先へオフセットを予め加えることで大まかな動きを算出し、オフセットが加えられたその位置から勾配法を用いた演算を行うようにすれば、画素以下動きを含めた微調整を行うことができる。これにより、演算時間を増大させることなく、精度のよい動きベクトルを検出することができる。
However, it is not practical from the viewpoint of calculation time when trying to perform real-time processing only by repeating the gradient method. Therefore, the
図11は、初期ベクトルを用いて実行される反復勾配法について具体的に説明する図である。図11の例においては、矢印Tは、図中、左手前の時刻tのフレームtから、右奥の時刻t+1のフレームt+1への時間の経過を示している。なお、各画素p,q0,q1,q2,およびq3を中心としたブロックは、その画素の、勾配法演算に用いられる周辺領域(ブロック)を表している。 FIG. 11 is a diagram specifically explaining the iterative gradient method executed using the initial vector. In the example of FIG. 11, the arrow T indicates the passage of time from the frame t at the time t on the left front side to the frame t + 1 at the time t + 1 on the right back in the drawing. A block centered on each pixel p, q0, q1, q2, and q3 represents a peripheral region (block) used for the gradient method calculation of that pixel.
図11の例の場合、フレームtにおける着目画素pに対して、フレームt+1においては、着目画素pの同位相に位置する画素q0ではなく、予め求めておいた初期ベクトルv0をオフセット(移動)して計算した位置(画素)q1を開始点として1回目の勾配法演算が行われ、その結果、動きベクトルv1が得られる。 In the case of the example in FIG. 11, the initial vector v0 obtained in advance is offset (moved) instead of the pixel q0 located in the same phase of the target pixel p in the frame t + 1 with respect to the target pixel p in the frame t. The first gradient method calculation is performed with the position (pixel) q1 calculated in this way as the starting point, and as a result, a motion vector v1 is obtained.
次に、画素q0からv0+v1をオフセットして計算した位置(画素)q2を開始点として、2回目の勾配法演算が行われ、その結果、動きベクトルv2が得られる。これにより、最終的に動きベクトルVは、式(10)として求められる。 Next, the second gradient method calculation is performed with the position (pixel) q2 calculated by offsetting v0 + v1 from the pixel q0 as a starting point, and as a result, a motion vector v2 is obtained. Thereby, the motion vector V is finally obtained as Expression (10).
V = v0+v1+v2
・・・(10)
V = v0 + v1 + v2
... (10)
以上のようにして、初期ベクトルを用いて、反復勾配法の演算を実行することにより、演算時間を短縮させつつ、精度の高い動きベクトルを求めることができる。 As described above, by performing the iterative gradient method using the initial vector, it is possible to obtain a highly accurate motion vector while reducing the calculation time.
次に、図12のフローチャートを参照して、動きベクトル検出処理の詳細について説明する。ベクトル検出部52には、入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1が入力される。
Next, details of the motion vector detection process will be described with reference to the flowchart of FIG. The
初期ベクトル選択部101は、ステップS101において、フレームt上の処理の対象となるブロックを、着目ブロックとして選択し、ステップS102に進む。なお、フレーム上においては、左上のブロックからラスタスキャン順に処理が実行される。
In step S101, the initial
ステップS102において、初期ベクトル選択部101は、初期ベクトル選択処理を実行する。初期ベクトル選択部101は、ステップS101において、所定のブロック毎に、過去の動きベクトルの検出結果から、信頼度が高い動きベクトルを選択し、選択した動きベクトルを、勾配法に用いられる初期値となる初期ベクトルV0として、反復勾配法演算部103に出力し、ステップS103に進む。
In step S102, the initial
すなわち、初期ベクトル選択部101は、過去の勾配法演算評価処理(後述するステップS103)において求められ、検出ベクトルメモリ53に記憶された周辺ブロックの動きベクトルや、過去のシフト初期ベクトル割付処理(後述するステップS104)においてシフト初期ベクトルメモリ107に記憶されたシフト初期ベクトルを、初期ベクトルの候補ベクトルとして選択する。そして、初期ベクトル選択部101は、フレームtとフレームt+1を用いて、候補ベクトルの評価値DFDを求め、候補ベクトルの中から、求められた評価値DFDに基づいた信頼度が高いものを選択し、選択された候補ベクトルを、初期ベクトルV0として出力する。なお、ステップS102における、初期ベクトル選択処理の詳細は、後述する。
That is, the initial
ステップS103において、反復勾配法演算部103およびベクトル評価部104は、反復勾配法演算評価処理(なお、反復勾配法演算処理とも称する)を実行し、ステップS104に進む。具体的には、ステップS103において、反復勾配法演算部103は、初期ベクトル選択部101から入力された初期ベクトルV0と、プリフィルタ102−1および102−2を介して入力されるフレームtおよびフレームt+1を用いて、ベクトル評価部104による動きベクトルの評価結果に基づいて、勾配法の演算を繰り返し行い、動きベクトルVnを算出する。また、ベクトル評価部104は、反復勾配法演算部103からの動きベクトルVn−1と、動きベクトルVnの評価値DFDを求め、求められた評価値DFDに基づく、最も信頼性の高いものを選択し、動きベクトルVとして、検出ベクトルメモリ53に記憶する。このとき、ベクトル評価部104は、動きベクトルVとともに、その動きベクトルVに対して求めた評価値DFDを、シフト初期ベクトル割付部105に供給する。なお、ステップS103における、反復勾配法演算評価処理の詳細は、後述する。
In step S103, the iterative gradient
ステップS104において、シフト初期ベクトル割付部105は、シフト初期ベクトル割付処理を実行し、ステップS105に進む。シフト初期ベクトル割付部105は、ベクトル評価部104より動きベクトルVおよびその評価値DFDが供給されると、ステップS104において、次のフレーム上の着目ブロックを通過する動きベクトルを、その着目ブロックにシフトさせた、シフト初期ベクトルとして設定する。すなわち、換言すると、動きベクトルVの終点のブロックと同じ位置の次のフレーム上の着目ブロックを始点とした、動きベクトルVと同じ大きさで同じ向きの動きベクトルが、シフト初期ベクトルとして設定される。そして、シフト初期ベクトル割付部105は、設定したシフト初期ベクトルを、着目ブロックに対応させて、シフト初期ベクトルメモリ107に割り付ける。
In step S104, the shifted initial
なお、具体的には、シフト初期ベクトル割付部105は、シフト初期ベクトルとして割り付けられた動きベクトルVの評価値DFDを、着目ブロックに対応させて、評価値メモリ106に記憶させておき、同じ着目ブロックを通過する(すなわち、着目ブロックと同じ位置の過去のフレームのブロックを終点とする)他の動きベクトルVの評価値DFDと比較し、評価値DFDに基づく、信頼度が高いとされた動きベクトルVを、そのブロックにシフトさせてシフト初期ベクトルと設定し、シフトさせたブロックに対応させて、シフト初期ベクトルメモリ107に割り付ける。なお、シフト初期ベクトル割付部105の構成の詳細は、後述する。
Specifically, the shifted initial
ステップS105において、初期ベクトル選択部101は、フレームtにおいて、すべてのブロックの処理が終了したか否かを判断し、すべてのブロックの処理が終了していないと判断した場合、ステップS101に戻り、それ以降の処理を繰り返す。また、ステップS105において、初期ベクトル選択部101は、フレームtにおいて、すべてのブロックの処理が終了したと判断した場合、すなわち、フレームt上のすべてのブロックにおいて、動きベクトルVが検出されたと判断し、動きベクトル検出処理を終了する。
In step S105, the initial
以上のように、過去に検出された動きベクトルから初期ベクトルが選択され、選択された初期ベクトルに基づいて、反復勾配法の演算が用いられて、繰り返し動きベクトルが算出され、算出された動きベクトルの中から、評価値DFDに基づく、信頼度が高い(すなわち、最も確からしい)動きベクトルが検出される。この結果、検出ベクトルメモリ53に、フレームt上のすべてのブロックに対応する動きベクトルVが記憶される。
As described above, an initial vector is selected from motion vectors detected in the past, an iterative gradient method is calculated based on the selected initial vector, and a repeated motion vector is calculated. Among them, a motion vector having a high reliability (that is, most likely) based on the evaluation value DFD is detected. As a result, the motion vector V corresponding to all the blocks on the frame t is stored in the
次に、シフト初期ベクトル割付部105の構成の詳細について説明する。
Next, the details of the configuration of the shifted initial
図13は、シフト初期ベクトル割付部105の構成を示すブロック図である。図13に構成を示すシフト初期ベクトル割付部105は、前(過去)フレームにおいて、ベクトル評価部104より検出された動きベクトルVに基づいて、初期ベクトルの候補ベクトルとなるシフト初期ベクトルを設定し、シフト初期ベクトルメモリ107に割り付ける処理を行う。シフト初期ベクトル割付部105には、ベクトル評価部104より検出された動きベクトルV、および、その動きベクトルVの評価値DFDが入力される。
FIG. 13 is a block diagram showing a configuration of the shifted initial
割付対象位置演算部201は、ベクトル評価部104より検出された動きベクトルVが、次の時刻のフレーム上において通過するブロックの位置(すなわち、現在のフレーム上において検出された動きベクトルVの終点のブロックと同じ位置にある次のフレーム上のブロックの位置)を演算し、演算されたブロックの位置を、評価値メモリ106およびシフト初期ベクトル置換部203に供給する。
The allocation target
評価値比較部202は、動きベクトルV、および、その動きベクトルVの評価値DFDが入力されると、割付対象位置演算部201からのブロックの位置の評価値DFDを、評価値メモリ106から読み出す。そして、評価値比較部202は、評価値メモリ106から読み出された評価値DFDと、ベクトル評価部104により検出された動きベクトルVの評価値DFDとを比較判断し、検出された動きベクトルVの評価値DFDの方が小さい(すなわち、信頼度が高い)と判断した場合、シフト初期ベクトル置換部203を制御し、シフト初期ベクトルメモリ107の、シフト初期ベクトル割付部105により供給されたブロックの位置のシフト初期ベクトルを、評価値DFDに基づく、信頼度が高いと判断した動きベクトルVで書き換えさせる。また、それと同時に、評価値比較部202は、評価値置換部204を制御し、評価値メモリ106において、割付対象位置演算部201により選択されたブロックの位置の評価値DFDを、動きベクトルVの評価値DFDで書き換えさせる。
When the evaluation
シフト初期ベクトル置換部203は、シフト初期ベクトルメモリ107の、割付対象位置演算部201により供給されたブロックの位置のシフト初期ベクトルを、評価値比較部202から供給される動きベクトルV(すなわち、動きベクトルVと同じ大きさで同じ向きの動きベクトル)で書き換える。評価値置換部204は、評価値比較部202の制御のもと、評価値メモリ106において、割付対象位置演算部201により選択されたブロックの位置の評価値DFDを、動きベクトルVの評価値DFDで書き換える。
The shift initial
評価値メモリ106は、次のフレーム上における、各ブロックに割り当てられるシフト初期ベクトル候補の評価値DFDをブロック毎に記憶する。シフト初期ベクトルメモリ107は、次のフレームにおける各ブロックにおいて最も評価値DFDが小さい(すなわち、最も信頼度がある)動きベクトルを、シフト初期ベクトルとして、そのブロックに対応させて記憶する。
The evaluation value memory 106 stores, for each block, an evaluation value DFD of a shifted initial vector candidate assigned to each block on the next frame. The shifted
図14は、シフト初期ベクトル割付部105により割り付けられるシフト初期ベクトルを1次元的に説明する図である。図14の例においては、上から順に、時刻T=t−1のフレームt−1、時刻T=tのフレームt、および、時刻T=t+1のフレームt+1が示されており、各フレーム上の仕切りは、各フレームにおけるブロックの境界を示している。
FIG. 14 is a diagram for describing one-dimensionally the shifted initial vectors allocated by the shifted initial
図14の例の場合、フレームt−1上のブロックBにおいて検出される動きベクトルを、動きベクトルV(図中、実線矢印)とし、ブロックBを始点とする動きベクトルVによるフレームt上の動き補償先(以下、オフセット先とも称する)を、ブロックBtとする。また、フレームt−1上の動きベクトルVをフレームt上のブロックBtにシフトした動きベクトルを、シフト初期ベクトルSV(図中、点線矢印)とする。なお、この場合、オフセット先とは、フレームt−1上において検出された動きベクトルVの終点のブロックと同じ位置にあるフレームt上のブロックBtのことを表しており、シフトとは、フレームt−1上において検出された動きベクトルVと同じ大きさで同じ向きの動きベクトルの始点を、フレームt−1上の動きベクトルVの終点のブロックと同じ位置にあるフレームt上のブロックBtとすることをいう。すなわち、シフト初期ベクトルSVは、フレームt−1上において検出された動きベクトルVの終点のブロックと同じ位置にあるフレームt上のブロックBtを始点とした、動きベクトルVと同じ大きさで同じ向きの動きベクトルのことである。 In the case of the example in FIG. 14, the motion vector detected in the block B on the frame t−1 is the motion vector V (solid arrow in the figure), and the motion on the frame t by the motion vector V starting from the block B. A compensation destination (hereinafter also referred to as an offset destination) is a block Bt. A motion vector obtained by shifting the motion vector V on the frame t-1 to the block Bt on the frame t is defined as a shifted initial vector SV (dotted line arrow in the figure). In this case, the offset destination represents the block Bt on the frame t at the same position as the end block of the motion vector V detected on the frame t−1, and the shift means the frame t The start point of a motion vector having the same magnitude and the same direction as the motion vector V detected on -1 is a block Bt on the frame t at the same position as the end point block of the motion vector V on the frame t-1. That means. That is, the shifted initial vector SV is the same size and the same direction as the motion vector V, starting from the block Bt on the frame t at the same position as the end block of the motion vector V detected on the frame t−1. It is a motion vector.
一般的に、連続するフレーム間では、動物体の動き量にある程度の連続性があり、その動き量の変化が小さいとされるので、図14の例においては、ブロックB上の物体が等速かそれに近い動きをする場合、ブロックBtにおける動きベクトルも、動きベクトルVかそれに近い動きのベクトルになることが多い。 In general, there is a certain degree of continuity in the amount of movement of the moving object between consecutive frames, and the change in the amount of movement is considered to be small. Therefore, in the example of FIG. When the motion is at or close to it, the motion vector in the block Bt is often the motion vector V or a motion vector close thereto.
したがって、このシフト初期ベクトルSVを、フレームt上の着目ブロックBtの動きベクトルを検出する場合に、勾配法演算に与える初期ベクトルの候補として用いることにより、周辺ブロックの動きベクトルだけを初期ベクトルの候補として用いる場合よりも、勾配法演算による動きベクトル検出に、より適切な初期ベクトルを得ることができる。 Therefore, when this shifted initial vector SV is used as a candidate for an initial vector given to the gradient method calculation when detecting a motion vector of the block of interest Bt on the frame t, only the motion vectors of the peripheral blocks are used as initial vector candidates. It is possible to obtain a more appropriate initial vector for motion vector detection by the gradient method calculation than in the case of using as.
以上のことを、図15および図16を参照して、具体的に説明する。なお、図15および図16においては、各フレーム上には、9つのブロックが示されている。 The above will be specifically described with reference to FIGS. 15 and 16. In FIGS. 15 and 16, nine blocks are shown on each frame.
図15は、大きな動きの物体が通過しているブロックと、その周辺ブロックの動きベクトルの例を表している。図15の例の場合、1ブロックからなる、ある物体O1の画像オブジェクトは、大きな動きの動きベクトルV1で、フレームt−1上の最右端(左から9番目)のブロックから、フレームt上の左から5番目のブロックを経由して、フレームt+1上の最左端のブロックへ移動している。一方、4ブロックからなる物体O2の画像オブジェクトは、動きベクトルV1よりも小さな動きの動きベクトルV2で、フレームt−1上の左から3乃至6番目の4ブロックから、フレームt上の左から4乃至7番目の4ブロックを経由して、フレームt+1上の左から5乃至8番目の4ブロックへ移動している。すなわち、フレームt上の左から5番目のブロックにおいて、物体O1の画像オブジェクトと物体O2の画像オブジェクトは、物体O1の画像オブジェクトを手前にして交差している。
FIG. 15 shows an example of a motion vector of a block through which a large motion object passes and its neighboring blocks. In the case of the example in FIG. 15, the image object of a certain object O1 consisting of one block is a motion vector V1 of a large motion, and is on the frame t from the rightmost block (the ninth from the left) on the frame t-1. It moves to the leftmost block on frame t + 1 via the fifth block from the left. On the other hand, the image object of the object O2 composed of four blocks is a motion vector V2 having a motion smaller than the motion vector V1, and the fourth to fourth blocks from the third to sixth from the left on the frame t−1 and 4 from the left on the frame t. Through the 4th to 7th blocks, the frame moves to the 5th to 8th 4 blocks from the left on the
このとき、フレームt上において、物体O1の画像オブジェクトが動きベクトルV1で通過する、左から5番目のブロックの動きベクトルを検出するために、周辺ブロックの動きから初期ベクトルを抽出しようとしても、周辺ブロック(左から4または6番目のブロック)に、物体O2の画像オブジェクトが、物体O1の画像オブジェクトとは異なる動きベクトルV2で通過しているため、適切な動きベクトルは、存在しない。一方、シフト初期ベクトルSV1(図中、点線矢印)は、このような場合であっても、過去のフレームT−1上で検出された動きベクトルV1を、そのフレームt上の左から5番目のブロックにシフトした動きベクトル(すなわち、フレームt−1上において検出された動きベクトルV1の終点のブロックと同じ位置にあるフレームt上のブロックを始点とした、動きベクトルV1と同じ大きさで同じ向きの動きベクトル)であるので、確実に取得することができる。 At this time, in order to detect the motion vector of the fifth block from the left on which the image object of the object O1 passes by the motion vector V1 on the frame t, the initial vector is extracted from the motion of the peripheral blocks. Since the image object of the object O2 passes through the block (the fourth or sixth block from the left) with a motion vector V2 different from that of the image object of the object O1, there is no appropriate motion vector. On the other hand, the shift initial vector SV1 (dotted arrow in the figure) is the fifth motion vector from the left on the frame t, even in such a case, with the motion vector V1 detected on the past frame T-1. Motion vector shifted to a block (that is, the same size and the same direction as the motion vector V1, starting from a block on the frame t at the same position as the end block of the motion vector V1 detected on the frame t-1) Therefore, the motion vector can be reliably acquired.
図16は、動物体の境界のブロックと、その周辺ブロックの動きベクトルの例を表している。図16の例の場合、1ブロックからなる、ある物体O3の画像オブジェクトは、動きベクトルV3で、フレームt−1上の左から6番目のブロックから、フレームt上の左から5番目のブロックを経由して、フレームt+1上の左から4番目のブロックへ移動している。一方、9ブロック以上からなる物体O4の画像オブジェクトは、動きベクトルV1とは異なる動きベクトルV4で、フレームt−1上の全9ブロックから、フレームt上の左から2乃至9番目の8ブロックを経由して、フレームt+1上の左から3乃至9番目の7ブロックへ移動している。すなわち、物体O3の画像オブジェクトは、フレームt−1の左から6番目のブロック、フレームt上の左から5番目のブロック、およびフレームt+1左から4番目のブロックにおいて、物体O4の画像オブジェクトの手前を通過している。
FIG. 16 shows an example of a motion vector of a block at the boundary of a moving object and its surrounding blocks. In the case of the example of FIG. 16, the image object of a certain object O3 consisting of one block is a motion vector V3, and the sixth block from the left on the frame t-1 to the fifth block from the left on the frame t. Via, it moves to the fourth block from the left on the
このとき、フレームt上において、物体O3の画像オブジェクトが動きベクトルV3で通過する、左から5番目のブロックの動きベクトルを検出するために、周辺ブロックの動きから初期ベクトルを抽出しようとしても、周辺ブロック(左から4または6番目のブロック)に、物体O4の画像オブジェクトが、物体O3の画像オブジェクトとは異なる動きベクトルV4で通過しているため、適切な動きベクトルは、存在しない。しかしながら、この場合においても、図15の場合と同様に、シフト初期ベクトルSV3(図中、点線矢印)は、過去のフレームT−1上で検出された動きベクトルV3を、そのフレームt上の右から5番目のブロックにシフトしたベクトル(すなわち、フレームt−1上において検出された動きベクトルV3の終点のブロックと同じ位置にあるフレームt上のブロックを始点とした、動きベクトルV3と同じ大きさで同じ向きの動きベクトル)であるので、確実に取得することができる。 At this time, in order to detect the motion vector of the fifth block from the left on which the image object of the object O3 passes with the motion vector V3 on the frame t, the initial vector is extracted from the motion of the peripheral blocks. Since the image object of the object O4 passes through the block (the fourth or sixth block from the left) with a motion vector V4 different from that of the image object of the object O3, there is no appropriate motion vector. However, in this case as well, as in the case of FIG. 15, the shifted initial vector SV3 (indicated by a dotted arrow in the figure) represents the motion vector V3 detected on the past frame T-1 as the right on the frame t. To the fifth block (ie, the same size as the motion vector V3, starting from the block on the frame t at the same position as the end block of the motion vector V3 detected on the frame t-1) The motion vectors in the same direction in FIG.
以上のように、図15に示されるような大きな動きを持つ物体や、図16に示されるように動いている物体の境界においては、動きベクトルを検出しようとする着目ブロックの初期ベクトルの候補となる周辺ブロックに、着目ブロックの初期ベクトルとして最適な動きベクトルが存在しない場合が多く存在する。これに対して、シフト初期ベクトルは、過去のフレームt−1上において検出された動きベクトルの終点のブロックと同じ位置にあるフレームt上のブロックを始点とした、動きベクトルと同じ大きさで同じ向きの動きベクトルであるので、ブロック間の空間距離に依存しないため、周辺ブロックに、着目ブロックの初期ベクトルとして適切な動きベクトルが存在しない場合にも、確実に取得することができ、初期ベクトルの最適な候補として用いることができる。 As described above, at the boundary of an object having a large movement as shown in FIG. 15 or an object moving as shown in FIG. There are many cases where the optimal motion vector does not exist as the initial vector of the block of interest in the peripheral block. On the other hand, the initial shift vector has the same size and the same size as the motion vector starting from the block on the frame t at the same position as the end block of the motion vector detected on the past frame t-1. Since it is a motion vector in the direction, it does not depend on the spatial distance between the blocks, so even if there is no appropriate motion vector as the initial vector of the block of interest in the surrounding blocks, it can be obtained reliably. It can be used as an optimal candidate.
ここで、一旦、図14に戻り、シフト初期ベクトルの決定方法について説明する。図14の例において、動きベクトル検出処理を行うフレームt上の着目ブロックBtを基準として、フレームt−1から、着目ブロックBtを通過する動きベクトル(すなわち、フレームt上のブロックBtと同じ位置にあるフレームt−1のブロックを終点とする動きベクトル)を探索しようとすると、フレームt−1上の全ブロックの動きベクトルを検索しなければならず、処理が膨大になってしまう。したがって、この場合、動きベクトル検出時に、膨大な処理分の演算量をこなさなければならず、その実現(ハードウェア化)が困難であった。 Here, returning to FIG. 14, a method for determining the shifted initial vector will be described. In the example of FIG. 14, with reference to the target block Bt on the frame t on which the motion vector detection process is performed, the motion vector passing from the frame t-1 through the target block Bt (that is, at the same position as the block Bt on the frame t). If an attempt is made to search for a motion vector whose end point is a block of a certain frame t-1, the motion vectors of all the blocks on the frame t-1 must be searched, and the processing becomes enormous. Therefore, in this case, when detecting a motion vector, it is necessary to deal with a huge amount of processing, and it is difficult to implement (hardware).
そこで、シフト初期ベクトル割付部105は、フレームt−1における動きベクトル検出の際に、着目ブロックBtにおいて検出された動きベクトルVが、次の時刻のフレームt上で通過するブロックの位置(すなわち、動きベクトルVの終点のブロックと同じ位置のフレームt上のブロック)を求め、その動きベクトルVを、ブロックBtに対するシフト初期ベクトルSVとして、予め割り付けておく。これにより、フレームt上での動きベクトル検出の際に必要となるシフト初期ベクトルを探索する演算量を削減することができ、ハードウェア化が実現できるようになり、現実的に、シフト初期ベクトルを、初期ベクトルの候補として用いることが可能になる。
Therefore, the shifted initial
図17を参照して、シフト初期ベクトル割付部105によるシフト初期ベクトルの決定方法を具体的に説明する。図17の例においては、矢印Tは、図中、左手前の時刻t−1のフレームt−1から、右奥の時刻tのフレームtへの時間の経過を示している。また、各フレーム上の丸は、画素を表している。
With reference to FIG. 17, a method for determining the shifted initial vector by shifted initial
フレームt−1上において、ブロックB0は、4×4画素により構成される。ブロックB0において検出された動きベクトルVbとすると、ブロックB0をフレームt上にオフセット(動き補償)したオフセット先(ブロックB0の動きベクトルVbの終点のブロックと同じ位置のフレームt上のブロック)A0は、一般的には、フレームt上の4×4画素により構成される4つのブロックBt1乃至Bt4と重なりを持つ。したがって、図17の例の場合においては、このオフセット先A0と重なりを持つ4つのブロックBt1乃至Bt4のすべてが、動きベクトルVbを、シフト初期ベクトルとして割り付ける対象ブロックとされる。 On the frame t−1, the block B0 is composed of 4 × 4 pixels. Assuming that the motion vector Vb detected in the block B0, an offset destination (a block on the frame t at the same position as the end block of the motion vector Vb of the block B0) A0 obtained by offsetting (motion compensation) the block B0 on the frame t is In general, there is an overlap with four blocks Bt1 to Bt4 configured by 4 × 4 pixels on the frame t. Therefore, in the example of FIG. 17, all of the four blocks Bt1 to Bt4 that overlap with the offset destination A0 are set as target blocks to which the motion vector Vb is allocated as the shifted initial vector.
以上のようにして前のフレームにおいて検出された動きベクトルを、シフト初期ベクトルとして割り付ける。この場合、割り付けられる対象となるブロックの位置は、動きベクトルの大きさと向きによる。このため、フレームt−1上で検出される動きベクトルの分布によっては、図18に示されるように、フレームt上において、複数のシフト初期ベクトルが割り付ける対象となり競合するブロックや、逆に、シフト初期ベクトルの割り付けが起こらないブロックが発生してしまう。 The motion vector detected in the previous frame as described above is assigned as the shifted initial vector. In this case, the position of the block to be allocated depends on the magnitude and direction of the motion vector. Therefore, depending on the distribution of motion vectors detected on the frame t−1, as shown in FIG. 18, on the frame t, a block that is a target for allocation of a plurality of shift initial vectors, or conversely, a shift Blocks that do not have an initial vector assignment will occur.
図18は、シフト初期ベクトルの割り付けの例を示している。図18の例において、各フレームの仕切りは、ブロックの境界を示しており、フレームt−1上には、図中左から、ブロックB1乃至B5により構成され、フレームt上には、図中左から、ブロックBt1乃至Bt5が示されている。 FIG. 18 shows an example of allocation of shifted initial vectors. In the example of FIG. 18, the partition of each frame indicates the boundary of the block, and is composed of blocks B1 to B5 on the frame t−1 from the left in the figure, and on the frame t on the left in the figure. Thus, blocks Bt1 to Bt5 are shown.
ブロックB1においては、動きベクトルV1が検出され、ブロックB1のオフセット先A1は、フレームt上のブロックBt1およびBt2と重なりを持つ。ブロックB2においては、動きベクトルV2が検出され、ブロックB2のオフセット先A2は、フレームt上のブロックBt1およびBt2と重なりを持つ。ブロックB3おいては、動きベクトルV3が検出され、ブロックB3のオフセット先A3は、フレームt上のブロックBt4およびBt5と重なりを持つ。ブロックB4においては、動きベクトルV4が検出され、ブロックB4のオフセット先A4は、フレームt上のブロックBt4およびBt5と重なりを持つ。ブロックB5においては、動きベクトルV5が検出され、ブロックB5のオフセット先A5は、フレームt上のブロックBt5および図示せぬ隣接ブロックと重なりを持つ。 In the block B1, the motion vector V1 is detected, and the offset destination A1 of the block B1 overlaps with the blocks Bt1 and Bt2 on the frame t. In block B2, motion vector V2 is detected, and offset destination A2 of block B2 overlaps with blocks Bt1 and Bt2 on frame t. In block B3, motion vector V3 is detected, and offset destination A3 of block B3 overlaps with blocks Bt4 and Bt5 on frame t. In block B4, motion vector V4 is detected, and offset destination A4 of block B4 overlaps with blocks Bt4 and Bt5 on frame t. In the block B5, the motion vector V5 is detected, and the offset destination A5 of the block B5 overlaps with the block Bt5 on the frame t and an adjacent block (not shown).
すなわち、図18の例においては、フレームt上のブロックBt1およびBt2には、動きベクトルV1またはV2のどちらか一方がシフト初期ベクトルとして割り付けられる。また、フレームt上のブロックBt4には、動きベクトルV3およびV4のどちらか一方がシフト初期ベクトルとして割り付けられ、フレームt上のブロックBt5には、動きベクトルV3、V4、およびV5のうちのいずれかがシフト初期ベクトルとして割り付けられる。しかしながら、フレームt上のブロックBt3には、シフト初期ベクトルの候補となる動きベクトルが存在せず、シフト初期ベクトルは割り付けられない。 That is, in the example of FIG. 18, one of the motion vectors V1 and V2 is allocated as the shifted initial vector to the blocks Bt1 and Bt2 on the frame t. Also, one of the motion vectors V3 and V4 is assigned as the initial shift vector to the block Bt4 on the frame t, and any one of the motion vectors V3, V4, and V5 is assigned to the block Bt5 on the frame t. Are assigned as shifted initial vectors. However, in the block Bt3 on the frame t, there is no motion vector that is a candidate for the shifted initial vector, and the shifted initial vector is not allocated.
したがって、シフト初期ベクトル割付部105は、ブロックBt3のように、シフト初期ベクトルの割り付けが起こらないブロックに対して、0ベクトルをシフト初期ベクトルとして割り付ける。一方、シフト初期ベクトル割付部105は、ブロックBt1,Bt2,Bt4,およびBt5のように、複数の動きクトルが競合するブロックに対して、上述した評価値DFDに基づく、信頼度が高い動きベクトルを選択し、選択した動きベクトルを、シフト初期ベクトルとしてそれぞれのブロックに割り付ける。
Therefore, the shifted initial
なお、図18の例においては、説明の便宜上、オフセット先Aは、フレームt上から少しずらして示されている。 In the example of FIG. 18, for convenience of explanation, the offset destination A is shown slightly shifted from the frame t.
図19は、競合する動きベクトルの例を示す図である。図19の例においては、フレームt−1上のブロックB1およびB2から、それぞれにおいて検出された動きベクトルV1およびV2が、フレームt上のブロックBtを通過している。すなわち、ブロックBtは、動きベクトルV1のフレームt−1上の終点と同じ位置のフレームt上のブロックであり、動きベクトルV2のフレームt−1上の終点と同じ位置のフレームt上のブロックである。このように、複数の動きベクトルが同じブロックに対して競合する場合には、動きベクトルV1に対する評価値DFD1と、動きベクトルV2に対する評価値DFD2の値が比較され、評価値DFDが小さい方(すなわち、信頼度が高い方)がブロックBtに対応するシフト初期ベクトルSV2として選択される。これにより、評価値DFDに基づく、信頼度の高いシフト初期ベクトルを得ることができる。 FIG. 19 is a diagram illustrating an example of competing motion vectors. In the example of FIG. 19, the motion vectors V1 and V2 detected in the blocks B1 and B2 on the frame t-1 respectively pass the block Bt on the frame t. That is, the block Bt is a block on the frame t at the same position as the end point on the frame t-1 of the motion vector V1, and is a block on the frame t at the same position as the end point on the frame t-1 of the motion vector V2. is there. Thus, when a plurality of motion vectors compete for the same block, the evaluation value DFD1 for the motion vector V1 is compared with the evaluation value DFD2 for the motion vector V2, and the evaluation value DFD is smaller (that is, , With higher reliability) is selected as the shifted initial vector SV2 corresponding to the block Bt. As a result, a highly reliable shifted initial vector based on the evaluation value DFD can be obtained.
次に、図20のフローチャートを参照して、シフト初期ベクトル割り付け処理の詳細について説明する。前段において、ベクトル評価部104は、フレームt−1上の着目ブロックの動きベクトルVを検出すると、検出された動きベクトルVとともに、その動きベクトルVに対して求めた評価値DFDを、シフト初期ベクトル割付部105に供給する。
Next, the details of the shifted initial vector allocation processing will be described with reference to the flowchart of FIG. In the preceding stage, when the
ステップS201において、評価値比較部202は、ベクトル評価部104から、動きベクトルVとともに、その動きベクトルVの評価値DFDを入力する。また、このとき、割付対象位置演算部201も、動きベクトルVを入力し、ステップS202に進む。割付対象位置演算部201は、動きベクトルVのフレームtにおけるオフセット(動き補償)先の割付対象ブロックの位置を求める。すなわち、割付対象位置演算部201は、フレームt−1上において検出された動きベクトルVの終点のブロックと同じ位置にあるフレームt上のブロックの位置を求め、ステップS203に進む。割付対象位置演算部201は、ステップS203において、求められた割付対象ブロックのうち、1つの割付対象ブロックを選択し、選択した割り付け対象ブロックの位置を、評価値メモリ106およびシフト初期ベクトル置換部203に供給し、ステップS204に進む。なお、ステップS203においては、割付対象ブロックのうち、フレームt上において左上のブロックから順に選択される。
In step S <b> 201, the evaluation
ステップS204において、評価値比較部202は、評価値メモリ106から、割付対象位置演算部201により選択された割付対象ブロックの評価値DFDを取得し、ステップS205に進み、ステップS201において入力された動きベクトルVの評価値DFDが、評価値メモリ106の評価値DFDよりも小さいか否か(すなわち、動きベクトルVの評価値DFDが、評価値メモリ106の評価値DFDよりも信頼度が高いか否か)を判断し、動きベクトルVの評価値DFDが、評価値メモリ106の評価値DFDよりも小さいと判断された場合、ステップS206に進む。
In step S204, the evaluation
評価値比較部202は、ステップS206において、シフト初期ベクトル置換部203を制御し、割付対象位置演算部201により選択されたシフト初期ベクトルメモリ107の割付対象ブロックのシフト初期ベクトルを、動きベクトルV(すなわち、動きベクトルVと同じ大きさで同じ向きの動きベクトル)に書き換えさせ、ステップS207に進み、評価値置換部204を制御し、割付対象位置演算部201により選択された割付対象ブロックの評価値DFDを、動きベクトルVの評価値DFDで書き換えさせ、ステップS208に進む。
In step S206, the evaluation
また、評価値比較部202は、ステップS205において、ステップS201において入力された動きベクトルVの評価値DFDが、評価値メモリ106に記憶される評価値DFDよりも小さくないと判断した場合、ステップS206およびS207の処理をスキップし、ステップS208に進む。すなわち、この場合、評価値メモリ106の評価値DFDが、動きベクトルVの評価値DFDよりも信頼度が高いと判断されるので、評価値メモリ106およびシフト初期ベクトルメモリ107の値は、書き換えられることはない。
If the evaluation
割付対象位置演算部201は、ステップS208において、動きベクトルVの割り付け対象ブロックすべての処理が終了したか否かを判断し、割り付け対象ブロックすべての処理が終了していないと判断した場合、ステップS203に戻り、それ以降の処理を繰り返す。また、割付対象位置演算部201は、ステップS208において、動きベクトルVの割り付け対象ブロックすべての処理が終了したと判断した場合、シフト初期ベクトル割付処理を終了する。
In step S208, the allocation target
なお、初回の処理においては、選択された割付対象ブロックに対応するシフト初期ベクトルが、シフト初期ベクトルメモリ107にまだ記憶されていない。したがって、そのシフト初期ベクトルの評価値DFDが、評価値メモリ106の対応する割付対象ブロックに、まだ記憶されていない場合には、ステップS204において、選択された割付対象ブロックから評価値DFDは、取得されないので、ステップS205においてはYesと判断されることとし、ステップS206およびS207の処理が実行される。
In the first process, the shifted initial vector corresponding to the selected allocation target block is not yet stored in the shifted
以上のように、着目ブロックの動きベクトルの検出を処理する際に、連続するフレーム間において動物体の動き量にはある程度の連続性があり、動き量の変化が小さいことに基づいて、前の時刻(過去)のフレームから、次の時刻のフレームの着目ブロックを通過する動きベクトル(すなわち、過去のフレーム上において検出された動きベクトルVの終点のブロックと同じ位置にある次のフレーム上のブロックを始点とした、動きベクトルVと同じ大きさで同じ向きの動きベクトル)であるシフト初期ベクトルを、初期ベクトルの候補ベクトルとすることにより、従来のように、周辺ブロックにおいて過去に求められている動きベクトルのみを初期ベクトルの候補ベクトルとする場合よりも、特に、動いている物体の境界においては、勾配法演算の初期値として適切な動きベクトルを与えることができ、これにより、勾配法の演算による動きベクトル検出の精度を向上させることができる。 As described above, when the motion vector detection of the block of interest is processed, the motion amount of the moving object has a certain degree of continuity between successive frames, and the change in the motion amount is small. A motion vector that passes through the target block of the frame at the next time from the frame at the time (past) (that is, a block on the next frame at the same position as the end block of the motion vector V detected on the past frame) As a conventional method, a shift initial vector that is a motion vector having the same magnitude as the motion vector V and having the same direction as a starting point is used as a candidate vector of the initial vector, and thus is obtained in the past in the peripheral block as in the past. Compared to the case where only the motion vector is the candidate vector of the initial vector, especially at the boundary of the moving object, the gradient method It can give an appropriate motion vector as an initial value for calculation, which makes it possible to improve the accuracy of motion vector detection by computation of the gradient method.
また、シフト初期ベクトルを求める際に、前の時刻のフレームにおいて検出された動きベクトルが次の時刻のフレームにおいて通過するブロック(すなわち、フレームt−1上において検出された動きベクトルVの終点のブロックと同じ位置にあるフレームt上のブロック)を求め、次の時刻のフレーム上の着目ブロックにおけるシフト初期ベクトルとして割り付けるようにしたので、着目ブロックを通過する動きベクトルを、前の時刻のフレームの全ブロックの動きベクトルから探索する場合よりも、処理の演算量が削減されるため、膨大な演算量により実現が困難であったハードウェア化を実現することができる。 Further, when the initial shift vector is obtained, the motion vector detected in the frame at the previous time passes in the frame at the next time (that is, the block at the end of the motion vector V detected on the frame t−1). And a motion vector passing through the block of interest is assigned to all the frames of the previous time. Compared to the search from the motion vector of the block, the calculation amount of processing is reduced, so that it is possible to realize hardware that is difficult to realize due to the huge amount of calculation.
次に、初期ベクトル選択部101の構成の詳細について説明する。
Next, details of the configuration of the initial
図21は、初期ベクトル選択部101の構成を示すブロック図である。図21に構成を示す初期ベクトル選択部101は、前(過去)フレームにおいて検出された動きベクトルや、シフト初期ベクトルなどの候補ベクトル(以下、初期候補ベクトルとも称する)から、信頼度の高い動きベクトルを、初期ベクトルとして選択する処理を行う。初期ベクトル選択部101には、時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1が入力される。
FIG. 21 is a block diagram illustrating a configuration of the initial
候補ベクトル位置演算部251は、フレームtが入力されると、フレームt上の処理の対象となる着目ブロックを選択し、着目ブロックの周辺領域から、着目ブロックの初期候補ベクトルを取得する候補ブロックの位置、初期候補ベクトルとなる動きベクトルの種類および優先順位を求め、求められた優先順位の順に、候補ブロックの位置情報および初期候補ベクトルの種類情報を、検出ベクトル取得部252およびシフト初期ベクトル取得部253に供給する。また、候補ベクトル位置演算部251は、候補ブロックの位置情報を、オフセット位置演算部254にも供給する。
When the frame t is input, the candidate vector
なお、信号処理装置1においては、初期候補ベクトルの数は、初期ベクトルの精度と、ハードウェア能力の兼ね合いなどに基づいて所定数に設定されており、さらに、候補ブロックの位置、初期候補ベクトルの種類、および優先順位も、例えば、図23を参照して後述するように、予め設定されている。また、初期候補ベクトルの種類としては、過去フレームにおいて、所定のブロックを通過する動きベクトルを、その所定のブロックにシフトさせた動きベクトル(すなわち、過去フレーム上において検出された動きベクトルの終点のブロックと同じ位置にある次のフレーム上のブロックを始点とした、動きベクトルVと同じ大きさで同じ向きの動きベクトル)であるシフト初期ベクトルSV、過去フレームにおいて検出された動きベクトル(以下、過去ベクトルPVとも称する)、現在のフレームにおいて着目ブロックより手前のブロックにおいて検出された動きベクトル(現在ベクトルCVとも称する)、および0ベクトルがある。
In the
したがって、候補ベクトル位置演算部251は、予め設定された初期候補ベクトルの種類情報が過去ベクトルまたは現在ベクトルであった場合、候補ブロックの位置情報および初期候補ベクトルの種類情報を、検出ベクトル取得部252に供給し、求めた初期候補ベクトルの種類情報がシフト初期ベクトルであった場合、候補ブロックの位置情報および初期候補ベクトルの種類情報を、シフト初期ベクトル取得部253に供給し、そのどちらでもなかった場合(例えば、初期候補ベクトルの種類情報が、0ベクトルである場合)、0ベクトルを設定し、0ベクトルと共に、候補ブロックの位置情報を、オフセット位置演算部254に供給する。
Accordingly, when the preset initial candidate vector type information is a past vector or a current vector, the candidate vector
検出ベクトル取得部252は、候補ベクトル位置演算部251により供給された候補ブロックの位置情報および初期候補ベクトルの種類情報に応じた動きベクトルを、検出ベクトルメモリ53より取得し、取得した動きベクトルを、初期候補ベクトルとして、オフセット位置演算部254に出力する。
The detection vector acquisition unit 252 acquires the motion vector corresponding to the position information of the candidate block and the type information of the initial candidate vector supplied from the candidate vector
シフト初期ベクトル取得部253は、候補ベクトル位置演算部251により供給された候補ブロックの位置情報および初期候補ベクトルの種類情報に応じて、候補ブロックの位置情報に対応したシフト初期ベクトルを、シフト初期ベクトルメモリ107から取得し、初期候補ベクトルとしてオフセット位置演算部254に出力する。また、シフト初期ベクトル取得部253は、候補ベクトル位置演算部251により指示されたブロックの位置に、シフト初期ベクトルが割り付けられていない場合、0ベクトルを、オフセット位置演算部254に出力する。なお、シフト初期ベクトルが割り付けられていない場合には、0ベクトルが、シフト初期ベクトルメモリ107に予め記憶されているようにしてもよい。
The shifted initial
オフセット位置演算部254は、検出ベクトル取得部252またはシフト初期ベクトル取得部253から初期候補ベクトル(あるいは候補ベクトル位置演算部251からの0ベクトル)を入力すると、候補ベクトル位置演算部251により供給された候補ブロックの位置情報に基づいて、各初期候補ベクトルに対して、フレームtの着目ブロックを、フレームt+1にオフセット(動き補償)させたオフセット先のブロック位置を演算する。そして、オフセット位置演算部254は、初期候補ベクトルとともに、候補ブロックの位置情報、およびオフセット先ブロック位置の情報を、評価値演算部255に出力する。
When the initial position candidate vector (or 0 vector from the candidate vector position calculation section 251) is input from the detection vector acquisition section 252 or the shifted initial
評価値演算部255は、オフセット位置演算部254より初期候補ベクトルとともに、候補ブロックの位置情報、およびオフセット先ブロック位置の情報を入力すると、フレームtとフレームt+1を用いて、初期候補ベクトルの評価値DFDを求める。そして、評価値演算部255は、初期候補ベクトルとともに、求められた評価値DFDを、評価値比較部256に出力する。
When the evaluation
評価値比較部256は、評価値演算部255により入力された評価値DFDと、最適候補格納用レジスタ257に格納されている最適候補ベクトルの評価値DFDを比較し、評価値演算部255により入力された初期候補ベクトルの評価値DFDが、最適候補ベクトルの評価値DFDよりも小さい、すなわち、初期候補ベクトルが最適候補ベクトルよりも信頼度が高いと判断された場合、最適候補格納用レジスタ257の最適候補ベクトルおよびその評価値DFDを、信頼度が高いとされた初期候補ベクトルおよびその評価値DFDで置き換える。そして、最終的に、評価値比較部256は、最適候補格納用レジスタ257を制御し、すべての候補ベクトルの中から、評価値DFDに基づく、信頼度が最も高いと判断された最適候補ベクトルを、初期ベクトルV0として、反復勾配法演算部103に出力させる。
The evaluation
最適候補格納用レジスタ257は、評価値比較部256により評価値DFDが小さい(信頼度が高い)とされた初期候補ベクトルが、最適候補ベクトルとして、その評価値DFDとともに記憶されている。そして、最適候補格納用レジスタ257は、評価値比較部256の制御のもと、最終的に記憶されている最適候補ベクトルを、初期ベクトルV0として、反復勾配法演算部103に出力する。
In the optimum
図22は、初期ベクトルの候補ブロックとなり得る周辺領域を示している。図22の例において、矢印Tは、図中、左手前の時刻t−1の過去(前)フレームt−1から、右奥の時刻tの現在フレームtへの時間の経過方向を示している。なお、図22の例においては、初期ベクトルの候補となり得る周辺領域は、着目のブロックBtを中心とした7ブロック×7ブロックにより構成され、各ブロックは、画素数が4画素×4画素により構成されている。 FIG. 22 shows a peripheral region that can be a candidate block of the initial vector. In the example of FIG. 22, the arrow T indicates the direction of time passage from the past (previous) frame t−1 at the time t−1 on the left front side to the current frame t at the time t on the right rear side. . In the example of FIG. 22, the peripheral region that can be a candidate for the initial vector is configured by 7 blocks × 7 blocks centered on the block Bt of interest, and each block is configured by 4 pixels × 4 pixels. Has been.
動きベクトル検出処理は、上述したように、フレームの左上のブロックからラスタスキャン順に実行される。したがって、初期ベクトル選択部101は、現在フレームtの着目ブロックBtの動きベクトル検出処理の際には、その直前のブロックまでの動きベクトル検出の結果を、初期ベクトルの候補とすることができる。
As described above, the motion vector detection process is executed in the raster scan order from the upper left block of the frame. Therefore, the initial
すなわち、着目ブロックBtの周辺領域は、着目ブロックBtよりも手前に処理されるブロックCVB、および着目ブロックBtよりも後に処理されるブロックPVBにより構成されている。したがって、着目ブロックBtの初期ベクトルを求める場合、初期候補ベクトルは、ブロックCVBの現在フレームt上で検出された動きベクトル(現在ベクトルCV)、および、ブロックPVBの過去フレームt−1上で検出された動きベクトル(過去ベクトルPV)の中から選択することができる。なお、このとき、同じ周辺領域のブロックに割り付けられるシフト初期ベクトルも、初期候補ベクトルの候補となりうる。 That is, the peripheral area of the block of interest Bt is composed of a block CVB processed before the block of interest Bt and a block PVB processed after the block of interest Bt. Therefore, when obtaining the initial vector of the block of interest Bt, the initial candidate vector is detected on the motion vector (current vector CV) detected on the current frame t of the block CVB and on the past frame t-1 of the block PVB. Motion vectors (past vectors PV) can be selected. At this time, a shifted initial vector assigned to a block in the same peripheral area can also be a candidate for an initial candidate vector.
図23は、候補ベクトル位置演算部251において設定される初期ベクトルの候補ブロックの例を示している。図23の例においては、着目ブロックBtの周辺領域のうち、「英字/数字」のシンボルがそれぞれ示されている8個の所定のブロックが、初期候補ベクトルが取得される候補ブロックとして設定されている。これらの8個の所定のブロックに示されている斜線の前後のシンボルは、「初期候補ベクトルの種類」と「優先順位」をそれぞれ表している。なお、初期候補ベクトルの種類のうち、Pは、過去フレームt−1で検出された過去ベクトルPVを表しており、Cは、現在フレームtで検出された現在ベクトルを表しており、Sは、シフト初期ベクトルSVを表している。
FIG. 23 illustrates an example of initial vector candidate blocks set in the candidate vector
着目ブロックBtの「S/1」は、着目ブロックBtに割り付けられたシフト初期ベクトルSVが初期候補ベクトルとして、優先順位「1」番目に用いられることを表している。着目ブロックBtの左隣のブロックの「C/2」は、現在フレームtにおいて検出されたそのブロックの現在ベクトルCVが初期候補ベクトルとして、優先順位「2」番目に用いられることを表している。着目ブロックBtの右上のブロックの「C/3」は、現在フレームtにおいて検出されたそのブロックの現在ベクトルCVが、優先順位「3」番目に初期候補ベクトルとして用いられることを表している。着目ブロックBtの右下のブロックの「P/4」は、過去フレームt−1において検出されたそのブロックの過去ベクトルPVが、優先順位「4」番目に初期候補ベクトルとして用いられることを表している。 “S / 1” of the target block Bt indicates that the shifted initial vector SV assigned to the target block Bt is used as the initial candidate vector in the priority “1”. “C / 2” of the block adjacent to the left of the block of interest Bt indicates that the current vector CV of the block detected in the current frame t is used as the initial candidate vector in the “2” priority order. “C / 3” in the upper right block of the block of interest Bt indicates that the current vector CV of the block detected in the current frame t is used as the initial candidate vector with the priority “3”. “P / 4” in the lower right block of the target block Bt indicates that the past vector PV of the block detected in the past frame t−1 is used as the initial candidate vector with the priority “4”. Yes.
周辺領域7×7の左上隅の右下のブロックの「C/6」は、現在フレームtにおいて検出されたそのブロックの現在ベクトルCVが、優先順位「6」番目に初期候補ベクトルとして用いられることを表している。周辺領域7×7の右上隅の左下のブロックの「C/5」は、現在フレームtにおいて検出されたそのブロックの現在ベクトルCVが、優先順位「5」番目に初期候補ベクトルとして用いられることを表している。周辺領域7×7の左下隅の右上のブロックの「P/7」は、過去フレームt−1において検出されたそのブロックの過去ベクトルPVが、優先順位「7」番目に初期候補ベクトルとして用いられることを表している。周辺領域7×7の右下隅の左上のブロックの「P/8」は、過去フレームt−1において検出されたそのブロックの過去ベクトルPVが、優先順位「8」番目に初期候補ベクトルとして用いられることを表している。
As for “C / 6” of the lower right block at the upper left corner of the
以上のように、図23の例において、初期候補ベクトルは、着目ブロックBtを含む、着目ブロックBtに隣接するブロックのうち、着目ブロックBt、着目ブロックBtの左隣、右上、および右下のブロックとされ、着目ブロックBtに隣接していないブロックのうち、周辺領域7×7の四隅から、それぞれ内側に1つ入った位置のブロックから選択される。
As described above, in the example of FIG. 23, the initial candidate vectors include the block of interest Bt, the block adjacent to the block of interest Bt, the block next to the block of interest Bt, the block adjacent to the left of the block of interest Bt, the upper right, and the lower right. Among the blocks that are not adjacent to the block of interest Bt, the block is selected from the blocks at positions one inside each from the four corners of the
すなわち、図23の例の場合、着目ブロックBtに隣接するブロック(空間的にも時間的にも近いブロック)のほうが少し離れたブロックよりも優先順位が高く、現在フレームtで検出された現在ベクトルのほうが、過去フレームt−1で検出された過去ベクトルよりも優先順位が高く設定されている。なお、これらの初期ベクトルの候補の位置、種類、および優先度は、できるだけ少ない候補数で、確かな初期候補ベクトルを得ることができるように、着目ブロックBtの近傍だけでなく、少し離れた位置のブロックも含め、また、偏りのないようになど、空間的な相関や時間的な相関などに基づいて設定されたものである。したがって、このように、予め設定された所定のブロックの動きベクトルを初期候補ベクトルとして用いることにより、初期候補ベクトル数が多くなってしまい、処理の演算量が膨大になってしまうことが抑制される。 That is, in the case of the example in FIG. 23, a block adjacent to the block of interest Bt (a block that is spatially and temporally close) has a higher priority than a block slightly apart, and the current vector detected in the current frame t. The priority is set higher than the past vector detected in the past frame t-1. Note that the positions, types, and priorities of these initial vector candidates are not only in the vicinity of the block of interest Bt but also slightly apart so that a reliable initial candidate vector can be obtained with as few candidates as possible. These blocks are set on the basis of spatial correlation and temporal correlation so that there is no bias. Therefore, using the motion vector of a predetermined block set in advance as an initial candidate vector in this way prevents the number of initial candidate vectors from increasing and the amount of computation of processing from becoming enormous. .
なお、候補ブロックの種類と候補ブロックの位置は、図23の例に限定されるものではなく、他の種類のベクトルや、ブロックの位置を用いてもよい。また、周辺のブロックに、最適なベクトルが存在しない場合を考慮して、そのような場合に劣化を抑制する、0ベクトルを用いてもよい。また、候補ブロックの数も8個より多くても少なくてもよい。 Note that the types of candidate blocks and the positions of the candidate blocks are not limited to the example of FIG. 23, and other types of vectors and block positions may be used. In consideration of the case where the optimum vector does not exist in the peripheral blocks, a zero vector that suppresses deterioration in such a case may be used. Also, the number of candidate blocks may be more or less than eight.
次に、図24のフローチャートを参照して、初期ベクトル選択処理の詳細について説明する。 Next, the details of the initial vector selection process will be described with reference to the flowchart of FIG.
候補ベクトル位置演算部251は、ステップS251において、選択された着目ブロックの周辺領域から、予め設定されている着目ブロックの初期候補ベクトルを取得する候補ブロックの位置、初期候補ベクトルの種類および優先順位を求め、ステップS252において、求められた優先順位の順に、候補ブロックの初期候補ベクトルの種類が、過去ベクトルまたは現在ベクトルであるか否かを判断する。ステップS252において、候補ベクトル位置演算部251は、候補ブロックの初期候補ベクトルの種類が、過去ベクトルまたは現在ベクトルであると判断した場合、ステップS253に進み、候補ブロックの位置情報および初期候補ベクトルの種類情報を、検出ベクトル取得部252に供給し、検出ベクトル取得部252に、候補ブロックの位置情報および初期候補ベクトルの種類情報に応じた動きベクトル(過去ベクトルPVまたは現在ベクトルCV)を、検出ベクトルメモリ53から取得させ、取得させた動きベクトルを、オフセット位置演算部254に出力させ、ステップS257に進む。
In step S251, the candidate vector
ステップS252において、候補ベクトル位置演算部251は、候補ブロックの初期候補ベクトルの種類が、過去ベクトルまたは現在ベクトルでないと判断した場合、ステップS254に進み、候補ベクトル位置演算部251は、候補ブロックの初期候補ベクトルの種類が、シフト初期ベクトルであるか否かを判断する。ステップS254において、候補ベクトル位置演算部251は、候補ブロックの初期候補ベクトルの種類が、シフト初期ベクトルであると判断した場合、ステップS255に進み、候補ブロックの位置情報および初期候補ベクトルの種類情報を、シフト初期ベクトル取得部253に供給し、シフト初期ベクトル取得部253に、候補ブロックの位置情報に対応したシフト初期ベクトルを、シフト初期ベクトルメモリ107から取得させ、取得させたシフト初期ベクトルを、オフセット位置演算部254に出力させ、ステップS257に進む。
In step S252, when the candidate vector
ステップS254において、候補ベクトル位置演算部251は、候補ブロックの初期候補ベクトルの種類が、シフト初期ベクトルではないと判断した場合(すなわち、候補ブロックの初期候補ベクトルの種類が、0ベクトルであると判断した場合)、ステップS256に進み、初期候補ベクトルに0ベクトルを設定し、0ベクトルと共に、候補ブロックの位置情報を、オフセット位置演算部254に供給し、ステップS257に進む。なお、ステップS253およびS255においても、候補ベクトル位置演算部251は、候補ブロックの位置情報を、オフセット位置演算部254に供給している。
In step S254, when the candidate vector
オフセット位置演算部254は、ステップS257において、検出ベクトル取得部252またはシフト初期ベクトル取得部253から初期候補ベクトルを入力すると、候補ベクトル位置演算部251により供給された候補ブロックの位置情報に基づいて、各初期候補ベクトルに対して、フレームtの着目ブロックを、フレームt+1にオフセットさせたオフセット先のブロック位置を演算する。そして、オフセット位置演算部254は、初期候補ベクトルとともに、候補ブロックの位置情報、およびオフセット先ブロック位置の情報を、評価値演算部255に出力し、ステップS258に進む。
In step S257, the offset
評価値演算部255は、オフセット位置演算部254より初期候補ベクトルとともに、候補ブロックの位置情報、およびオフセット先ブロック位置の情報を入力すると、ステップS258において、フレームtとフレームt+1を用いて、初期候補ベクトルの評価値DFDを求め、初期候補ベクトルとともに、求められた評価値DFDを、評価値比較部256に出力し、S259に進む。
When the evaluation
評価値比較部256は、ステップS259において、評価値演算部255により求められた評価値DFDが、最適候補格納用レジスタ257に格納されている最適候補ベクトルの評価値DFDより小さいか否かを判断し、評価値演算部255により求められた評価値DFDが、最適候補格納用レジスタ257に格納されている最適候補ベクトルの評価値DFDより小さい、すなわち、初期候補ベクトルが最適候補ベクトルよりも信頼度が高いと判断された場合、ステップS260において、最適候補格納用レジスタ257の最適候補ベクトルおよびその評価値DFDを、信頼度が高いとされた初期候補ベクトルおよびその評価値DFDで書き換え、ステップS261に進む。
In step S259, the evaluation
また、ステップS259において、評価値比較部256は、評価値演算部255により求められた評価値DFDが、最適候補格納用レジスタ257に格納されている最適候補ベクトルの評価値DFDより小さくないと判断した場合、ステップS260の処理をスキップし、ステップS261に進む。
In step S259, the evaluation
ステップS261において、候補ベクトル位置演算部251は、すべての初期候補ベクトル(図23の例の場合、8ベクトル)の処理が終了したか否かを判断し、すべての初期候補ベクトルの処理が終了していないと判断した場合、ステップS252に戻り、それ以降の処理を繰り返す。
In step S261, the candidate vector
ステップS261において、すべての初期候補ベクトルの処理が終了したと判断された場合、処理は、ステップS262に進み、評価値比較部256は、最適候補格納用レジスタ257を制御し、すべての初期候補ベクトルの中から、評価値DFDに基づく、信頼度が最も高いとされた最適候補ベクトルを、初期ベクトルV0として反復勾配法演算部103に出力させ、初期ベクトル選択処理を終了する。
When it is determined in step S261 that all the initial candidate vectors have been processed, the process proceeds to step S262, and the evaluation
以上のように、着目ブロックにおいて、複数の初期候補ベクトルの評価値DFDを求め、評価値DFDが最も小さい、すなわち、信頼度が最も高いとされる初期候補ベクトルを、初期ベクトルとして選択するようにしたので、後段の動きベクトル検出に最適な初期ベクトルを与えることができ、その結果、後段の動きベクトル検出の精度を向上させることができる。また、予め定められた所定のブロックの動きベクトルを、初期候補ベクトルとして用いるようにしたので、初期候補ベクトル数が多くなってしまい、処理の演算量が膨大になってしまうことが抑制される。 As described above, in the target block, the evaluation value DFD of a plurality of initial candidate vectors is obtained, and the initial candidate vector having the smallest evaluation value DFD, that is, the highest reliability is selected as the initial vector. Therefore, it is possible to provide an optimal initial vector for the subsequent motion vector detection, and as a result, it is possible to improve the accuracy of the subsequent motion vector detection. In addition, since a predetermined motion vector of a predetermined block is used as an initial candidate vector, the number of initial candidate vectors is increased, and the amount of calculation of processing is suppressed from becoming enormous.
さらに、連続するフレーム間において動物体の動き量にはある程度の連続性があり、動き量の変化が小さいことに基づいて、前フレームから着目ブロックを通過する動きベクトルであるシフト初期ベクトルを、初期ベクトルの候補とするようにしたので、従来のように、周辺ブロックにおいて過去に求められている動きベクトルのみを初期ベクトルの候補とする場合よりも、精度の高い動き検出を行うことができる。これは、特に、動いている物体の境界において、効果的である。 Furthermore, based on the fact that there is a certain degree of continuity in the amount of movement of moving objects between consecutive frames and the change in the amount of movement is small, an initial shift vector that is a motion vector that passes through the block of interest from the previous frame Since the vector candidates are used, it is possible to perform motion detection with higher accuracy than in the case where only the motion vectors obtained in the past in the peripheral blocks are used as the initial vector candidates. This is particularly effective at the boundaries of moving objects.
次に、反復勾配法演算部103の構成の詳細について説明する。
Next, details of the configuration of the iterative gradient
図25は、反復勾配法演算部103の構成を示すブロック図である。図25に構成を示す反復勾配法演算部103は、入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、最適な動きベクトルを検出する処理を行う。この動きベクトルを検出する処理は、複数の画素からなる所定のブロック毎に実行される処理であり、反復勾配法演算部103は、各ブロックにおいて、ブロック単位毎、または、画素単位毎に、勾配法を用いた演算を繰り返し実行することにより、評価値DFDに基づく、信頼度が高い、最適な動きベクトルを出力する。
FIG. 25 is a block diagram showing a configuration of the iterative gradient
反復勾配法演算部103には、プリフィルタ102−1および102−2を介して、時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1が入力され、また、初期ベクトル選択部102からの初期ベクトルV0が入力される。
The iterative gradient
モード選択部401は、有効画素判定部403からの制御のもと、所定のブロック毎に、勾配法演算の処理モードを選択し、初期ベクトル選択部102からの初期ベクトルV0をセレクタ402およびベクトル評価部104に出力する。勾配法演算の処理モードは、動きベクトルの検出対象がブロックであるブロック単位処理モードと、動きベクトルの検出対象が画素である画素単位処理モードにより構成され、初期値としてブロック単位処理モードが選択される。セレクタ402は、ベクトル評価部104からの制御のもと、モード選択部401からの初期ベクトルV0、または勾配法演算部404から出力された動きベクトルVnのどちらかを、勾配法演算の初期値として用いる動きベクトル(以下、オフセットベクトルと称する)として、有効画素判定部403および勾配法演算部404に出力する。
The
有効画素判定部403は、セレクタ402により選択されたオフセットベクトルを入力すると、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、オフセットベクトルをオフセットして計算した位置を開始点として、各単位処理モードの演算ブロックに、勾配法の演算に有効な画素の数がしきい値より多いか否かを判断し、その結果に応じて処理方法を切り換える。すなわち、有効画素判定部403は、勾配法の演算に有効な画素の数がしきい値以下であると判断した場合、モード選択部401を制御し、その所定のブロックに対しての処理モードを、画素単位処理モードに変更させたり、演算を中止させる。有効画素判定部403は、各単位処理モードの演算ブロックに、勾配法の演算に有効な画素の数がしきい値より多いと判断した場合、勾配法演算部404を制御し、各処理単位での勾配法演算処理を実行させる。
When the effective
勾配法演算部404は、セレクタ402から入力されたオフセットベクトルを入力すると、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、セレクタ402からのオフセットベクトルをオフセットして計算した位置を開始点として、各単位処理モードの勾配法演算を実行し、算出された動きベクトルVnを、遅延部405およびベクトル評価部104に出力する。
When the gradient
遅延部405は、勾配法演算部404から出力された動きベクトルVnを、有効画素判定部403および勾配法演算部404の次の処理のサイクルまで保持しており、セレクタ402の制御に応じて、保持する動きベクトルVnを有効画素判定部403に出力する。
The
図26は、有効画素判定部403の詳細な構成を示すブロック図である。図26の例において、有効画素判定部403は、時間画素差分算出部411、画素差分値判定部412、有効画素カウンタ413、および勾配法継続判定部414により構成される。
FIG. 26 is a block diagram illustrating a detailed configuration of the effective
時間画素差分算出部411は、セレクタ402により選択されたオフセットベクトルを入力すると、ブロック単位の演算ブロックにおいて、画素を選択し、オフセットベクトル、並びに、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームt、および時刻t+1の画像のフレームt+1を用いて、選択された画素の時間方向の画素差分Δtを算出し、算出された時間方向の画素差分Δtを、画素差分値判定部412に出力する。
When the offset vector selected by the
画素差分値判定部412は、時間画素差分算出部411により算出された時間方向の画素差分Δtが、所定のしきい値(以下、画素差分値と称する)よりも小さいか否かを判断し、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断した場合には、有効画素数カウンタ413の有効画素の数を1つカウントする。有効画素数カウンタ413は、演算ブロック毎に画素差分値判定部412により有効であると判断された画素分の値をカウントする。また、有効画素数カウンタ413は、演算ブロック毎に値がリセットされる。
The pixel difference
勾配法継続判定部414は、各単位処理モードの演算ブロックに、勾配法の演算に有効な画素の数がしきい値より多いか否かを判断し、各単位処理モードの演算ブロックに、勾配法の演算に有効な画素の数がしきい値より多いと判断した場合、勾配法演算部404に、各単位処理モードの勾配法演算を実行させるフラグ(flg=1)を出力する。勾配法継続判定部414は、各単位処理モードの演算ブロックに、勾配法の演算に有効な画素の数がしきい値より少ないと判断した場合、モード選択部401を制御し、他の単位処理モードを選択させたり、勾配法演算部404に勾配法演算を打ち切るフラグ(flg=0)を出力する。
The gradient method
図27は、勾配法演算部404の詳細な構成を示すブロック図である。図27の例において、勾配法演算部404は、時間画素差分算出部421、画素差分値判定部422、水平垂直画素差分算出部423、勾配積算部424、およびベクトル算出部425により構成される。
FIG. 27 is a block diagram showing a detailed configuration of the gradient
時間画素差分算出部421は、有効画素判定部403から入力されるフラグに基づいて、勾配法演算部404の各部を制御する。すなわち、時間画素差分算出部421は、フラグが1を示す(flg=1)場合には、勾配法演算部404の各部に、勾配法演算の処理を実行させる。具体的には、時間画素差分算出部421は、有効画素判定部403からフラグを入力すると、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、セレクタ402からのオフセットベクトルをオフセットして計算した画素を中心とした、各単位処理モードの演算ブロック内の画素を選択し、選択された画素の時間方向の画素差分Δtを算出し、算出された時間方向の画素差分Δtおよびオフセットベクトルを、画素差分値判定部422に出力する。また、時間画素差分算出部421は、演算ブロック内の画素の処理が終了した場合に、オフセットベクトルを、ベクトル算出部425に出力し、ベクトル算出部425を制御し、検出対象ブロックの動きベクトルを算出させる。
The temporal pixel
一方、フラグが0を示す(flg=0)場合には、時間画素差分算出部421は、演算ブロック内の画素の時間方向の画素差分Δtを算出しないので、勾配法演算部404の各部では、勾配法演算の処理が実行されず、処理は打ち切られる。なお、このとき、時間画素差分算出部421は、ベクトル算出部425を制御し、動きベクトルVを0ベクトルに設定させる。
On the other hand, when the flag indicates 0 (flg = 0), the time pixel
画素差分値判定部422は、時間画素差分算出部421により算出された時間方向の画素差分Δtが、所定のしきい値(以下、画素差分値と称する)よりも小さいか否かを判断し、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断した場合、その画素を、勾配法の演算対象とし、時間方向の画素差分Δtおよびオフセットベクトルを水平垂直画素差分算出部423に出力する。すなわち、所定の画素差分値よりも小さいと判断された画素差分Δtの画素は、水平垂直画素差分算出部423および勾配積算部424において、演算対象とされる。また、画素差分値判定部422は、時間方向の画素差分Δtが、所定の画素差分値以上であると判断した場合、水平垂直画素差分算出部423および勾配積算部424に、その画素の処理を禁止させる。
The pixel difference
水平垂直画素差分算出部423は、画素差分値判定部422から入力されたオフセットベクトルを入力すると、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、オフセットベクトルをオフセットして計算した画素を中心とした、各単位処理モードの演算ブロック内において、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断された画素の水平方向の画素差分Δxおよび垂直方向の画素差分Δyを算出する。また、水平垂直画素差分算出部423は、時間方向の画素差分Δt、水平方向の画素差分Δx、垂直方向の画素差分Δyを勾配積算部424に出力する。勾配積算部424は、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断された画素の勾配を積算する。すなわち、勾配積算部424は、時間画素差分算出部421により算出された時間方向の画素差分Δt、水平垂直画素差分算出部423により算出された水平方向の画素差分Δx、および、垂直方向の画素差分Δyを積算し、積算された勾配の値を、ベクトル算出部425に出力する。
When the horizontal / vertical pixel
ベクトル算出部425は、時間画素差分算出部421からオフセットベクトルが入力されると、勾配積算部424により積算された勾配の値、および上述した式(9)の最小自乗和を用いて、動きベクトルvnを算出する。また、ベクトル算出部425は、時間画素差分算出部421からのオフセットベクトルを、算出した動きベクトルvnに加算して、動きベクトルVnを求め、ベクトル評価部104および遅延部405に出力する。
When the offset vector is input from the time pixel
次に、動きベクトルの検出対象ブロックと演算ブロックについて説明する。画像内のオブジェクトの動きを考えた場合、同じオブジェクトであれば、大方同じ動きをしていることが多い。したがって、動きベクトルを検出する検出処理の単位は、通常、図28に示されるように、ブロック単位で行うことが多い。 Next, the motion vector detection target block and the calculation block will be described. When considering the movement of an object in an image, the same object often moves the same. Therefore, the unit of detection processing for detecting a motion vector is usually performed in units of blocks as shown in FIG.
図28の例において、矢印Xは、水平方向を示しており、矢印Yは、垂直方向を示している。また、矢印Tは、図中、右奥の時刻tのフレームtから、左手前の時刻t+1のフレームt+1への時間の経過方向を示している。 In the example of FIG. 28, the arrow X indicates the horizontal direction, and the arrow Y indicates the vertical direction. In addition, an arrow T indicates the direction of time passage from the frame t at the time t in the back right to the frame t + 1 at the time t + 1 in the left front.
図28の例の場合、各フレームの検出対象ブロックKとして、8画素×8画素のブロック(以下、8×8ブロックと称する)が示されている。この検出対象ブロックKとは、8×8ブロックに関して動きベクトルの検出を行ったときに、その8×8ブロックに対して同じ動きが求まるブロックのことをいう。 In the case of the example of FIG. 28, an 8 × 8 pixel block (hereinafter referred to as an 8 × 8 block) is shown as the detection target block K of each frame. The detection target block K is a block in which the same motion is obtained for the 8 × 8 block when the motion vector is detected for the 8 × 8 block.
一方、勾配法による動きベクトルの検出(すなわち、演算)は、画素毎に動きベクトルを検出できる特徴を有している。しかしながら、画素単位での動きベクトルの演算を行うと、統計的な解法である最小自乗法を用いる勾配法では、検出精度が著しく低下する欠点がある。したがって、通常、ブロック毎だけでなく、画素毎の処理単位であっても、動きベクトルを演算する場合には、勾配法の演算に用いられる画素は、ブロック(演算ブロック)単位で構成されることが多い。 On the other hand, motion vector detection (that is, calculation) by the gradient method has a feature that a motion vector can be detected for each pixel. However, when the motion vector is calculated in units of pixels, the gradient method using the least square method, which is a statistical solution, has a drawback that the detection accuracy is significantly reduced. Therefore, in general, when calculating a motion vector not only for each block but also for each pixel, the pixels used for the calculation of the gradient method are configured in units of blocks (calculation blocks). There are many.
以上のように、勾配法の演算に用いられる画素は、8×8ブロックの演算ブロックの画素とされる。すなわち、図28の例においては、演算ブロック(8×8)を用いて、勾配法演算を行った結果得られる動きベクトルは、検出対象ブロックK(8×8)のすべての画素に対応する動きベクトルということになる。 As described above, the pixels used for the calculation of the gradient method are the pixels of the calculation block of 8 × 8 blocks. That is, in the example of FIG. 28, the motion vector obtained as a result of the gradient method computation using the computation block (8 × 8) is the motion corresponding to all the pixels of the detection target block K (8 × 8). It will be a vector.
しかしながら、上述したように勾配法の演算に用いられる画素を、演算ブロック単位に扱う際に発生する問題として、図29に示されるように、検出対象ブロックを構成する画素の中に、異なる動きを持つオブジェクトの画素が混在する場合が挙げられる。 However, as described above, as a problem that occurs when the pixels used for the calculation of the gradient method are handled in units of calculation blocks as described above, different motions are generated in the pixels constituting the detection target block as shown in FIG. An example is a case where pixels of objects that are held are mixed.
図29の例においては、8×8画素(64画素)により構成される検出対象ブロック(=演算ブロック)Kにおいて、左上の画素から28画素(太線丸)が、矢印Aに示される斜め左上への動きを有しており、8×8の検出対象ブロックKにおいて、右下の画素から36画素(細線丸)が、矢印Bに示される右横への動きを有している。 In the example of FIG. 29, in the detection target block (= calculation block) K composed of 8 × 8 pixels (64 pixels), 28 pixels (thick line circles) from the upper left pixel to the diagonally upper left indicated by the arrow A. In the 8 × 8 detection target block K, 36 pixels (thin line circles) from the lower right pixel have a rightward movement indicated by an arrow B.
したがって、検出対象ブロックKにおいて、上述したような大方同じ動きであるという仮定が崩れてしまい、動きの異なる画素を含んだままの演算ブロックを用いて、勾配法の演算を行うと、著しく、動きベクトルの検出精度が低下してしまう。すなわち、これは、異なる動きを持つオブジェクト同士の境界に発生する、オブジェクトの消滅領域(カバードバックグラウンド領域)および発生領域(アンカバードバックグラウンド領域)に関する検出精度低下問題である。消滅領域は、前景領域に対して、前景のオブジェクトの進行方向の全端部に対応する位置の混合領域であり、時間の経過に対応して背景成分が前景に覆い隠される領域をいう。これに対して、発生領域は、前景領域に対して、前景のオブジェクトの進行方向の後端部に対応する位置の混合領域であり、時間の経過に対応して背景成分が現れる領域をいう。 Therefore, in the detection target block K, the assumption that the movements are almost the same as described above is lost, and if the calculation of the gradient method is performed using a calculation block that includes pixels with different movements, the movement is remarkably increased. The vector detection accuracy is reduced. That is, this is a problem of a decrease in detection accuracy regarding the disappearance region (covered background region) and the generation region (uncovered background region) of the object that occurs at the boundary between objects having different movements. The disappearance region is a mixed region at a position corresponding to all end portions in the advancing direction of the foreground object with respect to the foreground region, and is a region where the background component is covered with the foreground as time passes. On the other hand, the generation region is a mixed region at a position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground region, and refers to a region where a background component appears as time passes.
図30は、同じオブジェクトである場合の検出対象ブロックの輝度の状態を説明する図である。図中左側においては、矢印Xは、水平方向を示しており、矢印Yは、垂直方向を示している。また、矢印Tは、図中、右奥の時刻tのフレームtから、左手前の時刻t+1のフレームt+1への時間の経過方向を示している。また、図中右側においては、矢印Xは、水平方向を示しており、矢印Lは、輝度値を示している。すなわち、図中右側の輝度値Lp1,Lp2,Lp3,…,Lpi(3<i<7),…,Lp7は、図中左側のフレームtの8×8の検出対象ブロックにおいて、例えば、左上の画素から下に5番目の行の画素p1,p2,p3,…,pi(3<i<7),…,p7,…の輝度値を表しており、同様に、輝度値Lq1,Lq2,Lq3,…,Lqi(3<i<7),…,Lq7は、図中左側のフレームt+1の8×8の検出対象ブロックにおいて、画素p1,p2,p3,…,pi(3<i<7),…,p7,…とそれぞれ同位相に位置する画素である、左上の画素から下に5番目の行の画素q1,q2,q3,…,qi(3<i<7),…,q7,…の輝度値を表している。また、輝度値Lp1乃至Lp7およびLq1乃至Lq7間の矢印は、フレームt上の画素とフレームt+1上の画素の時間方向差分Δtを示している。
FIG. 30 is a diagram for explaining the luminance state of the detection target block in the case of the same object. On the left side in the figure, the arrow X indicates the horizontal direction, and the arrow Y indicates the vertical direction. In addition, an arrow T indicates the direction of time passage from the frame t at the time t in the back right to the frame t + 1 at the time t + 1 in the left front. On the right side in the figure, the arrow X indicates the horizontal direction, and the arrow L indicates the luminance value. That is, the luminance values Lp1, Lp2, Lp3,..., Lpi (3 <i <7),..., Lp7 on the right side in the figure are, for example, the upper left in the 8 × 8 detection target block of the frame t on the left side in the figure. .., Pi (3 <i <7),..., P7,..., And similarly, the luminance values Lq1, Lq2, and Lq3. ,..., Lqi (3 <i <7),..., Lq7 are pixels p1, p2, p3,..., Pi (3 <i <7) in the 8 × 8 detection target block in the left frame t + 1 in the drawing. ,..., P7,... Are pixels located in the same phase as the pixels q1, q2, q3,..., Qi (3 <i <7),. Represents the luminance value. The arrows between the luminance values Lp1 to Lp7 and Lq1 to Lq7 indicate the time direction difference Δt between the pixel on the frame t and the pixel on the
したがって、図30の例においては、画素p1と画素q1の時間方向差分Δtは、輝度値Lp1と輝度値Lq1の差で表され、画素p2と画素q2の時間方向差分Δtは、輝度値Lp2と輝度値Lq2の差で表され、画素p3と画素q3の時間方向差分Δtは、輝度値Lp3と輝度値Lq3の差で表され、画素piと画素qiの時間方向差分Δtは、輝度値Lpiと輝度値Lqiの差で表され、画素p7と画素q7の時間方向差分Δtは、輝度値Lp7と輝度値Lq7の差で表され、各輝度値の差は、輝度値Lp1乃至Lp7を結んだ曲線と、輝度値Lq1乃至Lq7を結んだ曲線の形状がほぼ同形状で示されるように、輝度変化が小さい。 Therefore, in the example of FIG. 30, the time direction difference Δt between the pixel p1 and the pixel q1 is represented by the difference between the luminance value Lp1 and the luminance value Lq1, and the time direction difference Δt between the pixel p2 and the pixel q2 is the luminance value Lp2. The time direction difference Δt between the pixel p3 and the pixel q3 is represented by the difference between the luminance value Lp3 and the luminance value Lq3, and the time direction difference Δt between the pixel pi and the pixel qi is represented by the luminance value Lpi. The time direction difference Δt between the pixel p7 and the pixel q7 is represented by the difference between the luminance value Lp7 and the luminance value Lq7, and each luminance value difference is a curve connecting the luminance values Lp1 to Lp7. And, the change in luminance is small so that the shape of the curve connecting the luminance values Lq1 to Lq7 is shown as substantially the same shape.
以上のように、検出対象ブロックの中の画素が、同じオブジェクトである(すなわち、同一動きである)場合には、時間方向の対応画素について、輝度変化は、あまり大きくない。 As described above, when the pixels in the detection target block are the same object (that is, the same motion), the luminance change is not so large for the corresponding pixel in the time direction.
図31は、異なる動きを持つオブジェクトの画素が混在する場合の検出対象ブロックの輝度の状態を説明する図である。なお、図30において、図31における場合と対応する部分には対応する符号を付してあり、その説明は繰り返しになるので省略するが、図31の例においては、フレームt上の画素p7が、他の画素と異なる動きを有している。 FIG. 31 is a diagram illustrating the luminance state of a detection target block when pixels of objects having different movements are mixed. In FIG. 30, portions corresponding to those in FIG. 31 are denoted by the corresponding reference numerals, and the description thereof will be omitted to avoid repetition. However, in the example of FIG. 31, the pixel p7 on the frame t is , Has a different motion from other pixels.
例えば、フレームt上の画素p7が、他の画素と同じ動きを有している場合には、フレームt+1上において、画素p7と同位相に位置する画素q7の輝度値は、輝度値Lq7−1で表されるはずであるが、図31の例においては、画素p7は、他の画素と異なる動きを有しているため、画素q7の輝度値は、輝度値Lq7−2に示されるように、輝度値Lq7−1よりも図中下側に大きく変化している。したがって、画素p7と画素q7の時間方向差分Δt(輝度値Lp7と、輝度値Lq7−2の差)は、大きくなってしまう。 For example, when the pixel p7 on the frame t has the same movement as other pixels, the luminance value of the pixel q7 located in the same phase as the pixel p7 on the frame t + 1 is the luminance value Lq7-1. In the example of FIG. 31, the pixel p7 has a different motion from the other pixels. Therefore, the luminance value of the pixel q7 is represented by the luminance value Lq7-2. The luminance value Lq7-1 is greatly changed to the lower side in the figure. Therefore, the time direction difference Δt (the difference between the luminance value Lp7 and the luminance value Lq7-2) between the pixel p7 and the pixel q7 becomes large.
このように、例えば、検出対象ブロック内に、上述したオブジェクトの消滅、発生、または変形などにより、異なる動きを有するオブジェクトの画素が混在する場合には、対応する画素の輝度値が大きく変化することが多く、このことが、動きの乱れにつながってしまう恐れがある。そこで、有効画素判定部403において、輝度変化が小さい画素は、動きベクトル検出に用いても有効であり、逆に、輝度変化が大きい画素は、動きベクトル検出に用いると、有効ではないと判断するようにする。すなわち、輝度変化の大小という要素に着目し、輝度変化の大小でその画素が有効か無効かを判断することにより、輝度変化が小さい画素は、動きベクトル検出に用い、逆に、輝度変化が大きい画素は、動きベクトル検出に用いないようにすることができる。これにより、動きベクトル検出の精度を高くすることができる。
Thus, for example, when pixels of an object having different movements are mixed in the detection target block due to the disappearance, generation, or deformation of the above-described object, the luminance value of the corresponding pixel greatly changes. This often leads to disturbances in movement. Therefore, in the effective
具体的に説明すると、有効画素判定部403は、演算ブロック内の各画素について、時間方向の画素差分Δtに所定の画素差分値(しきい値)を設定し、時間方向の画素差分Δtが、設定された所定の画素差分値よりも小さい場合には、その画素は、動きベクトル検出に寄与する(有効である)と判定し、動きベクトルを検出する際の勾配法の演算に用いるが、時間方向の画素差分Δtが、設定された所定の画素差分値以上である場合には、その画素は、動きの乱れを発生させる恐れがあるとして、動きベクトルを検出する際の勾配法の演算から除外する。これにより、異なる動きが混入することが抑制され、より安定した勾配法演算が実行され、その結果、確からしい動きベクトルが検出される。
Specifically, the effective
ただし、上述したように、勾配法演算は、統計的な解法である最小自乗法に基づいた演算であるため、勾配法演算に用いる画素と用いない画素を切り分けることにより、勾配法演算に用いられる画素が極端に少なくなり、これらの極端に少ない画素数で勾配法演算が行われてしまうと、逆に、演算の信頼性が低下してしまい、動きベクトル検出の精度が低下してしまう恐れがある。 However, as described above, since the gradient method calculation is based on the least square method, which is a statistical solution, it is used for the gradient method calculation by separating the pixels used for the gradient method calculation from the pixels not used. If the number of pixels is extremely small and the gradient method calculation is performed with these extremely small number of pixels, the reliability of the calculation is lowered, and the accuracy of motion vector detection may be reduced. is there.
そこで、有効画素判定部403は、勾配法演算に用いられる画素数が少ない場合には、この検出対象ブロック(8×8)の処理単位での演算は不安定であるとし、図32に示されるように、8×8ブロック内の画素(64個)毎の演算単位に切り替えて処理を行う。
Therefore, when the number of pixels used for the gradient method calculation is small, the effective
図32は、画素単位処理における演算ブロックの例を示している。図32の例においては、フレーム上の検出対象ブロック(ブロック単位の演算ブロック)K(8×8)が画素単位処理に切り替えられた場合の、検出対象ブロックKの左上の画素pの演算ブロックE(図32の例の場合、9×9)を示している。 FIG. 32 shows an example of a calculation block in pixel unit processing. In the example of FIG. 32, the calculation block E of the pixel p at the upper left of the detection target block K when the detection target block (block-based calculation block) K (8 × 8) on the frame is switched to pixel-unit processing. (9 × 9 in the example of FIG. 32) is shown.
すなわち、画素pの動きベクトルを求める際には、画素pを中心とした演算ブロックE(図32の例の場合、9×9)が用いられる。また、例えば、画素pの右隣の画素の動きベクトルを求める場合には、画素pの右隣の画素を中心とした演算ブロック9×9(図示せず)が用いられる。
That is, when the motion vector of the pixel p is obtained, a calculation block E (9 × 9 in the example of FIG. 32) centered on the pixel p is used. For example, when obtaining a motion vector of a pixel right next to the pixel p, an
したがって、例えば、検出対象ブロックKにおいて、大半が画素pと異なる動きをしていたとしても、検出対象ブロックK(8×8)において、勾配法演算に用いられる画素数が計数され、その数が少ない場合には、画素単位処理に切り替えられるので、図32に示されるように、画素単位処理での演算ブロックEを用いて勾配法の演算を実行することができる。 Therefore, for example, even if most of the detection target block K moves differently from the pixel p, in the detection target block K (8 × 8), the number of pixels used in the gradient method calculation is counted, and the number is When the number is small, the process is switched to the pixel unit process, and as shown in FIG. 32, the calculation of the gradient method can be executed using the calculation block E in the pixel unit process.
このように、勾配法演算に用いる画素と用いない画素を切り分け、勾配法演算に用いられる画素が極端に少なくなった場合に、検出対象ブロックK(8×8)ブロック内すべての画素について動きベクトルの検出をやめるのではなく、画素単位処理に切り替えて、画素毎に、演算ブロックE(9×9)の画素を変えて勾配法演算するようにすることで、演算に用いられない画素の混在を少しでも防ぎ、画素によっては、より高精度の動きベクトルの検出を行うことができる。 As described above, when the pixels used for the gradient method calculation are separated from the pixels used for the gradient method calculation, and the number of pixels used for the gradient method calculation becomes extremely small, the motion vector for all the pixels in the detection target block K (8 × 8) block. Instead of stopping the detection of pixels, the gradient method calculation is performed by changing the pixel of the calculation block E (9 × 9) for each pixel, thereby mixing pixels that are not used in the calculation. As a result, motion vectors can be detected with higher accuracy depending on the pixel.
図33は、図29の検出対象ブロック(演算ブロック)Kの画素に、画素単位処理を適用する例を示す図である。図33の例においては、矢印Aに示される斜め左上への動きを有する画素(太線丸)と、矢印Bに示される右横への動きの2つの異なる動きを有する画素(細線丸)からなる図29の検出対象ブロックK(8×8)において、画素単位での処理が行われる。この場合において、検出対象ブロックKの左上の検出対象画素pの動きベクトルを検出するとき、検出対象画素pを中心とした演算ブロックE(図33の例の場合、9×9)が用いられる。 FIG. 33 is a diagram illustrating an example in which pixel unit processing is applied to the pixels of the detection target block (arithmetic block) K in FIG. In the example of FIG. 33, the pixel has a pixel having a diagonally upper left movement indicated by arrow A (thick line circle) and a pixel having two different movements indicated by an arrow B (thin line circle). In the detection target block K (8 × 8) in FIG. 29, processing in units of pixels is performed. In this case, when detecting the motion vector of the detection target pixel p at the upper left of the detection target block K, the calculation block E (9 × 9 in the example of FIG. 33) centering on the detection target pixel p is used.
演算ブロックE内の画素は、矢印Bに示される右横への動きを有する右下の3画素(細線丸)以外を除いて、矢印Aに示される斜め左上への動きを有している。ここで、上述したブロック単位処理の場合と同様に、演算ブロックE内の各画素について、時間方向画素差分Δtに所定のしきい値(画素差分値)を設定し、時間方向画素差分Δtが、設定された所定の画素差分値よりも小さい場合には、その画素は、動きベクトル検出に寄与する(有効である)と判定し、動きベクトルを検出する際の勾配法演算に用いるが、時間方向画素差分Δtが、設定された所定の画素差分値よりも大きい場合には、その画素は、動きの乱れを発生させる恐れがあるとして、動きベクトルを検出する際の勾配法演算に用いない。 The pixels in the computation block E have a diagonally upper left movement indicated by an arrow A except for the lower right three pixels (thin line circles) having a horizontal movement indicated by an arrow B. Here, as in the case of the block unit processing described above, for each pixel in the computation block E, a predetermined threshold value (pixel difference value) is set for the time direction pixel difference Δt, and the time direction pixel difference Δt is When the pixel difference value is smaller than the set predetermined pixel difference value, it is determined that the pixel contributes (is effective) to motion vector detection, and is used for gradient method calculation when detecting a motion vector. When the pixel difference Δt is larger than the set predetermined pixel difference value, the pixel is not used for the gradient method calculation when detecting a motion vector because it may cause a disturbance of motion.
すなわち、図33の例においては、演算ブロックEにおいて、右下の3画素(細線丸)を除いた画素(太線丸)が、検出対象画素pの勾配法演算に有効な画素であるとされ、その有効な画素が用いられて勾配法演算が実行されるため、図29の検出対象ブロックK(8×8)を、演算ブロックとして用いて実行されるブロック単位処理の勾配法演算よりも、より安定した勾配法演算が実行され、その結果、確からしい動きベクトルが検出される。 That is, in the example of FIG. 33, in the calculation block E, the pixels (thick line circles) excluding the lower right three pixels (thin line circles) are considered to be effective pixels for the gradient method calculation of the detection target pixel p. Since the effective pixel is used and the gradient method calculation is executed, the detection target block K (8 × 8) in FIG. 29 is more than the gradient method calculation of the block unit processing executed using the calculation block. A stable gradient method operation is performed and, as a result, a probable motion vector is detected.
なお、この画素毎の演算ブロックにおいても、勾配法演算に用いる画素と用いない画素を切り分けることにより、勾配法演算に用いられる画素が極端に少なくなってしまう場合には、動きベクトルを検出することが危険であるとし、演算は、打ち切られる。すなわち、動きベクトル検出が不安定であるにもかかわらす、何かしらの大きさを有する動きが検出されたことにしてしまうと、実際の画像内のオブジェクトの動きにそぐわない(確からしくない)動きベクトルになってしまう恐れがあるからである。このような確からしくない動きベクトルを用いた上で、以降の処理(例えば、ベクトル割付処理またはベクトル補償処理)が実行され、生成された画像は、動きが不連続になってしまったり、ブロックノイズが発生してしまうなどの大きな視覚劣化を及ぼしてしまう場合が多い。 Even in the calculation block for each pixel, if the pixels used for the gradient method calculation are extremely reduced by separating the pixels used for the gradient method calculation from those not used, a motion vector is detected. The operation is aborted. That is, even if the motion vector detection is unstable, if a motion having some size is detected, the motion vector does not match the motion of the object in the actual image (not sure). Because there is a risk of becoming. Subsequent processing (for example, vector allocation processing or vector compensation processing) is executed after using such uncertain motion vectors, and the generated image may have motion discontinuities or block noise. In many cases, it causes a large visual deterioration such as the occurrence of the above.
したがって、画素単位の勾配法演算に用いられる画素が極端に少なくなってしまう場合、検出される動きベクトルは、例えば、0ベクトル(すなわち、静止状態)が用いられる。これにより、以降の処理において、この動きベクトルが、悪影響を及ぼすことが抑制され、生成される画像の大きな視覚劣化を抑制することができる。 Accordingly, when the number of pixels used for pixel-based gradient method calculation becomes extremely small, for example, a zero vector (that is, a stationary state) is used as the detected motion vector. Thereby, in the subsequent processing, this motion vector is suppressed from having an adverse effect, and large visual deterioration of the generated image can be suppressed.
次に、図34のフローチャートを参照して、反復勾配法演算処理の詳細を説明する。前段よりモード選択部401に初期ベクトルV0が入力される。
Next, details of the iterative gradient method calculation processing will be described with reference to the flowchart of FIG. The initial vector V0 is input to the
モード選択部401は、ステップS401において、ブロック単位処理モードを選択し、フレームt上のブロックを、検出対象ブロック(演算ブロック)とし、検出対象ブロックの初期ベクトルV0をセレクタ402およびベクトル評価部104に出力し、ステップS402に進む。これにより、反復勾配法演算部103の各部においては、ブロック単位での処理が実行される。ステップS402において、セレクタ402は、ベクトル評価部104からの制御に応じて、モード選択部401から入力された初期ベクトルV0をオフセットベクトルとして選択し、選択したオフセットベクトルを、時間画素差分算出部411および時間画素差分算出部421に出力し、ステップS403に進む。
In step S401, the
ステップS403において、時間画素差分算出部411および画素差分値判定部412は、選択されたオフセットベクトルを用いて(いまの場合、初期ベクトルV0をオフセットして)、ブロック単位の有効画素判定処理を実行し、ステップS404に進む。この有効画素判定処理の詳細は、図35を参照して後述するが、この有効画素判定処理により、有効画素数カウンタ413には、ブロック単位の演算ブロック内において、画素差分値が所定の画素差分値よりも小さいと判定された(すなわち、後段の勾配法演算で有効な画素であると判定された)画素の数がカウントされている。
In step S403, the temporal pixel
勾配法継続判定部414は、ステップS404において、有効画素数カウンタ413にカウントされている画素数(有効画素数)が所定のしきい値αより多いか否かを判断し、有効画素数が所定のしきい値αより多いと判断した場合、勾配法演算部404に、ブロック単位で、勾配法演算を実行させるフラグ(flg=1)を出力し、ステップS405に進む。
In step S404, the gradient method
ステップS405において、勾配法演算部404は、勾配法継続判定部414からのフラグに基づいて、セレクタ402からのオフセットベクトル(いまの場合、初期ベクトルV0)を用いて、ブロック単位の勾配法演算処理を実行し、ステップS406に進む。この勾配法演算処理の詳細は、図36を参照して後述するが、この勾配法演算処理により、動きベクトルVnが求められ、ベクトル評価部104および遅延部405に出力される。なお、動きベクトルVnは、1回目の勾配法演算により算出された動きベクトルvnに、オフセットベクトルVn−1が加算されたもの(Vn=Vn−1+vn)である。例えば、動きベクトルV1は、1回目の勾配法演算により算出された動きベクトルv1に、オフセットベクトル(初期ベクトルV0)が加算されたもの(V1=V0+v1)である。
In step S405, the gradient
ステップS406において、ベクトル評価部104は、勾配法演算処理により求められた動きベクトルVnの評価値DFD(n)と、オフセットベクトルとして用いられた動きベクトルVn−1の評価値DFD(n−1)を求め、評価値DFD(n−1)よりも評価値DFD(n)が小さいか否か、すなわち、オフセットベクトルとして用いられた動きベクトルVn−1よりも勾配法演算処理により求められた動きベクトルVnの信頼度が高いか否かを判断する。具体的には、例えば、1回目の処理においては、求められた動きベクトルV1の評価値DFD(1)と、オフセットベクトルとして用いられた初期ベクトルV0の評価値DFD(0)が比較され、2回目の処理においては、求められた動きベクトルV2の評価値DFD(2)と、オフセットベクトルとして用いられた動きベクトルV1の評価値DFD(1)が比較される。
In step S406, the
ベクトル評価部104は、ステップS406において、評価値DFD(n−1)よりも評価値DFD(n)が小さいと判断した場合、すなわち、動きベクトルVn−1よりも動きベクトルVnの信頼度が高いと判断された場合、ステップS407において、算出された動きベクトルVn(1回目の場合、動きベクトルV1、2回目の場合、動きベクトルV2)を、検出対象ブロックの動きベクトルVに設定して、ステップS408に進む。ベクトル評価部104は、ステップS408において、反復回数nを1つカウントし、ステップS409に進み、反復回数nが設定された最大反復回数(例えば、2回)になったか否かを判断し、まだ、反復回数nが設定された最大反復回数ではないと判断した場合、セレクタ402を制御し、ステップS402に戻り、それ以降の処理を繰り返させる。
When the
すなわち、ステップS402において、セレクタ402は、ベクトル算出部425から出力され、遅延部405に保持された動きベクトルV1を、オフセットベクトルとして選択し、ステップS403において、時間画素差分算出部411および画素差分値判定部412は、動きベクトルV1をオフセットベクトルとして用いて、ブロック単位の有効画素判定処理を実行し、それ以降の処理を繰り返す。したがって、ステップS405において算出される動きベクトルV2は、2回目の勾配法演算により算出された動きベクトルv2に、オフセットベクトルとして用いられた動きベクトルV1が加算されたもの(すなわち、V2=V1+v2=V0+v1+v2)となる。
That is, in step S402, the
ベクトル評価部104は、ステップS406において、評価値DFD(n−1)よりも評価値DFD(n)が小さくないと判断した場合、すなわち、動きベクトルVn−1の方が、動きベクトルVnよりも信頼度が高いと判断した場合、ステップS410に進み、勾配法演算のオフセットとしたベクトルVn−1(1回目の場合、初期ベクトルV0、2回目の場合、動きベクトルV1)を、検出対象ブロックの動きベクトルVに設定して、ステップS411に進む。また、ベクトル評価部104は、ステップS409において、反復回数nが設定された最大反復回数になったと判断した場合、ステップS411に進む。
When the
ベクトル評価部104は、ステップS411において、動きベクトルVが、動きベクトルを検出する範囲として予め設定されたサーチエリア内であるか否かを判断し、動きベクトルVが、サーチエリア内であると判断した場合、ステップS415に進み、動きベクトルVを、検出対象ブロックに対応させて、検出ベクトルメモリ53に記憶し、反復勾配法処理を終了する。
In step S411, the
また、ベクトル評価部104は、ステップS411において、動きベクトルVが、サーチエリア内ではないと判断した場合、ステップS412に進み、動きベクトルVを0ベクトルに設定し、ステップS415に進み、動きベクトルV(0ベクトル)を、検出対象ブロックに対応させて、検出ベクトルメモリ53に記憶し、反復勾配法処理を終了する。
If the
一方、勾配法継続判定部414は、ステップS404において、有効画素数カウンタ413の有効画素数が所定のしきい値α以下であると判断した場合、ステップS413に進み、モード選択部401を制御し、画素単位処理モードを選択させ、ステップS414に進む。これにより、反復勾配法演算部103の各部においては、画素単位での処理が実行される。モード選択部401は、ステップS414において、画素単位の反復勾配法演算処理を実行し、ステップS415に進む。この画素単位処理モードの反復勾配法演算処理の詳細は、図37を参照して後述するが、画素単位処理モードの反復勾配法演算処理により、検出対象ブロック内の全画素の動きベクトルVが求められるので、ベクトル評価部104は、ステップS415において、動きベクトルVを、検出対象ブロックの各画素に対応させて、検出ベクトルメモリ53に記憶し、反復勾配法処理を終了する。
On the other hand, if the gradient method
なお、上述したステップS406においては、動きベクトルの信頼度の評価を、勾配法処理により求められた動きベクトルVnの評価値DFD(n)と、オフセットベクトルとして用いられた動きベクトルVn−1の評価値DFD(n−1)を比較することで判断したが、評価値DFDの比較判断と同時に、勾配法演算により求められた動きベクトル(オフセットベクトルが加算される前の動きベクトル)vnのノルムの値(|vn|)が所定の大きさ(演算ブロック8×8の場合、例えば、16)よりも小さいことも判断するようにしてもよい。
In step S406 described above, the reliability of the motion vector is evaluated by evaluating the evaluation value DFD (n) of the motion vector Vn obtained by the gradient method processing and the motion vector Vn-1 used as the offset vector. Although the determination is made by comparing the value DFD (n−1), simultaneously with the comparison determination of the evaluation value DFD, the motion vector (motion vector before adding the offset vector) vn obtained by the gradient method calculation It may be determined that the value (| vn |) is smaller than a predetermined size (for example, 16 in the case of the
ここで、ノルムとは、あるベクトル空間におけるベクトルの大きさを表し、例えば、原点(0,0)を起点とした(x,y)へのベクトルvのノルムは、次の式(11)で表される。 Here, the norm represents the magnitude of a vector in a certain vector space. For example, the norm of the vector v from the origin (0, 0) to (x, y) is expressed by the following equation (11). expressed.
すなわち、勾配法演算においては、一般的に、微小動きに対して、精度の高い結果が得られるが、勾配法演算により求められた動きベクトルのノルム値|vn|が所定の大きさを超えてしまうと、その大きい動きベクトルvnに対して精度の高い結果が得られているとは限らない。したがって、評価値DFDと並行して、勾配法演算により求められた動きベクトルのノルム値|vn|が所定の大きさを超えたか否かを判断し、ノルム値|vn|が所定の大きさを超えた動きベクトルを除外することにより、この勾配法演算においては、微小動きに対しても、大きい動きに対しても、精度の高い結果を得ることができ、さらに、動きベクトル検出の精度を向上させることができる。 That is, in the gradient method calculation, a high-precision result is generally obtained for a minute motion, but the norm value | vn | of the motion vector obtained by the gradient method calculation exceeds a predetermined magnitude. In other words, a highly accurate result is not always obtained for the large motion vector vn. Accordingly, in parallel with the evaluation value DFD, it is determined whether or not the norm value | vn | of the motion vector obtained by the gradient method calculation exceeds a predetermined magnitude, and the norm value | vn | By excluding excess motion vectors, this gradient method can obtain highly accurate results for both small and large motions, and further improve the accuracy of motion vector detection. Can be made.
なお、この評価値DFDの判断とノルム値による判断の場合には、ステップS406において、|vn|≦16である場合で、かつ、評価値DFD(n−1)>評価値DFD(n)である場合には、ステップS407に進み、V=Vnに設定され、ステップS406において、|vn|>16である場合で、または、評価値DFD(n−1)≦評価値DFD(n)である場合には、ステップS410に進み、V=Vn−1に設定される。 In the case of the determination of the evaluation value DFD and the determination based on the norm value, in step S406, when | vn | ≦ 16, and evaluation value DFD (n−1)> evaluation value DFD (n). If there is, the process proceeds to step S407, where V = Vn is set, and if | vn |> 16 in step S406, or evaluation value DFD (n−1) ≦ evaluation value DFD (n). In this case, the process proceeds to step S410, and V = Vn−1 is set.
次に、図35のフローチャートを参照して、有効画素判定処理の詳細を説明する。なお、図35は、図34のステップS403の有効画素判定処理の例を示している。 Next, the details of the effective pixel determination process will be described with reference to the flowchart of FIG. FIG. 35 shows an example of the effective pixel determination process in step S403 of FIG.
セレクタ402から、オフセットベクトルが入力されると、時間画素差分算出部411は、ステップS431において、画素差分値判定部412を制御し、有効画素数カウンタ413をリセットさせ、ステップS432に進み、ブロック単位の演算ブロックにおいて、画素を選択し、ステップS433に進む。なお、画素は、演算ブロックの左上の画素からラスタスキャン順に選択される。
When the offset vector is input from the
時間画素差分算出部411は、ステップS433において、オフセットベクトル、並びに、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームt、および時刻t+1の画像のフレームt+1を用いて、選択された画素の時間方向の画素差分Δtを算出し、算出された時間方向の画素差分Δtを画素差分値判定部412に出力し、ステップS434に進む。
In step S433, the time pixel
画素差分値判定部412は、ステップS434において、時間画素差分算出部411により算出された時間方向の画素差分Δtが、所定の画素差分値よりも小さいか否かを判断し、すなわち、後段の勾配法演算に有効な画素であるか否かを判断し、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断した場合、ステップS435に進み、有効画素数カウンタ413の有効画素の数を1つカウントし、ステップS436に進む。また、画素差分値判定部412は、ステップS434において、時間方向の画素差分Δtが、所定の画素差分値以上であると判断した場合、すなわち、後段の勾配法演算に有効な画素ではないと判断し、ステップS435の処理をスキップし、ステップS436に進む。
In step S434, the pixel difference
時間画素差分算出部411は、ステップS436において、演算ブロック内のすべての画素の処理が終了したか否かを判断し、演算ブロック内のすべての画素の処理が終了していないと判断した場合、ステップS432に戻り、次の画素を選択し、それ以降の処理を繰り返す。一方、時間画素差分算出部411は、ステップS436において、演算ブロック内のすべての画素の処理が終了したと判断した場合、有効画素判定処理を終了し、図34のステップS404に戻る。
In step S436, the time pixel
以上の処理により、有効画素カウンタ413には、演算ブロック内において、その画素差分Δtが所定の画素差分値より小さく、後段の勾配法演算において有効であると判断された画素の数がカウントされている。したがって、勾配法継続判断部414は、図34のステップS404において、この有効画素カウンタ413の画素の数を参照することにより、ブロック単位の勾配法演算を行うか、画素単位の勾配法演算を行うかを判断することができる。
Through the above processing, the effective pixel counter 413 counts the number of pixels in the calculation block whose pixel difference Δt is smaller than a predetermined pixel difference value and determined to be effective in the subsequent gradient method calculation. Yes. Therefore, the gradient method
次に、図36のフローチャートを参照して、ブロック単位の勾配法演算処理の詳細を説明する。なお、図36は、図34のステップS405のブロック単位の勾配法演算処理の例を示している。したがって、図36の例においては、時間画素差分算出部421には、勾配法継続判定部414から、勾配法演算を実行させるフラグ(flg=1)が入力される。
Next, the details of the gradient method calculation processing in units of blocks will be described with reference to the flowchart of FIG. Note that FIG. 36 illustrates an example of the gradient method calculation processing in units of blocks in step S405 of FIG. Therefore, in the example of FIG. 36, the flag (flg = 1) for executing the gradient method calculation is input from the gradient method
勾配法継続判定部414からフラグ(flg=1)が入力されると、時間画素差分算出部421は、ステップS451において、ブロック単位の演算ブロックにおいて、画素を選択し、ステップS452に進む。なお、画素は、演算ブロックの左上の画素からラスタスキャン順に選択される。
When the flag (flg = 1) is input from the gradient method
時間画素差分算出部421は、ステップS452において、セレクタ402からのオフセットベクトル、並びに、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームt、および時刻t+1の画像のフレームt+1を用いて、選択された画素の時間方向の画素差分Δtを算出し、算出された時間方向の画素差分Δtおよびオフセットベクトルを、画素差分値判定部422に出力し、ステップS453に進む。
In step S452, the time pixel
画素差分値判定部422は、ステップS453において、時間画素差分算出部421により算出された時間方向の画素差分Δtが、所定の画素差分値よりも小さいか否かを判断し、すなわち、後段の勾配法演算に有効な画素であるか否かを判断し、時間方向の画素差分Δtが、所定の画素差分値よりも小さいと判断した場合、ステップS454に進み、垂直水平画素差分算出部423を制御し、有効であると判断した画素の水平方向の画素差分Δxを算出させる。なお、画素差分値判定部422における所定の画素差分値は、画素差分値判定部412における所定の画素差分値と同じ値であってもよいし、異なる値であってもよい。また、このとき、画素差分値判定部422は、時間画素差分算出部421により算出された時間方向の画素差分Δtおよびオフセットベクトルを、垂直水平画素差分算出部423に出力する。
In step S453, the pixel difference
垂直水平画素差分算出部423は、ステップS454において、オフセットベクトル、並びに、プリフィルタ102−1および102−2を介して入力される時刻tの画像のフレームt、および時刻t+1の画像のフレームt+1を用いて、有効であると判断された画素の水平方向の画素差分Δxを算出し、ステップS455に進み、有効であると判断された画素の垂直方向の画素差分Δyを算出し、時間方向の画素差分Δt、水平方向の画素差分Δx、および垂直方向の画素差分Δyを、勾配積算部424に出力し、ステップS456に進む。勾配積算部424は、ステップS456において、垂直水平画素差分算出部423からの時間方向の画素差分Δt、水平方向の画素差分Δx、および垂直方向の画素差分Δyを積算し、積算した結果をベクトル算出部425に出力し、ステップS457に進む。
In step S454, the vertical horizontal pixel
画素差分値判定部422は、ステップS453において、時間方向の画素差分Δtが、所定の画素差分値以上であると判断した場合、ステップS454乃至S456の処理をスキップし、ステップS457に進む。すなわち、この画素の各画素差分(勾配)は、後段の勾配法演算に有効な画素ではないので、演算に用いられない。
If the pixel difference
ステップS457において、時間画素差分算出部421は、演算ブロック内のすべての画素の処理が終了したか否かを判断し、演算ブロック内のすべての画素の処理が終了していないと判断した場合、ステップS451に戻り、次の画素を選択し、それ以降の処理を繰り返す。一方、時間画素差分算出部421は、ステップS457において、演算ブロック内のすべての画素の処理が終了したと判断した場合、ベクトル算出部425にオフセットベクトルを出力し、ステップS458に進む。ベクトル算出部425は、時間画素差分算出部421からオフセットベクトルが入力されると、勾配積算部424からの勾配の積算結果と、上述した式(9)の最小自乗和を用いて、動きベクトルvnを算出し、ステップS459に進み、時間画素差分算出部421からのオフセットベクトルに、算出された動きベクトルvnを加算した、動きベクトルVnを求めて、求められた動きベクトルVnをベクトル評価部104に出力し、勾配法演算処理を終了し、図34のステップS406に戻る。
In step S457, the time pixel
以上のように、時間方向の画素差分Δtが、設定された所定の画素差分値以上の場合には、その画素は、動きの乱れを発生させる恐れがあるとして、動きベクトルを検出する際の勾配法の演算から除外するようにしたので、より安定した勾配法演算が実行され、その結果、確からしい動きベクトルが検出され、これにより、動きベクトル検出の精度が向上される。 As described above, when the pixel difference Δt in the time direction is equal to or larger than a predetermined pixel difference value, the gradient at the time of detecting a motion vector is assumed that the pixel may cause a disturbance in motion. Since it is excluded from the calculation of the method, a more stable gradient method calculation is executed, and as a result, a probable motion vector is detected, thereby improving the accuracy of the motion vector detection.
次に、図37のフローチャートを参照して、画素単位の反復勾配法演算処理の詳細を説明する。図37は、図34のステップS414の画素単位の反復勾配法演算処理の例を示している。なお、この処理は、検出対象ブロック内の各画素について実行される。 Next, details of the iterative gradient method calculation processing in units of pixels will be described with reference to the flowchart of FIG. FIG. 37 shows an example of the iterative gradient method computing process for each pixel in step S414 of FIG. This process is executed for each pixel in the detection target block.
モード選択部401は、画素単位処理モードを設定すると、ステップS471において、検出対象ブロックの画素を検出対象画素として選択し、その画素の演算ブロック(例えば、9×9)の初期ベクトルV0を、セレクタ402およびベクトル評価部104に出力し、ステップS472に進む。なお、画素は、検出対象ブロックの左上の画素からラスタスキャン順に選択される。ステップS472において、セレクタ402は、ベクトル評価部104からの制御に応じて、モード選択部401から入力された初期ベクトルV0をオフセットベクトルとして選択し、選択したオフセットベクトルを、時間画素差分算出部411および時間画素差分算出部421に出力し、ステップS473に進む。
When the pixel unit processing mode is set, the
ステップS473において、時間画素差分算出部411および画素差分値判定部412は、選択されたオフセットベクトルを用いて(いまの場合、初期ベクトルV0をオフセットとして)、画素単位の有効画素判定処理を実行し、ステップS474に進む。この有効画素判定処理の詳細は、図35を参照して上述したブロック単位の有効画素判定処理と、対象となる演算ブロック(ブロック範囲や、ブロックを構成する画素)が異なる以外、基本的に同様の処理を行うため、その詳細な説明を省略するが、この有効画素判定処理により、有効画素数カウンタ413には、画素単位の演算ブロック内において、画素差分値が所定の画素差分値よりも小さいと判定された(すなわち、後段の勾配法演算で有効な画素であると判定された)画素の数がカウントされている。なお、画素単位の有効画素判定を行う所定の画素差分値は、ブロック単位の場合と同じ値としてもよいし、異なる値を設定するようにしてもよい。
In step S473, the temporal pixel
勾配法継続判定部414は、ステップS474において、有効画素数カウンタ413にカウントされている画素数(有効画素数)が所定のしきい値βより多いか否かを判断し、有効画素数が所定のしきい値βより多いと判断した場合、勾配法演算部404に、勾配法演算を実行させるフラグ(flg=1)を出力し、ステップS475に進む。なお、しきい値βも、ブロック単位の場合のしきい値αと同じ値としてもよいし、異なる値を設定するようにしてもよい。
In step S474, the gradient method
ステップS475において、勾配法演算部404は、勾配法継続判定部414からのフラグに基づいて、セレクタ402からのオフセットベクトル(初期ベクトルV0)を用いて、画素単位の勾配法演算処理を実行し、ステップS476に進む。この勾配法演算処理の詳細は、図36を参照して上述したブロック単位の勾配法演算処理と、対象となる演算ブロック(範囲や、ブロックを構成する画素)が異なる以外、基本的に同様の処理を行うため、その詳細な説明を省略するが、この勾配法演算処理により、検出対象画素の動きベクトルVnが求められ、ベクトル評価部104および遅延部405に出力される。なお、動きベクトルVnは、1回目の勾配法演算により求められた動きベクトルvnに、オフセットベクトルが加算されたもの(Vn=Vn−1+vn)となる。
In step S475, based on the flag from the gradient method
ステップS476において、ベクトル評価部104は、勾配法処理により算出された動きベクトルVnの評価値DFD(n)と、オフセットとして用いられた動きベクトルVn−1の評価値DFD(n−1)を求め、評価値DFD(n−1)よりも評価値DFD(n)が小さいか否か、すなわち、オフセットとして用いられた動きベクトルVn−1よりも勾配法処理により算出された動きベクトルVnの信頼度が高いか否かを判断する。
In step S476, the
ベクトル評価部104は、ステップS476において、評価値DFD(n−1)よりも評価値DFD(n)が小さいと判断された場合、すなわち、動きベクトルVn−1よりも動きベクトルVnの信頼度が高いと判断された場合、ステップS477において、算出された動きベクトルVn(1回目の場合、動きベクトルV1、2回目の場合、動きベクトルV2)を、検出対象画素の動きベクトルVに設定して、ステップS478に進む。ベクトル評価部104は、ステップS478において、反復回数nを1つカウントし、ステップS479に進み、反復回数nが設定された最大反復回数(例えば、2回)になったか否かを判断し、まだ、反復回数nが設定された最大反復回数ではないと判断した場合、セレクタ402を制御し、ステップS472に戻り、それ以降の処理を繰り返させる。
In step S476, the
すなわち、ステップS472において、セレクタ402は、ベクトル算出部425から出力され遅延部405に保持された動きベクトルV1を、オフセットベクトルとして選択し、ステップS473において、時間画素差分算出部411および画素差分値判定部412は、オフセットベクトルである動きベクトルV1をオフセットして、画素単位の有効画素判定処理を実行し、それ以降の処理を繰り返す。したがって、ステップS475において求められる動きベクトルV2は、2回目の勾配法演算により算出された動きベクトルv2に、オフセットとなる動きベクトルV1が加算されたもの(すなわち、V2=V0+v1+v2)である。
That is, in step S472, the
ベクトル評価部104は、ステップS476において、評価値DFD(n−1)よりも評価値DFD(n)が大きいと判断した場合、すなわち、動きベクトルVn−1の方が、動きベクトルVnよりも信頼度が高いと判断された場合、ステップS480に進み、勾配法演算のオフセットとしたベクトルVn−1(1回目の場合、初期ベクトルV0、2回目の場合、動きベクトルV1)を、検出対象ブロックの動きベクトルVに設定して、ステップS481に進む。また、ベクトル評価部104は、ステップS479において、反復回数nが設定された最大反復回数になったと判断した場合、ステップS481に進む。
In step S476, the
ベクトル評価部104は、ステップS481において、動きベクトルVが、動きベクトルを検出する範囲として予め設定されたサーチエリア内であるか否かを判断し、動きベクトルVが、サーチエリア内であると判断した場合、ステップS483に進む。また、ベクトル評価部104は、ステップS481において、動きベクトルVが、サーチエリア内であると判断しなかった場合、ステップS482に進み、動きベクトルVを0ベクトルに設定し、ステップS483に進む。
In step S481, the
一方、ステップS474において、勾配法継続判定部414は、有効画素数カウンタ413の有効画素数が所定のしきい値βより少ないと判断した場合、勾配法演算部404に勾配法演算を打ち切るフラグ(flg=0)を出力し、ステップS482に進む。時間画素差分算出部421は、フラグに基づいて、ベクトル算出部425を制御し、動きベクトルVを0ベクトルに設定させ、ステップS483に進む。
On the other hand, in step S474, when the gradient method
モード選択部401は、ステップS483において、検出対象ブロック内のすべての画素の処理が終了したか否かを判断し、検出対象ブロック内のすべての画素の処理が終了していないと判断した場合、ステップS471に戻り、検出対象ブロックの次の画素を、検出対象画素として、それ以降の処理を繰り返す。モード選択部401は、ステップS483において、検出対象ブロック内のすべての画素の処理が終了したと判断した場合、画素単位の反復勾配法演算処理を終了し、図34のステップS415に戻る。すなわち、画素単位の反復勾配法演算処理により、検出対象ブロック内すべての画素について動きベクトルVが求められるので、図34のステップS415に戻り、ベクトル評価部104は、動きベクトルVを、検出対象ブロックの各画素に対応させて、検出ベクトルメモリ53に記憶し、反復勾配法処理を終了する。
When the
なお、ステップS476の動きベクトルの信頼度の評価も、ステップS406の場合と同様に、評価値DFDの判断とノルム値による判断を併用するようにしてもよい。 Note that, in the evaluation of the reliability of the motion vector in step S476, the evaluation value DFD determination and the norm value determination may be used in combination, as in the case of step S406.
以上のように、演算ブロック内の画素差分が所定の画素差分値よりも小さい画素のみ勾配法演算に用いるようにすることで、異なる動きを有する画素を演算対象から除くことができ、勾配法演算により求められる動きベクトルの確からしさが向上し、動きベクトル検出の精度が向上する。 As described above, by using only pixels whose pixel difference in the calculation block is smaller than the predetermined pixel difference value for the gradient method calculation, pixels having different motions can be excluded from the calculation target, and the gradient method calculation is performed. As a result, the certainty of the motion vector required by the method improves, and the accuracy of motion vector detection improves.
また、演算ブロック内の画素差分が所定の画素差分値よりも大きく、勾配法演算に用いられない画素数が、所定のしきい値よりも多かった場合に、適応的に、勾配法演算の処理を制御するようにしたので、特に、オブジェクトの動きの境界などにおいて、さらに、動きベクトル検出の精度を向上させることができ、その結果、求められる動きベクトルもより確からしいものとすることができる。 In addition, when the pixel difference in the calculation block is larger than the predetermined pixel difference value and the number of pixels that are not used for the gradient method calculation is larger than the predetermined threshold value, the gradient method calculation processing is adaptively performed. Therefore, the accuracy of motion vector detection can be further improved especially at the boundary of the motion of the object, and as a result, the required motion vector can be made more probable.
具体的には、演算ブロック内の画素差分が所定の画素差分値よりも大きく、勾配法演算に用いられない画素数が、所定のしきい値よりも多かった場合に、ブロック単位モードから画素単位モードに変更し、検出対象ブロックの画素毎に演算ブロックを設定し、有効判定処理および勾配法演算処理を行うようにしたので、画素によっては、より高精度な動きベクトルを検出することができる。また、演算ブロック内の画素差分が所定の画素差分値よりも大きく、勾配法演算に用いられない画素数が、所定のしきい値よりも多かった場合に、勾配法演算処理の処理を打ち切り、0ベクトルとするようにしたので、暴れた動きベクトルの検出を抑制し、より安全な動きベクトルを検出することができる。 Specifically, when the pixel difference in the calculation block is larger than the predetermined pixel difference value and the number of pixels that are not used in the gradient method calculation is larger than the predetermined threshold value, the block unit mode is changed to the pixel unit. Since the calculation block is set for each pixel of the detection target block and the validity determination process and the gradient method calculation process are performed, the motion vector can be detected with higher accuracy depending on the pixel. In addition, when the pixel difference in the calculation block is larger than the predetermined pixel difference value and the number of pixels that are not used for the gradient method calculation is larger than the predetermined threshold value, the gradient method calculation processing is discontinued, Since the zero vector is used, detection of a violent motion vector can be suppressed and a safer motion vector can be detected.
次に、ベクトル割付部54の構成の詳細について説明する。
Next, details of the configuration of the
図38は、ベクトル割付部54の構成を示すブロック図である。図38に構成を示すベクトル割付部54は、24P信号の入力される時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1を用いて、フレームt上において検出された動きベクトルを、割付ベクトルメモリ55上の、補間する60P信号の内挿フレーム上の画素に割り付ける処理を行う。
FIG. 38 is a block diagram showing a configuration of the
図38の例において、時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1は、画素情報演算部701、評価値演算部702、および着目画素差分演算部703に入力される。
In the example of FIG. 38, the frame t of the image at time t and the frame t + 1 of the image at time t + 1 are input to the pixel
画素情報演算部701は、検出ベクトルメモリ53のフレームt上の画素に検出された動きベクトルを、左上の画素からラスタスキャン順に取得し、取得した動きベクトルを、次の時刻のフレームt+1方向に延ばし、延ばした動きベクトルと、内挿フレームとの交点を算出する。そして、画素情報演算部701は、算出された動きベクトルと内挿フレームとの交点から、内挿フレーム上において、その動きベクトルの割付対象となる画素(以下、割付対象画素と称する)を設定し、動きベクトルおよび割付対象画素の位置の情報を、ベクトル選択部705に出力する。また、画像情報演算部701は、割付対象画素と、動きベクトルで対応付けられるフレームtの位置Pおよびフレームt+1上の位置Qを算出し、算出されたフレームtおよびフレームt+1上の位置情報を、評価値演算部702、および着目画素差分演算部703に出力する。
The pixel
評価値演算部702は、画素情報演算部701から、割付対象画素と、動きベクトルで対応付けられるフレームtおよびフレームt+1上の位置情報を入力すると、フレームtの位置Pおよびフレームt+1の位置Qの評価値DFDを演算するため、位置Pおよび位置Qを中心とした一定範囲のDFD演算範囲(m×n)をそれぞれ設定し、それらのDFD演算範囲が画枠内にあるか否かを判断する。評価値演算部702は、DFD演算範囲が画枠内にあると判断した場合、このDFD演算範囲を用いて演算することにより、動きベクトルに対する割付対象画素の評価値DFDを求め、求めた評価値DFDを、ベクトル評価部704に出力する。
When the evaluation
着目画素差分演算部703は、画素情報演算部701から、割付対象画素と、動きベクトルで対応付けられるフレームtおよびフレームt+1上の位置情報を入力すると、フレームtの位置Pおよびフレームt+1の位置Qを用いて、割付対象画素に対する輝度差分絶対値を求め、求めた輝度差分絶対値を、ベクトル評価部704に出力する。
When the pixel-of-interest
ベクトル評価部704は、画素差分判断部711および評価値判断部712により構成される。画素差分判断部711は、着目画素差分演算部703から入力された割付対象画素に対する輝度差分絶対値が所定のしきい値よりも小さいか否かを判断する。評価値判断部712は、画素差分判断部711により着目画素差分演算部703から入力された割付対象画素に対する輝度差分絶対値が所定のしきい値よりも小さいと判断された場合に、評価値演算部702から入力された割付対象画素の評価値DFDが、ベクトル選択部705が有するDFDテーブルの最小評価値より小さいか否かを判断する。そして、評価値判断部712は、割付対象画素の評価値DFDが、DFDテーブルの最小評価値より小さいと判断した場合に、割付対象画素が対応する動きベクトルの信頼度が高いと判断し、ベクトル選択部705に、割付対象画素の評価値DFDを出力する。
The vector evaluation unit 704 includes a pixel
ベクトル選択部705は、内挿フレーム上の各画素における最小評価値を保持するDFDテーブルを有しており、内挿フレーム上の各画素に対して、0ベクトルを割り付けた場合の評価値DFD0を、内挿フレーム上の各画素における最小評価値としてDFDテーブルに予め保持している。ベクトル選択部705は、ベクトル評価部704からの割付対象画素の評価値DFDを入力すると、画素情報演算部701からの割付対象画素の位置の情報に基づいて、割付フラグメモリ56のフラグを1(true)に書き換え、割付対象画素のDFDテーブルの最小評価値を、その割付対象画素の評価値DFDに書き換える。また、ベクトル選択部705は、画素情報演算部701からの割付対象画素の位置の情報に基づいて、割付ベクトルメモリ55の割付対象画素に、画素情報演算部701からの動きベクトルを割り付ける。
The
次に、動きベクトルの画素以下精度を説明する。上述した式(1)で表されるDFD評価の演算においては、フレームtの画素位置pをベクトルv量分ずらした先のフレームt+1上の位相p+vは、実際には、24p信号のフレームt+1上の画素位置と一致しない場合が多く、その場合の輝度値は定義されていない。したがって、画素以下精度を有する動きベクトルvに対する評価値DFDの演算を行うためには、画素以下の位相における輝度値を何らかの方法で生成しなければならない。 Next, the accuracy below the pixel of the motion vector will be described. In the calculation of the DFD evaluation expressed by the above formula (1), the phase p + v on the previous frame t + 1 obtained by shifting the pixel position p of the frame t by the amount of the vector v is actually on the frame t + 1 of the 24p signal. In many cases, the luminance value is not defined. Therefore, in order to perform the calculation of the evaluation value DFD for the motion vector v having subpixel accuracy, it is necessary to generate a luminance value in a phase below the pixel by some method.
これに対応して、フレームtの画素位置pをベクトルv量分ずらした先のフレームt+1上の位相p+vに最も近い画素の輝度値をそのまま用いる方法がある。しかしながら、この方法では、評価する動きベクトルの画素以下成分を丸めてしまうため、動きベクトルの画素以下成分を捨てていることになり、これにより求められた評価値DFDの信頼度は、低くなってしまう。 Corresponding to this, there is a method of using the luminance value of the pixel closest to the phase p + v on the previous frame t + 1 obtained by shifting the pixel position p of the frame t by the vector v amount. However, in this method, since the sub-pixel components of the motion vector to be evaluated are rounded, the sub-pixel components of the motion vector are discarded, and the reliability of the evaluation value DFD thus obtained is lowered. End up.
そこで、本発明においては、周辺4画素の輝度値による4点補間処理を用いている。図39は、本発明の4点補間処理の概念を示す図である。図39においては、矢印Xが、フレームt+1における水平方向を示しており、矢印Yが、フレームt+1における垂直方向を示している。このフレームt+1において、白丸は、フレームt+1上の画素位置を表しており、黒点は、画素以下の位置を表している。また、フレームt+1上における最左上の黒点p+vとその周辺4画素は、ウインドウEに拡大して示されている。ウインドウEにおいて、白丸内のアルファベットは、周辺4画素の輝度値を示している。
Therefore, in the present invention, a four-point interpolation process using the luminance values of the surrounding four pixels is used. FIG. 39 is a diagram showing the concept of the four-point interpolation process of the present invention. In FIG. 39, the arrow X indicates the horizontal direction in the frame t + 1, and the arrow Y indicates the vertical direction in the
このフレームt+1における最左上の黒点p+vが、フレームtの画素位置pをベクトルv量分ずらした先の位相p+vとすると、位相p+vの輝度値Ft+1(p+v)は、位相p+vの水平方向の画素以下成分αおよび垂直方向の画素以下成分β、並びに、位相p+vの周辺4画素の輝度値L0乃至L4を用いて、周辺4画素の距離の逆比の和で求められる。すなわち、輝度値Ft+1(p+v)は、次の式(12)で表される。 If the black point p + v at the upper left in the frame t + 1 is the phase p + v after the pixel position p of the frame t is shifted by the vector v amount, the luminance value F t + 1 (p + v) of the phase p + v is the horizontal direction of the phase p + v. The pixel sub-component α and the pixel sub-component β in the vertical direction and the luminance values L0 to L4 of the four surrounding pixels of the phase p + v are used to obtain the sum of the inverse ratios of the distances of the four surrounding pixels. That is, the luminance value F t + 1 (p + v) is expressed by the following equation (12).
Ft+1(p+v) = (1―α)(1−β)L0+α(1−β)L1
+(1−α)βL2+αβL3 ・・・(12)
F t + 1 (p + v) = (1-α) (1-β) L0 + α (1-β) L1
+ (1-α) βL2 + αβL3 (12)
以上のように、4点補間処理により求められる輝度値Ft+1(p+v)を用いて、DFD評価の演算を行うことにより、ハードウェア実装上のコストを引き上げることなく、評価値DFDの信頼度の低下を抑制することができる。なお、以下においては、ベクトル割付の際の評価値DFDや輝度差分絶対値などの演算において、この4点補間を適用した例を説明するが、もちろん、上述した初期ベクトル選択処理やベクトル検出処理、または、後述する割付補償処理などのベクトルを評価する場合の評価値DFDの演算においても、この4点補間は適用される。 As described above, the calculation of the DFD evaluation is performed using the luminance value F t + 1 (p + v) obtained by the four-point interpolation process, so that the reliability of the evaluation value DFD can be increased without increasing the hardware implementation cost. A decrease in the degree can be suppressed. In the following, an example in which the four-point interpolation is applied in the calculation of the evaluation value DFD and the luminance difference absolute value at the time of vector allocation will be described. Of course, the above-described initial vector selection processing, vector detection processing, Alternatively, this four-point interpolation is also applied to the calculation of the evaluation value DFD in the case of evaluating a vector such as allocation compensation processing described later.
次に、ベクトル割付処理の概念を説明する。例えば、24P信号上でオブジェクトが速度vで動いており、任意の2フレーム間で、このオブジェクトの動きについて等速仮定が成り立つと仮定した場合に、24P信号のフレーム間に、新しくフレームを内挿することを考える。この場合、24P信号のオブジェクトから動きベクトルvを延ばすと、動きベクトルvと内挿フレームとの交点は、同じオブジェクトであり、同じ速度vを有する。 Next, the concept of vector allocation processing will be described. For example, when it is assumed that an object is moving at a velocity v on a 24P signal and a constant velocity assumption is made for the motion of the object between any two frames, a new frame is interpolated between the frames of the 24P signal. Think about what to do. In this case, when the motion vector v is extended from the 24P signal object, the intersection of the motion vector v and the interpolation frame is the same object and has the same velocity v.
したがって、ベクトル検出部53で検出された24P信号のフレーム(以下、内挿フレームに対して、元フレームとも称する)の動きベクトルを、その動きベクトルと、内挿する60P信号の内挿フレーム上との交点に割り付けることで、内挿フレーム上の各画素の動きを求めることができる。また、逆に、割り付けられた動きベクトルから、内挿フレーム上の画素が24P信号フレーム上でどの位置から動いたものなのかを求めることができる。 Therefore, the motion vector of the frame of the 24P signal detected by the vector detection unit 53 (hereinafter also referred to as an original frame with respect to the interpolation frame) is represented by the motion vector and the interpolation frame of the 60P signal to be interpolated. By assigning them to the intersections, the movement of each pixel on the interpolation frame can be obtained. Conversely, from the allocated motion vector, it can be determined from which position the pixel on the interpolation frame has moved on the 24P signal frame.
図40は、24P信号の元フレームで検出された動きベクトルと、60P信号の内挿フレーム上の画素の例を1次元で示している。図40の例においては、2つの24P信号の時刻tのフレームtおよび時刻t+1のフレームt+1の間に、例えば、時刻t+0.4の内挿フレームF1、および時刻t+0.8の内挿フレームF2が2つ挿入されている。なお、この内挿フレームの位置は、上述したように、24P信号上での時間位相が0.0,0.4,0.8,1.2,および1.6となる位置に、60P信号のフレームが置かれることから、信号処理装置1において予め設定されている。
FIG. 40 shows one-dimensional examples of motion vectors detected in the original frame of the 24P signal and pixels on the interpolation frame of the 60P signal. In the example of FIG. 40, between the frame t at the time t and the frame t + 1 at the time t + 1 of the two 24P signals, for example, the interpolation frame F1 at the time t + 0.4 and the interpolation frame F2 at the time t + 0.8 are Two are inserted. As described above, the position of this interpolation frame is the position where the time phase on the 24P signal is 0.0, 0.4, 0.8, 1.2, and 1.6, and the 60P signal. Are set in advance in the
各フレーム上の丸は、各画素を示している。前段のベクトル検出部52によりフレームtにおいて検出された動きベクトルv1、v2、およびv3が、フレームt+1方向に延ばされている。これらの動きベクトルを内挿フレームF1およびF2の各画素に割り付ける場合、内挿フレーム上の各画素の近傍を通る動きベクトルは、その画素に割り付けられる候補ベクトル(以下、割付候補ベクトルとも称する)とされる。
A circle on each frame indicates each pixel. Motion vectors v1, v2, and v3 detected in the frame t by the preceding
したがって、フレームtの左側の画素から、フレームt+1の左から4,5番目の画素近傍への動きベクトルv1は、内挿フレームF1上の左から2番目と3番目の画素の間、内挿フレームF2上の左から3番目と4番目の画素の間を通っている。したがって、動きベクトルv1は、動きベクトルv1が内挿フレームF1およびF2を交差する点の近傍N1に含まれる画素(内挿フレームF1の左から2番目と3番目の画素および内挿フレームF2の左から3番目と4番目の画素)に割り付けられる割付候補ベクトルとなる。 Accordingly, the motion vector v1 from the pixel on the left side of the frame t to the vicinity of the fourth and fifth pixels from the left of the frame t + 1 is between the second and third pixels from the left on the interpolation frame F1. It passes between the third and fourth pixels from the left on F2. Therefore, the motion vector v1 is a pixel included in the vicinity N1 of the point where the motion vector v1 intersects the interpolation frames F1 and F2 (second and third pixels from the left of the interpolation frame F1 and the left of the interpolation frame F2). To the third and fourth pixels).
また、フレームtの左から3番目の画素から、フレームt+1の左から2,3番目の画素近傍への動きベクトルv2は、内挿フレームF1上の左から2番目と3番目の画素の間、内挿フレームF2上の左から2番目と3番目の画素の間を通っている。したがって、動きベクトルv2は、動きベクトルv2が内挿フレームF1およびF2を交差する点の近傍領域N2に含まれる画素(内挿フレームF1の左から2番目と3番目の画素および内挿フレームF2の左から2番目と3番目の画素)に割り付けられる割付候補ベクトルとなる。 The motion vector v2 from the third pixel from the left of the frame t to the vicinity of the second and third pixels from the left of the frame t + 1 is between the second and third pixels from the left on the interpolation frame F1, It passes between the second and third pixels from the left on the interpolation frame F2. Therefore, the motion vector v2 is a pixel included in the vicinity region N2 of the point where the motion vector v2 intersects the interpolation frames F1 and F2 (second and third pixels from the left of the interpolation frame F1 and the interpolation frame F2). Allocation candidate vectors to be allocated to the second and third pixels from the left).
さらに、フレームtの左から5番目の画素から、フレームt+1の左から4,5番目の画素近傍への動きベクトルv3は、内挿フレームF1上の左から4番目と5番目の画素の間、内挿フレームF2上の左から4番目と5番目の画素の間を通っている。したがって、動きベクトルv3は、動きベクトルv3が内挿フレームF1およびF2を交差する点の近傍領域N3に含まれる画素(内挿フレームF1の左から4番目と5番目の画素および内挿フレームF2の左から4番目と5番目の画素)に割り付けられる割付候補ベクトルとなる。 Furthermore, the motion vector v3 from the fifth pixel from the left of the frame t to the vicinity of the fourth and fifth pixels from the left of the frame t + 1 is between the fourth and fifth pixels from the left on the interpolation frame F1, It passes between the fourth and fifth pixels from the left on the interpolation frame F2. Therefore, the motion vector v3 includes the pixels included in the vicinity region N3 of the point where the motion vector v3 intersects the interpolation frames F1 and F2 (the fourth and fifth pixels from the left of the interpolation frame F1 and the interpolation frame F2). 4th and 5th pixels from the left).
すなわち、内挿フレームF2の左から2番目の画素の割付候補ベクトルは、動きベクトルv2であり、内挿フレームF1上の左から2番目および3番目の画素、並びに内挿フレームF2の左から3番目の画素の割付候補ベクトルは、動きベクトルv1およびv2である。また、内挿フレームF2の左から4番目の画素の割付候補ベクトルは、動きベクトルv1およびv3であり、内挿フレームF1上の左から4番目および5番目の画素、並びに内挿フレームF2の左から5番目の画素の割付候補ベクトルは、動きベクトルv3である。 That is, the allocation candidate vector of the second pixel from the left of the interpolation frame F2 is the motion vector v2, and the second and third pixels from the left on the interpolation frame F1, and 3 from the left of the interpolation frame F2. The allocation candidate vectors of the th pixel are motion vectors v1 and v2. Further, the allocation candidate vectors of the fourth pixel from the left of the interpolation frame F2 are motion vectors v1 and v3, the fourth and fifth pixels from the left on the interpolation frame F1, and the left of the interpolation frame F2. The fifth pixel allocation candidate vector from is the motion vector v3.
以上のように、元フレームにおいて検出された動きベクトルの中から、内挿フレーム上の各画素に割り付けられる割付候補ベクトルが求められる。なお、内挿フレームF1およびF2の左端の画素および右端の画素(図中黒丸)においては、近傍を通る動きベクトルは、示されていない。すなわち、内挿フレームF1およびF2の左端の画素および右端の画素には、割り付けられる割付候補ベクトルが存在しない。したがって、これらの画素については、後述する後段の割付補償部57において割付補償処理が実行される。
As described above, an allocation candidate vector to be allocated to each pixel on the interpolation frame is obtained from the motion vectors detected in the original frame. In the leftmost pixel and the rightmost pixel (black circles in the figure) of the interpolation frames F1 and F2, motion vectors passing through the vicinity are not shown. That is, there is no allocation candidate vector to be allocated to the leftmost pixel and the rightmost pixel of the interpolation frames F1 and F2. Therefore, an allocation compensation process is performed on these pixels in an
さらに、図41を参照して、元フレームで検出された動きベクトルと、60P信号の内挿フレーム上の画素について詳しく説明する。図41の例において、矢印Tは、図中、左前の時刻tのフレームtから、右奥の時刻t+1のフレームt+1への時間の経過方向を示している。また、時刻tと時刻t+1の間の時刻t+postに内挿フレームF1が置かれている。
Furthermore, with reference to FIG. 41, the motion vector detected in the original frame and the pixels on the interpolation frame of the 60P signal will be described in detail. In the example of FIG. 41, the arrow T indicates the direction of time passage from the frame t at the time t at the left front in the figure to the frame t + 1 at the time t + 1 at the back right. Further, interpolation frame F1 is placed at time t + pos t between times t and
図41の例の場合、フレームt上の画素(xa,ya)で検出された動きベクトルva(xva,yva)をフレームt+1方向に延ばし、内挿フレームF1との交点(xia,yia)を演算する。交点は、24P信号のフレームt上の動きベクトルvaの端点にあたる画素が移動した点であると考えられるので、具体的には、式(13)および式(14)のように表される。 In the example of FIG. 41, the motion vector v a (x va , y va ) detected by the pixel (x a , y a ) on the frame t is extended in the frame t + 1 direction, and the intersection (x ia , y ia ) is calculated. Intersection, it is considered that pixels corresponding to end points of the motion vector v a of the frame t of the 24P signal to a point moved, specifically, is expressed by the equation (13) and (14).
xia = xa+postxva ・・・(13)
yia = ya+postyva ・・・(14)
x ia = x a + pos t x va ··· (13)
y ia = y a + pos t y va ··· (14)
ここで、上述したように、動きベクトルvaが画素以下精度を有する場合には、動きベクトルvaの交点と、内挿フレームF1上の画素位置は、一致するとは限らない。一致しない場合、図41に示されるように、動きベクトルvaは、内挿フレームF1上の交点の近傍4画素G1乃至G4に対して割り付けられる。すなわち、動きベクトルvaは、近傍の各画素G1乃至G4上にシフト(平行移動)されて、それぞれの画素に対して割り付けられる割付候補ベクトルとされ、割付補償処理が実行される。 Here, as described above, when the motion vector v a has a less precision pixels, the intersection of the motion vector v a, pixel positions on the interpolation frame F1 does not always match. Otherwise, as shown in FIG. 41, the motion vector v a is allocated with respect to the four neighboring pixels G1 to G4 of the intersection on the interpolated frame F1. That is, the motion vector v a is shifted (parallel movement) on each of the pixels G1 to G4 in the neighborhood, is the allocation candidate vector to be allocated to each of the pixels, the allocation compensating process is executed.
なお、このように、1つの動きベクトルが、近傍4画素に対して割り付けられる候補となることもあるため、画素によっては、複数の動きベクトルが割付候補ベクトルとされる。この場合、ベクトル割付部54は、各動きベクトルについて、内挿フレーム上の画素と、その動きベクトルで対応付けられる元フレーム上の交点を算出し、その交点を用いて、各動きベクトルを評価することにより、最終的に、内挿フレーム上の画素に、割り付ける動きベクトルを決定する。
As described above, since one motion vector may be a candidate assigned to four neighboring pixels, a plurality of motion vectors may be assigned candidate vectors depending on the pixel. In this case, the
図42を参照して、ベクトル割付部54における動きベクトルの評価について説明する。図42は、下から、図41の時刻tのフレームt、時刻t+postの内挿フレームF1、および、時刻t+1のフレームt+1を、1次元的に示している。
With reference to FIG. 42, the motion vector evaluation in the
図42の例において、動きベクトルsvaは、フレームt上の画素(xa,ya)において検出された動きベクトルvaが、近傍の画素G4の割付候補ベクトルとして、画素G4上にシフト(平行移動)されたものである。ここで、画素G4上にシフトされた動きベクトルsvaと、フレームtおよびフレームt+1との交点を、それぞれ点Pおよび点Qとする。 In the example of FIG. 42, the motion vector sv a is the pixel (x a, y a) of the frame t detected motion vector v a at is as allocation candidate vectors of the pixels in the neighborhood G4, shifts on the pixel G4 ( Translated). Here, the intersections of the motion vector sva, shifted onto the pixel G4, and the frame t and the frame t + 1 are defined as a point P and a point Q, respectively.
ベクトル割付部54は、動きベクトルsvaの第1の評価として、まず、点Pおよび点Qを中心としたDFD演算範囲をそれぞれ求め、求めたDFD演算範囲が画枠をはみ出してしまうか否かを判断する。したがって、点Pおよび点Qを中心としたDFD演算範囲が画枠をはみ出てしまった場合には、動きベクトルsvaは、候補から除外される。
The
また、この点Pおよび点Qが、例えば、異なるオブジェクトに属する場合、点Pの輝度値Ft(P)と、点Qの輝度値Ft+1(Q)の差は、大きくなってしまう。したがって、ベクトル割付部54は、動きベクトルsvaの第2の評価として、点Pと点Qを用いて、画素G4における輝度差分絶対値dpを求め、輝度差分絶対値dpが所定の値より大きいか否かを判断する。輝度差分絶対値dpが所定の値より大きいと判断された場合には、画素G4における動きベクトルsvaの信頼度が低いとされ、動きベクトルsvaは、候補から除外される。なお、輝度差分絶対値dpは、次の式(15)で表される。
Further, when the point P and the point Q belong to different objects, for example, the difference between the luminance value F t (P) of the point P and the luminance value F t + 1 (Q) of the point Q becomes large. . Accordingly, the
dp = |Ft(P)― Ft+1(Q)| ・・・(15) dp = | F t (P) − F t + 1 (Q) | (15)
そして、動きベクトルsvaの第3の評価として、ベクトル割付部54は、点Pおよび点Qを中心としたDFD演算範囲の相関値を表す差分絶対値による評価判断を行う。すなわち、ベクトル割付部54は、点Pおよび点Qを中心としたDFD演算範囲を用いて、画素G4における動きベクトルsvaの評価値DFD(差分絶対値)を求め、求められた評価値DFDがDFDテーブルの最小評価値よりも小さいか否かを判断する。以上の評価の結果、ベクトル割付部54は、求められた評価値DFDの中で最小の評価値DFDを有する動きベクトルを、画素G4に割り付ける。
Then, as the third evaluation of the motion vector sv a, the
以上のように、内挿フレームの画素における割付候補の動きベクトルを、割付対象画素の評価値DFDだけでなく、割付対象画素における輝度差分絶対値を用いて評価するようにしたので、従来の評価値DFDを用いるだけの場合よりも、確からしい動きベクトルを、割付対象画素に割り付けることができる。この結果、ベクトル割付の精度が向上する。 As described above, since the motion vector of the allocation candidate in the pixel of the interpolation frame is evaluated using not only the evaluation value DFD of the allocation target pixel but also the luminance difference absolute value in the allocation target pixel, the conventional evaluation Rather than using only the value DFD, a reliable motion vector can be allocated to the allocation target pixel. As a result, the accuracy of vector allocation is improved.
なお、上述したように内挿フレームの画素における割付候補の動きベクトルを評価するためには、内挿フレームの画素を基準に、その動きベクトルで対応付けられる元フレーム上の位置が用いられるが、輝度差分絶対値dpおよび評価値DFDを求める際に、割付候補の動きベクトルは、内挿フレームの画素位置を基準に延長するため、動きベクトルと元フレーム上の交点は、元フレームの画素位置と一致しないことがあり、このままでは画素値を求めることができない。このような場合に、図39を参照して上述した4点補間処理が実行される。 As described above, in order to evaluate the motion vector of the allocation candidate in the pixel of the interpolation frame, the position on the original frame associated with the motion vector is used with reference to the pixel of the interpolation frame. When obtaining the luminance difference absolute value dp and the evaluation value DFD, the motion vector of the allocation candidate is extended with reference to the pixel position of the interpolation frame, so that the intersection of the motion vector and the original frame is the pixel position of the original frame. The pixel values may not match, and the pixel value cannot be obtained as it is. In such a case, the four-point interpolation process described above with reference to FIG. 39 is executed.
図43は、ベクトル割付処理における4点補間の例を示している。図43において、図41および図42における場合と対応する部分には対応する符号を付してあり、その説明は繰り返しになるので省略する。 FIG. 43 shows an example of four-point interpolation in the vector allocation process. In FIG. 43, portions corresponding to those in FIGS. 41 and 42 are denoted by the corresponding reference numerals, and the description thereof will be omitted because it will be repeated.
図43の例においては、割付候補の動きベクトルsvaは、内挿フレームF1の画素位置G4を基準に延長されているため、動きベクトルsvaとフレームtとの交点Pは、フレームt上の画素位置(フレームt上の白丸)と一致しておらず、また、動きベクトルsvaとフレームt+1との交点Qも、フレームt+1上の画素位置(フレームt上の白丸)と一致していない。したがって、フレームtおよびフレームt+1においては、それぞれ交点Pおよび交点Qを中心とした近傍Eの4画素(フレームtおよびフレームt+1上の白丸)を用いて、上述した4点補間演算が行なわれ、交点Pおよび交点Qの画素値が求められる。 In the example of FIG. 43, the motion vector sv a assignment candidate, because it is extended pixel position G4 in interpolated frame F1 as a reference, the point of intersection P between the motion vector sv a frame t, in frame t does not coincide with the pixel position (white circle on the frame t), also intersecting point Q between the motion vector sv a frame t + 1 also does not match the pixel positions on the frame t + 1 (open circles in frame t). Therefore, in the frame t and the frame t + 1, the above-described four-point interpolation is performed using the four pixels in the vicinity E centered at the intersection point P and the intersection point Q (white circles on the frame t and the frame t + 1), respectively. Pixel values of P and intersection point Q are obtained.
このように、本発明のベクトル割付処理においては、4点補間処理により求められる交点Pおよび交点Qの画素値が用いられて、輝度差分絶対値dpおよび評価値DFDが演算されるので、従来の画素以下成分を丸めてしまう方法よりも、輝度差分絶対値dpや評価値DFDを精度よく求めることができる。 As described above, in the vector allocation processing of the present invention, the luminance difference absolute value dp and the evaluation value DFD are calculated using the pixel values of the intersection P and the intersection Q obtained by the four-point interpolation processing. The luminance difference absolute value dp and the evaluation value DFD can be obtained with higher accuracy than the method of rounding the sub-pixel components.
次に、図44のフローチャートを参照して、ベクトル割付処理の詳細を説明する。24P信号の元フレームである、時刻tの画像のフレームtと、時刻t+1の画像のフレームt+1は、画素情報演算部701、評価値演算部702、および着目画素差分演算部703に入力される。
Next, details of the vector allocation processing will be described with reference to the flowchart of FIG. The frame t of the image at time t and the frame t + 1 of the image at
画素情報演算部701は、新しい元フレームが入力されると、ベクトル選択部705を制御し、ステップS701において、割付フラグメモリ56の割付フラグを0(False)で初期化させ、ステップS702に進み、割付ベクトルメモリ55を0ベクトルで初期化させ、ステップS703に進む。これにより、結果的に、動きベクトルが割り付けられない画素に、0ベクトルが割り付けられる。
When a new original frame is input, the pixel
また、画素情報演算部701は、ステップS703において、評価値演算部702を制御し、内挿フレーム上のすべての画素に対して、0ベクトルを用いて評価値DFD0を算出させ、ベクトル選択部705を制御し、評価値演算部702により算出された0ベクトルの評価値DFD0を、内挿フレームの各画素に対する最小評価値としてDFDテーブルに記憶させ、ステップS704に進む。すなわち、ステップS703において、評価値演算部702は、内挿フレームすべての画素に対して、0ベクトルを用いて評価値DFD0を算出し、算出した評価値DFD0を、ベクトル評価部704を介して、ベクトル選択部705に出力する。そして、ベクトル選択部705は、ベクトル評価部704を介して入力された評価値DFD0を、DFDテーブルの対応する画素の最小評価値として記憶する。
In step S703, the pixel
画素情報演算部701は、ステップS704において、検出ベクトルメモリ53上の元フレームから画素を選択し、ステップS705に進む。なお、この場合、フレームの左上からラスタスキャン順に画素が選択される。
In step S704, the pixel
画素情報演算部701は、ステップS705において、画素位置演算処理を実行し、ステップS706に進む。この画素位置演算処理の詳細は、図45を参照して後述するが、この画素位置演算処理により、ステップS704において選択された画素において検出された動きベクトルが割り付けられる対象となる内挿フレーム上の割付対象画素が算出され、算出された割付対象画素を基準に、その動きベクトルで対応付けられる元フレーム上の位置が算出される。
In step S705, the pixel
画素情報演算部701は、ステップS706において、算出された割付対象画素を選択し、選択した割付対象画素と、その動きベクトルを、ベクトル選択部705に出力し、ステップS707に進む。このとき、同時に、画素情報演算部701は、選択した割付対象画素を基準に、その動きベクトルで対応付けられる元フレーム上の位置の情報を、評価値演算部702および着目画素演算部703に出力する。なお、ステップS706において、画素情報演算部701は、割付対象画素が複数存在する場合には、左上の画素から選択する。
In step S706, the pixel
ステップS707において、画素情報演算部701は、選択された割付対象画素に関して、割付ベクトル評価処理を実行し、ステップS708に進む。この割付ベクトル評価処理の詳細は、図46を参照して後述するが、この割付ベクトル評価処理により、割付対象画素における動きベクトルの評価値DFDおよび輝度差分絶対値が求められ、割付対象画素における動きベクトルの信頼度が判断され、これらの判断の結果、信頼度が高いとされた動きベクトルで、割付ベクトルメモリ55の動きベクトルが書き換えられる。
In step S707, the pixel
画素情報演算部701は、ステップS708において、すべての割付対象画素の処理が終了したか否かを判断し、まだ、すべての割付対象画素の処理が終了していないと判断した場合には、ステップS706に戻り、次の割付対象画素を選択し、それ以降の処理を繰り返す。
In step S708, the pixel
ステップS708において、すべての割付対象画素の処理が終了したと判断された場合、画素情報演算部701は、ステップS709において、検出ベクトルメモリ53上の元フレームのすべての画素の処理を終了したか否かを判断する。画素情報演算部701は、ステップS709において、検出ベクトルメモリ53上の元フレームのすべての画素の処理を終了していないと判断した場合、ステップS704に戻り、検出ベクトルメモリ53上の元フレームの次の画素を選択し、それ以降の処理を繰り返す。また、画素情報演算部701は、ステップS709において、検出ベクトルメモリ53のすべての画素についての処理を終了したと判断した場合、ベクトル割付処理を終了する。
If it is determined in step S708 that the processing of all the allocation target pixels has been completed, the pixel
次に、図45のフローチャートを参照して、画素位置演算処理の詳細を説明する。なお、図45は、図44のステップS705の画素位置演算処理の例を示している。 Next, details of the pixel position calculation process will be described with reference to the flowchart of FIG. FIG. 45 shows an example of the pixel position calculation process in step S705 of FIG.
ステップS721において、画素情報演算部701は、ステップS704の処理により選択された画素で検出された動きベクトルを、検出メモリベクトル53から取得し、ステップS722に進む。なお、選択された画素の動きベクトルが0ベクトルである場合、割付ベクトルメモリ55には、初期値として0ベクトルが予め記憶されているので、以降のステップS722乃至S724、および、図44のステップS706乃至S708の処理はスキップされ、処理は、ステップS709に進む。
In step S721, the pixel
画素情報演算部701は、ステップS722において、取得された動きベクトルと内挿フレームの交点を算出する。すなわち、画素情報演算部701は、取得した動きベクトルを、次フレームt+1方向に延ばし、延ばした動きベクトルと、内挿フレームとの交点を算出し、ステップS723に進む。
In step S722, the pixel
画素情報演算部701は、ステップS723において、動きベクトルと内挿フレームから算出された交点から、割付対象画素を設定し、ステップS724に進む。このとき、画素情報演算部701は、交点が内挿フレーム上の画素位置に一致する場合には、交点を、割付対象画素に設定する。一方、画素情報演算部701は、交点が内挿フレーム上の画素位置に一致しない場合には、上述したように、内挿フレーム上の交点の近傍4画素を、割付対象画素に設定する。
In step S723, the pixel
ステップS724において、画素情報演算部701は、評価値演算部702および着目画素差分演算部703が評価値DFDおよび輝度差分絶対値を求める上で必要である、各割付対象画素を基準に、取得された動きベクトルで対応付けた元フレーム上の位置を算出する。具体的には、画素情報演算部701は、ステップS724において、取得された動きベクトルを、設定された割付対象画素にシフト(平行移動)し、シフトされた動きベクトルと、元フレーム上の交点の位置を求め、画素位置演算処理を終了し、図43のステップS706に戻る。
In step S724, the pixel
次に、図46のフローチャートを参照して、割付ベクトル評価処理の詳細を説明する。なお、図46は、図44のステップS707の割付ベクトル評価処理の例を示している。 Next, the details of the allocation vector evaluation process will be described with reference to the flowchart of FIG. 46 shows an example of the allocation vector evaluation process in step S707 of FIG.
図44のステップS706において、画素情報演算部701により、選択した割付対象画素を基準に、その動きベクトルで対応付けられる元フレーム上の位置が求められ、求められた元フレーム上の位置の情報が、評価値演算部702および着目画素差分演算部703に入力される。
In step S706 of FIG. 44, the pixel
評価値演算部702は、画素情報演算部701から、元フレーム上の位置の情報が入力されると、ステップS741において、割付対象画素における動きベクトルの評価値DFDを求めるために、フレームtおよびフレームt+1上の位置を中心としたDFD演算範囲(m×n)をそれぞれ求め、ステップS742に進み、求められたDFD演算範囲が画枠内にあるか否かを判断する。評価値演算部702は、ステップS742において、DFD演算範囲が画枠からはみ出していると判断した場合、その動きベクトルは、割付対象画素に割り付ける割付候補ベクトルにはならないと判断し、ステップS743乃至S749の処理をスキップし、割付ベクトル評価処理を終了し、図44のステップS708に戻る。
When the position information on the original frame is input from the pixel
評価値演算部702は、ステップS742において、求められたDFD演算範囲が画枠内にあると判断した場合、ステップS743に進み、画枠内にあると判断されたDFD演算範囲を用いて、割付対象画素の評価値DFDを演算し、求められた評価値DFDを、評価値判断部712に出力し、ステップS744に進む。なお、このとき、元フレーム上の位置が画素以下であった場合には、上述した4点補間を用いて、元フレーム上の交点の輝度値を求めることにより、割付対象画素の評価値DFDが演算される。
If the evaluation
一方、着目画素差分演算部703は、画素情報演算部701から、元フレーム上の位置の情報が入力されると、ステップS744において、割付対象画素における輝度差分絶対値dpを求め、求められた輝度差分絶対値dpを、画素差分判断部711に出力し、ステップS745に進む。なお、このときも、元フレーム上の位置が画素以下であった場合には、着目画素差分演算部703は、上述した4点補間を用いて、元フレーム上の交点の輝度値を求めることにより、割付対象画素における輝度差分絶対値dpを演算する。
On the other hand, when the position information on the original frame is input from the pixel
画素差分判断部711は、ステップS745において、着目画素差分演算部703からの割付対象画素の輝度差分絶対値dpが、所定のしきい値以下であるか否かを判断し、割付対象画素の輝度差分絶対値dpが、所定のしきい値より大きいと判断した場合、フレームtおよびフレームt+1の交点がそれぞれ異なるオブジェクトに属する可能性が高いと判断し、すなわち、その動きベクトルは、割付対象画素における信頼度が低く、割付対象画素に割り付ける割付候補ベクトルにはならないと判断し、ステップS746乃至S749の処理をスキップし、割付ベクトル評価処理を終了し、図44のステップS708に戻る。
In step S745, the pixel
画素差分判断部711は、ステップS745において、割付対象画素の輝度差分絶対値dpが、所定のしきい値以下であると判断した場合、ステップS746に進む。評価値判断部712は、ステップS746において、ベクトル選択部705のDFDテーブルを参照し、評価値演算部702からの割付対象画素の評価値DFDが、DFDテーブルに記憶されている割付対象画素の最小評価値(いまの場合、0ベクトルの評価値DFD0)よりも小さいか否かを判断し、評価値演算部702からの割付対象画素の評価値DFDが、DFDテーブルに記憶されている割付対象画素の最小評価値以上であると判断した場合、その動きベクトルは、割付対象画素において、信頼度が高くないと判断し、ステップS747乃至S749の処理をスキップし、割付ベクトル評価処理を終了し、図44のステップS708に戻る。
If the pixel
一方、評価値判断部712は、ステップS746において、評価値演算部702からの割付対象画素の評価値DFDが、DFDテーブルに記憶されている割付対象画素の最小評価値よりも小さいと判断した場合、その動きベクトルは、割付対象画素において、いままで比較した動きベクトルの中で最も、評価値DFDに基づく信頼度が高いと判断し、信頼度が高いと判断された割付対象画素の評価値DFDを、ベクトル選択部705に出力し、ステップS747に進む。
On the other hand, when the evaluation value determination unit 712 determines in step S746 that the evaluation value DFD of the allocation target pixel from the evaluation
ベクトル選択部705は、評価値判断部712からの割付対象画素の評価値DFDを入力すると、ステップS747において、割付フラグメモリ56の割付対象画素の割付フラグを1(True)に書き換え、ステップS748に進み、DFDテーブルの割付対象画素が対応する最小評価値を、評価値判断部712により信頼度が高いと判断された評価値DFDに書き換え、ステップS749に進む。
Upon receiving the evaluation value DFD of the allocation target pixel from the evaluation value determination unit 712, the
ベクトル選択部705には、ステップS706において、画素情報演算部701から選択した割付対象画素とその動きベクトルが入力されている。したがって、ベクトル選択部705は、ステップS749において、割付ベクトルメモリ55の割付対象画素に割り付けられている動きベクトルを、信頼度が高いと判断された評価値DFDに対応する動きベクトルで書き換え、割付ベクトル評価処理を終了し、図44のステップS708に戻る。
The
以上のように、内挿フレームの割付対象画素に割り付けられる動きベクトルを選ぶときに、評価値DFDだけでなく、割付対象画素を基準に動きベクトルで対応付けた元フレーム上の位置に基づいて求められる、割付対象画素の輝度差分絶対値を別扱いにし、評価するようにしたので、従来の評価値DFDを用いるだけの場合よりも、割付候補ベクトルの中から、最も確からしい動きベクトルを選んで、割付対象画素に割り付けることができる。これにより、ベクトル割付の精度が向上し、後段の画像補間処理において生成される画像の不連続性などを抑制することができ、画像の品質を向上させることができる。 As described above, when selecting a motion vector to be allocated to the allocation target pixel of the interpolation frame, not only the evaluation value DFD but also a position on the original frame associated with the motion vector based on the allocation target pixel is obtained. Since the absolute value of the luminance difference of the allocation target pixel is treated separately and evaluated, the most probable motion vector is selected from the allocation candidate vectors rather than using the conventional evaluation value DFD. , It can be assigned to the pixel to be assigned. Thereby, the accuracy of vector allocation is improved, discontinuity of the image generated in the subsequent image interpolation processing, etc. can be suppressed, and the image quality can be improved.
さらに、評価値DFDや輝度差分絶対値を求める際などに、画素以下位置の画素値が必要な場合に、その画素以下位置の近傍4画素との距離を基にした線形補間で値を求めるようにしたので、画素以下位置精度の処理が可能になり、さらに、従来の画素以下成分を丸めてしまう方法よりも、輝度差分絶対値dpや評価値DFDを精度よく求めることができ、これにより、割付候補ベクトルの中から、着目画素により確からしい動きベクトルを割り付けることができる。すなわち、ベクトル割付処理の精度が向上する。 Furthermore, when obtaining the evaluation value DFD and the luminance difference absolute value, etc., when a pixel value at a position below the pixel is necessary, the value is obtained by linear interpolation based on the distance to the four neighboring pixels at the position below the pixel. As a result, it is possible to perform processing with sub-pixel position accuracy, and more accurately obtain the luminance difference absolute value dp and the evaluation value DFD than the conventional method of rounding off the sub-pixel components. From the allocation candidate vectors, it is possible to allocate a more probable motion vector by the pixel of interest. That is, the accuracy of vector allocation processing is improved.
また、0ベクトルによる評価値DFDを初期値として、DFDテーブルに予め保持しておき、動きベクトルを順次処理している間に、ある動きベクトルによる評価値DFDがその時点で最小評価値となった場合に、DFDテーブルの最小評価値と、割付ベクトルメモリ55に割り付けられている動きベクトルを、随時更新するようにしたので、時間とリソースを効率的に使用することができる。
In addition, the evaluation value DFD based on the 0 vector is stored as an initial value in the DFD table in advance, and while the motion vector is sequentially processed, the evaluation value DFD based on a certain motion vector becomes the minimum evaluation value at that time. In this case, since the minimum evaluation value of the DFD table and the motion vector allocated to the
次に、割付補償部57の構成の詳細について説明する。
Next, details of the configuration of the
図47は、割付補償部57の構成を示すブロック図である。図47に構成を示す割付補償部57は、ベクトル補償部1001、評価値演算部1002、補償候補ベクトルメモリ1003、および同一ベクトル判定部1004により構成され、ベクトル割付部54により動きベクトルが割り付けられなかった60P信号の内挿フレーム上の画素に、その周辺画素の動きベクトルを補って割り付ける処理を行う。
FIG. 47 is a block diagram showing a configuration of the
前段のベクトル割付部54により、割付ベクトルメモリ55上の内挿フレームの画素には動きベクトルが割り付けられている。また、ベクトル割付部54により動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグには、1(True)が書き込まれており、動きベクトルが割り付けられなかった画素の割付フラグメモリ56の割付フラグには、0(False)が書き込まれている。
The motion vector is assigned to the pixel of the interpolation frame on the assigned
ベクトル補償部1001は、フレーム(画面)上の座標(x,y)を基に、処理の対象となるフレーム(内挿フレーム)から、動きベクトルを補って割り付ける処理の単位となる補償処理対象ブロックを選択する。補償処理対象ブロックは、注目ブロックの一例であり、注目画素である、複数の画素を含む。ここで、xは、フレーム(画面)上の水平方向の位置を示し、yは、フレーム(画面)上の垂直方向の位置を示す。
The
ベクトル補償部1001は、処理の対象となるフレームから補償処理対象ブロックを順に選択することにより、フレームの画素の内、動きベクトルが割り付けられていない全ての画素について、動きベクトルを補って割り付ける。
The
例えば、ベクトル補償部1001は、処理の対象となるフレームから、ラスタスキャン順に補償処理対象ブロックを選択する。
For example, the
また、ベクトル補償部1001は、割付フラグメモリ56の割付フラグを基に、選択した補償処理対象ブロック内に、動きベクトルが割り付けられていない注目画素があるか否かを判断する。選択した補償処理対象ブロック内に、動きベクトルが割り付けられていない注目画素がないと判断された場合には、補償処理対象ブロックに属する注目画素に動きベクトルを割り付ける必要がないので、ベクトル補償部1001は、その補償処理対象ブロックについて、動きベクトルを割り付ける処理を実行しないで(処理をスキップして)、次の補償処理対象ブロックを選択する。
Further, the
選択した補償処理対象ブロック内に、動きベクトルが割り付けられていない注目画素があると判断された場合には、補償処理対象ブロックに属する注目画素に動きベクトルを割り付ける必要があるので、ベクトル補償部1001は、その補償処理対象ブロックに対して動きベクトルの割り付ける処理を実行する。
When it is determined that there is a target pixel to which no motion vector is assigned in the selected compensation processing target block, it is necessary to assign a motion vector to the target pixel belonging to the compensation processing target block, and thus the
その補償処理対象ブロックに対して動きベクトルの割り付ける処理を実行する場合、ベクトル補償部1001は、さらに、補償処理対象ブロックの周辺の画素であって、補償処理対象ブロックに隣接する画素である隣接画素からなる候補ベクトル選択領域を決定する。
When executing a motion vector allocation process for the compensation processing target block, the
ベクトル補償部1001は、補償処理対象ブロックに含まれる注目画素および隣接画素のそれぞれに、優先順位を付する。この優先順位は、補償処理対象ブロックにおける注目画素の位置、補償処理対象ブロックに対する隣接画素の位置、および注目画素および隣接画素の相互の位置関係を基に、注目画素および隣接画素のそれぞれに付される。
The
例えば、ベクトル補償部1001は、ラスタスキャン順を基に、注目画素および隣接画素のそれぞれに、優先順位を付する。より具体的には、例えば、ベクトル補償部1001は、隣接画素に比較して注目画素が優先する優先順位であって、注目画素のラスタスキャン順に対応する優先順位を注目画素に付して、隣接画素のラスタスキャン順に対応する優先順位を隣接画素に付する。
For example, the
ベクトル補償部1001は、評価値演算部1002に、評価値の演算を指示する。この場合、まず、ベクトル補償部1001は、評価値演算部1002に、0ベクトル(x方向の成分vxが0であって、y方向の成分vyが0であるベクトル(静止ベクトル))について、評価値の演算を指示する。
The
次に、ベクトル補償部1001は、優先順位の順に、評価値演算部1002に、動きベクトルが割り付けられている注目画素および隣接画素について、評価値の演算を指示する。この場合、ベクトル補償部1001は、割付フラグメモリ56の割付フラグを基に、注目画素および隣接画素について、動きベクトルが割り付けられているか否かを判断し、動きベクトルが割り付けられていると判断された場合、その注目画素および隣接画素について、評価値の演算を指示する。
Next, the
詳細は後述するが、評価値演算部1002により演算される評価値は、入力画像のフレームtにおける動きベクトルの始点を中心とした所定のブロック(領域)に属する画素の画素値と、入力画像のフレームt+1におけるその動きベクトルの終点を中心とした所定のブロック(領域)に属する画素の画素値との相関を示す。 Although details will be described later, the evaluation value calculated by the evaluation value calculation unit 1002 is the pixel value of a pixel belonging to a predetermined block (region) centered on the start point of the motion vector in the frame t of the input image, and the input image A correlation with a pixel value of a pixel belonging to a predetermined block (area) around the end point of the motion vector in the frame t + 1 is shown.
評価値演算部1002に、所定の動きベクトルについて評価値の演算を指示すると、評価値演算部1002から演算の結果である評価値およびその動きベクトルが供給されてくるので、ベクトル補償部1001は、評価値を基に、動きベクトルが割り付けられていない注目画素に動きベクトルを割り付ける。すなわち、例えば、ベクトル補償部1001は、0ベクトルまたは注目画素若しくは隣接画素に割り付けられている動きベクトルのうち、評価値演算部1002から供給された評価値のうち、最も強い相関を示す評価値に対応する動きベクトルを、補償する動きベクトルとして選択する。そして、ベクトル補償部1001は、動きベクトルが割り付けられていない注目画素に、補償する動きベクトルを割り付ける。
When the evaluation value calculation unit 1002 is instructed to calculate an evaluation value for a predetermined motion vector, the evaluation value and the motion vector as a result of the calculation are supplied from the evaluation value calculation unit 1002, so that the
換言すれば、ベクトル補償部1001は、注目画素または隣接画素に割り付けられている動きベクトルのうち、入力画像のフレームtにおける始点の画素の画素値と、入力画像のフレームt+1における終点の画素の画素値との相関が最も強い動きベクトルを、動きベクトルが割り付けられていない注目画素に割り付ける。
In other words, the
なお、ベクトル補償部1001は、所定の数の動きベクトルについて評価値が算出された場合、または全ての注目画素または隣接画素について評価値が算出された場合、算出された評価値のうち、最も強い相関を示す評価値に対応する動きベクトルを、補償する動きベクトルとして選択するようにしてもよい。
Note that the
評価値演算部1002は、ベクトル補償部1001の演算の指示を受けて、後述するように、対象となる動きベクトルを同一ベクトル判定部1004から取得して、入力画像のフレームt+1およびフレームtを基に、動きベクトルに対する評価値を演算する。例えば、評価値演算部1002は、ベクトル補償部1001の制御の基に、入力画像のフレームtにおける動きベクトルの始点を中心とした所定のブロックに属する画素の画素値と、入力画像のフレームt+1におけるその動きベクトルの終点を中心とした所定のブロックに属する画素の画素値との差分絶対値和である評価値を演算する。
In response to the calculation instruction of the
なお、評価値は、相関を示すものであれば足り、例えば、分散または差分自乗和などであってもよい。 Note that the evaluation value is sufficient if it indicates a correlation, and may be, for example, a variance or a sum of squared differences.
より詳細には、例えば、評価値演算部1002は、フレームt上の動きベクトルの始点、すなわち、評価値を演算する注目画素または隣接画素を中心としたブロックに属する画素の画素値と、その動きベクトルのフレームt+1の終点を中心としたブロックに属する画素の画素値との相関を示す評価値を演算する。 More specifically, for example, the evaluation value calculation unit 1002 calculates the start point of the motion vector on the frame t, that is, the pixel value of the pixel belonging to the block centered on the target pixel or the adjacent pixel for calculating the evaluation value, and the motion An evaluation value indicating a correlation with a pixel value of a pixel belonging to a block centering on the end point of the vector frame t + 1 is calculated.
また、例えば、評価値演算部1002は、動きベクトルの始点をフレームtとし、動きベクトルの終点をフレームt+1とした場合、動きベクトルと処理の対象となるフレーム(内挿フレーム)とが交差する点が補償処理対象ブロック内の点となるように動きベクトルを移動させ、その位置における動きベクトルのフレームtの始点を中心としたブロックに属する画素の画素値と、その位置における動きベクトルのフレームt+1の終点を中心としたブロックに属する画素の画素値との相関を示す評価値を演算する。さらに、動きベクトルと内挿フレームとが交差する点が補償処理対象ブロック内の点となるように動きベクトルを移動させる場合、例えば、その移動後の交差する点は、最も優先順位の高い注目画素の位置、または、補償処理対象ブロックの中心とすることができる。
Further, for example, the evaluation value calculation unit 1002 has a point where the motion vector and the frame to be processed (interpolated frame) intersect when the start point of the motion vector is the frame t and the end point of the motion vector is the
評価値演算部1002は、演算した評価値を、その動きベクトルと共にベクトル補償部1001に供給する。また、評価値演算部1002は、評価値を演算した動きベクトルを、補償候補ベクトルとして、補償候補ベクトルメモリ1003に供給する。
The evaluation value calculation unit 1002 supplies the calculated evaluation value to the
補償候補ベクトルメモリ1003は、評価値演算部1002から供給された補償候補ベクトルを記憶する。例えば、補償候補ベクトルメモリ1003は、補償候補ベクトルが評価値演算部1002から供給された順番に対応させて、評価値が演算された動きベクトルである補償候補ベクトルの大きさと向きとを記憶する。補償候補ベクトルメモリ1003は、記憶している補償候補ベクトルを同一ベクトル判定部1004に供給する。
The compensation
同一ベクトル判定部1004は、ベクトル補償部1001の制御に基づいて、次に評価値を演算しようとする、隣接画素または注目画素に割り付けられている動きベクトルの向きおよび大きさが、補償候補ベクトルメモリ1003に記憶されている補償候補ベクトルの向きおよび大きさと同じであるか否かを判断する。例えば、同一ベクトル判定部1004は、ベクトル補償部1001の制御に基づいて、割付ベクトルメモリ55から、隣接画素または注目画素に割り付けられている動きベクトルを取得し、補償候補ベクトルメモリ1003から補償候補ベクトルを取得し、割り付けられている動きベクトルのx方向の成分およびy方向の成分のそれぞれが、補償候補ベクトルのx方向の成分およびy方向の成分のそれぞれと同じであるか否かを判断する。
Based on the control of the
同一ベクトル判定部1004は、動きベクトルの向きおよび大きさが、補償候補ベクトルのいずれの向きおよび大きさと同じでないと判断された場合、その動きベクトルについてこれまでと異なる評価値が演算されることが期待されるので、評価値演算部1002に評価値を演算させるために、その動きベクトルを評価値演算部1002に供給する。
When it is determined that the direction and magnitude of the motion vector are not the same as any direction and magnitude of the compensation candidate vector, the same
同一ベクトル判定部1004は、動きベクトルの向きおよび大きさが、補償候補ベクトルのいずれかの向きおよび大きさと同じであると判断された場合、同じ動きベクトルについて評価値を演算する必要はなく、評価値演算部1002における評価値の演算を抑制するために、その動きベクトルを評価値演算部1002に供給しない。
When it is determined that the direction and magnitude of the motion vector are the same as any direction and magnitude of the compensation candidate vector, the same
すなわち、評価値を演算しようとする動きベクトルの向きおよび大きさが、補償候補ベクトルのいずれかの向きおよび大きさと同じである場合、その動きベクトルについての評価値の演算がスキップされるので、評価値を演算するための演算量をより少なくすることができる。 That is, if the direction and magnitude of a motion vector for which an evaluation value is to be calculated is the same as any one of the compensation candidate vectors, the evaluation value calculation for that motion vector is skipped. The amount of calculation for calculating the value can be further reduced.
図48は、注目画素および隣接画素のそれぞれに付される優先順位の例を示す図である。図48で示される例において、補償処理対象ブロック1021は、2×2の4つの注目画素を含む。図48で示される例において、隣接画素領域1022は、補償処理対象ブロック1021の周辺の画素であって、補償処理対象ブロック1021に隣接して配置されている画素である、12の隣接画素を含む。補償処理対象ブロック1021または隣接画素領域1022に含まれる4つの注目画素および12の隣接画素に割り付けられている動きベクトルについて、評価値が演算される。
FIG. 48 is a diagram illustrating an example of priorities assigned to each of the target pixel and adjacent pixels. In the example shown in FIG. 48, the compensation
隣接画素に比較して優先する優先順位が注目画素に付される。すなわち、図48で示される例において、”1”乃至”4”のいずれかの優先順位が注目画素のそれぞれに付され、”5”乃至”16”のいずれかの優先順位が隣接画素のそれぞれに付されている。 A priority order that is prioritized over adjacent pixels is assigned to the pixel of interest. That is, in the example shown in FIG. 48, any one of the priorities “1” to “4” is assigned to each pixel of interest, and any one of the priorities “5” to “16” is assigned to each of the adjacent pixels. It is attached to.
図48で示される例において、補償処理対象ブロック1021の左上の注目画素に”1”である優先順位が付され、補償処理対象ブロック1021の右上の注目画素に”2”である優先順位が付され、補償処理対象ブロック1021の左下の注目画素に”3”である優先順位が付され、補償処理対象ブロック1021の右下の注目画素に”4”である優先順位が付されている。すなわち、補償処理対象ブロック1021における注目画素のラスタスキャン順に対応する優先順位が、注目画素に付される。
In the example shown in FIG. 48, the priority order “1” is assigned to the pixel of interest on the upper left of the compensation
図48で示される例において、隣接画素領域1022の左上の隣接画素に”5”である優先順位が付され、隣接画素領域1022の上から1番目の行の左から2番目の隣接画素に”6”である優先順位が付され、隣接画素領域1022の上から1番目の行の左から3番目の隣接画素に”7”である優先順位が付され、隣接画素領域1022の右上の隣接画素に”8”である優先順位が付されている。
In the example shown in FIG. 48, the priority order “5” is assigned to the upper left adjacent pixel in the
図48で示される例において、隣接画素領域1022の上から2番目の行の左側の隣接画素に”9”である優先順位が付され、隣接画素領域1022の上から2番目の行の右側の隣接画素に”10”である優先順位が付されている。図48で示される例において、隣接画素領域1022の上から3番目の行の左側の隣接画素に”11”である優先順位が付され、隣接画素領域1022の上から3番目の行の右側の隣接画素に”12”である優先順位が付されている。
In the example shown in FIG. 48, the priority order “9” is assigned to the left side adjacent pixel in the second row from the top of the
さらに、図48で示される例において、隣接画素領域1022の左下の隣接画素に”13”である優先順位が付され、隣接画素領域1022の下から1番目の行の左から2番目の隣接画素に”14”である優先順位が付され、隣接画素領域1022の下から1番目の行の左から3番目の隣接画素に”15”である優先順位が付され、隣接画素領域1022の右下の隣接画素に”16”である優先順位が付されている。
Further, in the example shown in FIG. 48, the priority order “13” is given to the lower left adjacent pixel in the
すなわち、隣接画素領域1022における隣接画素のラスタスキャン順に対応する優先順位が、隣接画素に付される。
That is, the priority order corresponding to the raster scan order of the adjacent pixels in the
換言すれば、補償処理対象ブロック1021および隣接画素領域1022毎に、フレーム上の補償処理対象ブロック1021が選択される並び(順序)に対応する並び(順序)で、補償処理対象ブロック1021における注目画素の優先順位が付され、隣接画素領域1022における隣接画素の優先順位が付される。
In other words, for each compensation
図48の演算領域1023は、評価値演算部1002が、フレームt上の動きベクトルの始点、すなわち、評価値を演算する注目画素または隣接画素を中心としたブロックに属する画素の画素値と、その動きベクトルのフレームt+1の終点を中心としたブロックに属する画素の画素値との相関を示す評価値を演算する場合の、評価値の演算の対象となる、注目画素または隣接画素を中心としたブロックに属する画素の範囲を示す。
In the
例えば、評価値演算部1002は、フレームt上の動きベクトルの始点である注目画素または隣接画素を中心とした、5×5画素のブロックに属する画素の画素値と、その動きベクトルのフレームt+1の終点を中心とした、5×5画素のブロックに属する画素の画素値との相関を示す評価値を演算する。 For example, the evaluation value calculation unit 1002 calculates the pixel value of a pixel belonging to a block of 5 × 5 pixels centered on the pixel of interest or the neighboring pixel that is the starting point of the motion vector on the frame t, and the frame t + 1 of the motion vector. An evaluation value indicating a correlation with a pixel value of a pixel belonging to a 5 × 5 pixel block centering on the end point is calculated.
この場合、隣接画素領域1022の左上の隣接画素に対して2行上側であって2列左側の画素が評価値の演算の対象となり、隣接画素領域1022の右上の隣接画素に対して2行上側であって2列右側の画素が評価値の演算の対象となり、隣接画素領域1022の左下の隣接画素に対して2行下側であって2列左側の画素が評価値の演算の対象となり、隣接画素領域1022の右下の隣接画素に対して2行下側であって2列右側の画素が評価値の演算の対象となるので、図48で示されるように、演算領域1023は、補償処理対象ブロック1021を中心とした8×8画素の領域となる。
In this case, the pixel located two rows above the upper left adjacent pixel in the
補償処理対象ブロック1021がラスタスキャン順に選択される場合、選択されている補償処理対象ブロック1021の上側の行の画素または左側の画素には、ベクトル割付部54および割付補償部57のいずれか一方によって動きベクトルが必ず割り付けられている。
When the compensation
すなわち、補償処理対象ブロック1021がラスタスキャン順に選択される場合、割付補償部57は、フレーム上の左側から右側に向かう順であって、フレーム上の上側から下側に向かう順に、画素に動きベクトルを割り付けるので、今、選択されている補償処理対象ブロック1021の上側の行(いわゆる、画面上のライン)の画素は、それ以前に補償処理対象ブロック1021として選択されて、割付補償部57により、動きベクトルが割り付けられる。同様に、今、選択されている補償処理対象ブロック1021の左側の画素は、それ以前の補償処理対象ブロック1021として選択されて、割付補償部57により、動きベクトルが割り付けられる。
That is, when the compensation
例えば、図49で示されるように、補償処理対象ブロック1021が2×2画素のブロックである場合、領域1041に属する、選択されている補償処理対象ブロック1021の上側の行の4つの画素(隣接画素)、および選択されている補償処理対象ブロック1021の左側の2つの画素(隣接画素)について、動きベクトルが必ず割り付けられている。
For example, as shown in FIG. 49, when the compensation
逆に、図49で示されるように、補償処理対象ブロック1021が2×2画素のブロックである場合、領域1042に属する、選択されている補償処理対象ブロック1021の下側の行の4つの画素について、動きベクトルが割り付けられているとは限らない。同様に、選択されている補償処理対象ブロック1021の右側の2つの画素について、動きベクトルが割り付けられているとは限らない。
On the other hand, as shown in FIG. 49, when the compensation
なお、ベクトル割付部54によって動きベクトルが割り付けられていない注目画素が補償処理対象ブロック1021に含まれる場合、画像の空間相関が高いので、その補償処理対象ブロック1021の他の注目画素の動きベクトルが、その注目画素に割り付けられることが多い。
Note that when a pixel of interest to which no motion vector has been assigned by the
また、補償処理対象ブロック1021が2×2画素のブロックであるとして説明したが、補償処理対象ブロック1021は、2×2画素のブロックとは限らず、所望の数の画素からなるブロックとすることができる。
Further, although the compensation
図50は、評価値の演算のスキップを説明する図である。図50において、丸は、注目画素または隣接画素である1つの画素を示す。 FIG. 50 is a diagram for explaining the skip of evaluation value calculation. In FIG. 50, a circle indicates one pixel that is a target pixel or an adjacent pixel.
図50中の丸に付された矢印は、その注目画素または隣接画素に割り付けられた動きベクトルを示す。例えば、図中のaで示される2つの動きベクトルは、その大きさおよび向きを共通にしている。また、図中のbで示される2つの動きベクトルは、その大きさおよび向きを共通にしている。さらに、図中のcで示される2つの動きベクトルは、その大きさおよび向きを共通にしている。 An arrow attached to a circle in FIG. 50 indicates a motion vector assigned to the target pixel or an adjacent pixel. For example, two motion vectors indicated by a in the figure have the same size and orientation. The two motion vectors indicated by b in the figure have the same size and direction. Further, the two motion vectors indicated by c in the figure have the same size and orientation.
従って、図50で示される例において、注目画素または隣接画素に割り付けられた動きベクトルは、11存在しているが、他の動きベクトルと大きさおよび向きを共通にする動きベクトルが、6つ存在しているので、他の動きベクトルと大きさおよび向きを共通にする6つの動きベクトルのうち、3つの動きベクトルについては、評価値の演算がスキップされる。従って、このような場合、8つの動きベクトルに対して評価値が演算される。 Therefore, in the example shown in FIG. 50, there are 11 motion vectors assigned to the target pixel or adjacent pixels, but there are 6 motion vectors having the same size and orientation as other motion vectors. Therefore, among the six motion vectors having the same size and orientation as other motion vectors, the calculation of the evaluation value is skipped for three motion vectors. Therefore, in such a case, evaluation values are calculated for the eight motion vectors.
例えば、図50で示される注目画素または隣接画素に、図48で示される優先順位と同じ優先順位が付された場合、右上の隣接画素(優先順位が8である隣接画素)に割り付けられた動きベクトルの大きさおよび向きが、1番上の行の左側から2番目の隣接画素(優先順位が6である隣接画素)に割り付けられた動きベクトルの大きさおよび向きと共通するので、右上の隣接画素に割り付けられた動きベクトルについては、評価値の演算がスキップされる。 For example, when the same priority order as the priority order shown in FIG. 48 is given to the target pixel or the adjacent pixel shown in FIG. 50, the motion assigned to the upper right adjacent pixel (adjacent pixel having a priority order of 8). Since the magnitude and direction of the vector are the same as the magnitude and direction of the motion vector assigned to the second adjacent pixel (adjacent pixel with priority 6) from the left side of the top row, the upper right adjacent For the motion vector assigned to the pixel, the calculation of the evaluation value is skipped.
同様に、図50で示される注目画素または隣接画素に、図48で示される優先順位と同じ優先順位が付された場合、上から2番の行の左側の隣接画素(優先順位が9である隣接画素)に割り付けられた動きベクトルの大きさおよび向きが、左上の隣接画素(優先順位が5である隣接画素)に割り付けられた動きベクトルの大きさおよび向きと共通するので、上から2番の行の左側の隣接画素に割り付けられた動きベクトルについては、評価値の演算がスキップされる。 Similarly, when the same priority order as the priority order shown in FIG. 48 is given to the target pixel or the adjacent pixel shown in FIG. 50, the left side adjacent pixel (priority order is 9) from the top row Since the magnitude and direction of the motion vector assigned to the (adjacent pixel) are the same as the magnitude and orientation of the motion vector assigned to the upper left adjacent pixel (adjacent pixel with priority 5), the second from the top The calculation of the evaluation value is skipped for the motion vector assigned to the adjacent pixel on the left side of the row.
さらに、図50で示される注目画素または隣接画素に、図48で示される優先順位と同じ優先順位が付された場合、右下の隣接画素(優先順位が16である隣接画素)に割り付けられた動きベクトルの大きさおよび向きが、上から3番の行の右側の隣接画素(優先順位が12である隣接画素)に割り付けられた動きベクトルの大きさおよび向きと共通するので、右下の隣接画素に割り付けられた動きベクトルについては、評価値の演算がスキップされる。 Furthermore, when the same priority order as the priority order shown in FIG. 48 is given to the target pixel or the adjacent pixel shown in FIG. 50, it is assigned to the lower right adjacent pixel (adjacent pixel having a priority order of 16). Since the magnitude and direction of the motion vector is the same as the magnitude and direction of the motion vector assigned to the right adjacent pixel (adjacent pixel having a priority of 12) in the third row from the top, the lower right adjacent For the motion vector assigned to the pixel, the calculation of the evaluation value is skipped.
このように、既に評価値が演算された動きベクトルに対し、その大きさおよび向きが共通する動きベクトルについては、評価値の演算がスキップされるので、演算量をより少なくすることができる。 As described above, since the calculation of the evaluation value is skipped for the motion vector having the same size and orientation with respect to the motion vector for which the evaluation value has already been calculated, the amount of calculation can be further reduced.
なお、動きベクトルの大きさおよび向きが共通すること、すなわち、動きベクトルの大きさが同じであって、向きが同じであることを、動きベクトルが同じとも称する。 Note that the motion vectors having the same magnitude and orientation, that is, the motion vectors having the same magnitude and the same orientation are also referred to as the same motion vectors.
次に、本出願人が行った実験の結果について説明する。 Next, the results of experiments conducted by the applicant will be described.
図51乃至図53は、図48で示される補償処理対象ブロック1021および優先順位を採用した場合における実験の結果を示す図である。
51 to 53 are diagrams showing results of experiments in the case where the compensation
図51は、優先順位毎に、動きベクトルが割り付けられている注目画素または隣接画素が出現する頻度の例を示す図である。図49を参照して説明したように、選択されている補償処理対象ブロック1021の上側の行の4つの画素(優先順位が5乃至8のいずれかである隣接画素)、および選択されている補償処理対象ブロック1021の左側の2つの画素(優先順位が9または11である隣接画素)について、動きベクトルが割り付けられているので、優先順位が5乃至8のいずれか、または9若しくは11である隣接画素は、動きベクトルが割り付けられている画素として出現する。 FIG. 51 is a diagram illustrating an example of the frequency of appearance of a target pixel or an adjacent pixel to which a motion vector is assigned for each priority. As described with reference to FIG. 49, the four pixels (adjacent pixels having a priority level of 5 to 8) in the upper row of the selected block to be compensated 1021 and the selected compensation Since motion vectors are assigned to the two pixels on the left side of the processing target block 1021 (adjacent pixels having a priority of 9 or 11), the adjacent ones having a priority of 5 to 8, or 9 or 11 A pixel appears as a pixel to which a motion vector is assigned.
図52は、優先順位毎に、他の動きベクトルと異なる大きさまたは向きの動きベクトルが割り付けられている注目画素または隣接画素が出現する頻度の例を示す図である。優先順位が2である注目画素、および優先順位が5である隣接画素について、他の動きベクトルと異なる大きさまたは向きの動きベクトルが割り付けられている頻度が高いと言える。 FIG. 52 is a diagram illustrating an example of the frequency of appearance of a target pixel or an adjacent pixel to which a motion vector having a magnitude or direction different from that of another motion vector is assigned for each priority. It can be said that the pixel of interest having a priority of 2 and the adjacent pixel having a priority of 5 are frequently assigned motion vectors having a magnitude or direction different from those of other motion vectors.
図53は、優先順位毎に、動きベクトルが割り付けられていない注目画素に、割り付けられる動きベクトルが出現する頻度の例を示す図である。すなわち、図53は、優先順位毎に、補償に利用される動きベクトルが割り付けられている注目画素または隣接画素が出現する頻度を示す図である。画像の空間相関が高いという性質から、補償処理対象ブロック1021に属する4つの注目画素には、大きさおよび向きが共通する動きベクトルが割り付けられている場合が多いので、優先順位が1である注目画素に割り付けられている動きベクトルが補償に利用される頻度が高い。また、優先順位が5である隣接画素に割り付けられている動きベクトルが補償に利用される頻度が高い。
FIG. 53 is a diagram illustrating an example of a frequency at which a motion vector to be assigned appears in a target pixel to which no motion vector is assigned for each priority. That is, FIG. 53 is a diagram illustrating the frequency of occurrence of a pixel of interest or an adjacent pixel to which a motion vector used for compensation is assigned for each priority. Due to the high spatial correlation of the image, the four target pixels belonging to the compensation
次に、図54および図55のフローチャートを参照して、図6のステップS4の処理に対応する、割付補償部57における割付補償処理を説明する。
Next, the allocation compensation processing in the
なお、以下、補償処理対象ブロック1021が2×2画素からなる場合を例に、割付補償処理を説明する。
In the following, the allocation compensation processing will be described by taking as an example the case where the compensation
ステップS1001において、ベクトル補償部1001は、補償処理対象ブロック1021を選択するための座標(x,y)に、初期値として(0,0)を設定する。ステップS1002において、ベクトル補償部1001は、設定された座標(x,y)を基に、処理の対象となるフレームの補償処理対象ブロック1021を決定する。ステップS1003において、ベクトル補償部1001は、補償候補ベクトルメモリ1003、補償候補ベクトル数、優先度、および最小評価値に初期値を設定する。
In step S1001, the
ここで、補償候補ベクトル数は、評価値を算出した動きベクトルの数を示す。優先度は、注目画素および隣接画素に付されている優先順位から、評価値を算出の対象となる注目画素および隣接画素を特定するための値である。最小評価値は、演算された評価値のうち、最も強い相関を示す評価値であり、評価値として差分絶対値和である評価値DFDを採用する場合、演算された評価値DFDのうち、最小の評価値DFDである。 Here, the number of compensation candidate vectors indicates the number of motion vectors for which evaluation values are calculated. The priority is a value for specifying the target pixel and the adjacent pixel whose evaluation values are to be calculated from the priority order assigned to the target pixel and the adjacent pixel. The minimum evaluation value is an evaluation value that shows the strongest correlation among the calculated evaluation values. When the evaluation value DFD that is the sum of absolute differences is adopted as the evaluation value, the minimum evaluation value is the smallest of the calculated evaluation values DFD. This is the evaluation value DFD.
例えば、ステップS1003において、ベクトル補償部1001は、補償候補ベクトルメモリ1003をクリアし、補償候補ベクトル数に0を設定し、優先度に1を設定し、最小評価値に設定可能な上限値を設定することにより、補償候補ベクトルメモリ1003、補償候補ベクトル数、優先度、最小評価値に初期値を設定する。
For example, in step S1003, the
ステップS1004において、ベクトル補償部1001は、割付フラグメモリ56の割付フラグを基に、補償処理対象ブロック1021内に、動きベクトルが割り付けられていない注目画素があるか否かを判断し、動きベクトルが割り付けられていない注目画素があると判断された場合、その注目画素に動きベクトルを割り付けるために、ステップS1005に進み、評価値演算部1002に、0ベクトル(静止ベクトル)を基に、評価値DFD0を演算させる。
In step S1004, the
例えば、ステップS1005において、ベクトル補償部1001は、評価値演算部1002に、図48で示される”1”である優先順位が付された注目画素と交わる0ベクトル(静止ベクトル)を基に、評価値DFD0を演算させる。すなわち、この場合、評価値演算部1002は、フレームtにおける、”1”である優先順位が付された注目画素の位置に対応する位置の画素を中心とするブロックに属する画素の画素値と、フレームt+1における、”1”である優先順位が付された注目画素の位置に対応する位置の画素を中心とするブロックに属する画素の画素値との差分絶対値和である評価値を演算する。
For example, in step S1005, the
評価値演算部1002は、0ベクトルと共に演算した評価値DFD0をベクトル補償部1001に供給する。
The evaluation value calculation unit 1002 supplies the evaluation value DFD0 calculated together with the 0 vector to the
ステップS1006において、ベクトル補償部1001は、最小評価値に、評価値演算部1002から供給された評価値DFD0を設定する。ステップS1007において、ベクトル補償部1001は、内部的な変数である補償ベクトルに、0ベクトルを設定する。
In step S1006, the
ステップS1008において、ベクトル補償部1001は、優先度で示される優先順位の注目画素または隣接画素に対応する、割付フラグメモリ56の割付フラグが”True”であるか否かを判断する。ステップS1008において、優先度で示される優先順位の注目画素または隣接画素に対応する、割付フラグメモリ56の割付フラグが”True”であると判断された場合、優先度で示される優先順位の注目画素または隣接画素に動きベクトルが割り付けられているので、その動きベクトルについて評価値を演算するために、ステップS1009に進み、ベクトル補償部1001は、変数pに、初期値として0を設定する。変数pは、既に評価値が演算された動きベクトルである補償候補ベクトルの順番を示す変数である。
In step S <b> 1008, the
ステップS1010において、ベクトル補償部1001は、変数pが補償候補ベクトル数より大きいか否かを判断する。より正確には、ステップS1010において、ベクトル補償部1001は、補償候補ベクトル数が0でなく、かつ、変数pが補償候補ベクトル数より大きいか否かを判断する。
In step S1010, the
ステップS1010において、変数pが補償候補ベクトル数より大きくないと判断された場合、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルと同じであるかが比較されていない補償候補ベクトルがあるので、ステップS1011に進み、ベクトル補償部1001は、同一ベクトル判定部1004に、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルが、補償候補ベクトルメモリ1003に記憶されている補償候補ベクトルのうち、p番目の補償候補ベクトルと同じであるか否かを判断させる。
If it is determined in step S1010 that the variable p is not larger than the number of compensation candidate vectors, it is not compared whether the same motion vector is assigned to the target pixel or the adjacent pixel having the priority indicated by the priority. Since there is a compensation candidate vector, the process proceeds to step S1011. The
ステップS1011において、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルが、補償候補ベクトルメモリ1003に記憶されている補償候補ベクトルのうち、p番目の補償候補ベクトルと同じでないと判断された場合、ステップS1012に進み、ベクトル補償部1001は、変数pをインクリメントする。そして、手続きは、ステップS1010に戻り、全ての補償候補ベクトルと優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルとが比較されたか否かが判断されて、全ての補償候補ベクトルと優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルとが比較されていないと判断された場合、次の補償候補ベクトルと優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルとが比較される。
In step S1011, the motion vector assigned to the target pixel or adjacent pixel having the priority indicated by the priority is the same as the p-th compensation candidate vector among the compensation candidate vectors stored in the compensation
このように、ステップS1009乃至ステップS1012において、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルが、補償候補ベクトルのいずれかと同じであるか否かが判断される。 In this way, in Steps S1009 to S1012, it is determined whether or not the motion vector assigned to the target pixel or the adjacent pixel having the priority indicated by the priority is the same as one of the compensation candidate vectors.
ステップS1010において、変数pが補償候補ベクトル数より大きいと判断された場合、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルが、補償候補ベクトルのいずれとも同じでないので、ステップS1013に進み、同一ベクトル判定部1004は、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルを評価値演算部1002に供給して、ベクトル補償部1001は、評価値演算部1002に、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルを基に、評価値の一例である評価値DFDを演算させる。
If it is determined in step S1010 that the variable p is larger than the number of compensation candidate vectors, the motion vector assigned to the target pixel or the adjacent pixel having the priority indicated by the priority is not the same as any of the compensation candidate vectors. In step S1013, the same
例えば、ステップS1013において、フレームt上の動きベクトルの始点、すなわち、評価値を演算する注目画素または隣接画素を中心としたブロックに属する画素の画素値と、その動きベクトルのフレームt+1の終点を中心としたブロックに属する画素の画素値との相関を示す評価値が演算される。また、例えば、動きベクトルと処理の対象となるフレーム(内挿フレーム)とが交差する点が補償処理対象ブロック内の点となるように動きベクトルが移動され、その位置における動きベクトルのフレームtの始点を中心としたブロックに属する画素の画素値と、その位置における動きベクトルのフレームt+1の終点を中心としたブロックに属する画素の画素値との相関を示す評価値が演算される。 For example, in step S1013, the start point of the motion vector on the frame t, that is, the pixel value of the pixel belonging to the block centered on the target pixel or the adjacent pixel for calculating the evaluation value, and the end point of the frame t + 1 of the motion vector are centered. An evaluation value indicating a correlation with the pixel values of the pixels belonging to the block is calculated. Also, for example, the motion vector is moved so that the point where the motion vector and the frame to be processed (interpolated frame) intersect becomes a point in the compensation processing target block, and the motion vector frame t at that position is moved. An evaluation value indicating a correlation between the pixel value of the pixel belonging to the block centered on the start point and the pixel value of the pixel belonging to the block centered on the end point of the motion vector frame t + 1 at the position is calculated.
なお、評価値の演算において、動きベクトルの始点または終点が画素位置と一致しない場合、周辺4画素の輝度値による4点補間処理を用いるようにしてもよい。 In the calculation of the evaluation value, when the start point or the end point of the motion vector does not coincide with the pixel position, a four-point interpolation process using the luminance values of the surrounding four pixels may be used.
ステップS1013において、評価値演算部1002は、演算した評価値DFDと共に動きベクトルをベクトル補償部1001に供給する。そして、評価値演算部1002は、評価値を演算した動きベクトルである補償候補ベクトルを補償候補ベクトルメモリ1003に供給する。
In step S1013, the evaluation value calculation unit 1002 supplies a motion vector together with the calculated evaluation value DFD to the
ステップS1014において、補償候補ベクトルメモリ1003は、評価値演算部1002から供給された補償候補ベクトルを記憶する。すなわち、ステップS1014において、補償候補ベクトルメモリ1003は、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルを補償候補ベクトルとして記憶する。
In step S1014, the compensation
ステップS1015において、ベクトル補償部1001は、補償候補ベクトル数をインクリメントする。
In step S1015, the
ステップS1016において、ベクトル補償部1001は、ステップS1013の処理で演算した評価値DFDが最小評価値より小さいか否か、すなわち、ステップS1013の処理で演算した評価値で示される相関が最小評価値で示される相関より強いか否かを判断し、評価値DFDが最小評価値より小さいと判断された場合、すなわち、演算した評価値で示される相関が最小評価値で示される相関より強いと判断された場合、ステップS1017に進み、最小評価値に、演算した評価値DFDを設定する。
In step S1016, the
ステップS1017において、これまでに演算された評価値のうち、最も強い相関を示す評価値DFDが最小評価値に設定されることになる。 In step S1017, the evaluation value DFD showing the strongest correlation among the evaluation values calculated so far is set to the minimum evaluation value.
ステップS1018において、ベクトル補償部1001は、補償ベクトルに、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルを設定する。これにより、補償ベクトルには、これまでの評価値DFDのうち、相関が最も強いことを示す評価値DFDが演算された動きベクトルが設定される。
In step S1018, the
ステップS1019において、ベクトル補償部1001は、優先度をインクリメントする。ステップS1020において、ベクトル補償部1001は、優先度が16を超えたか、または、補償候補ベクトル数が予め定めた閾値を超えたか否かを判断する。
In step S1019, the
ステップS1020において、優先度が16以下で、かつ、補償候補ベクトル数が予め定めた閾値以下であると判断された場合、手続きは、ステップS1008に戻り、次の優先順位の注目画素または隣接画素に割り付けられている動きベクトルについて、上述した処理を繰り返す。 In step S1020, when it is determined that the priority is 16 or less and the number of compensation candidate vectors is less than or equal to a predetermined threshold, the procedure returns to step S1008, and the next priority pixel of interest or adjacent pixel is selected. The above-described processing is repeated for the assigned motion vector.
ステップS1020において、優先度が16を超えたか、または、補償候補ベクトル数が予め定めた閾値を超えたと判断された場合、全ての注目画素および隣接画素について、ステップS1008乃至ステップS1018の処理が実行されたか、閾値で定める所定の数の動きベクトルの中から、最も強い相関を示す評価値が得られた動きベクトルが補償ベクトルとして設定されたので、ステップS1021に進み、ベクトル補償部1001は、補償処理対象ブロック1021内の動きベクトルが割り付けられていない全ての注目画素に、補償ベクトルを割り付ける。例えば、ステップS1021において、ベクトル補償部1001は、割付ベクトルメモリ55に、補償ベクトルである動きベクトルを、内挿フレームの動きベクトルが割り付けられていない注目画素に対応させて記憶させる。より正確には、割付ベクトルメモリ55は、補償ベクトルの大きさおよび向きと同じ大きさおよび向きの動きベクトルを、内挿フレームの動きベクトルが割り付けられていない注目画素に対応させて記憶させる。
If it is determined in step S1020 that the priority has exceeded 16 or the number of compensation candidate vectors has exceeded a predetermined threshold, the processing of steps S1008 to S1018 is executed for all the target pixels and adjacent pixels. Since the motion vector from which the evaluation value indicating the strongest correlation is obtained is set as the compensation vector among the predetermined number of motion vectors determined by the threshold value, the process proceeds to step S1021, and the
補償候補ベクトル数と比較される閾値は、任意の値とすることができ、例えば、5とされる。 The threshold to be compared with the number of compensation candidate vectors can be an arbitrary value, for example, 5.
ステップS1022において、ベクトル補償部1001は、動きベクトルが割り付けられた画素に対応する、割付フラグメモリ56の割付フラグを”True”(例えば、”1”)に書き換える。
In step S1022, the
ステップS1023において、ベクトル補償部1001は、補償処理対象ブロック1021を選択するための座標(x,y)のxに2を加算する。これにより、次に選択される補償処理対象ブロック1021は、フレームの右方向に2画素移動することになる。
In step S1023, the
ステップS1024において、ベクトル補償部1001は、xが、フレームのx方向の画枠を超えたか否かを判断し、xが、フレームのx方向の画枠を超えていないと判断された場合、手続きは、ステップS1002に戻り、フレームにおいてさらに右側の補償処理対象ブロック1021について、上述した処理を繰り返す。
In step S1024, the
ステップS1024において、xが、フレームのx方向の画枠を超えたと判断された場合、その位置には画素がないので、フレームの左側であって、さらに下側の画素を補償処理対象ブロック1021として次に選択するために、ステップS1025に進み、ベクトル補償部1001は、補償処理対象ブロック1021を選択するための座標(x,y)のxに0を設定し、yに2を加算する。
If it is determined in step S1024 that x exceeds the image frame in the x direction of the frame, since there is no pixel at that position, the pixel on the left side of the frame and further below is set as the compensation
ステップS1026において、ベクトル補償部1001は、yが、フレームのy方向の画枠を超えたか否かを判断し、yが、フレームのy方向の画枠を超えていないと判断された場合、手続きは、ステップS1002に戻り、フレームの左側であって、さらに下側の補償処理対象ブロック1021について、上述した処理を繰り返す。
In step S1026, the
すなわち、ステップS1023乃至ステップS1026の処理により、補償処理対象ブロック1021は、ラスタスキャン順に選択されることになる。
In other words, the compensation
ステップS1026において、yが、フレームのy方向の画枠を超えたと判断された場合、フレームの全ての画素について、割付補償処理が実行されたので、処理は終了する。 If it is determined in step S1026 that y has exceeded the image frame in the y direction of the frame, since the allocation compensation processing has been executed for all the pixels of the frame, the processing ends.
ステップS1004において、補償処理対象ブロック1021内に、動きベクトルが割り付けられていない注目画素がないと判断された場合、その補償処理対象ブロック1021について、動きベクトルを割り付ける処理を実行する必要がないので、ステップS1023に進み、次の補償処理対象ブロック1021について、上述した処理を繰り返す。
In step S1004, when it is determined that there is no pixel of interest in which no motion vector is assigned in the compensation
ステップS1008において、優先度で示される優先順位の注目画素または隣接画素に対応する、割付フラグメモリ56の割付フラグが”True”でないと判断された場合、その注目画素または隣接画素には、動きベクトルが割り付けられていないので、ステップS1019に進み、次の注目画素または隣接画素について、割り付けられている動きベクトルの評価値を演算する処理を実行する。
If it is determined in step S1008 that the allocation flag of the
ステップS1011において、優先度で示される優先順位の注目画素または隣接画素に割り付けられている動きベクトルが、補償候補ベクトルメモリ1003に記憶されている補償候補ベクトルのうち、p番目の補償候補ベクトルと同じであると判断された場合、すでに評価値が演算されている動きベクトルと同じ動きベクトルについて評価値を算出する必要はないので、ステップS1019に進み、次の注目画素または隣接画素について、割り付けられている動きベクトルの評価値を演算する処理を実行する。
In step S1011, the motion vector assigned to the target pixel or adjacent pixel having the priority indicated by the priority is the same as the p-th compensation candidate vector among the compensation candidate vectors stored in the compensation
ステップS1016において、演算された評価値DFDが最小評価値より小さくないと判断された場合、その動きベクトルより強い相関を示す評価値が演算された他の動きベクトルがあるので、ステップS1017およびステップS1018の処理はスキップされて、ステップS1019に進み、次の注目画素または隣接画素について、割り付けられている動きベクトルの評価値を演算する処理を実行する。 If it is determined in step S1016 that the calculated evaluation value DFD is not smaller than the minimum evaluation value, there are other motion vectors for which an evaluation value indicating a stronger correlation than the motion vector is calculated, so steps S1017 and S1018 are used. This process is skipped, and the process proceeds to step S1019 to execute the process of calculating the evaluation value of the allocated motion vector for the next target pixel or adjacent pixel.
このように、割付補償部57は、ベクトル割付部54により動きベクトルが割り付けられなかった画素に対して、より少ない演算量で、最も正確であると予測される動きベクトルを割り付けることができる。すなわち、割付補償部57は、ベクトル割付部54により動きベクトルが割り付けられなかった画素に対して、内挿フレームの画素値を生成する場合に、画素値を生成において、より破綻の少ない動きベクトルを割り付けることができる。
In this way, the
本発明によれば、より少ない演算量で、最も正確であると予測される動きベクトルを割り付けることができるので、その結果、より小さな回路規模で、より低速な回路を用いたハードウェアにより処理が可能になる。 According to the present invention, it is possible to allocate the motion vector predicted to be the most accurate with a small amount of calculation, and as a result, the processing is performed by hardware using a smaller circuit scale and a slower circuit. It becomes possible.
以上のように、動きベクトルが示す位置の画素の相関を示す評価値を求めて、評価値を基に、動きベクトルを選択して、動きベクトルが割り付けられなかった画素に、選択した動きベクトルを割り付けるするようにした場合には、前段の処理において動きベクトルが割り付けられなかった画素に、動きベクトルを割り付けることができる。 As described above, the evaluation value indicating the correlation of the pixel at the position indicated by the motion vector is obtained, the motion vector is selected based on the evaluation value, and the selected motion vector is assigned to the pixel to which no motion vector is assigned. When assigned, a motion vector can be assigned to a pixel to which no motion vector has been assigned in the previous processing.
また、第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、第3のフレーム上の注目しているブロックである注目ブロック毎に、注目ブロックの周辺の画素であって、注目ブロックに隣接して配置されている画素である隣接画素および注目画素に付されている優先順位の順に、注目画素または隣接画素に割り付けられている動きベクトルについて、動きベクトルの第1のフレームにおける始点を中心とした第1の領域に属する第1のフレームの画素の画素値と、その動きベクトルの第2のフレームにおける終点を中心とした第2の領域に属する第2のフレームの画素の画素値との相関を示す評価値を演算し、所定の数の動きベクトルについて評価値が演算された場合、注目ブロックの注目画素の内の、動きベクトルが割り付けられていない注目画素に、相関が最も強いことを示す評価値が演算された動きベクトルを割り付けるようにした場合には、前段の処理において動きベクトルが割り付けられなかった画素に、より少ない演算量で、動きベクトルを割り付けることができる。 In addition, for each target block that is a target block on the third frame, which is composed of a plurality of target pixels that are adjacent to each other on the third frame, Motion vectors assigned to the target pixel or the adjacent pixels in the order of priority assigned to the adjacent pixel and the target pixel, which are pixels adjacent to the target block. The pixel value of the pixel of the first frame belonging to the first area centered on the start point in the first frame and the second value belonging to the second area centered on the end point of the motion vector in the second frame When the evaluation value indicating the correlation with the pixel value of the pixel in the frame is calculated and the evaluation value is calculated for a predetermined number of motion vectors, the motion value of the target pixel in the target block is calculated. When a motion vector with an evaluation value indicating the strongest correlation is assigned to a target pixel to which no vector is assigned, the number of pixels to which no motion vector is assigned in the previous processing is smaller. A motion vector can be assigned with a calculation amount.
また、上述した割付補償処理により動きベクトルが割り付けられた画素の割付フラグを1(True)に書き換えるようにし、割付補償処理により割り付けられた動きベクトルも、次の画素の補償候補ベクトルとして用いるようにしたので、オブジェクト内でほぼ同じ動きをする画素には、ほぼ同一の動きベクトルが選択されるようになり、誤りの少ない安定した動きベクトルを得ることができる。その結果、後段において生成される画像のブロックノイズなどを抑制し、品質を向上させることができる。 In addition, the allocation flag of the pixel to which the motion vector is allocated by the allocation compensation process described above is rewritten to 1 (True), and the motion vector allocated by the allocation compensation process is also used as a compensation candidate vector for the next pixel. Therefore, almost the same motion vector is selected for pixels that perform substantially the same motion in the object, and a stable motion vector with few errors can be obtained. As a result, block noise or the like of an image generated in the subsequent stage can be suppressed and the quality can be improved.
また、動きベクトルを求める着目画素について、0ベクトルの評価値DFDを予め算出し、最小評価値としてメモリに保持しておくことにより、すべての補償候補ベクトル評価値DFDを一度に算出し、その中から最小の評価値DFDを選択する場合よりも、時間とリソースを効率的に使用することができる。 In addition, for a pixel of interest for which a motion vector is to be calculated, an evaluation value DFD of 0 vector is calculated in advance and stored in a memory as a minimum evaluation value, so that all compensation candidate vector evaluation values DFD are calculated at once. Thus, time and resources can be used more efficiently than when the smallest evaluation value DFD is selected.
なお、上記説明においては、ベクトル割付部54において割り付けられなかった画素に対してベクトル補償処理を行っているが、ベクトル検出部52において検出されなかった(0ベクトルが検出された)画素など、何らかの処理において動きベクトルが求められなかった画素に対してベクトル補償処理を行うようにしてもよい。また、さらに、検出された動きベクトル、または、割り付けられた動きベクトルが確からしくない(信頼度が低い)とされる画素に対してベクトル補償処理を行うようにしてもよい。
In the above description, the vector compensation processing is performed on the pixels that are not assigned by the
本実施の形態においては、動きベクトルを選択する際の評価値として、差分絶対値和である評価値DFDを用いて説明したが、評価値DFDに限定されず、動きベクトルの信頼度を評価するものであれば、他のものを用いるようにしてもよい。 In this embodiment, the evaluation value DFD that is the sum of absolute differences is used as the evaluation value when selecting a motion vector. However, the evaluation value DFD is not limited to the evaluation value DFD, and the reliability of the motion vector is evaluated. If it is a thing, you may make it use another thing.
また、本実施の形態においては、各処理を行うブロックを、例えば、8画素×8画素や9画素×9画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行うブロックを構成する画素は、上記画素数に限定されない。 In the present embodiment, the block for performing each process has been described as being configured by, for example, 8 pixels × 8 pixels, 9 pixels × 9 pixels, and the like. However, these are examples, and each process is performed. The number of pixels constituting the block to be performed is not limited to the number of pixels.
さらに、本実施の形態においては、24P信号から60P信号への信号変換を例に、説明を行ったが、本発明は、例えば、動画像のフレーム周波数変換として、インターレース信号や、他のフレームレート変換にも適用することができる。 Furthermore, in the present embodiment, the signal conversion from the 24P signal to the 60P signal has been described as an example. However, the present invention can be applied to, for example, interlaced signals and other frame rates as frame frequency conversion of moving images. It can also be applied to conversion.
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。 The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program storage medium in a general-purpose personal computer or the like.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図1に示されるように、磁気ディスク31(フレキシブルディスクを含む)、光ディスク32(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク33(MD(Mini-Disc)(商標)を含む)、もしくは半導体メモリ34などよりなるリムーバブル記録媒体(パッケージメディア)、または、プログラムが一時的もしくは永続的に格納されるROM12などにより構成される。
As shown in FIG. 1, a program storage medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk 31 (including a flexible disk), an optical disk 32 (CD-ROM (Compact Disc -Removable recording media (package media) comprising a read only memory (including DVD (Digital Versatile Disc)), magneto-optical disc 33 (including MD (Mini-Disc) (trademark)), or
なお、本明細書において、フローチャートに示されるステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps shown in the flowcharts include not only processes performed in time series according to the order described, but also processes executed in parallel or individually even if not necessarily performed in time series. Is included.
1 信号処理装置,11 CPU,12 ROM,13 RAM,31 磁気ディスク,32 光ディスク,33 光磁気ディスク,34 半導体メモリ,51 フレームメモリ,52 ベクトル検出部,53 検出ベクトルメモリ,54 ベクトル割付部,55 割付ベクトルメモリ,56 割付フラグメモリ,57 割付補償部,58 画像補間部,101 初期ベクトル選択部,103 反復勾配法演算部,104 ベクトル評価部,105 シフト初期ベクトル割付部,106 評価値メモリ,107 シフト初期ベクトルメモリ,201 割付対象位置演算部,202 評価値比較部,203 シフト初期ベクトル置換部,204 評価値置換部,251 候補ベクトル位置演算部,252 検出ベクトル取得部,253 シフト初期ベクトル取得部,254 オフセット位置演算部,255 評価値演算部,256 評価値比較部,257 最適候補格納用レジスタ,401 モード選択部,402 セレクタ,403 有効画素判定部,404 勾配法演算部,405 遅延部,411 時間画素差分算出部,412 画素差分値判定部,413 有効画素数カウンタ,414 勾配法継続判定部,421 時間画素差分算出部,422 画素差分値判定部,423 水平垂直画素差分算出部,424 勾配積算部,425 ベクトル算出部,701 画素情報演算部,702 評価値演算部,703 着目画素差分演算部,704 ベクトル評価部,705 ベクトル選択部,711 画素差分判断部,712 評価値判断部,1001 ベクトル補償部, 1002 評価値演算部, 1003 補償候補ベクトルメモリ, 1004 同一ベクトル判定部 DESCRIPTION OF SYMBOLS 1 Signal processing apparatus, 11 CPU, 12 ROM, 13 RAM, 31 Magnetic disk, 32 Optical disk, 33 Magneto-optical disk, 34 Semiconductor memory, 51 Frame memory, 52 Vector detection part, 53 Detection vector memory, 54 Vector allocation part, 55 Allocation vector memory, 56 Allocation flag memory, 57 Allocation compensation unit, 58 Image interpolation unit, 101 Initial vector selection unit, 103 Iterative gradient method calculation unit, 104 Vector evaluation unit, 105 Shift initial vector allocation unit, 106 Evaluation value memory, 107 Shift initial vector memory, 201 allocation target position calculation unit, 202 evaluation value comparison unit, 203 shift initial vector replacement unit, 204 evaluation value replacement unit, 251 candidate vector position calculation unit, 252 detection vector acquisition unit, 253 shift initial vector acquisition unit , 254 Offset position calculation unit, 255 evaluation value calculation unit, 256 evaluation value comparison unit, 257 optimum candidate storage register, 401 mode selection unit, 402 selector, 403 effective pixel determination unit, 404 gradient method calculation unit, 405 delay unit, 411 Time pixel difference calculation unit, 412 pixel difference value determination unit, 413 effective pixel number counter, 414 gradient method continuation determination unit, 421 time pixel difference calculation unit, 422 pixel difference value determination unit, 423 horizontal / vertical pixel difference calculation unit, 424 gradient Integration unit, 425 vector calculation unit, 701 pixel information calculation unit, 702 evaluation value calculation unit, 703 focused pixel difference calculation unit, 704 vector evaluation unit, 705 vector selection unit, 711 pixel difference determination unit, 712 evaluation value determination unit, 1001 Vector compensation unit, 1002 Evaluation value computation unit, 1003 Compensation candidate Kutorumemori, 1004 same vector determination unit
Claims (8)
前記第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、前記第3のフレーム上の注目しているブロックである注目ブロック毎に、前記注目ブロックの周辺の画素であって、前記注目ブロックに隣接して配置されている画素である隣接画素および前記注目画素に付されている優先順位の順に、前記注目画素または前記隣接画素に割り付けられている前記動きベクトルについて、前記動きベクトルの前記第1のフレームにおける始点を中心とした第1の領域に属する前記第1のフレームの画素の画素値と、その前記動きベクトルの前記第2のフレームにおける終点を中心とした第2の領域に属する前記第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算手段と、
所定の数の前記動きベクトルについて前記評価値が演算された場合、前記注目ブロックの前記注目画素の内の、前記動きベクトルが割り付けられていない前記注目画素に、相関が最も強いことを示す前記評価値が演算された前記動きベクトルを割り付ける割付手段と、
前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであるか否かを判断する判断手段と
を含み、
前記評価値演算手段は、前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであると判断された場合、その前記動きベクトルについての前記評価値の演算をスキップする
ことを特徴とする画像処理装置。 A motion vector detected based on the first frame and the second frame, the motion vector starting from the first frame and ending at the second frame; the first frame and the second frame; Assigning the motion vector to a pixel on the third frame in the vicinity of a point where a third frame arranged between two frames intersects, and based on the assigned motion vector, In the image processing apparatus for generating the pixel value of the pixel of the third frame,
For each target block that is a target block on the third frame, the target block being a target pixel that is a plurality of target pixels that are adjacent to each other on the third frame. Neighboring pixels, which are assigned to the pixel of interest or the adjacent pixel in the order of priority assigned to the pixel of interest and adjacent pixels that are arranged adjacent to the block of interest For a motion vector, a pixel value of a pixel of the first frame belonging to a first region centered on a start point of the motion vector in the first frame, and an end point of the motion vector in the second frame An evaluation value calculating means for calculating an evaluation value indicating a correlation with a pixel value of a pixel of the second frame belonging to the second region as a center;
When the evaluation value is calculated for a predetermined number of the motion vectors, the evaluation indicating that the correlation among the target pixels of the target block to which the motion vector is not allocated is the strongest among the target pixels of the target block. Allocating means for allocating the motion vector whose value is calculated ;
Determining means for determining whether the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated;
Including
When the evaluation value calculation means determines that the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated , Skip the calculation of the evaluation value for the motion vector
The image processing apparatus characterized by.
ことを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
ことを特徴とする請求項2に記載の画像処理装置。 The evaluation value calculation means moves, in the order of priority, a point where the motion vector assigned to the target pixel or the adjacent pixel intersects the third frame to a point in the target block. A pixel value of a pixel belonging to the first region centered on the start point of the first frame of the motion vector at the position, and the end point of the second frame of the motion vector at the position. The image processing apparatus according to claim 2 , wherein the evaluation value indicating a correlation with a pixel value of a pixel belonging to the second region at the center is calculated.
ことを特徴とする請求項2に記載の画像処理装置。 The evaluation value calculation means is the priority that the pixel of interest has priority over the adjacent pixel, the priority of the pixel of interest corresponding to the raster scan order of the pixel of interest, and the raster of the adjacent pixel The image processing according to claim 2 , wherein the evaluation value is calculated for the motion vector assigned to the target pixel or the adjacent pixel in the order of the priority of the adjacent pixels corresponding to a scan order. apparatus.
ことを特徴とする請求項2に記載の画像処理装置。 The evaluation value calculating means, wherein, characterized in that computing the evaluation value difference is an absolute value sum of the pixel values of the pixels belonging to the first of said pixel values of the pixels belonging to the region second region Item 3. The image processing apparatus according to Item 2 .
前記第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、前記第3のフレーム上の注目しているブロックである注目ブロック毎に、前記注目ブロックの周辺の画素であって、前記注目ブロックに隣接して配置されている画素である隣接画素および前記注目画素に付されている優先順位の順に、前記注目画素または前記隣接画素に割り付けられている前記動きベクトルについて、前記動きベクトルの前記第1のフレームにおける始点を中心とした第1の領域に属する前記第1のフレームの画素の画素値と、その前記動きベクトルの前記第2のフレームにおける終点を中心とした第2の領域に属する前記第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算ステップと、
所定の数の前記動きベクトルについて前記評価値が演算された場合、前記注目ブロックの前記注目画素の内の、前記動きベクトルが割り付けられていない前記注目画素に、相関が最も強いことを示す前記評価値が演算された前記動きベクトルを割り付ける割付ステップと、
前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであるか否かを判断する判断ステップと
を含み、
前記評価値演算ステップにおいて、前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであると判断された場合、その前記動きベクトルについての前記評価値の演算をスキップする
ことを特徴とする画像処理方法。 A motion vector detected based on the first frame and the second frame, the motion vector starting from the first frame and ending at the second frame; the first frame and the second frame; Assigning the motion vector to a pixel on the third frame in the vicinity of a point where a third frame arranged between two frames intersects, and based on the assigned motion vector, In an image processing method for generating a pixel value of a pixel of a third frame,
For each target block that is a target block on the third frame, the target block being a target pixel that is a plurality of target pixels that are adjacent to each other on the third frame. Neighboring pixels, which are assigned to the pixel of interest or the adjacent pixel in the order of priority assigned to the pixel of interest and adjacent pixels that are arranged adjacent to the block of interest For a motion vector, a pixel value of a pixel of the first frame belonging to a first region centered on a start point of the motion vector in the first frame, and an end point of the motion vector in the second frame An evaluation value calculating step of calculating an evaluation value indicating a correlation with a pixel value of a pixel of the second frame belonging to the second region as a center;
When the evaluation value is calculated for a predetermined number of the motion vectors, the evaluation indicating that the correlation among the target pixels of the target block to which the motion vector is not allocated is the strongest among the target pixels of the target block. An assigning step for assigning the motion vector whose value has been calculated ;
A determination step for determining whether the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated;
Including
When it is determined in the evaluation value calculation step that the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated , Skip the calculation of the evaluation value for the motion vector
Image processing method, characterized in that.
前記第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、前記第3のフレーム上の注目しているブロックである注目ブロック毎に、前記注目ブロックの周辺の画素であって、前記注目ブロックに隣接して配置されている画素である隣接画素および前記注目画素に付されている優先順位の順に、前記注目画素または前記隣接画素に割り付けられている前記動きベクトルについて、前記動きベクトルの前記第1のフレームにおける始点を中心とした第1の領域に属する前記第1のフレームの画素の画素値と、その前記動きベクトルの前記第2のフレームにおける終点を中心とした第2の領域に属する前記第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算ステップと、
所定の数の前記動きベクトルについて前記評価値が演算された場合、前記注目ブロックの前記注目画素の内の、前記動きベクトルが割り付けられていない前記注目画素に、相関が最も強いことを示す前記評価値が演算された前記動きベクトルを割り付ける割付ステップと、
前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであるか否かを判断する判断ステップと
を含み、
前記評価値演算ステップにおいて、前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであると判断された場合、その前記動きベクトルについての前記評価値の演算をスキップする
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 A motion vector detected based on the first frame and the second frame, the motion vector starting from the first frame and ending at the second frame; the first frame and the second frame; Assigning the motion vector to a pixel on the third frame in the vicinity of a point where a third frame arranged between two frames intersects, and based on the assigned motion vector, An image processing program for generating a pixel value of a pixel of a third frame,
For each target block that is a target block on the third frame, the target block being a target pixel that is a plurality of target pixels that are adjacent to each other on the third frame. Neighboring pixels, which are assigned to the pixel of interest or the adjacent pixel in the order of priority assigned to the pixel of interest and adjacent pixels that are arranged adjacent to the block of interest For a motion vector, a pixel value of a pixel of the first frame belonging to a first region centered on a start point of the motion vector in the first frame, and an end point of the motion vector in the second frame An evaluation value calculating step of calculating an evaluation value indicating a correlation with a pixel value of a pixel of the second frame belonging to the second region as a center;
When the evaluation value is calculated for a predetermined number of the motion vectors, the evaluation indicating that the correlation among the target pixels of the target block to which the motion vector is not allocated is the strongest among the target pixels of the target block. An assigning step for assigning the motion vector whose value has been calculated ;
A determination step for determining whether the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated;
Including
When it is determined in the evaluation value calculation step that the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated , Skip the calculation of the evaluation value for the motion vector
Recording medium having a computer is recorded readable program characterized by.
前記第3のフレーム上の相互に隣接している複数の注目している画素である注目画素からなる、前記第3のフレーム上の注目しているブロックである注目ブロック毎に、前記注目ブロックの周辺の画素であって、前記注目ブロックに隣接して配置されている画素である隣接画素および前記注目画素に付されている優先順位の順に、前記注目画素または前記隣接画素に割り付けられている前記動きベクトルについて、前記動きベクトルの前記第1のフレームにおける始点を中心とした第1の領域に属する前記第1のフレームの画素の画素値と、その前記動きベクトルの前記第2のフレームにおける終点を中心とした第2の領域に属する前記第2のフレームの画素の画素値との相関を示す評価値を演算する評価値演算ステップと、
所定の数の前記動きベクトルについて前記評価値が演算された場合、前記注目ブロックの前記注目画素の内の、前記動きベクトルが割り付けられていない前記注目画素に、相関が最も強いことを示す前記評価値が演算された前記動きベクトルを割り付ける割付ステップと、
前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであるか否かを判断する判断ステップと
を含み、
前記評価値演算ステップにおいて、前記評価値を演算しようとする前記動きベクトルの大きさおよび向きが、前記評価値が既に演算された前記動きベクトルの大きさおよび向きと同じであると判断された場合、その前記動きベクトルについての前記評価値の演算をスキップする
ことを特徴とするプログラム。 A motion vector detected based on the first frame and the second frame, the motion vector starting from the first frame and ending at the second frame; the first frame and the second frame; Assigning the motion vector to a pixel on the third frame in the vicinity of a point where a third frame arranged between two frames intersects, and based on the assigned motion vector, In a program for causing a computer to perform image processing for generating a pixel value of a pixel of a third frame,
For each target block that is a target block on the third frame, the target block being a target pixel that is a plurality of target pixels that are adjacent to each other on the third frame. Neighboring pixels, which are assigned to the pixel of interest or the adjacent pixel in the order of priority assigned to the pixel of interest and adjacent pixels that are arranged adjacent to the block of interest For a motion vector, a pixel value of a pixel of the first frame belonging to a first region centered on a start point of the motion vector in the first frame, and an end point of the motion vector in the second frame An evaluation value calculating step of calculating an evaluation value indicating a correlation with a pixel value of a pixel of the second frame belonging to the second region as a center;
When the evaluation value is calculated for a predetermined number of the motion vectors, the evaluation indicating that the correlation among the target pixels of the target block to which the motion vector is not allocated is the strongest among the target pixels of the target block. An assigning step for assigning the motion vector whose value has been calculated ;
A determination step for determining whether the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated;
Including
When it is determined in the evaluation value calculation step that the magnitude and direction of the motion vector for which the evaluation value is to be calculated are the same as the magnitude and direction of the motion vector for which the evaluation value has already been calculated , Skip the calculation of the evaluation value for the motion vector
Program, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004116007A JP4512983B2 (en) | 2004-04-09 | 2004-04-09 | Image processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004116007A JP4512983B2 (en) | 2004-04-09 | 2004-04-09 | Image processing apparatus and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005301620A JP2005301620A (en) | 2005-10-27 |
JP4512983B2 true JP4512983B2 (en) | 2010-07-28 |
Family
ID=35333084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004116007A Expired - Fee Related JP4512983B2 (en) | 2004-04-09 | 2004-04-09 | Image processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4512983B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4722672B2 (en) * | 2005-11-04 | 2011-07-13 | シャープ株式会社 | Image display device |
JP4369948B2 (en) | 2006-09-20 | 2009-11-25 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
JP4303743B2 (en) | 2006-10-04 | 2009-07-29 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
JP4303745B2 (en) * | 2006-11-07 | 2009-07-29 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
JP4505000B2 (en) * | 2007-08-06 | 2010-07-14 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0722394B2 (en) * | 1986-03-31 | 1995-03-08 | 日本放送協会 | Motion compensation method |
JP3611958B2 (en) * | 1997-11-06 | 2005-01-19 | 沖電気工業株式会社 | Motion vector detection method and motion vector detection circuit for moving picture signal |
-
2004
- 2004-04-09 JP JP2004116007A patent/JP4512983B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005301620A (en) | 2005-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4687994B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4692846B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4692845B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4752407B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP2007074592A (en) | Image processing apparatus and method thereof, program, and recording medium | |
JP4512983B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4432714B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4512982B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4419069B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4512984B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4655214B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP2007074588A (en) | Image processor and processing method, program and recording medium | |
JP2007110461A (en) | Image processing device and method therefor, program and recording medium | |
JP4512985B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4650682B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP4655217B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4655216B2 (en) | Image processing apparatus and method, and program | |
JP4835075B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP4650684B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP4655215B2 (en) | Image processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100415 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100428 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |