JP5251544B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5251544B2
JP5251544B2 JP2009015122A JP2009015122A JP5251544B2 JP 5251544 B2 JP5251544 B2 JP 5251544B2 JP 2009015122 A JP2009015122 A JP 2009015122A JP 2009015122 A JP2009015122 A JP 2009015122A JP 5251544 B2 JP5251544 B2 JP 5251544B2
Authority
JP
Japan
Prior art keywords
image
search range
interpolation
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009015122A
Other languages
Japanese (ja)
Other versions
JP2010177739A (en
Inventor
真人 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009015122A priority Critical patent/JP5251544B2/en
Publication of JP2010177739A publication Critical patent/JP2010177739A/en
Application granted granted Critical
Publication of JP5251544B2 publication Critical patent/JP5251544B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関するものであり、複数のフレーム画像から動きベクトルを推定し、推定した動きベクトルを用いて補間することで、補間フレーム画像を生成するフレームレート変換技術に関する。   The present invention relates to an image processing device, an image processing method, and an image processing program. A frame for generating an interpolated frame image by estimating a motion vector from a plurality of frame images and interpolating using the estimated motion vector. It relates to rate conversion technology.

画像表示装置において、表示可能なフレームレートよりも低いフレームレートの動画像が入力された場合に、連続する2枚のフレーム画像の間に、補間により生成した補間フレーム画像を挿入することで、低フレームレートの動画像を滑らかに表示するフレームレート変換技術が知られている(特許文献1)。この方法では、前後フレーム画像2枚やそれ以上の入力フレーム画像間の動きベクトルを、ブロックマッチングを行うことにより推定し、推定した動きベクトルを用いて、新たな補間フレーム画像を生成し、挿入している。   In the image display apparatus, when a moving image having a frame rate lower than the displayable frame rate is input, an interpolation frame image generated by interpolation is inserted between two consecutive frame images, thereby reducing the A frame rate conversion technique for smoothly displaying a moving image at a frame rate is known (Patent Document 1). In this method, a motion vector between two previous and subsequent frame images or more is estimated by performing block matching, and a new interpolation frame image is generated and inserted using the estimated motion vector. ing.

一般に、入力フレーム画像内に繰り返しパターン領域が存在する場合に、正しく動きベクトルを推定することは困難である。例えば、図15に示すように、前フレーム画像内の繰り返しパターン領域の注目画素に対応する注目ブロックには、後フレーム画像内に、異なる破線で示されているブロックのように複数の対応ブロック候補が存在し、これらの候補のうち、どのブロックが正解の対応ブロックかは判別することはできない。これは、ある入力フレーム画像内の繰り返しパターン領域の一部が他の入力フレーム画像内の繰り返しパターン領域のどの部分に対応するかの判別が、画像処理においては、非常に難しいことに起因する。そのため、繰り返しパターン領域においては、正しい動きベクトルが推定された画素と誤った動きベクトルが推定された画素が混在し、生成される補間フレーム画像の画質が劣化する。   In general, it is difficult to correctly estimate a motion vector when a repeated pattern region exists in an input frame image. For example, as shown in FIG. 15, the target block corresponding to the target pixel in the repetitive pattern area in the previous frame image includes a plurality of corresponding block candidates such as blocks indicated by different broken lines in the subsequent frame image. It is impossible to determine which of these candidates is the correct corresponding block. This is because it is very difficult in image processing to determine which part of a repetitive pattern area in one input frame image corresponds to a repetitive pattern area in another input frame image. Therefore, in the repetitive pattern region, pixels with a correct motion vector estimated and pixels with an incorrect motion vector estimated are mixed, and the quality of the generated interpolated frame image deteriorates.

この問題に対応するために、特許文献2では、判別対象の画素の動きベクトルとその周辺の画素の動きベクトルとの一致の割合からその画素の動きベクトルが正しいか否かを判別している。そして、補間の際には、正しい場合には推定された動きベクトルを用いる補間と、正しくない場合には動きベクトルを用いない0ベクトル補間とを切り替えている。
また、特許文献3では、繰り返し模様検出部を備え、補間の際に、繰り返し模様でない領域には推定された動きベクトルを用いる補間と、繰り返し模様領域には0ベクトル補間とを切り替えている。
In order to cope with this problem, in Patent Document 2, it is determined whether or not the motion vector of the pixel is correct from the rate of coincidence between the motion vector of the pixel to be determined and the motion vectors of the surrounding pixels. In the interpolation, the interpolation using the estimated motion vector is switched if it is correct, and the zero vector interpolation not using the motion vector is switched if it is not correct.
Further, in Patent Document 3, a repeated pattern detection unit is provided, and during interpolation, interpolation using an estimated motion vector for a non-repeated pattern area and zero vector interpolation for a repeated pattern area are switched.

特開2005−006275号公報JP 2005006275 A 特開2008−135980号公報JP 2008-135980 A 特開2007−235403号公報JP 2007-235403 A

一般に、大きい動きが発生する頻度よりも小さい動きが発生する頻度が高いため、類似した複数のパターンを含む領域で動きベクトルを推定した場合には、マッチングの取れる複数のパターンの組み合わせの中から最も短い動きベクトルを選択した方が正解の動きベクトルを用いた補間を実行できる可能性が高くなる。   In general, since the frequency of occurrence of small motion is higher than the frequency of occurrence of large motion, when a motion vector is estimated in an area including a plurality of similar patterns, the combination of a plurality of patterns that can be matched is the most. If a short motion vector is selected, there is a higher possibility that interpolation using the correct motion vector can be executed.

しかし、特許文献2の手法を用いた場合、判別対象の画素付近において、短い動きベクトルが推定された画素よりも長い動きベクトルが推定された画素が多い場合、短い動きベクトルが誤った動きベクトルとして判断されそのベクトルが用いられず、逆に長い動きベクトルが推定された画素については長い動きベクトルを用いた補間が実行されるため、補間フレームの画質が劣化する場合がある。
また、特許文献3の手法を用いた場合には、正しい動きベクトルが検出できた場合においても、繰り返し模様領域においては画一的に0ベクトル補間が用いられるため、高画質な補間フレーム画像の生成が困難となる。
However, when the method of Patent Document 2 is used, if there are many pixels in which a motion vector that is longer than a pixel in which a short motion vector is estimated in the vicinity of the pixel to be determined, the short motion vector is determined as an erroneous motion vector. On the contrary, since interpolation using a long motion vector is executed for a pixel for which a long motion vector has been estimated without being determined, the image quality of the interpolation frame may deteriorate.
Further, when the method of Patent Document 3 is used, even when a correct motion vector can be detected, generation of a high-quality interpolated frame image is generated because 0 vector interpolation is used uniformly in the repeated pattern region. It becomes difficult.

上述したように、入力フレーム画像が繰り返しパターン領域を有する場合、生成される補間フレーム画像の画質が劣化してしまうという問題がある。   As described above, when the input frame image has a repeated pattern region, there is a problem that the image quality of the generated interpolated frame image is deteriorated.

本発明の目的は、上述したような課題を解決するためになされたものであり、繰り返しパターン領域を有する入力フレーム画像に対しても高画質な補間フレーム画像を生成し出力することができる画像処理装置、画像処理方法および画像処理プログラムを提供することにある。   An object of the present invention is to solve the above-described problems, and is an image processing capable of generating and outputting a high-quality interpolated frame image even for an input frame image having a repeated pattern region. An apparatus, an image processing method, and an image processing program are provided.

本発明にかかる画像処理装置は、複数のフレーム画像間に内挿する補間フレーム画像を生成する画像処理装置であって、前記複数のフレーム画像の各フレーム内の画素値の変化に基づいて、前記補間フレーム画像に含まれる補間画素の動きベクトルの探索範囲を算出する探索範囲算出手段と、前記探索範囲算出手段が算出した探索範囲内において、前記動きベクトルを推定する動きベクトル推定手段と、前記動きベクトル推定手段が算出した動きベクトルに基づいて、前記補間フレーム画像を生成する補間画像生成手段を備えたものである。   An image processing apparatus according to the present invention is an image processing apparatus that generates an interpolated frame image to be interpolated between a plurality of frame images, and based on a change in a pixel value in each frame of the plurality of frame images, A search range calculation unit that calculates a search range of a motion vector of an interpolation pixel included in an interpolation frame image, a motion vector estimation unit that estimates the motion vector within the search range calculated by the search range calculation unit, and the motion Interpolation image generation means for generating the interpolation frame image based on the motion vector calculated by the vector estimation means is provided.

本発明により、高画質な補間フレーム画像を生成し出力することができる画像処理装置、画像処理方法および画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and an image processing program capable of generating and outputting a high-quality interpolated frame image.

本発明の第一の実施の形態にかかる画像処理装置の概要を示すブロック図である。1 is a block diagram showing an overview of an image processing apparatus according to a first embodiment of the present invention. 本発明の第一の実施の形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning 1st embodiment of this invention. 適切な探索範囲についての説明図である。It is explanatory drawing about a suitable search range. 不適切な探索範囲についての説明図である。It is explanatory drawing about an inappropriate search range. マッチングパターンを表す説明図である。It is explanatory drawing showing a matching pattern. 探索範囲算出手段31の構成を示すブロック図である。3 is a block diagram showing a configuration of search range calculation means 31. FIG. 輝度変化指標の算出についての説明図である。It is explanatory drawing about calculation of a brightness | luminance change parameter | index. 隣接画素を用いた高速化についての説明図である。It is explanatory drawing about the speed-up using an adjacent pixel. 輝度変化情報についての説明図である。It is explanatory drawing about luminance change information. 第一の実施の形態にかかる画像処理装置の動作を示す流れ図である。It is a flowchart which shows operation | movement of the image processing apparatus concerning 1st embodiment. 本発明の第二の実施の形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning 2nd embodiment of this invention. 第二の実施の形態にかかる画像処理装置の動作を示す流れ図である。It is a flowchart which shows operation | movement of the image processing apparatus concerning 2nd embodiment. 本発明の第三の実施の形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning 3rd embodiment of this invention. 第三の実施の形態にかかる画像処理装置の動作を示す流れ図である。It is a flowchart which shows operation | movement of the image processing apparatus concerning 3rd embodiment. ブロックマッチングの問題点についての説明図である。It is explanatory drawing about the problem of block matching.

次に、本発明を実施するための形態について、図面を参照して詳細に説明する。
第一の実施の形態.
まず、本発明の第一の実施の形態にかかる画像処理装置の概要について説明する。図1は、本発明の実施の形態1にかかる画像処理装置の概要を示すブロック図である。
画像処理装置は、動きベクトル推定手段61、探索範囲算出手段62及び補間画像生成手段63を備える。ここで、図1において画像処理装置に入力される複数のフレーム画像として、前後2つのフレーム画像の場合を例示するが、入力されるフレーム画像の数はここで例示した数に限られない。
Next, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
First embodiment.
First, the outline of the image processing apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing an outline of the image processing apparatus according to the first embodiment of the present invention.
The image processing apparatus includes a motion vector estimation unit 61, a search range calculation unit 62, and an interpolated image generation unit 63. Here, the case of two frame images before and after is illustrated as the plurality of frame images input to the image processing apparatus in FIG. 1, but the number of input frame images is not limited to the number illustrated here.

動きベクトル推定手段61は、入力された複数のフレーム画像に基づいて、複数のフレーム画像間に内挿する補間フレーム画像に含まれる補間画素の動きベクトルを推定する。
探索範囲算出手段62は、入力された複数のフレーム画像の画素値に基づいて、動きベクトルを推定する探索範囲を決定する。
補間画像生成手段63は、動きベクトル推定手段61において生成された動きベクトルに基づいて、補間フレーム画像を生成する。
The motion vector estimation means 61 estimates a motion vector of an interpolation pixel included in an interpolation frame image to be interpolated between the plurality of frame images based on the input plurality of frame images.
The search range calculation means 62 determines a search range for estimating a motion vector based on the input pixel values of a plurality of frame images.
The interpolated image generating unit 63 generates an interpolated frame image based on the motion vector generated by the motion vector estimating unit 61.

続いて、本発明の第一の実施の形態にかかる画像処理装置の処理の概要について説明する。
まず、探索範囲算出手段62は、前後フレーム画像が入力されると、入力された前後フレーム画像の画素値に基づいて、動きベクトルの探索範囲を決定する。そして、探索範囲算出手段62は、決定した探索範囲を動きベクトル推定手段61に出力する。
動きベクトル推定手段61は、探索範囲算出手段62から出力された探索範囲を取得する。動きベクトル推定手段61は、入力された複数のフレーム画像に基づき、取得した探索範囲内において、補間フレーム画像に含まれる補間画素の動きベクトルを推定する。そして、動きベクトル推定手段61は、動きベクトルを補間画像生成手段63に出力する。
補間画像生成手段63は、動きベクトル推定手段61から出力された動きベクトルを取得する。そして、補間画像生成手段63は、入力された複数のフレーム画像および取得した動きベクトルに基づいて補間フレーム画像を生成する。
Next, an outline of processing of the image processing apparatus according to the first embodiment of the present invention will be described.
First, when the preceding and following frame images are input, the search range calculating unit 62 determines a motion vector search range based on the input pixel values of the preceding and following frame images. Then, the search range calculation unit 62 outputs the determined search range to the motion vector estimation unit 61.
The motion vector estimation unit 61 acquires the search range output from the search range calculation unit 62. The motion vector estimation means 61 estimates the motion vector of the interpolation pixel included in the interpolation frame image within the acquired search range based on the plurality of input frame images. Then, the motion vector estimation unit 61 outputs the motion vector to the interpolation image generation unit 63.
The interpolated image generation means 63 acquires the motion vector output from the motion vector estimation means 61. Then, the interpolated image generation means 63 generates an interpolated frame image based on the input plurality of frame images and the acquired motion vector.

続いて、本発明の第一の実施の形態にかかる画像処理装置の詳細について説明する。なお、本説明においては、前後2枚のフレーム画像を入力とした場合における形態について説明しているが、本手法は3枚以上の入力フレーム画像に対しても容易に拡張が可能である。
また、本説明においては、画素値とは、画素に基づく値であればどのような値であってもよく、画素の輝度やRGBなどの色成分の値などを含んだ値、輝度値、色変換を用いて得られる明度値やRGBなどの色成分の要素の値であってもよい。なお、本実施の形態における探索範囲の算出方法は、画素値として輝度値を用いた場合を例示して説明する。
Next, details of the image processing apparatus according to the first embodiment of the present invention will be described. In this description, the form in the case where two front and rear frame images are input has been described. However, the present method can be easily extended to three or more input frame images.
In the present description, the pixel value may be any value as long as it is based on the pixel, and includes a value including a luminance value of a pixel, a color component such as RGB, a luminance value, and a color value. It may be a lightness value obtained by conversion or a value of an element of a color component such as RGB. Note that the calculation method of the search range in the present embodiment will be described by exemplifying a case where a luminance value is used as a pixel value.

図2は、本発明による第一の実施の形態にかかる画像処理装置の構成を示すブロック図である。図2を参照すると、本発明による第一の実施の形態にかかる画像処理装置の構成は、探索範囲算出手段36と動きベクトル推定手段31と動き補償補間手段32と0ベクトル補間手段33と探索範囲評価手段34と補間画像合成手段35とから構成される。なお、動き補償補間手段32、0ベクトル補間手段33、探索範囲評価手段34及び補間画像合成手段35は、補間画像生成手段として機能する。   FIG. 2 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. Referring to FIG. 2, the configuration of the image processing apparatus according to the first embodiment of the present invention includes a search range calculation unit 36, a motion vector estimation unit 31, a motion compensation interpolation unit 32, a 0 vector interpolation unit 33, and a search range. The evaluation unit 34 and the interpolation image synthesis unit 35 are included. The motion compensation interpolation unit 32, the 0 vector interpolation unit 33, the search range evaluation unit 34, and the interpolation image synthesis unit 35 function as an interpolation image generation unit.

動きベクトル推定手段31は、前後フレーム画像を入力とし、ブロックマッチング法を用いて、動き補償補間手段32において生成する動き補償補間画像に含まれる各補間画素の動きベクトルを推定する。ブロックマッチング法は、あるフレーム画像における所定サイズの画像ブロックと他フレーム画像における同一サイズの画像ブロックとを比較することで、一致する画像ブロック同士を検出する方法である。ブロックマッチング法を用いた動きベクトル推定では、画素位置(x,y)における補間画素の動きベクトル(dx(x,y),dy(x,y))を、式(1)や式(2)で表される評価関数P0(x,y,dx,dy)を最小化するdx,dyとすることで算出する。ただし、F1(x,y)およびF2(x,y)はそれぞれ画素位置(x,y)における前フレーム画像および後フレーム画像の画素値、Blはブロックサイズを表す。
The motion vector estimation means 31 receives the previous and next frame images as input and estimates the motion vector of each interpolation pixel included in the motion compensation interpolation image generated by the motion compensation interpolation means 32 using the block matching method. The block matching method is a method of detecting matching image blocks by comparing an image block of a predetermined size in a certain frame image with an image block of the same size in another frame image. In motion vector estimation using the block matching method, the motion vector (dx (x, y), dy (x, y)) of the interpolated pixel at the pixel position (x, y) is expressed by Equation (1) or Equation (2). The evaluation function P0 (x, y, dx, dy) represented by However, F1 (x, y) and F2 (x, y) are the pixel values of the previous frame image and the rear frame image at the pixel position (x, y), respectively, and Bl is the block size.

動き補償補間手段32は、推定された動きベクトルと前後フレーム画像をもとに動き補償補間画像を生成し、補間画像合成手段35に出力する。動き補償補間画像の各補間画素の画素値は、式(3)のように決定される。ただし、MC(x,y)は、画素位置(x,y)における動き補償補間画像の画素値を表す。
The motion compensation interpolation unit 32 generates a motion compensation interpolation image based on the estimated motion vector and the preceding and following frame images, and outputs the motion compensation interpolation image to the interpolation image synthesis unit 35. The pixel value of each interpolation pixel of the motion compensated interpolation image is determined as in Expression (3). However, MC (x, y) represents the pixel value of the motion compensated interpolation image at the pixel position (x, y).

0ベクトル補間手段33は、動きベクトルを用いずに前後フレーム画像を合成して、0ベクトル補間画像を生成し、補間画像合成手段35に出力する。0ベクトル補間画像は、式(4)で表されるように全ての動きベクトルを0とした時の動き補償補間により生成されたり、前後フレーム画像のいずれかをコピーすることにより生成されたりする。ただし、V0(x,y)は、画素位置(x,y)における0ベクトル補間画像の画素値を表す。
The zero vector interpolation unit 33 synthesizes the previous and next frame images without using the motion vector, generates a zero vector interpolation image, and outputs the zero vector interpolation image to the interpolation image synthesis unit 35. The zero vector interpolation image is generated by motion compensation interpolation when all the motion vectors are set to 0 as represented by Expression (4), or is generated by copying one of the preceding and following frame images. However, V0 (x, y) represents the pixel value of the 0 vector interpolation image at the pixel position (x, y).

探索範囲算出手段36は、前後フレーム画像を入力とし、補間画素毎の動きベクトルを推定する探索範囲を動きベクトル推定手段31及び探索範囲評価手段34に、その探索範囲内における前後フレーム画像の輝度変化情報を動きベクトル推定手段31に出力する。補間画素毎の探索範囲は、前後フレーム画像における注目補間画素位置を中心とした輝度値の変化が、画素位置をX軸、Y軸、輝度値をZ軸にとることで形成される3次元空間上で、類似した凸曲面となるような範囲が設定される。この範囲は、例えば、類似した凸曲面となるような最大範囲とするとよい。類似した凸曲面となるような範囲を設定する最大の利点は、その範囲内において、注目したフレーム画像の注目画素に対応するもう一方のフレーム画像の画素位置の候補領域を一意に定めることができることである。   The search range calculation means 36 receives the previous and next frame images as input, and sends the search range for estimating the motion vector for each interpolation pixel to the motion vector estimation means 31 and the search range evaluation means 34 to change the luminance of the previous and next frame images within the search range. Information is output to the motion vector estimation means 31. The search range for each interpolation pixel is a three-dimensional space formed by changes in luminance values centered on the target interpolation pixel position in the preceding and following frame images on the X axis, the Y axis, and the luminance value on the Z axis. In the above, a range that provides a similar convex curved surface is set. For example, this range may be a maximum range that provides a similar convex curved surface. The greatest advantage of setting a range that provides a similar convex curved surface is that the candidate area of the pixel position of the other frame image corresponding to the target pixel of the target frame image can be uniquely determined within the range. It is.

例えば、図3(a)及び図3(b)のそれぞれに例示する前後フレーム画像のように、画素位置をX軸、輝度値をY軸にとることで形成される2次元空間上では、探索範囲内で輝度値の変化が類似した凸曲線である場合は、一方フレーム画像の増加領域に対する他方のフレーム画像の増加領域、一方フレーム画像の減少領域に対する他方のフレーム画像の減少領域を一意に定めることができる。しかし、図4(a)及び図4(b) のそれぞれに例示する前後フレーム画像のように、探索範囲内で輝度値の変化が2つ以上の異なる方向への凸曲線に分割可能である場合は、一方フレーム画像の増加または領域に対する他方のフレーム画像の増加または減少領域が複数存在することになる。つまり、注目したフレーム画像の注目画素に対応するもう一方のフレーム画像の画素位置の候補領域が複数存在することになる。このような探索範囲で動きベクトル推定のマッチング処理を実行すると画素毎に異なる対応領域が選択され、補間フレーム画像の画質が劣化する可能性がある。   For example, in the two-dimensional space formed by taking the pixel position on the X-axis and the luminance value on the Y-axis as shown in the frame images before and after illustrated in FIGS. 3 (a) and 3 (b), respectively, search is performed. If the change in luminance value is a similar convex curve within the range, the increase area of the other frame image with respect to the increase area of one frame image and the decrease area of the other frame image with respect to the decrease area of one frame image are uniquely determined. be able to. However, in the case where the change in the luminance value can be divided into two or more convex curves in different directions within the search range, as in the frame images before and after illustrated in FIGS. 4 (a) and 4 (b), respectively. In other words, there are a plurality of areas in which the other frame image is increased or decreased with respect to an increase or area in one frame image. That is, there are a plurality of candidate areas for the pixel position of the other frame image corresponding to the target pixel of the target frame image. When motion vector estimation matching processing is executed in such a search range, a different corresponding region is selected for each pixel, and the image quality of the interpolated frame image may deteriorate.

これをX軸、Y軸、輝度値をZ軸にとることで形成される3次元空間に拡張した場合、前後フレーム画像間で、注目補間画素位置を中心として類似した凸曲面となるような範囲内では、注目したフレーム画像の注目画素に対応するもう一方のフレーム画像の画素位置の候補領域を一意に定めることが可能となる。
ここで、探索範囲内で輝度値の変化が2つ以上の異なる方向への凸曲面に分割可能である場合は、動きベクトル推定の結果、画素毎に異なる対応領域が選択され、補間フレーム画像の画質が劣化する。しかし、探索範囲算出手段36では、補間画素毎の探索範囲を、類似した凸曲面となるような最大範囲として設定することにより、探索範囲内で輝度値の変化が2つ以上の異なる方向への凸曲面に分割可能とならないようにして画質劣化を抑制する。
また、探索範囲算出手段36により設定される探索範囲を用いると、類似したパターンが複数ある領域では、前後フレーム間で最も近接するパターンを1つずつ含む範囲が自動的に算出されることとなるため、経験上、最も動き補償補間画像の画質が劣化する可能性の小さい類似したパターン間で最も短い動きベクトルを検出されることとなる。
When this is expanded to a three-dimensional space formed by taking the X-axis, Y-axis, and luminance value on the Z-axis, a range in which a similar convex curved surface is formed between the preceding and following frame images with the target interpolation pixel position at the center. The candidate area of the pixel position of the other frame image corresponding to the target pixel of the target frame image can be uniquely determined.
Here, when the change in luminance value can be divided into two or more convex curved surfaces in different directions within the search range, as a result of motion vector estimation, a different corresponding region is selected for each pixel, and the interpolation frame image Image quality deteriorates. However, the search range calculation means 36 sets the search range for each interpolation pixel as the maximum range that gives a similar convex curved surface, so that the change in the luminance value in two or more different directions within the search range is achieved. Image quality deterioration is suppressed so that it cannot be divided into convex curved surfaces.
In addition, when the search range set by the search range calculation unit 36 is used, in a region where there are a plurality of similar patterns, a range including one pattern that is closest to the preceding and following frames is automatically calculated. For this reason, experience shows that the shortest motion vector is detected between similar patterns that are least likely to degrade the image quality of the motion compensated interpolation image.

探索範囲算出手段36は、探索範囲を以降に記述する第1の算出方法もしくは第2の算出方法のいずれかにより算出する。
探索範囲の第1の算出方法は、あらかじめ図5に示すようなスケーリング可能な凸曲面に収まる複数のパターン(パターン中の各値は、0.0〜1.0)を用意し、初期値として前後フレーム画像における注目補間画素位置の1画素×1画素の範囲を設定し、範囲を上下左右1画素ずつ広げながら、各パターンとマッチングを取ることにより、前後それぞれのフレーム画像についてその範囲(以下、「指定範囲」)における輝度変化が凸曲面に収まっているかの判別とフレーム画像間で類似した凸曲面であるかの判別とを繰り返すことで、それぞれの判別における条件を満たす最大範囲を探索範囲として求める。
このように、本実施の形態の探索範囲の算出における凸曲面とは、凸曲面に収まっている曲面であり、図5に示すパターン10〜19のような凸曲面の他に、パターン2〜9のような単調増加もしくは単調減少する曲面のように凸曲面の一部である曲面も含まれる。また、パターン1のような平面も含まれる。
The search range calculation means 36 calculates the search range by either the first calculation method or the second calculation method described below.
The first search range calculation method prepares a plurality of patterns (each value in the pattern is 0.0 to 1.0) that can be accommodated on a scaleable convex surface as shown in FIG. By setting a range of 1 pixel x 1 pixel at the target interpolation pixel position and expanding the range one pixel at a time up, down, left, and right, and matching each pattern, the range of each frame image (hereinafter “designated range”) The maximum range that satisfies the conditions in each determination is obtained as the search range by repeating the determination of whether the luminance change in () is within the convex curved surface and the determination of whether the convex surface is similar between the frame images.
Thus, the convex curved surface in the calculation of the search range of the present embodiment is a curved surface that falls within the convex curved surface, and in addition to convex curved surfaces such as patterns 10 to 19 shown in FIG. A curved surface that is a part of a convex curved surface is also included, such as a curved surface that monotonously increases or decreases monotonously. A plane such as pattern 1 is also included.

前後それぞれのフレーム画像について、ある範囲における輝度変化が凸曲面に収まっているかの判別方法としては、式(5)で与えられる評価関数Q(x,y,ρ,i)を最小とするパターンを選択し、選択されたパターンにおける評価関数の値があらかじめ設定されている閾値を下回っていれば凸曲面に収まっていると判断する。評価関数Q(x,y,ρ,i)は、Maxを1.0、Minを0.0として正規化した指定範囲内の画素の輝度値と、その画素位置に対応するパターンZρ,iの値の差分絶対値和を算出することで、注目フレーム画像の指定範囲とパターンZρ,iを類似度を求める関数である。ただし、xおよびyは、注目画素位置のxおよびy座標、ρは評価する範囲の広さであり指定範囲の一辺の長さ、iは評価するパターンのそれぞれを一意に示すインデックス番号、Y(x,y)は座標(x,y)における注目フレーム画像の輝度値、Zρ,iは評価範囲に合わせてスケーリングされたインデックス番号iのパターン画像をMaxを1.0、Minを0.0として正規化した指定範囲内の画素の輝度値、MaxおよびMinは注目フレーム画像の指定範囲内の輝度値の最大値および最小値をそれぞれ意味する。
As a method of discriminating whether or not the luminance change in a certain range is within the convex curved surface for each of the front and rear frame images, a pattern that minimizes the evaluation function Q (x, y, ρ, i) given by Equation (5) is used. If it is selected and the value of the evaluation function in the selected pattern is below a preset threshold value, it is determined that it is within the convex curved surface. The evaluation function Q (x, y, ρ, i) is the absolute difference between the luminance value of the pixel within the specified range normalized with Max 1.0 and Min 0.0 and the value of the pattern Zρ, i corresponding to the pixel position. This is a function for calculating the similarity between the designated range of the frame image of interest and the pattern Zρ, i by calculating the sum of values. Where x and y are the x and y coordinates of the target pixel position, ρ is the width of the range to be evaluated and the length of one side of the specified range, i is the index number uniquely indicating each of the patterns to be evaluated, Y ( x, y) is the luminance value of the frame image of interest at the coordinates (x, y), Zρ, i is the specified pattern image with index number i scaled according to the evaluation range, normalized to 1.0 for Max and 0.0 for Min The luminance values of the pixels within the range, Max and Min, mean the maximum value and the minimum value of the luminance values within the specified range of the target frame image, respectively.

前後フレーム画像間で類似した凸曲面であるかの判別は、入力された前後それぞれのフレーム画像における評価関数を最小化したパターンのインデックス番号の組み合わせから、あらかじめ手動で与えられているその組み合わせが類似した凸曲面であるかどうかの情報により判断する。この情報は、例えば、メモリやHDD(hard Disk Drive)等の任意の記憶手段(図示せず)に格納しておき、探索範囲算出手段36がこれを読み出すことにより取得するようにしてもよい。
また、探索範囲算出手段36は、探索範囲内における前後フレーム画像の輝度変化情報として、探索範囲における評価関数を最小化したパターンのインデックス番号を動きベクトル推定手段31に出力する。
To determine whether a convex surface is similar between the previous and next frame images, the combination of the index number of the pattern that minimizes the evaluation function in each of the input previous and subsequent frame images is similar to the combination given in advance manually. Judgment is made based on information on whether or not the curved surface is a curved surface. This information may be stored in an arbitrary storage means (not shown) such as a memory or an HDD (hard disk drive), for example, and may be acquired by the search range calculation means 36 reading it.
In addition, the search range calculation unit 36 outputs the index number of the pattern in which the evaluation function in the search range is minimized to the motion vector estimation unit 31 as the luminance change information of the previous and next frame images in the search range.

また、探索範囲の第2の算出方法として、探索範囲内の隣接する画素間での輝度値の変化を指標化し、これらを統合することで、探索範囲内の輝度値の変化が類似した凸曲面であるかを判別してもよい。図6は、隣接する画素間での輝度値の変化から探索範囲を算出する場合の、探索範囲算出手段36の構成を示すブロック図である。図6の探索範囲算出手段36は、輝度変化指標計算手段361と輝度変化情報算出手段362とから構成され、前後フレーム画像を入力とし、補間画素毎の、動きベクトルを推定する探索範囲を動きベクトル推定手段31及び探索範囲評価手段34に、その探索範囲内における前後フレーム画像の輝度変化情報を動きベクトル推定手段31に出力する。   In addition, as a second calculation method of the search range, a change in the luminance value between adjacent pixels in the search range is indexed, and by integrating these, a convex curved surface having similar changes in the luminance value in the search range It may be determined whether or not. FIG. 6 is a block diagram showing a configuration of the search range calculation means 36 in the case where the search range is calculated from a change in luminance value between adjacent pixels. The search range calculation unit 36 in FIG. 6 includes a luminance change index calculation unit 361 and a luminance change information calculation unit 362. The search range calculation unit 36 estimates the motion vector for each interpolation pixel using the preceding and following frame images as input. The luminance change information of the previous and next frame images within the search range is output to the estimation unit 31 and the search range evaluation unit 34 to the motion vector estimation unit 31.

輝度変化指標計算手段361は、前後フレーム画像を入力とし、入力フレーム画像の各画素の水平方向と垂直方向に隣接する画素との輝度の変化を表す輝度変化指標を輝度変化情報計算手段362に出力する。輝度変化指標は、隣り合う画素の輝度変化が増加ならば1、減少ならば-1、平坦ならば0のように与えられる値である。画像中の座標(x,y)と座標(x+1,y)との間の水平方向の輝度変化指標DH(x,y)および座標(x,y)と座標(x,y+1)との間の垂直方向の輝度変化指標DV(x,y)の算出方法の一例を式(6)および式(7)に示す。ただし、Y(x,y)は、画像中の座標(x,y)の輝度値、thresは、あらかじめ設定された閾値である。   The luminance change index calculation unit 361 receives the previous and next frame images, and outputs to the luminance change information calculation unit 362 a luminance change index that represents the luminance change between the pixels of the input frame image in the horizontal direction and the vertical direction. To do. The luminance change index is a value given as 1 if the luminance change of adjacent pixels increases, -1 if it decreases, or 0 if it is flat. The luminance change index DH (x, y) in the horizontal direction between coordinates (x, y) and coordinates (x + 1, y) in the image, and coordinates (x, y) and coordinates (x, y + 1) An example of the calculation method of the luminance change index DV (x, y) in the vertical direction between the two is shown in Expression (6) and Expression (7). However, Y (x, y) is a luminance value of coordinates (x, y) in the image, and thres is a preset threshold value.

また、輝度変化指標は、隣接画素との差分だけではなく、いくつか離れた画素との差分を用いて求めてもよい。例えば、水平方向の各ラインの輝度変化指標を左から順番に算出する場合、図7に示すような左数画素の輝度変化指標が平坦で連続している"?"により示す位置の輝度変化指標を求める時に、左隣の画素との差分値と輝度変化指標が平坦となる直前の画素との差分値を用いて決定してもよい。例えば、どちらか大きいほうの差分値に基づいて、輝度変化指標を決定する。
Further, the luminance change index may be obtained using not only a difference from adjacent pixels but also a difference from some pixels apart. For example, when the luminance change index of each line in the horizontal direction is calculated in order from the left, the luminance change index at the position indicated by “?” In which the luminance change index of the left several pixels is flat and continuous as shown in FIG. May be determined using the difference value between the pixel on the left and the pixel immediately before the luminance change index becomes flat. For example, the luminance change index is determined based on the larger difference value.

輝度変化情報算出手段362は、輝度変化指標計算手段361から出力される前記輝度変化指標を元に、補間画素毎に動きベクトルを推定するための探索範囲と前後フレーム画像のその範囲内における輝度変化を表す輝度変化情報を算出し、動きベクトル推定手段31に出力する。輝度変化情報算出手段362において、補間画素毎の探索範囲は、前後フレーム画像における注目補間画素位置を中心とした輝度値の変化が、画素位置をX軸、Y軸、輝度値をZ軸にとることで形成される3次元空間上で、類似した凸曲面となるような最大範囲が設定される。   The luminance change information calculation unit 362 is based on the luminance change index output from the luminance change index calculation unit 361, and the luminance change within the search range for estimating the motion vector for each interpolation pixel and the previous and next frame images. Is calculated and output to the motion vector estimation means 31. In the luminance change information calculation means 362, the search range for each interpolation pixel is such that the change in luminance value centered on the target interpolation pixel position in the preceding and following frame images takes the pixel position on the X axis, the Y axis, and the luminance value on the Z axis. A maximum range is set so as to form a similar convex curved surface in the three-dimensional space formed by the above.

探索範囲の第2の算出方法は、注目補間画素位置における前後フレーム画像で類似した凸曲面となるような最大範囲(φ(x,y)画素×φ(x,y)画素)を求める方法の一つに、初期値として前後フレーム画像における注目補間画素位置の1画素×1画素の範囲を設定し、範囲を上下左右1画素ずつ広げながら、前後それぞれのフレーム画像についてその範囲(以下、「指定探索範囲(ρ(x,y)×ρ(x,y))」)における輝度変化が凸曲面に収まっているかの判別とフレーム画像間で類似した凸曲面であるかの判別とを繰り返すことで、それぞれの判別における条件を満たす最大範囲を探索範囲として求める。   The second calculation method of the search range is a method for obtaining a maximum range (φ (x, y) pixel × φ (x, y) pixel) that forms a similar convex curved surface in the preceding and following frame images at the target interpolation pixel position. First, a range of 1 pixel × 1 pixel of the target interpolation pixel position in the preceding and following frame images is set as an initial value, and the range is expanded for each of the preceding and following frame images (hereinafter referred to as “designated”). By repeating the determination of whether the luminance change in the search range (ρ (x, y) × ρ (x, y)) ”is within the convex surface and the determination of whether the convex surface is similar between frame images The maximum range that satisfies the conditions in each determination is obtained as the search range.

フレーム画像内のある指定された範囲における輝度変化が凸曲面に収まっているかの判別方法の一例を以下に示す。
まず、指定された範囲内の水平方向及び垂直方向の各ラインについて、ライン内の輝度変化を、1.平坦、2.単調増加、3.単調減少、4.上に凸、5.下に凸、6.その他の6つの指標に分類する。以下、このライン内の輝度変化の指標をライン輝度変化指標と呼ぶことにする。注目補間画素位置(x,y)、指定探索範囲(ρ(x,y)×ρ(x,y))の時、補間画素位置からp(-(ρ(x,y)-1)/2 ≦ p ≦ (ρ(x,y)-1)/2)離れた水平方向のライン輝度変化指標LH(x,y,ρ(x,y),p)は、輝度変化指標計算手段361から出力される輝度変化指標のうち、注目ラインの範囲における輝度変化指標DH(x-(ρ(x,y)-1)/2,y+p)〜DH(x+(ρ(x,y)-1)/2-1,y+p)の組み合わせを考慮することにより、容易に求めることができる。
An example of a method for determining whether the luminance change in a specified range in the frame image is within the convex curved surface will be described below.
First, for each horizontal and vertical line within a specified range, the luminance change in the line is: 1. Flat, 2. Monotonic increase Monotonous decrease 4. convex upward Convex downward, 6. Classify into the other six indicators. Hereinafter, this luminance change index in a line is referred to as a line luminance change index. When the target interpolation pixel position (x, y) and the specified search range (ρ (x, y) × ρ (x, y)), p (-(ρ (x, y) -1) / 2 from the interpolation pixel position ≦ p ≦ (ρ (x, y) −1) / 2) The line luminance change index LH (x, y, ρ (x, y), p) in the horizontal direction is output from the luminance change index calculation means 361. Brightness change index DH (x- (ρ (x, y) -1) / 2, y + p) to DH (x + (ρ (x, y) -1) ) / 2-1, y + p) can be easily obtained by considering the combination.

例えば、注目ラインの範囲における輝度変化指標が全て0の場合のライン輝度変化指標は平坦、1または0の場合のライン輝度変化指標は単調増加のように求めることができる。同様に、注目補間画素位置(x,y)、指定探索範囲(ρ(x,y)×ρ(x,y))の時、補間画素位置からp(-(ρ(x,y)-1)/2 ≦ p ≦ (ρ(x,y)-1)/2)離れた垂直方向のライン輝度変化指標LV(x,y,ρ(x,y),p)は、注目ラインの範囲における輝度変化指標DV(x+p,-(ρ(x,y)-1)/2)〜DV(x+p,(ρ(x,y)-1)/2-1)の組み合わせを考慮することにより、容易に求めることができる。また、指定探索範囲をρ(x,y)×ρ(x,y)から上下左右1画素ずつ広げ(ρ(x,y)+2)×(ρ(x,y)+2)とした場合、新たなる範囲のライン輝度変化指標は、もとの範囲のライン輝度変化指標を用いて高速に求めることが可能である。例えば、新たなるラインの水平方向のライン輝度変化指標LH(x,y,ρ(x,y)+2,p)は、もとの範囲のライン輝度変化指標LH(x,y,ρ(x,y),p)と輝度変化指標 DH(x-(ρ(x,y)-3)/2,y+p)およびDH(x+(ρ(x,y)+1)/2-1,y+p)の3つの組み合わせにより求めることも可能である。   For example, the line brightness change index when the brightness change index in the range of the target line is all 0 is flat, and the line brightness change index when 1 or 0 is monotonically increased. Similarly, when the target interpolation pixel position (x, y) and the specified search range (ρ (x, y) × ρ (x, y)), p (− (ρ (x, y) −1) from the interpolation pixel position. ) / 2 ≤ p ≤ (ρ (x, y) -1) / 2) The vertical line brightness change index LV (x, y, ρ (x, y), p) is Consider the combination of luminance change index DV (x + p,-(ρ (x, y) -1) / 2) to DV (x + p, (ρ (x, y) -1) / 2-1) Therefore, it can be easily obtained. In addition, when the specified search range is expanded from ρ (x, y) × ρ (x, y) by one pixel up, down, left, and right (ρ (x, y) +2) × (ρ (x, y) +2) A new range of line luminance change index can be obtained at high speed using the original range of line luminance change index. For example, the horizontal line luminance change index LH (x, y, ρ (x, y) + 2, p) of the new line is the line luminance change index LH (x, y, ρ (x , y), p) and the luminance change index DH (x- (ρ (x, y) -3) / 2, y + p) and DH (x + (ρ (x, y) +1) / 2-1, It is also possible to obtain it by three combinations of y + p).

次に、水平方向および垂直方向の前記ライン輝度変化指標をそれぞれの方向で統合し、指定探索範囲における輝度変化が凸曲面に収まっているかどうかを判断する。指定探索範囲における輝度変化が凸曲面に収まっているかどうかの条件の一例を以下に示す。
条件1:その他と分類されたライン輝度変化指標を持つラインが存在する場合は、凸曲面に収まっていないと判断する。
条件2:上に凸と分類されたライン輝度変化指標を持つラインと下に凸と分類されたライン輝度変化指標を持つラインの両方が存在する場合には、凸曲面に収まっていないと判断する。
条件3:上に凸と分類されたライン輝度変化指標または下に凸と分類されたライン輝度変化指標を持つラインが複数存在し、かつこれらのラインの間に他の指標に分類されたラインが存在する場合は、凸曲面に収まっていないと判断する。
条件4:上に凸と分類されたライン輝度変化指標または下に凸と分類されたライン輝度変化指標を持つラインが存在し、かつ単調増加または単調減少のいずれかの指標を持つラインがこのラインを挟んで存在する場合は、凸曲面に収まっていないと判断する。
条件5:条件1〜4のいずれかに当てはまらない場合は、凸曲面に収まっていると判断する。
最後に、水平方向および垂直方向のライン輝度変化指標の統合結果を比較する。比較方法として、どちらか一方でも凸曲面に収まっていないと判断された場合および水平方向と垂直方向とで上に凸と下に凸の異なる方向に凸であるラインを含んでいる場合に凸曲面に収まっていないと判断し、その他の場合には凸曲面に収まっていると判断する。
Next, the line luminance change indexes in the horizontal direction and the vertical direction are integrated in the respective directions, and it is determined whether or not the luminance change in the designated search range is within the convex curved surface. An example of a condition as to whether or not the luminance change in the designated search range is within the convex curved surface is shown below.
Condition 1: If there is a line having a line brightness change index classified as other, it is determined that the line does not fit on the convex curved surface.
Condition 2: When there are both a line having a line luminance change index classified as convex upward and a line having a line luminance change index classified as convex downward, it is determined that the line does not fit on the convex curved surface .
Condition 3: There are a plurality of lines having a line brightness change index classified as convex upward or a line brightness change index classified as convex downward, and a line classified as another index exists between these lines. If it exists, it is determined that it does not fit on the convex curved surface.
Condition 4: A line having a line luminance change index classified as convex upward or a line luminance change index classified as convex downward exists, and a line having either a monotonically increasing or monotonic decreasing index exists in this line If it exists across the surface, it is determined that it does not fit on the convex curved surface.
Condition 5: If any of the conditions 1 to 4 is not satisfied, it is determined that the object falls on the convex curved surface.
Finally, the integrated results of the horizontal and vertical line luminance change indexes are compared. As a comparison method, when it is judged that either one does not fit on the convex curved surface, and when it includes lines that are convex in different directions, upward and downward in the horizontal and vertical directions, the convex curved surface In other cases, it is determined that it is within the convex curved surface.

フレーム画像間である指定された範囲における輝度変化が類似した凸曲面であるかの判別方法としては、前フレーム画像と後フレーム画像とで上に凸と下に凸の異なる方向に凸であるラインを含んでいる場合に類似した凸曲面ではないと判別する。   As a method of discriminating whether or not the brightness change in the specified range between the frame images is a similar convex curved surface, the front frame image and the rear frame image are convex in different directions of upward and downward convexity. It is determined that the convex surface is not similar to the case where

注目補間画素における動きベクトル推定の探索範囲は、隣接する補間画素における動きベクトル推定の探索範囲を利用することで高速に求めることも可能である。例えば、画素位置(x,y)の注目補間画素における探索範囲を、画素位置(x-1,y)の隣接補間画素における探索範囲(φ(x-1,y)画素×φ(x-1,y)画素)を利用して求めることを考える。図8に示すように、画素位置(x-1,y)が隣接補間画素における探索範囲(φ(x-1,y)画素×φ(x-1,y)画素)であることは、その範囲(図中黒枠)での輝度変化は前後フレーム画像で類似した凸曲面となっており、その領域から上下および左右またはそのどちらかに領域を広げることにより前後フレーム画像で類似した凸曲面となくなることを示している。そのため、画素位置(x,y)の注目補間画素における探索範囲の候補は、(φ(x-1,y)-2)画素×(φ(x-1,y)-2)画素、φ(x-1,y)画素×φ(x-1,y)画素、(φ(x-1,y)+2)画素×(φ(x-1,y)+2)画素の3つのみとなる。そのため、初期値として1画素×1画素の範囲を設定し、範囲を上下左右1画素ずつ広げながら判別を繰り返す必要はなくなり、この3つの判別のみで新たなる画素位置における探索範囲を算出することが可能になる。   The search range for motion vector estimation in the target interpolation pixel can also be obtained at high speed by using the search range for motion vector estimation in adjacent interpolation pixels. For example, the search range in the target interpolation pixel at the pixel position (x, y) is changed to the search range (φ (x−1, y) pixel × φ (x−1) in the adjacent interpolation pixel at the pixel position (x−1, y). , y) pixel)). As shown in FIG. 8, the pixel position (x−1, y) is the search range (φ (x−1, y) pixel × φ (x−1, y) pixel) in the adjacent interpolation pixel. The brightness change in the range (black frame in the figure) has a similar convex curved surface in the front and back frame images, and the convex curved surface similar in the front and rear frame images disappears by expanding the region from the top and bottom and left and right or either of them. It is shown that. Therefore, the search range candidates for the target interpolation pixel at the pixel position (x, y) are (φ (x-1, y) -2) pixels × (φ (x-1, y) -2) pixels, φ ( x-1, y) pixel × φ (x-1, y) pixel, (φ (x-1, y) +2) pixel × (φ (x-1, y) +2) pixel Become. For this reason, it is not necessary to set a range of 1 pixel × 1 pixel as an initial value and repeat the determination while expanding the range by one pixel at a time, and the search range at a new pixel position can be calculated by only these three determinations. It becomes possible.

また、本発明における動きベクトル推定手段31で実行される動きベクトル推定計算では、探索範囲内の前後フレーム画像の各画素の輝度勾配情報を用いることで高精度化することも可能である。そこで、輝度変化情報算出手段362は、前フレーム画像の水平および垂直方向のライン輝度変化指標LH1およびLV1と後フレーム画像の水平および垂直方向のライン輝度変化指標LH2およびLV2とを輝度変化情報として動きベクトル推定手段31に出力する。この場合、例えば、画素位置(x,y)の注目補間画素において、探索範囲φ(x,y)内の前フレーム画像の画素位置(x+u,y+v)の輝度勾配は、LH1(x,y,φ(x,y),v)が単調増加、LV1(x,y,φ(x,y),u)が単調減少の場合、垂直方向に増加、水平方向に減少といえ、輝度勾配を決定することが可能になる。   Further, in the motion vector estimation calculation executed by the motion vector estimation means 31 in the present invention, it is possible to increase the accuracy by using the luminance gradient information of each pixel of the preceding and following frame images within the search range. Therefore, the luminance change information calculating unit 362 moves the horizontal and vertical line luminance change indexes LH1 and LV1 of the previous frame image and the horizontal and vertical line luminance change indexes LH2 and LV2 of the subsequent frame image as luminance change information. It outputs to the vector estimation means 31. In this case, for example, in the target interpolation pixel at the pixel position (x, y), the luminance gradient of the pixel position (x + u, y + v) of the previous frame image within the search range φ (x, y) is LH1 ( When x, y, φ (x, y), v) is monotonically increasing and LV1 (x, y, φ (x, y), u) is monotonically decreasing, it can be said that it increases in the vertical direction and decreases in the horizontal direction. It becomes possible to determine the brightness gradient.

しかし、LH1(x,y,φ(x,y),v)またはLV1(x,y,φ(x,y),u)が上に凸または下に凸である場合には、水平または垂直方向に増加か減少かを記述することは難しい。また、図9に示すように、上に凸または下に凸の指標を持つラインにおいて極大値または極小値付近で隣り合う画素の輝度変化指標が0(平坦)である場合、増加と減少の両方に捉えられる領域が発生する。そこで、輝度変化情報算出手段362は、上に凸または下に凸の指標を持つラインについては、極大値または極小値付近の隣り合う画素の輝度変化指標が0(平坦)である領域の端点の位置を付加し輝度変化情報として出力することで、ライン中の各画素が増加か減少かまたはその両方かを分別することを可能にする。   However, if LH1 (x, y, φ (x, y), v) or LV1 (x, y, φ (x, y), u) is convex upward or convex downward, horizontal or vertical It is difficult to describe whether the direction is increasing or decreasing. In addition, as shown in FIG. 9, when the luminance change index of a pixel adjacent in the vicinity of the maximum value or the minimum value is 0 (flat) in a line having an upward or downward convex index, both increase and decrease An area that can be captured is generated. Therefore, the luminance change information calculation unit 362 has, for a line having an upwardly convex or downwardly convex index, an end point of an area where the luminance change index of adjacent pixels near the maximum value or the minimum value is 0 (flat). By adding the position and outputting it as luminance change information, it is possible to discriminate whether each pixel in the line is increased or decreased or both.

動きベクトル推定手段31は、前後入力フレーム画像と補間画素毎の探索範囲および輝度変化情報を入力し、各補間画素の動きベクトルを推定し、動き補償補間手段32に出力する。各補間画素の動きベクトルは、探索範囲があらかじめ用意されたパターンとのマッチングにより算出された場合、輝度変化情報にかかわらず式(1)や式(2)で表されるブロックマッチング法を用いて推定される。また、探索範囲を隣接する画素間での輝度値の変化の指標をもとに算出した場合には、画素位置(x,y)の補間画素における動きベクトル(dx(x,y),dy(x,y))を、入力された輝度変化情報からマッチングを取るペアが同一輝度勾配であるかどうか判別し、ブロックマッチング法を用いて式(8)や式(9)で表される評価関数P(x,y,dx,dy)を最小化するdx,dyとすることで算出してもよい。ただし、dxおよびdyの範囲は、補間画素毎に、探索範囲算出手段36から入力される探索範囲をもとに-(φ(x,y)-1)/2 ≦ dx,dy ≦ (φ(x,y)-1)/2となるよう設定される。また、F1(x,y)およびF2(x,y)はそれぞれ画素位置(x,y)における前フレーム画像および後フレーム画像の画素値、Blはブロックサイズを表す。
The motion vector estimation unit 31 inputs the front and rear input frame images, the search range for each interpolation pixel and the luminance change information, estimates the motion vector of each interpolation pixel, and outputs the motion vector to the motion compensation interpolation unit 32. When the motion vector of each interpolated pixel is calculated by matching with a pattern whose search range is prepared in advance, the block matching method represented by Expression (1) or Expression (2) is used regardless of the luminance change information. Presumed. In addition, when the search range is calculated based on an index of change in luminance value between adjacent pixels, the motion vector (dx (x, y), dy ( x, y)) is determined from the input luminance change information as to whether or not the pair to be matched has the same luminance gradient, and the evaluation function represented by the equation (8) or the equation (9) using the block matching method It may be calculated by setting d (x, dy) to minimize P (x, y, dx, dy). However, the range of dx and dy is-(φ (x, y) -1) / 2 ≦ dx, dy ≦ (φ () based on the search range input from the search range calculation means 36 for each interpolation pixel. x, y) -1) / 2. F1 (x, y) and F2 (x, y) are the pixel values of the previous frame image and the rear frame image at the pixel position (x, y), respectively, and Bl is the block size.

同一輝度勾配であるかどうかの判別は、輝度変化情報から、前後フレーム画像のマッチングを取る画素位置における水平および垂直方向の輝度勾配を読み出し、マッチングを取る画素間でそれぞれの方向についての輝度勾配が一致しているかどうかを確認することで判断される。ただし、注目画素のある方向への輝度勾配が平坦な場合、または図9に示すラインの画素"L"〜画素"R"のように、極大・極小値付近で増加か減少か曖昧である場合は、増加および減少の両方に当てはまると考えることとする。   Whether the luminance gradient is the same or not is determined by reading out the luminance gradient in the horizontal and vertical directions at the pixel position for matching the preceding and following frame images from the luminance change information, and the luminance gradient in each direction between the pixels to be matched. Judgment is made by checking whether they match. However, when the luminance gradient in a certain direction of the target pixel is flat, or when the increase or decrease is near the maximum / minimum values, such as pixels “L” to “R” on the line shown in FIG. Is considered to apply to both increases and decreases.

探索範囲評価手段34は、探索範囲算出手段36から出力される各補間画素における探索範囲を入力とし、各補間画素位置における動きベクトルの確信度を表す探索範囲評価結果を補間画像合成手段35に出力する。
探索範囲算出手段36から出力される探索範囲が狭いことは、入力フレーム画像の注目補間画素位置周辺の比較的近い位置において、繰り返しパターン等の類似した複数のパターンが存在することを意味する。一方、探索範囲算出手段36から出力される探索範囲が十分広いことは、入力フレーム画像の注目補間画素位置周辺において、類似した複数のパターンが存在しないことを意味する。探索範囲算出手段36から出力される探索範囲は、類似した複数のパターンが存在する領域においても発生する頻度の高い最も短い動きベクトルを推定するように設定されるが、その際に推定される動きベクトルが正しい可能性は、そのようなパターンが存在しない領域において推定される動きベクトルが正しい可能性が低くなる。そのため、探索範囲算出手段36から出力される探索範囲が狭い場合の動きベクトル推定手段31にて推定される動きベクトルの確信度は、探索範囲が広い場合と比較して低くなるといえる。
The search range evaluation unit 34 receives the search range in each interpolation pixel output from the search range calculation unit 36 and outputs a search range evaluation result indicating the certainty of the motion vector at each interpolation pixel position to the interpolation image synthesis unit 35. To do.
The narrow search range output from the search range calculation means 36 means that there are a plurality of similar patterns such as repetitive patterns at relatively close positions around the target interpolation pixel position of the input frame image. On the other hand, the fact that the search range output from the search range calculation means 36 is sufficiently wide means that a plurality of similar patterns do not exist around the target interpolation pixel position of the input frame image. The search range output from the search range calculation means 36 is set so as to estimate the shortest motion vector that frequently occurs even in a region where a plurality of similar patterns exist. The possibility that the vector is correct is less likely that the motion vector estimated in an area where such a pattern does not exist is correct. Therefore, it can be said that the certainty of the motion vector estimated by the motion vector estimation unit 31 when the search range output from the search range calculation unit 36 is narrow is lower than that when the search range is wide.

そこで、探索範囲評価手段34は、画素位置(x,y)における探索範囲(φ(x,y)×φ(x,y))をもとに、動きベクトル推定の確信度を表す探索範囲評価結果α(x,y)(0≦α(x,y)≦1)を、φ(x,y)が大きくなるほど1に近づき、φ(x,y)小さくなるほど0に近づくように設定し、補間画像合成手段35に出力する。α(x,y)の算出方法の一例を式(10)に示す。ただし、Tr1およびTr2はあらかじめ設定される閾値である。
Therefore, the search range evaluation means 34 is a search range evaluation that represents the certainty of motion vector estimation based on the search range (φ (x, y) × φ (x, y)) at the pixel position (x, y). The result α (x, y) (0 ≦ α (x, y) ≦ 1) is set so that it approaches 1 as φ (x, y) increases and approaches 0 as φ (x, y) decreases, Output to the interpolated image synthesis means 35. An example of a method for calculating α (x, y) is shown in Expression (10). However, Tr1 and Tr2 are preset threshold values.

補間画像合成手段35は、動き補償補間画像と0ベクトル補間画像と探索範囲評価結果とを入力とし、探索範囲評価結果をもとに動き補償補間画像と0ベクトル補間画像とを合成し、補間フレーム画像を生成する。補間フレーム画像を生成する一例を式(11)に示す。ただし、Fo(x,y)は、画素位置(x,y)における補間フレーム画像の画素値を表す。
The interpolation image synthesis means 35 receives the motion compensated interpolation image, the 0 vector interpolation image, and the search range evaluation result, and synthesizes the motion compensated interpolation image and the 0 vector interpolation image based on the search range evaluation result. Generate an image. An example of generating an interpolated frame image is shown in Equation (11). However, Fo (x, y) represents the pixel value of the interpolated frame image at the pixel position (x, y).

次に、図1および図10のフローチャートを参照して、本実施の形態の全体の動作について詳細に説明する。
探索範囲算出手段36は、入力された前後フレーム画像の各画素に基づいて、動きベクトルを推定するための探索範囲とその探索範囲内の前後フレーム画像の輝度変化を表す輝度変化情報を算出する(S001)。
動きベクトル推定手段31は、補間画素毎に、入力される探索範囲とその探索範囲内の輝度変化情報をもとに、ブロックマッチング法を用いて動きベクトルを推定する(S002)
動き補償補間手段32は、推定された動きベクトルをもとに、入力された前フレーム画像と後フレーム画像とを合成し動き補償補間画像を生成する(S003)。
0ベクトル補間手段33は、入力された前フレーム画像と後フレーム画像とから0ベクトル補間画像を生成する(S004)。
探索範囲評価手段36は、補間画素毎に、動きベクトル推定の探索範囲から探索範囲評価結果を算出する(S005)。
補間画像合成手段35は、動き補償補間画像と0ベクトル補間画像とを探索範囲評価結果をもとに合成し、補間フレーム画像を生成する(S006)。
Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS.
The search range calculation unit 36 calculates the search range for estimating the motion vector and the luminance change information representing the luminance change of the previous and next frame images within the search range based on the input pixels of the previous and next frame images ( S001).
The motion vector estimation means 31 estimates a motion vector for each interpolation pixel using the block matching method based on the input search range and the luminance change information in the search range (S002).
Based on the estimated motion vector, the motion compensation interpolation unit 32 synthesizes the input previous frame image and the subsequent frame image to generate a motion compensation interpolation image (S003).
The zero vector interpolation means 33 generates a zero vector interpolation image from the input previous frame image and subsequent frame image (S004).
The search range evaluation means 36 calculates a search range evaluation result from the search range of motion vector estimation for each interpolation pixel (S005).
The interpolated image synthesizing unit 35 synthesizes the motion compensated interpolated image and the 0 vector interpolated image based on the search range evaluation result to generate an interpolated frame image (S006).

なお、本実施の形態においては、補間画素位置を中心として類似した凸曲面となるような範囲を探索範囲とすることにより、入力された前後フレーム画像内において互いに類似する2つの画像パターンを共に含むことがないように探索範囲が決定される。ここで、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元座空間において、補間画素の位置を中心とする前後フレーム画像の各々の画素値の分布が、探索範囲の境界を除く範囲に含まれる極大点および極小点の合計数が1つ以下となる範囲を探索範囲とすることにより、入力された前後フレーム画像内において互いに類似する2つの画像パターンを共に含むことがないように探索範囲を決定してもよい。   In the present embodiment, by setting a range that has a similar convex curved surface with the interpolation pixel position as the center as a search range, two similar image patterns are included in the input previous and subsequent frame images. The search range is determined so as not to occur. Here, in a three-dimensional locus space in which the pixel position is taken on the X axis and the Y axis, and the pixel value is taken on the Z axis, the distribution of the pixel values of the preceding and following frame images centered on the position of the interpolation pixel is the search range. By making a search range a range in which the total number of local maximum points and local minimum points included in the range excluding the boundary is 1 or less, two similar image patterns can be included in the input previous and subsequent frame images. The search range may be determined so as not to exist.

第二の実施の形態.
図11は、本発明による第二の実施の形態にかかる画像処理装置の構成を示すブロック図である。図11を参照すると、本発明による第二の実施の形態にかかる画像処理装置は、探索範囲算出手段36と動きベクトル推定手段31と動き補償補間手段32と0ベクトル補間手段33と探索範囲評価手段34と輝度変化情報評価手段47と補間画像合成手段45とから構成される。本発明による第二の実施の形態にかかる画像処理装置の構成は、前記第一の実施の形態にかかる画像処理装置の構成と比較して、輝度変化情報評価手段47と補間画像合成手段45において異なる。以下、輝度変化情報評価手段47と補間画像合成手段45の詳細を説明する。なお、動き補償補間手段32、0ベクトル補間手段33、探索範囲評価手段34、補間画像合成手段35及び輝度変化情報評価手段47は、補間画像生成手段として機能する。
Second embodiment.
FIG. 11 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention. Referring to FIG. 11, the image processing apparatus according to the second embodiment of the present invention includes a search range calculation means 36, a motion vector estimation means 31, a motion compensation interpolation means 32, a 0 vector interpolation means 33, and a search range evaluation means. 34, luminance change information evaluation means 47, and interpolation image synthesis means 45. The configuration of the image processing apparatus according to the second embodiment of the present invention is different from the configuration of the image processing apparatus according to the first embodiment in the luminance change information evaluation unit 47 and the interpolated image synthesis unit 45. Different. Details of the luminance change information evaluation unit 47 and the interpolated image synthesis unit 45 will be described below. The motion compensation interpolation unit 32, the 0 vector interpolation unit 33, the search range evaluation unit 34, the interpolation image synthesis unit 35, and the luminance change information evaluation unit 47 function as an interpolation image generation unit.

輝度変化情報評価手段47は、探索範囲算出手段36から出力される輝度変化情報を入力とし、補間画素毎の、輝度変化情報から推測される推定された動きベクトルの確信度を表す輝度変化情報評価結果を補間画像合成手段35に出力する。
一般に、補間画素位置における前後フレーム画像の輝度変化が複雑である場合に比べ、同一範囲内の輝度変化が単純である場合の方が正確な動きベクトルを求めやすいといえる。そこで、輝度変化情報評価手段47は、画素位置(x,y)における輝度変化情報評価結果β(x,y)(0≦β(x,y)≦1)を、入力される輝度変化情報をもとに決定する。輝度変化情報評価結果は、探索範囲があらかじめ用意されたパターンとのマッチングにより算出された場合には、あらかじめ設定されている輝度変化情報の組み合わせに応じた値により決定する。この値は、例えば、任意の記憶手段(図示せず)に格納しておき、輝度変化情報評価手段47がこれを読み出すことにより取得するようにしてもよい。また、探索範囲を隣接する画素間での輝度値の変化の指標をもとに算出した場合には、その探索範囲における輝度変化情報内のライン輝度変化指標を用いて以下のように決定する。
The luminance change information evaluation unit 47 receives the luminance change information output from the search range calculation unit 36, and evaluates the luminance change information indicating the certainty of the estimated motion vector estimated from the luminance change information for each interpolation pixel. The result is output to the interpolated image synthesis means 35.
In general, it can be said that it is easier to obtain an accurate motion vector when the luminance change within the same range is simple than when the luminance change of the preceding and following frame images at the interpolation pixel position is complicated. Therefore, the luminance change information evaluation unit 47 uses the luminance change information evaluation result β (x, y) (0 ≦ β (x, y) ≦ 1) at the pixel position (x, y) as input luminance change information. Decide on the basis. When the search range is calculated by matching with a pattern prepared in advance, the luminance change information evaluation result is determined by a value corresponding to a preset combination of luminance change information. This value may be stored, for example, in an arbitrary storage means (not shown) and acquired by the luminance change information evaluation means 47 reading it out. In addition, when the search range is calculated based on the index of change in luminance value between adjacent pixels, the search range is determined as follows using the line luminance change index in the luminance change information in the search range.

まず、輝度変化情報を、前記ライン輝度変化指標をもとに、以下のカテゴリーのいずれかに分類する。
カテゴリー1.全てのライン輝度変化指標が、平坦である。
カテゴリー2.全てのライン輝度変化指標が、平坦または単調増加、もしくは平坦または単調減少である。
カテゴリー3.全てのライン輝度変化指標が、平坦または単調増加または単調減少である。
カテゴリー4.上に凸または下に凸であるライン輝度変化指標を含む
次に、あらかじめカテゴリー1の輝度変化情報評価結果>カテゴリー2の輝度変化情報評価結果>カテゴリー3の輝度変化情報評価結果>カテゴリー4の輝度変化情報評価結果となるようにβ(x,y)を決定する。例えば、任意の記憶手段(図示せず)に格納されているテーブルから対応カテゴリーの値を読み出し、β(x,y)に代入する。
First, the luminance change information is classified into one of the following categories based on the line luminance change index.
Category 1. All the line brightness change indexes are flat.
Category 2. All line brightness change indicators are flat or monotonically increasing or flat or monotonically decreasing.
Category 3. All the line brightness change indexes are flat or monotonically increasing or monotonically decreasing.
Category 4. Line brightness change index that is convex upward or downward is included. Next, luminance change information evaluation result of category 1> luminance change information evaluation result of category 2> luminance change information evaluation result of category 3> luminance of category 4 Β (x, y) is determined so that the change information evaluation result is obtained. For example, the value of the corresponding category is read from a table stored in an arbitrary storage means (not shown) and substituted for β (x, y).

補間画像合成手段45は、動き補償補間画像と0ベクトル補間画像と探索範囲評価結果と輝度変化情報評価結果とを入力とし、探索範囲評価結果と輝度変化情報評価結果とから算出される各補間画素の合成重みをもとに、動き補償補間画像と0ベクトル補間画像とを式(12)のように合成し、補間フレーム画像を生成する。ただし、w1(x,y)は、画素位置(x,y)における合成重みを表す。
The interpolated image synthesis means 45 receives the motion compensated interpolated image, the zero vector interpolated image, the search range evaluation result, and the luminance change information evaluation result, and calculates each interpolation pixel calculated from the search range evaluation result and the luminance change information evaluation result. The motion compensated interpolation image and the 0 vector interpolation image are synthesized as shown in Expression (12) based on the synthesis weight of (1) to generate an interpolation frame image. However, w1 (x, y) represents the composite weight at the pixel position (x, y).

各補間画素の合成重みは、式(13)や式(14)や式(15)をもとに算出する。
The composite weight of each interpolation pixel is calculated based on Expression (13), Expression (14), and Expression (15).

次に、図11および図12のフローチャートを参照して、本実施の形態の全体の動作について詳細に説明する。
探索範囲算出手段36は、入力された前後フレーム画像の各画素に基づいて、動きベクトルを推定するための探索範囲とその探索範囲内の前後フレーム画像の輝度変化を表す輝度変化情報を算出する(S101)。
動きベクトル推定手段31は、補間画素毎に、入力される探索範囲とその探索範囲内の輝度変化情報をもとに、ブロックマッチング法を用いて動きベクトルを推定する(S102)。
動き補償補間手段32は、推定された動きベクトルをもとに、入力された前フレーム画像と後フレーム画像とを合成し動き補償補間画像を生成する(S103)。
0ベクトル補間手段33は、入力された前フレーム画像と後フレーム画像とから0ベクトル補間画像を生成する(S104)。
探索範囲評価手段36は、補間画素毎に、動きベクトル推定の探索範囲から探索範囲評価結果を算出する(S105)。
輝度変化情報評価手段47は、補間画素毎に、動きベクトル推定の探索範囲内の輝度変化情報から輝度変化情報評価結果を算出する(S106)。
補間画像合成手段45は、動き補償補間画像と0ベクトル補間画像とを探索範囲評価結果と輝度変化情報評価結果とから算出される合成重みをもとに合成し、補間フレーム画像を生成する(S107)。
Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. 11 and 12.
The search range calculation unit 36 calculates the search range for estimating the motion vector and the luminance change information representing the luminance change of the previous and next frame images within the search range based on the input pixels of the previous and next frame images ( S101).
The motion vector estimation means 31 estimates a motion vector using the block matching method based on the input search range and luminance change information in the search range for each interpolation pixel (S102).
The motion compensation interpolation unit 32 combines the input previous frame image and the subsequent frame image based on the estimated motion vector to generate a motion compensation interpolation image (S103).
The zero vector interpolation means 33 generates a zero vector interpolation image from the input previous frame image and subsequent frame image (S104).
The search range evaluation unit 36 calculates a search range evaluation result from the search range of motion vector estimation for each interpolation pixel (S105).
The luminance change information evaluation unit 47 calculates the luminance change information evaluation result from the luminance change information within the search range of motion vector estimation for each interpolation pixel (S106).
The interpolated image synthesizing unit 45 synthesizes the motion compensated interpolated image and the 0 vector interpolated image based on the synthesized weight calculated from the search range evaluation result and the luminance change information evaluation result, and generates an interpolated frame image (S107). ).

第三の実施の形態.
図13は、本発明による第三の実施の形態にかかる画像処理装置の構成を示すブロック図である。図13を参照すると、本発明による第三の実施の形態にかかる画像処理装置は、探索範囲算出手段36と動きベクトル推定手段51と動き補償補間手段32と0ベクトル補間手段33と探索範囲評価手段34と輝度変化情報評価手段47とブロック差分評価手段58と補間画像合成手段55とから構成される。本発明による第三の実施の形態にかかる画像処理装置の構成は、前記第二の実施の形態にかかる画像処理装置の構成と比較して、動きベクトル推定手段51とブロック差分評価手段58と補間画像合成手段55において異なる。以下、動きベクトル推定手段51とブロック差分評価手段58と補間画像合成手段55の詳細を説明する。なお、動き補償補間手段32、0ベクトル補間手段33、探索範囲評価手段34、補間画像合成手段35、輝度変化情報評価手段47及びブロック差分評価手段58は、補間画像生成手段として機能する。
Third embodiment.
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the third embodiment of the present invention. Referring to FIG. 13, the image processing apparatus according to the third embodiment of the present invention includes a search range calculation means 36, a motion vector estimation means 51, a motion compensation interpolation means 32, a 0 vector interpolation means 33, and a search range evaluation means. 34, luminance change information evaluation means 47, block difference evaluation means 58, and interpolated image composition means 55. Compared with the configuration of the image processing apparatus according to the second embodiment, the configuration of the image processing apparatus according to the third embodiment of the present invention includes a motion vector estimation unit 51, a block difference evaluation unit 58, and an interpolation. It differs in the image composition means 55. Details of the motion vector estimation unit 51, the block difference evaluation unit 58, and the interpolated image synthesis unit 55 will be described below. The motion compensation interpolation unit 32, the 0 vector interpolation unit 33, the search range evaluation unit 34, the interpolation image synthesis unit 35, the luminance change information evaluation unit 47, and the block difference evaluation unit 58 function as an interpolation image generation unit.

動きベクトル推定手段51は、前後フレーム画像と補間画素毎の探索範囲および輝度変化情報を入力し、各補間画素の動きベクトルを推定し、補間画素毎に動きベクトルを動き補償補間手段32に、ブロック差分値をブロック差分評価手段58に出力する。動きベクトル推定手段51は、前記第一および第二の実施の形態における動きベクトル推定手段31と比較して、補間画素毎のブロック差分値を出力する点で異なる。画素位置(x,y)の補間画素におけるブロック差分値S(x,y)は、推定された動きベクトル(dx(x),dy(y))の時の評価関数の値(P0(x,y,dx(x),dy(y))またはP(x,y,dx(x),dy(y)))である。   The motion vector estimation means 51 receives the preceding and following frame images, the search range for each interpolation pixel and the luminance change information, estimates the motion vector of each interpolation pixel, and blocks the motion vector for each interpolation pixel to the motion compensation interpolation means 32. The difference value is output to the block difference evaluation means 58. The motion vector estimation means 51 differs from the motion vector estimation means 31 in the first and second embodiments in that it outputs a block difference value for each interpolation pixel. The block difference value S (x, y) at the interpolated pixel at the pixel position (x, y) is the value of the evaluation function (P0 (x, y, y)) for the estimated motion vector (dx (x), dy (y)). y, dx (x), dy (y)) or P (x, y, dx (x), dy (y))).

ブロック差分評価手段58は、動きベクトル推定手段51から出力される各補間画素におけるブロック差分値を入力とし、ブロック差分値をもとにした各補間画素位置における動きベクトルの確信度を表すブロック差分評価結果を補間画像合成手段35に出力する。
ブロック差分値は、推定された動きベクトルで対応付けられる前後フレーム画像の画素ペアの類似度を表し、ブロック差分値が小さいほど類似度が高く、ブロック差分値が大きいほど類似度が低いことを意味する。そのため、動きベクトル推定手段51にて推定される動きベクトルの確信度は、ブロック差分値が大きい場合はブロック差分値が小さい場合と比較して低くなるといえる。そこで、ブロック差分評価手段58は、画素位置(x,y)におけるブロック差分値S(x,y)をもとに、ブロック差分評価結果γ(x,y)(0≦γ(x,y)≦1)を、S(x,y)が小さくなるほど1に近づき、S(x,y)が大きくなるほど0に近づくように設定し、出力する。γ(x,y)の算出方法の一例を式(16)に示す。ただし、Tb1およびTb2はあらかじめ設定される閾値である。
The block difference evaluation means 58 receives the block difference value at each interpolation pixel output from the motion vector estimation means 51 as an input, and the block difference evaluation representing the certainty of the motion vector at each interpolation pixel position based on the block difference value. The result is output to the interpolated image synthesis means 35.
The block difference value represents the similarity between the pixel pairs of the preceding and following frame images associated with the estimated motion vector. The smaller the block difference value, the higher the similarity, and the larger the block difference value, the lower the similarity. To do. Therefore, it can be said that the certainty factor of the motion vector estimated by the motion vector estimation means 51 is lower when the block difference value is larger than when the block difference value is small. Therefore, the block difference evaluation means 58 uses the block difference evaluation result γ (x, y) (0 ≦ γ (x, y)) based on the block difference value S (x, y) at the pixel position (x, y). ≦ 1) is set so as to approach 1 as S (x, y) decreases, and approaches 0 as S (x, y) increases, and output. An example of a method for calculating γ (x, y) is shown in Expression (16). However, Tb1 and Tb2 are preset threshold values.

補間画像合成手段55は、動き補償補間画像と0ベクトル補間画像と探索範囲評価結果と輝度変化情報評価結果とブロック差分評価結果とを入力とし、探索範囲評価結果と輝度変化情報評価結果とブロック差分評価結果とから算出される各補間画素の合成重みをもとに、動き補償補間画像と0ベクトル補間画像とを式(17)のように合成し、補間フレーム画像を生成する。ただし、w2(x,y)は、画素位置(x,y)における合成重みを表す。
The interpolated image synthesizing means 55 receives the motion compensated interpolated image, the 0 vector interpolated image, the search range evaluation result, the luminance change information evaluation result, and the block difference evaluation result, and inputs the search range evaluation result, the luminance change information evaluation result, and the block difference. Based on the synthesis weight of each interpolation pixel calculated from the evaluation result, the motion compensated interpolation image and the 0 vector interpolation image are synthesized as in Expression (17) to generate an interpolation frame image. However, w2 (x, y) represents the composite weight at the pixel position (x, y).

各補間画素の合成重みは、式(18)や式(19)や式(20)をもとに算出する。
The composite weight of each interpolation pixel is calculated based on Equation (18), Equation (19), and Equation (20).

次に、図13および図14のフローチャートを参照して、本実施の形態の全体の動作について詳細に説明する。
探索範囲算出手段36は、入力された前後フレーム画像の各画素に基づいて、動きベクトルを推定するための探索範囲とその探索範囲内の前後フレーム画像の輝度変化を表す輝度変化情報を算出する(S201)。
動きベクトル推定手段51は、補間画素毎に、入力される探索範囲とその探索範囲内の輝度変化情報をもとに、ブロックマッチング法を用いて動きベクトルを推定し、動きベクトルとその時のブロック差分値を出力する(S202)
動き補償補間手段12は、推定された動きベクトルをもとに、入力された前フレーム画像と後フレーム画像とを合成し動き補償補間画像を生成する(S203)。
0ベクトル補間手段13は、入力された前フレーム画像と後フレーム画像とから0ベクトル補間画像を生成する(S204)。
探索範囲評価手段36は、補間画素毎に、動きベクトル推定の探索範囲から探索範囲評価結果を算出する(S205)。
輝度変化情報評価手段47は、補間画素毎に、動きベクトル推定の探索範囲内の輝度変化情報から輝度変化情報評価結果を算出する(S206)。
ブロック差分評価手段58は、補間画素毎に、ブロック差分値からブロック差分評価結果を算出する(S207)。
補間画像合成手段55は、動き補償補間画像と0ベクトル補間画像とを探索範囲評価結果と輝度変化情報評価結果とブロック差分評価結果とから算出される合成重みをもとに合成し、補間フレーム画像を生成する(S208)。
Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS.
The search range calculation unit 36 calculates the search range for estimating the motion vector and the luminance change information representing the luminance change of the previous and next frame images within the search range based on the input pixels of the previous and next frame images ( S201).
The motion vector estimation means 51 estimates the motion vector using the block matching method based on the input search range and the luminance change information in the search range for each interpolation pixel, and the motion vector and the block difference at that time The value is output (S202)
The motion compensation interpolation unit 12 synthesizes the input previous frame image and the subsequent frame image based on the estimated motion vector to generate a motion compensation interpolation image (S203).
The zero vector interpolation means 13 generates a zero vector interpolation image from the input previous frame image and subsequent frame image (S204).
The search range evaluation unit 36 calculates a search range evaluation result from the search range of motion vector estimation for each interpolation pixel (S205).
The luminance change information evaluation unit 47 calculates a luminance change information evaluation result from the luminance change information within the search range of motion vector estimation for each interpolation pixel (S206).
The block difference evaluation means 58 calculates a block difference evaluation result from the block difference value for each interpolation pixel (S207).
The interpolation image synthesis means 55 synthesizes the motion compensated interpolation image and the 0 vector interpolation image based on the synthesis weight calculated from the search range evaluation result, the luminance change information evaluation result, and the block difference evaluation result, Is generated (S208).

以上に説明したように本実施の形態にかかる画像処理装置は、補間画素位置の周辺における前後フレーム画像内の輝度変化を調べることで、動きベクトル推定の範囲を画質劣化の生じにくい範囲に限定し、またその範囲の広さから動きベクトル推定の確信度を算出することで誤った動きベクトルを用いた補間を抑制するため、繰り返しパターン領域を有する入力フレーム画像に対しても高画質な補間フレーム画像を生成し出力することができる。   As described above, the image processing apparatus according to the present embodiment limits the range of motion vector estimation to a range in which image quality degradation is unlikely to occur by examining the luminance change in the preceding and following frame images around the interpolation pixel position. In addition, in order to suppress interpolation using an incorrect motion vector by calculating the certainty of motion vector estimation from the range of the range, high-quality interpolated frame images even for input frame images having repetitive pattern regions Can be generated and output.

以上に説明した本発明にかかる画像処理装置は、上述の実施の形態の機能を実現するプログラムを記憶した記憶媒体をシステムもしくは装置に供給し、システムあるいは装置の有するコンピュータ又はCPU(Central Processing Unit)、MPU(Micro Processing Unit)がこのプログラムを実行することによって、構成することが可能である。
また、このプログラムは様々な種類の記憶媒体に格納することが可能であり、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc)、ROM(Read Only Memory)カートリッジ、バッテリバックアップ付きRAM(Random Access Memory)メモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジを含む。また、通信媒体には、電話回線の有線通信媒体、マイクロ波回線の無線通信媒体を含み、インターネットも含まれる。
The image processing apparatus according to the present invention described above supplies a storage medium storing a program for realizing the functions of the above-described embodiments to the system or apparatus, and the computer or CPU (Central Processing Unit) included in the system or apparatus. MPU (Micro Processing Unit) can be configured by executing this program.
In addition, this program can be stored in various types of storage media and can be transmitted via a communication medium. Here, the storage medium includes, for example, a flexible disk, hard disk, magnetic disk, magneto-optical disk, CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disc), BD (Blu-ray Disc), ROM ( A read only memory (RAM) cartridge, a battery backup RAM (Random Access Memory) memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge are included. The communication medium includes a telephone line wired communication medium and a microwave line wireless communication medium, and includes the Internet.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現されるだけではなく、このプログラムの指示に基づき、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトと共同して上述の実施の形態の機能が実現される場合も、発明の実施の形態に含まれる。
さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットにより行われて上述の実施の形態の機能が実現される場合も、発明の実施の形態に含まれる。
Further, when the computer executes the program that realizes the functions of the above-described embodiment, not only the functions of the above-described embodiment are realized, but also the computer is operating on the basis of the instructions of this program. A case where the functions of the above-described embodiment are realized in cooperation with an OS (Operating System) or application software is also included in the embodiment of the invention.
Further, when the functions of the above-described embodiment are realized by performing all or part of the processing of the program by a function expansion board inserted into the computer or a function expansion unit connected to the computer, the present invention may be implemented. It is included in the form.

本発明は、入力された前後フレーム画像から補間フレーム画像を生成することでフレームレートを変換するフレームレート変換装置に適用することができる。   The present invention can be applied to a frame rate conversion device that converts a frame rate by generating an interpolated frame image from the input previous and subsequent frame images.

31、51、61 動きベクトル推定手段
32 動き補償補間手段
33 0ベクトル補間手段
34 探索範囲評価手段
35、45、55 補間画像合成手段
36、62 探索範囲算出手段
47 輝度変化情報評価手段
58 ブロック差分評価手段
63 補間画像生成手段
361 輝度変化指標計算手段
362 輝度変化情報計算手段
31, 51, 61 Motion vector estimation means 32 Motion compensation interpolation means 33 0 Vector interpolation means 34 Search range evaluation means 35, 45, 55 Interpolated image synthesis means 36, 62 Search range calculation means 47 Luminance change information evaluation means 58 Block difference evaluation Means 63 Interpolated image generation means 361 Brightness change index calculation means 362 Brightness change information calculation means

Claims (36)

複数のフレーム画像間に内挿する補間フレーム画像を生成する画像処理装置であって、
前記複数のフレーム画像の各フレーム内の画素値の変化に基づいて、前記補間フレーム画像に含まれる補間画素の動きベクトルの探索範囲を算出する探索範囲算出手段と、
前記探索範囲算出手段が算出した探索範囲内において、前記動きベクトルを推定する動きベクトル推定手段と、
前記動きベクトル推定手段が推定した動きベクトルに基づいて、前記補間フレーム画像を生成する補間画像生成手段を備え
前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が凸曲面となる範囲である、
画像処理装置。
An image processing device for generating an interpolated frame image to be interpolated between a plurality of frame images,
Search range calculation means for calculating a search range of a motion vector of an interpolation pixel included in the interpolation frame image based on a change in a pixel value in each frame of the plurality of frame images;
Motion vector estimation means for estimating the motion vector within the search range calculated by the search range calculation means;
Interpolation image generation means for generating the interpolation frame image based on the motion vector estimated by the motion vector estimation means ,
The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. A range of convex curves,
Image processing device.
前記探索範囲は、各フレーム画像内において互いに類似する2つの画像パターンを共に含むことがないように決定される請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the search range is determined so as not to include two image patterns similar to each other in each frame image. 前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が、前記探索範囲の境界を除く範囲に含まれる極大点及び極小点の合計数が1つ以下となる範囲である請求項1又は2に記載の画像処理装置。   The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. The image processing apparatus according to claim 1, wherein the total number of local maximum points and local minimum points included in a range excluding the boundary of the search range is one or less. 前記探索範囲は、前記複数のフレーム画像の各々の前記画素値の分布が、前記複数のフレーム画像の各々の間で類似した凸曲面となる範囲である請求項1乃至3のいずれか1項に記載の画像処理装置。 The search range, the distribution of the pixel values of each of the plurality of frame images, in any one of claims 1 to 3 is a range of a similar convex surface between each of the plurality of frame images The image processing apparatus described. 前記探索範囲算出手段は、前記画素値の分布が所定のパターン画像のうちのいずれかと類似する場合に、当該画素値の分布が凸曲面であると判断し、
前記複数のフレーム画像に類似するパターン画像のそれぞれが、予め類似すると定められたパターン画像の組である場合に、前記類似した凸曲面であると判断する請求項に記載の画像処理装置。
The search range calculation unit determines that the distribution of the pixel values is a convex curved surface when the distribution of the pixel values is similar to any of the predetermined pattern images,
The image processing apparatus according to claim 4 , wherein when each of the pattern images similar to the plurality of frame images is a set of pattern images determined to be similar in advance, the image processing apparatus determines that the similar convex curved surface.
前記探索範囲算出手段は、前記フレーム画像の画素位置をX軸およびY軸上にとった場合におけるX軸方向およびY軸方向のそれぞれのラインの画素値の変化の種類を示した情報に基づいて、前記類似した凸曲面となるかどうかを判断する請求項に記載の画像処理装置。 The search range calculation means is based on information indicating the type of change in the pixel value of each line in the X axis direction and the Y axis direction when the pixel position of the frame image is on the X axis and the Y axis. The image processing apparatus according to claim 4 , wherein it is determined whether the similar convex curved surface is obtained. 前記補間画像生成手段は、前記動きベクトルに基づいて生成した動き補償補間画像と、0ベクトルとした動きベクトル又は前記複数のフレーム画像のうちのいずれかのフレーム画像に基づいて生成した0ベクトル補間画像を前記探索範囲の広さに基づいた割合によって合成して、前記補間フレーム画像を生成し、
前記補間画素は、動き補償補間画像に含まれる画素である請求項1乃至のいずれか1項に記載の画像処理装置。
The interpolated image generating means includes a motion compensated interpolated image generated based on the motion vector, and a 0 vector interpolated image generated based on a motion vector set to 0 vector or any one of the plurality of frame images. Are combined by a ratio based on the width of the search range to generate the interpolated frame image,
The interpolation pixels, the image processing apparatus according to any one of claims 1 to 6, which is a pixel included in the motion compensated interpolation image.
前記補間画像生成手段は、前記探索範囲が広くなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 7 , wherein the interpolation image generation unit increases a ratio of synthesizing the motion compensated interpolation image as the search range becomes wider. 前記補間画像生成手段は、さらに前記探索範囲内における前記フレーム画像の画素値の変化に基づいて、前記割合を決定する請求項又はに記載の画像処理装置。 The interpolation image generating unit, and based on the change in pixel value of the frame image in said search range, the image processing apparatus according to claim 7 or 8 to determine the percentage. 前記補間画像生成手段は、前記探索範囲内における前記フレーム画像の画素値の変化が単純になるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項に記載の画像処理装置。 10. The image according to claim 9 , wherein the interpolation image generation unit increases the ratio of synthesizing the motion-compensated interpolation image as the change of the pixel value of the frame image within the search range becomes simple. Processing equipment. 前記補間画像生成手段は、さらに前記複数のフレーム画像の画素値の差分に基づいたブロック差分値に基づいて、前記割合を決定する請求項又は10に記載の画像処理装置。 The interpolation image generating unit, and based on the block difference value based on the difference between the pixel values of the plurality of frame images, the image processing apparatus according to claim 9 or 10 to determine the ratio. 前記補間画像生成手段は、前記ブロック差分値が小さくなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11 , wherein the interpolation image generation unit increases the ratio of synthesizing the motion compensated interpolation image as the block difference value decreases. 複数のフレーム画像間に内挿する補間フレーム画像を生成する画像処理方法であって、
前記複数のフレーム画像の各フレーム内の画素値の変化に基づいて、前記補間フレーム画像に含まれる補間画素の動きベクトルの探索範囲を算出する探索範囲算出ステップと、
前記探索範囲内において、前記動きベクトルを推定する動きベクトル推定ステップと、
前記動きベクトルに基づいて、前記補間フレーム画像を生成する補間画像生成ステップを備え
前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が凸曲面となる範囲である、
画像処理方法。
An image processing method for generating an interpolated frame image to be interpolated between a plurality of frame images,
A search range calculation step of calculating a search range of a motion vector of an interpolation pixel included in the interpolation frame image based on a change in a pixel value in each frame of the plurality of frame images;
A motion vector estimation step for estimating the motion vector within the search range;
An interpolation image generation step of generating the interpolation frame image based on the motion vector ;
The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. A range of convex curves,
Image processing method.
前記探索範囲は、各フレーム画像内において互いに類似する2つの画像パターンを共に含むことがないように決定される請求項13に記載の画像処理方法。 The image processing method according to claim 13 , wherein the search range is determined so as not to include two image patterns similar to each other in each frame image. 前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が、前記探索範囲の境界を除く範囲に含まれる極大点及び極小点の合計数が1つ以下となる範囲である請求項13又は14に記載の画像処理方法。 The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. The image processing method according to claim 13 or 14 , wherein the total number of local maximum points and local minimum points included in a range excluding the boundary of the search range is one or less. 前記探索範囲は、前記複数のフレーム画像の各々の前記画素値の分布が、前記複数のフレーム画像の各々の間で類似した凸曲面となる範囲である請求項13乃至15のいずれか1項に記載の画像処理方法。 16. The search range according to claim 13 , wherein the search range is a range in which a distribution of the pixel values of each of the plurality of frame images becomes a convex curved surface similar to each of the plurality of frame images. The image processing method as described. 前記探索範囲算出ステップでは、前記画素値の分布が所定のパターン画像のうちのいずれかと類似する場合に、当該画素値の分布が凸曲面であると判断し、
前記複数のフレーム画像に類似するパターン画像のそれぞれが、予め類似すると定められたパターン画像の組である場合に、前記類似した凸曲面であると判断する請求項16に記載の画像処理方法。
In the search range calculation step, when the distribution of the pixel values is similar to any one of the predetermined pattern images, it is determined that the distribution of the pixel values is a convex curved surface,
The image processing method according to claim 16 , wherein when each of the pattern images similar to the plurality of frame images is a set of pattern images determined to be similar in advance, it is determined as the similar convex curved surface.
前記探索範囲算出ステップでは、前記フレーム画像の画素位置をX軸およびY軸上にとった場合におけるX軸方向およびY軸方向のそれぞれのラインの画素値の変化の種類を示した情報に基づいて、前記類似した凸曲面となるかどうかを判断する請求項16に記載の画像処理方法。 In the search range calculation step, based on the information indicating the type of change in the pixel value of each line in the X axis direction and the Y axis direction when the pixel position of the frame image is on the X axis and the Y axis. The image processing method according to claim 16 , wherein it is determined whether or not the similar convex curved surface is obtained. 前記補間画像生成ステップでは、前記動きベクトルに基づいて生成した動き補償補間画像と、0ベクトルとした動きベクトル又は前記複数のフレーム画像のうちのいずれかのフレーム画像に基づいて生成した0ベクトル補間画像を前記探索範囲の広さに基づいた割合によって合成して、前記補間フレーム画像を生成し、
前記補間画素は、動き補償補間画像に含まれる画素である請求項13乃至18のいずれか1項に記載の画像処理方法。
In the interpolation image generation step, a motion compensated interpolation image generated based on the motion vector and a 0 vector interpolation image generated based on a motion vector set to 0 vector or any one of the plurality of frame images Are combined by a ratio based on the width of the search range to generate the interpolated frame image,
The interpolation pixels, the image processing method according to any one of claims 13 to 18 is a pixel included in the motion compensated interpolation image.
前記補間画像生成ステップでは、前記探索範囲が広くなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項19に記載の画像処理方法。 20. The image processing method according to claim 19 , wherein, in the interpolation image generation step, the ratio of combining the motion compensated interpolation images is increased as the search range becomes wider. 前記補間画像生成ステップでは、さらに前記探索範囲内における前記フレーム画像の画素値の変化に基づいて、前記割合を決定する請求項19又は20に記載の画像処理方法。 Wherein in the interpolation image generation step, and based on the change in pixel value of the frame image in said search range, the image processing method according to claim 19 or 20 to determine the ratio. 前記補間画像生成ステップでは、前記探索範囲内における前記フレーム画像の画素値の変化が単純になるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項21に記載の画像処理方法。 The image according to claim 21 , wherein, in the interpolation image generation step, the ratio of synthesizing the motion compensated interpolation image is increased as the change in the pixel value of the frame image within the search range becomes simple. Processing method. 前記補間画像生成ステップでは、さらに前記複数のフレーム画像の画素値の差分に基づいたブロック差分値に基づいて、前記割合を決定する請求項21又は22に記載の画像処理方法。 The image processing method according to claim 21 or 22 , wherein in the interpolation image generation step, the ratio is further determined based on a block difference value based on a difference between pixel values of the plurality of frame images. 前記補間画像生成ステップでは、前記ブロック差分値が小さくなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項23に記載の画像処理方法。 24. The image processing method according to claim 23 , wherein, in the interpolation image generation step, the proportion of the motion compensated interpolation image is increased as the block difference value decreases. 複数のフレーム画像間に内挿する補間フレーム画像を生成する画像処理プログラムであって、
前記複数のフレーム画像の各フレーム内の画素値の変化に基づいて、前記補間フレーム画像に含まれる補間画素の動きベクトルの探索範囲を算出する探索範囲算出ステップと、
前記探索範囲内において、前記動きベクトルを推定する動きベクトル推定ステップと、
前記動きベクトルに基づいて、前記補間フレーム画像を生成する補間画像生成ステップを備え
前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が凸曲面となる範囲である、
画像処理プログラム。
An image processing program for generating an interpolated frame image to be interpolated between a plurality of frame images,
A search range calculation step of calculating a search range of a motion vector of an interpolation pixel included in the interpolation frame image based on a change in a pixel value in each frame of the plurality of frame images;
A motion vector estimation step for estimating the motion vector within the search range;
An interpolation image generation step of generating the interpolation frame image based on the motion vector ;
The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. A range of convex curves,
Image processing program.
前記探索範囲は、各フレーム画像内において互いに類似する2つの画像パターンを共に含むことがないように決定される請求項25に記載の画像処理プログラム。 The image processing program according to claim 25 , wherein the search range is determined so as not to include two image patterns similar to each other in each frame image. 前記探索範囲は、画素位置をX軸及びY軸にとり、画素値をZ軸にとった3次元空間において、前記補間画素の位置を中心とする前記複数のフレーム画像の各々の画素値の分布が、前記探索範囲の境界を除く範囲に含まれる極大点及び極小点の合計数が1つ以下となる範囲である請求項25又は26に記載の画像処理プログラム。 The search range includes a distribution of pixel values of each of the plurality of frame images centered on the position of the interpolated pixel in a three-dimensional space in which the pixel position is on the X axis and the Y axis and the pixel value is on the Z axis. the image processing program according to claim 25 or 26 the total number of local maximum points and local minimum point in the range of the one below is included in the range excluding the boundary of the search range. 前記探索範囲は、前記複数のフレーム画像の各々の前記画素値の分布が、前記複数のフレーム画像の各々の間で類似した凸曲面となる範囲である請求項25乃至27のいずれか1項に記載の画像処理プログラム。 28. The search range according to any one of claims 25 to 27, wherein the search range is a range in which the distribution of the pixel values of each of the plurality of frame images becomes a similar convex curved surface between each of the plurality of frame images. The image processing program described. 前記探索範囲算出ステップでは、前記画素値の分布が所定のパターン画像のうちのいずれかと類似する場合に、当該画素値の分布が凸曲面であると判断し、
前記複数のフレーム画像に類似するパターン画像のそれぞれが、予め類似すると定められたパターン画像の組である場合に、前記類似した凸曲面であると判断する請求項28に記載の画像処理プログラム。
In the search range calculation step, when the distribution of the pixel values is similar to any one of the predetermined pattern images, it is determined that the distribution of the pixel values is a convex curved surface,
29. The image processing program according to claim 28 , wherein when each of the pattern images similar to the plurality of frame images is a set of pattern images determined to be similar in advance, the image processing program is determined to be the similar convex curved surface.
前記探索範囲算出ステップでは、前記フレーム画像の画素位置をX軸およびY軸上にとった場合におけるX軸方向およびY軸方向のそれぞれのラインの画素値の変化の種類を示した情報に基づいて、前記類似した凸曲面となるかどうかを判断する請求項28に記載の画像処理プログラム。 In the search range calculation step, based on the information indicating the type of change in the pixel value of each line in the X axis direction and the Y axis direction when the pixel position of the frame image is on the X axis and the Y axis. The image processing program according to claim 28 , wherein it is determined whether or not the similar convex curved surface is obtained. 前記補間画像生成ステップでは、前記動きベクトルに基づいて生成した動き補償補間画像と、0ベクトルとした動きベクトル又は前記複数のフレーム画像のうちのいずれかのフレーム画像に基づいて生成した0ベクトル補間画像を前記探索範囲の広さに基づいた割合によって合成して、前記補間フレーム画像を生成し、
前記補間画素は、動き補償補間画像に含まれる画素である請求項25乃至30のいずれか1項に記載の画像処理プログラム。
In the interpolation image generation step, a motion compensated interpolation image generated based on the motion vector and a 0 vector interpolation image generated based on a motion vector set to 0 vector or any one of the plurality of frame images Are combined by a ratio based on the width of the search range to generate the interpolated frame image,
The interpolation pixels, the image processing program according to any one of claims 25 to 30 is a pixel included in the motion compensated interpolation image.
前記補間画像生成ステップでは、前記探索範囲が広くなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項31に記載の画像処理プログラム。 32. The image processing program according to claim 31 , wherein, in the interpolated image generation step, the ratio of synthesizing the motion compensated interpolated image is increased as the search range becomes wider. 前記補間画像生成ステップでは、さらに前記探索範囲内における前記フレーム画像の画素値の変化に基づいて、前記割合を決定する請求項31又は32に記載の画像処理プログラム。 The image processing program according to claim 31 or 32 , wherein in the interpolation image generation step, the ratio is further determined based on a change in a pixel value of the frame image within the search range. 前記補間画像生成ステップでは、前記探索範囲内における前記フレーム画像の画素値の変化が単純になるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項33に記載の画像処理プログラム。 34. The image according to claim 33 , wherein, in the interpolation image generation step, the ratio of synthesizing the motion compensated interpolation image is increased as the change in the pixel value of the frame image within the search range becomes simple. Processing program. 前記補間画像生成ステップでは、さらに前記複数のフレーム画像の画素値の差分に基づいたブロック差分値に基づいて、前記割合を決定する請求項33又は34に記載の画像処理プログラム。 The image processing program according to claim 33 or 34 , wherein in the interpolation image generation step, the ratio is determined based on a block difference value based on a difference between pixel values of the plurality of frame images. 前記補間画像生成ステップでは、前記ブロック差分値が小さくなるに従って、前記動き補償補間画像を合成する割合を大きくすることを特徴とする請求項35に記載の画像処理プログラム。 36. The image processing program according to claim 35 , wherein, in the interpolated image generation step, the ratio of synthesizing the motion compensated interpolated image is increased as the block difference value decreases.
JP2009015122A 2009-01-27 2009-01-27 Image processing apparatus, image processing method, and image processing program Active JP5251544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009015122A JP5251544B2 (en) 2009-01-27 2009-01-27 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009015122A JP5251544B2 (en) 2009-01-27 2009-01-27 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2010177739A JP2010177739A (en) 2010-08-12
JP5251544B2 true JP5251544B2 (en) 2013-07-31

Family

ID=42708299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009015122A Active JP5251544B2 (en) 2009-01-27 2009-01-27 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5251544B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8558989B2 (en) 2002-11-12 2013-10-15 Asml Netherlands B.V. Lithographic apparatus and device manufacturing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011076795A1 (en) * 2011-05-31 2012-09-20 Robert Bosch Gmbh Method for determining a pitching movement of a camera installed in a vehicle and method for controlling a light emission of at least one headlight of a vehicle
JP6037224B2 (en) 2012-01-11 2016-12-07 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and program
JP2013165488A (en) 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and program
JP2013165485A (en) 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and computer program
JP6222514B2 (en) 2012-01-11 2017-11-01 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and computer program
JP2013165487A (en) 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3020299B2 (en) * 1991-04-24 2000-03-15 沖電気工業株式会社 Motion vector detection device
JP2006178642A (en) * 2004-12-21 2006-07-06 Olympus Corp Apparatus for detecting motion vector
JP4431089B2 (en) * 2005-06-17 2010-03-10 株式会社 日立ディスプレイズ Video interpolation device, frame rate conversion device, and video display device
JP4347347B2 (en) * 2007-02-06 2009-10-21 三菱電機株式会社 Frame interpolation apparatus and frame interpolation method
JP5182530B2 (en) * 2007-07-03 2013-04-17 日本電気株式会社 Image interpolation method, image interpolation apparatus, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8558989B2 (en) 2002-11-12 2013-10-15 Asml Netherlands B.V. Lithographic apparatus and device manufacturing method

Also Published As

Publication number Publication date
JP2010177739A (en) 2010-08-12

Similar Documents

Publication Publication Date Title
JP5251544B2 (en) Image processing apparatus, image processing method, and image processing program
JP4752407B2 (en) Image processing apparatus and method, program, and recording medium
KR101118981B1 (en) Image processing device and method, recording medium, and program
JP5777311B2 (en) How to generate high-resolution video from low-resolution video
EP1734480A1 (en) Image processing device and method, recording medium, and program
JP2007074592A (en) Image processing apparatus and method thereof, program, and recording medium
JP4853653B2 (en) Image processing apparatus and image processing program
JP2005354124A (en) Production of high pixel density image from a plurality of low pixel density images
KR101136506B1 (en) Image generation method, device, its program and recording medium stored with program
KR101107254B1 (en) Method for estimating motion vector using motion vector of near block and apparatus therefor
WO2009119347A1 (en) Image processing system, image processing method, and recording medium containing an image processing program
JP2006244074A (en) Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program
JP5492223B2 (en) Motion vector detection apparatus and method
JP4626158B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP2017003281A (en) Corresponding point search method and distance measuring instrument
JP6057629B2 (en) Image processing apparatus, control method thereof, and control program
JP5737072B2 (en) Motion compensation frame generation apparatus and method
CN103618904A (en) Motion estimation method and device based on pixels
JP4771087B2 (en) Image processing apparatus and image processing program
JP2008042545A (en) Image processing apparatus and its program
KR20130135460A (en) Depth image interpolation apparatus and method using color defference
JP5735395B2 (en) Image processing method, image processing apparatus, and image processing program
JP7157526B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP5544497B2 (en) Image processing apparatus, image processing method, and image processing program
JP5007851B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Ref document number: 5251544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3