JP2011223086A - Resolution converting device and method, scanning line interpolating device and method, and video display device and method - Google Patents

Resolution converting device and method, scanning line interpolating device and method, and video display device and method Download PDF

Info

Publication number
JP2011223086A
JP2011223086A JP2010086880A JP2010086880A JP2011223086A JP 2011223086 A JP2011223086 A JP 2011223086A JP 2010086880 A JP2010086880 A JP 2010086880A JP 2010086880 A JP2010086880 A JP 2010086880A JP 2011223086 A JP2011223086 A JP 2011223086A
Authority
JP
Japan
Prior art keywords
image
interpolation
unit
search range
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010086880A
Other languages
Japanese (ja)
Other versions
JP5448983B2 (en
Inventor
Kazuhiro Tanaka
一弘 田中
Tomokazu Fukuda
智教 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010086880A priority Critical patent/JP5448983B2/en
Publication of JP2011223086A publication Critical patent/JP2011223086A/en
Application granted granted Critical
Publication of JP5448983B2 publication Critical patent/JP5448983B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a resolution conversion method in which a high-quality high-resolution image is obtained by reducing block matching errors in motion compensation.SOLUTION: A future image segmentation unit 101 and a past image segmentation unit 102 perform segmentation to produce two blocks each larger than a searching range at positions that are point-symmetrical to a pixel of interest. A non-similarity calculating unit 103 calculates a non-similarity between both blocks. A motion estimating unit 104 estimates motion vectors on the basis of non-similarities of candidate motion vectors. A motion compensation interpolation processing unit 106 generates a motion compensation interpolation image from the past and future images on the basis of the motion vectors. A combining unit 107 combines a current image and the motion compensation interpolation image to generate a high resolution image. A searching range determining unit 105 determines the next searching range on the basis of the current motion vectors.

Description

本発明は、テレビやディスプレイなどの表示機器おいて用いる解像度変換装置及び方法、走査線補間装置及び方法、並びに該解像度変換装置又は方法を備える映像表示装置及び方法に関する。   The present invention relates to a resolution conversion apparatus and method, a scanning line interpolation apparatus and method used in a display device such as a television or a display, and a video display apparatus and method including the resolution conversion apparatus or method.

高解像度の表示性能を持つ表示機器に低解像度の映像コンテンツを表示する場合、表示機器は一般的に映像コンテンツの解像度を表示機器の性能に合わせた解像度に変換して表示する。
解像度変換の従来技術としては動き補償による解像度変換が知られている。この方法では、時間軸上で隣接する複数枚の画像間における画素の動きを推定し、この動き情報を基に異なる画像から画素情報を取得し補間画素を生成する。このとき、動き推定の精度により、出力結果として得られる高解像度画像の画質が変わる。
When displaying low-resolution video content on a display device having a high-resolution display performance, the display device generally converts the resolution of the video content into a resolution that matches the performance of the display device and displays it.
As a conventional technique for resolution conversion, resolution conversion by motion compensation is known. In this method, the motion of a pixel between a plurality of adjacent images on the time axis is estimated, and pixel information is acquired from different images based on this motion information to generate an interpolation pixel. At this time, the image quality of the high-resolution image obtained as an output result changes depending on the accuracy of motion estimation.

動き推定の一例としては、ブロックマッチングによる動き推定が挙げられる。ブロックマッチングによる動き推定は、2枚の画像間で動きを推定する方法である。一般的な方法としては、まず、動き推定の対象となる画像(以下、基準画像)上に複数の画素から成るブロックを設定し、次に、このブロックと類似するブロックをもう一方の画像(以下、参照画像)から見つけ出す。このとき、対応付けられた2つのブロックの相対位置を動き推定結果する。以上のように、一般的なブロックマッチングによる動き推定では、基準画像上に設定したブロックと類似するブロックを参照画像上から見つけて動きを推定する方法であるため、基準画像上に設定したブロックに類似するブロックが参照画像上に多数ある場合はブロックの対応付けに誤り、適切な動き推定ができないことがある。   An example of motion estimation is motion estimation by block matching. Motion estimation by block matching is a method for estimating motion between two images. As a general method, first, a block composed of a plurality of pixels is set on an image (hereinafter referred to as a reference image) to be subjected to motion estimation, and then a block similar to this block is set as the other image (hereinafter referred to as a reference image). , Find out from the reference image). At this time, the relative position of the two associated blocks is estimated as a motion estimation result. As described above, motion estimation by general block matching is a method of estimating a motion by finding a block similar to the block set on the reference image from the reference image. When there are a lot of similar blocks on the reference image, there is a case that the block is not correctly associated and proper motion estimation cannot be performed.

このようなブロックの対応付けの誤りは、各画素の動きを等速直線運動と仮定することで低減することができる。映像を構成する複数枚の画像において時間軸上で隣接する画像間では一般的に時間間隔が短いため、この画像間での各画素の動きの変化は小さく、各画素の動きは等速直線運動と近似できる。そのため、上記の仮定を動き推定に導入することで等速直線運動から外れた不自然な対応付けが行われず、ブロックの対応付けの誤りが低減される。   Such an error in block correspondence can be reduced by assuming that the motion of each pixel is a uniform linear motion. Since the time interval is generally short between adjacent images on the time axis in the multiple images that make up the video, the change in the movement of each pixel between these images is small, and the movement of each pixel is a uniform linear motion Can be approximated. For this reason, by introducing the above assumption into the motion estimation, an unnatural association deviating from the uniform linear motion is not performed, and an error in the association of blocks is reduced.

等速直線運動を仮定して動き推定を行う場合、フレームレート変換において用いられる技術が利用できる。例えば、特許文献1では現在フレームと現在フレームの1つ前のフレーム(以下、過去フレーム)から中間フレームを生成する場合に、中間フレームにおいて動き推定の対象となる画素(以下、注目画素)に関して点対称となる現在フレームの画素と過去フレームの画素をペアとし、最も類似するペアを見つける。このため、画素ペアの過去フレーム上の画素から注目画素への動きと、注目画素から画素ペアの現在フレーム上の画素への動きは等しく、この3フレーム間では等速直線運動となっている。ここで、中間フレームを動き推定の対象となる基準画像とし、現在フレームを基準画像の1つ後の画像(以下、未来画像)、過去フレームを基準画像の1つ前の画像(以下、過去画像)とすれば、過去画像、基準画像、未来画像の3画像間で等速直線運動を仮定した動き推定が実現できる。このとき、画素ペアの代わりにブロックペアを見つけるようにすれば、ブロックマッチングでも同様の推定が可能である。以下、このような注目画素に関して点対称の位置関係にある画素やブロックのペアから動きを推定する方法を線形動き推定と呼ぶ。   When performing motion estimation assuming constant velocity linear motion, a technique used in frame rate conversion can be used. For example, in Patent Document 1, when an intermediate frame is generated from a current frame and a frame immediately before the current frame (hereinafter referred to as a past frame), a point relating to a pixel (hereinafter referred to as a target pixel) that is a target of motion estimation in the intermediate frame. The pixel of the current frame and the pixel of the past frame that are symmetrical are paired, and the most similar pair is found. For this reason, the movement of the pixel pair from the pixel on the past frame to the target pixel is the same as the movement of the pixel of interest from the pixel pair to the pixel on the current frame, and the three frames have a uniform linear motion. Here, the intermediate frame is set as a reference image to be subjected to motion estimation, the current frame is an image immediately after the reference image (hereinafter, future image), and the past frame is an image immediately before the reference image (hereinafter, past image). ), It is possible to realize motion estimation assuming constant-velocity linear motion among the three images of the past image, the reference image, and the future image. At this time, if a block pair is found instead of a pixel pair, the same estimation can be performed by block matching. Hereinafter, such a method for estimating motion from a pair of pixels or blocks having a point-symmetric positional relationship with respect to the pixel of interest is referred to as linear motion estimation.

特許第4359223号公報Japanese Patent No. 4359223

しかし、線形動き推定では、隣接する画素間の輝度の変化が小さい領域(以下、平坦領域)がある場合、その近傍においてブロックの対応付けに失敗し、誤った動きベクトルが推定される可能性がある。そのため、線形動き推定を用いた解像度変換では、出力画像の一部において誤った動きベクトルを基に画素情報を取得したことに因る破綻が生じ、画質が低下するという問題がある。   However, in the linear motion estimation, when there is a region where the change in luminance between adjacent pixels is small (hereinafter referred to as a flat region), there is a possibility that the block correspondence in the vicinity fails and an erroneous motion vector is estimated. is there. For this reason, resolution conversion using linear motion estimation has a problem in that image quality deteriorates due to failure caused by acquiring pixel information based on an erroneous motion vector in a part of an output image.

この発明の解像度変換装置は、
連続する複数枚の画像において、高解像度化の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像を入力画像とし、
動きベクトルの探索範囲を決定する探索範囲決定部と、
前記探索範囲決定部で決定された探索範囲内の動きベクトル候補と基準画像上の補間すべき画素の座標を基に、未来画像から複数の画素で構成されるブロックを該探索範囲の広さ以上に設定された所定のサイズで切り出す未来画像切り出し部と、
基準画像上の補間すべき画素に関して前記未来画像切り出し部によって切り出されたブロックと点対称の位置にあるブロックを過去画像から切り出す過去画像切り出し部と、
前記未来画像切り出し部と前記過去画像切り出し部によって切り出された2つのブロック間の非類似度を算出する非類似度算出部と、
前記非類似度算出部で算出された非類似度に基づいて求めた動きベクトル評価値を最小とする動きベクトルを出力する動き推定部と、
前記動き推定部から出力される動きベクトルに基づいて未来画像と過去画像から画素情報を取得し、該画素情報から補間画素を生成することで補間画像を生成する動き補償補間処理部と、
基準画像と前記動き補償補間処理部で生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理部とを備え、
前記探索範囲決定部は、各画像を基準画像としたときの前記動き推定部から出力される動きベクトルに基づいて次の画像を基準画像とするときの高解像度化処理における探索範囲を決定する
ことを特徴とする。
The resolution converter of the present invention
In a plurality of continuous images, a reference image to be increased in resolution, a future image positioned one time later on the time axis with respect to the reference image, and one time previous on the time axis with respect to the reference image Use the past image located as the input image,
A search range determination unit for determining a search range of a motion vector;
Based on the motion vector candidate within the search range determined by the search range determination unit and the coordinates of the pixel to be interpolated on the reference image, a block composed of a plurality of pixels from the future image is larger than the width of the search range A future image cutout unit that cuts out with a predetermined size set to
A past image cutout unit that cuts out a block that is point-symmetric with a block cut out by the future image cutout unit with respect to the pixel to be interpolated on the reference image;
A dissimilarity calculation unit that calculates a dissimilarity between two blocks cut out by the future image cutout unit and the past image cutout unit;
A motion estimator that outputs a motion vector that minimizes a motion vector evaluation value obtained based on the dissimilarity calculated by the dissimilarity calculator;
A motion compensation interpolation processing unit that obtains pixel information from a future image and a past image based on a motion vector output from the motion estimation unit, and generates an interpolation image by generating an interpolation pixel from the pixel information;
An integrated processing unit that obtains an output image by integrating a reference image and an interpolation image generated by the motion compensation interpolation processing unit or a synthetic interpolation image generated based on the interpolation image;
The search range determination unit determines a search range in the high resolution processing when the next image is a reference image based on a motion vector output from the motion estimation unit when each image is a reference image. It is characterized by.

本発明によれば、平坦領域の近傍において線形動き推定による誤ったブロックの対応付けを防ぐことが可能となる。これにより、適切な動き補償ができ、高画質な高解像度画像を生成することができる。また、探索範囲決定部を設けることにより、探索範囲を小さくできるため、計算量の増加を抑えることができる。   According to the present invention, it is possible to prevent erroneous block association by linear motion estimation in the vicinity of a flat region. Thereby, appropriate motion compensation can be performed and a high-resolution high-resolution image can be generated. Moreover, since the search range can be reduced by providing the search range determination unit, an increase in the amount of calculation can be suppressed.

この発明の実施の形態1の解像度変換装置を示すブロック図である。It is a block diagram which shows the resolution converter of Embodiment 1 of this invention. 実施の形態1における動き推定を説明する上で用いる画像について説明する図である。6 is a diagram illustrating an image used for describing motion estimation in Embodiment 1. FIG. 実施の形態1におけるブロックサイズが要求サイズ以下に設定された場合の理想的なブロック対応付けの例を示す図である。It is a figure which shows the example of an ideal block matching when the block size in Embodiment 1 is set to the required size or less. 実施の形態1におけるブロックサイズが要求サイズ以下に設定された場合の誤ったブロック対応付けの例を示す図である。It is a figure which shows the example of an incorrect block matching when the block size in Embodiment 1 is set to the request size or less. 実施の形態1におけるブロックサイズを要求サイズに設定することの効果を説明する図である。FIG. 10 is a diagram for explaining the effect of setting the block size to the requested size in the first embodiment. 実施の形態1における探索範囲決定方法を説明する図である。6 is a diagram for explaining a search range determination method according to Embodiment 1. FIG. 実施の形態1における有効範囲を設定する効果を説明する図である。FIG. 10 is a diagram for explaining an effect of setting an effective range in the first embodiment. 実施の形態1における解像度変換の例を説明する図である。6 is a diagram illustrating an example of resolution conversion in Embodiment 1. FIG. 実施の形態1におけるサブピクセルの動き推定の探索範囲の設定を説明する図である。6 is a diagram for explaining setting of a search range for sub-pixel motion estimation in Embodiment 1. FIG. 実施の形態1におけるサブピクセルの動き推定のブロックの切り出しを説明する図である。FIG. 10 is a diagram for describing extraction of a sub-pixel motion estimation block in the first embodiment. この発明の実施の形態2の解像度変換装置を示すブロック図である。It is a block diagram which shows the resolution conversion apparatus of Embodiment 2 of this invention. (a)〜(d)は、実施の形態2における平坦領域ペナルティ導入の効果を説明する図である。(A)-(d) is a figure explaining the effect of the flat area | region penalty introduction in Embodiment 2. FIG. この発明の実施の形態3の解像度変換装置を示すブロック図である。It is a block diagram which shows the resolution conversion apparatus of Embodiment 3 of this invention. この発明の実施の形態4の映像表示装置を示すブロック図である。It is a block diagram which shows the video display apparatus of Embodiment 4 of this invention. (a)及び(b)は、実施の形態4におけるインターレース画像のフィールドの種類を説明する図である。(A) And (b) is a figure explaining the kind of field of the interlaced image in Embodiment 4. FIG. (a)〜(c)は、実施の形態4における動きベクトル候補を説明する図である。(A)-(c) is a figure explaining the motion vector candidate in Embodiment 4. FIG. この発明の実施の形態5の映像表示装置を示すブロック図である。It is a block diagram which shows the video display apparatus of Embodiment 5 of this invention.

実施の形態1.
図1はこの発明の実施の形態1の解像度変換装置の構成を示すブロック図である。
本実施の形態の解像度変換装置100は、解像度変換の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像の3枚の画像を入力とし、未来画像と過去画像から取得した画素情報を基に基準画像に対して縦・横におよそ2倍のサイズの高解像度画像を出力する装置であり、未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、動き推定部104、探索範囲決定部105、動き補償補間処理部106、及び組合せ部107を備える。
この装置はテレビやモニターなどの映像表示装置、さらには、パーソナルコンピュータ上での画像処理への適用等が考えられる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a resolution conversion apparatus according to Embodiment 1 of the present invention.
The resolution conversion apparatus 100 according to the present embodiment includes a reference image that is an object of resolution conversion, a future image that is positioned one time later on the time axis with respect to the reference image, and one image on the time axis that is relative to the reference image. An apparatus that receives three images of previous past images as input and outputs a high-resolution image having a size approximately twice as long as that of the reference image based on pixel information acquired from the future image and the past image. A future image clipping unit 101, a past image clipping unit 102, a dissimilarity calculation unit 103, a motion estimation unit 104, a search range determination unit 105, a motion compensation interpolation processing unit 106, and a combination unit 107.
This device can be applied to video display devices such as televisions and monitors, and further to image processing on personal computers.

未来画像切り出し部101では、複数の画素から構成されるブロックを未来画像から切り出し、非類似度算出部103に出力する。ブロックサイズは、予め定められる探索範囲の広さが縦(図2で垂直方向、即ち列方向)H(ただしHは奇数)画素、横(図2で水平方向、即ち行方向)W(ただしWは奇数)画素であるとすると、縦のサイズBHを(2×H−1)画素、横のサイズBWを(2×W−1)画素とする。この理由については動き推定部104の説明において詳述する。ブロックの切り出し位置は、基準画像上の補間すべき画素である注目画素の座標と後述する探索範囲決定部105によって決定される探索範囲内の動きベクトル候補によって決まる。具体的には、注目画素の座標が(x,y)、動きベクトル候補のx成分(水平方向成分)がmv、y成分(垂直方向成分)がmvであるとき、未来画像切り出し部で切り出されるブロックの中心座標(x,y)は式(1)のように表わされる。 The future image cutout unit 101 cuts out a block composed of a plurality of pixels from the future image and outputs the block to the dissimilarity calculation unit 103. The block size is defined such that the predetermined search range is vertical (vertical direction in FIG. 2, ie, column direction) H (where H is an odd number) pixels, horizontal (horizontal direction, ie, row direction in FIG. 2) W (where W Is an odd number) pixel, the vertical size BH is (2 × H−1) pixels and the horizontal size BW is (2 × W−1) pixels. The reason for this will be described in detail in the description of the motion estimation unit 104. The cutout position of the block is determined by the coordinates of the pixel of interest that is the pixel to be interpolated on the reference image and the motion vector candidate in the search range determined by the search range determination unit 105 described later. Specifically, when the coordinate of the target pixel is (x b , y b ), the x component (horizontal component) of the motion vector candidate is mv x , and the y component (vertical component) is mv y , the future image is cut out. The center coordinates (x n , y n ) of the block cut out at the part are expressed as in equation (1).

Figure 2011223086
Figure 2011223086

過去画像切り出し部102では、複数の画素から構成されるブロックを過去画像から切り出し、非類似度算出部103に出力する。ブロックサイズは、未来画像切り出し部101で切り出されるブロックと同じである。ブロックの切り出し位置は、注目画素の座標に関して未来画像切り出し部101におけるブロック切り出し位置とは点対称の位置である。具体的には、注目画素の座標が(x,y)、動きベクトル候補のx成分がmv、y成分がmvであるとき、過去画像切り出し部で切り出されるブロックの中心座標(x,y)は式(2)のように表わされる。 The past image cutout unit 102 cuts out a block composed of a plurality of pixels from the past image and outputs it to the dissimilarity calculation unit 103. The block size is the same as the block cut out by the future image cutout unit 101. The block cutout position is point-symmetric with respect to the block cutout position in the future image cutout unit 101 with respect to the coordinates of the target pixel. Specifically, when the coordinate of the pixel of interest is (x b , y b ), the x component of the motion vector candidate is mv x , and the y component is mv y , the center coordinates (x p, y p) is expressed as equation (2).

Figure 2011223086
Figure 2011223086

非類似度算出部103では、未来画像切り出し部101と過去画像切り出し部102によって切り出された2つのブロックの非類似度を算出し、動き推定部104に出力する。非類似度は、ブロック同士が似ているときに小さくなり、ブロック同士が似ていないときに大きくなる値である。本実施の形態では、非類似度を式(3)で示される輝度の差分絶対値和SADとして算出する。ただし、B(i,j)は未来画像切り出し部101で切り出されたブロック上の座標(i,j)における輝度値、B(i,j)は過去画像切り出し部102で切り出されたブロック上の座標(i,j)における輝度値とする。ブロック上の座標(i,j)は各ブロックの左上の座標を(0,0)とした値であり、このとき右下の座標はブロックサイズから(BH−1,BW−1)となる。また、|α|はαの絶対値である。 The dissimilarity calculation unit 103 calculates the dissimilarity between the two blocks cut out by the future image cut-out unit 101 and the past image cut-out unit 102, and outputs them to the motion estimation unit 104. The dissimilarity is a value that decreases when the blocks are similar and increases when the blocks are not similar. In the present embodiment, the degree of dissimilarity is calculated as the sum of absolute differences SAD of luminance shown by the equation (3). However, B n (i, j) is a luminance value at coordinates (i, j) on the block cut out by the future image cutout unit 101, and B p (i, j) is a block cut out by the past image cutout unit 102. Let it be the luminance value at the upper coordinates (i, j). The coordinates (i, j) on the block are values in which the upper left coordinates of each block are (0, 0). At this time, the lower right coordinates are (BH-1, BW-1) from the block size. | Α | is the absolute value of α.

Figure 2011223086
Figure 2011223086

動き推定部104では非類似度算出部103から出力された動きベクトル候補ごとの非類似度を動きベクトル評価値とし、最小の動きベクトル評価値を与える動きベクトル候補を動き推定結果として探索範囲決定部105と動き補償補間部106に出力する。動き推定結果は、基準画像上の補間すべき画素ごとに、探索範囲内の動きベクトル候補の中から1つ選ばれる。   The motion estimation unit 104 uses the dissimilarity for each motion vector candidate output from the dissimilarity calculation unit 103 as a motion vector evaluation value, and uses a motion vector candidate that gives the minimum motion vector evaluation value as a motion estimation result as a search range determination unit. 105 and the motion compensation interpolation unit 106. One motion estimation result is selected from motion vector candidates within the search range for each pixel to be interpolated on the reference image.

ここで、未来画像切り出し部101と過去画像切り出し部102において切り出すブロックのサイズを縦(2×H−1)画素、横(2×W−1)画素(以下、このブロックサイズを要求サイズと呼称する)に設定した理由について説明する。線形動き推定は上述した課題の通り、平坦領域の近傍においてブロック対応付けに失敗する可能性がある。これは、2つのブロックのどちらもが平坦領域内に設定されることにより、非類似度が小さくなることが原因である。しかし、ブロックサイズを要求サイズに設定することによって、この問題が解決する。   Here, the sizes of blocks to be cut out by the future image cutout unit 101 and the past image cutout unit 102 are vertical (2 × H−1) pixels and horizontal (2 × W−1) pixels (hereinafter, this block size is referred to as a required size). The reason for setting to “Yes” will be explained. As described above, the linear motion estimation may fail in block matching in the vicinity of the flat region. This is because the dissimilarity is reduced by setting both of the two blocks within the flat region. However, setting the block size to the required size solves this problem.

これは、ブロックサイズを要求サイズに設定することで探索範囲全域をブロック内に収めることができるためである。このことを、横方向の場合を例に示す。
注目画素のx座標がx、探索範囲が横方向に±n画素である場合(ただしnは正の整数)、探索範囲の左端の座標はxb−n、右端の座標はxb+nであり、探索範囲の広さは2n+1画素となる。このとき、ブロックの要求サイズは4n+1画素である。また、ブロックの左端は中心から−2n画素、右端は中心から+2n画素に位置する。動きベクトル候補のx成分がnのとき、未来画像において切り出されるブロックの中心は探索範囲の右端、すなわちxb+nである。このとき、ブロックの左端はxb−n、すなわち探索範囲の左端に位置する。過去画像において切り出されるブロックは、注目画素に関して点対称の位置にあるため、ブロックの中心がxb−n、ブロックの右端がxb+nとなる。このように、動きベクトル候補を探索範囲の端に設定した場合でも、探索範囲の両端がブロック内に収まることが分かる。
This is because the entire search range can be accommodated in the block by setting the block size to the required size. This is shown by way of example in the horizontal direction.
When the x coordinate of the target pixel is x b and the search range is ± n pixels in the horizontal direction (where n is a positive integer), the left end coordinate of the search range is x b−n , and the right end coordinate is x b + n . The width of the search range is 2n + 1 pixels. At this time, the required size of the block is 4n + 1 pixels. The left end of the block is located at −2n pixels from the center, and the right end is located at + 2n pixels from the center. When the x component of the motion vector candidate is n, the center of the block cut out in the future image is the right end of the search range, that is, xb + n . At this time, the left end of the block is located at xb−n , that is, the left end of the search range. Since the block cut out in the past image is in a point-symmetrical position with respect to the target pixel, the center of the block is x b−n and the right end of the block is x b + n . Thus, it can be seen that both ends of the search range are within the block even when motion vector candidates are set at the end of the search range.

以下に探索範囲全域をブロック内に収めることの効果を説明する。ここでは、説明を簡単にするために過去画像と未来画像から、それらと同サイズの補間画像を作成する例を用いる。各画像のサイズは7×7画素であり、各画素は図2に示すように識別される。この場合、過去画像、未来画像、補間画像の中心画素は、それぞれa3,3、b3,3、c3,3となる。 The effect of keeping the entire search range within the block will be described below. Here, in order to simplify the description, an example is used in which an interpolation image having the same size as those is generated from a past image and a future image. The size of each image is 7 × 7 pixels, and each pixel is identified as shown in FIG. In this case, the center pixels of the past image, the future image, and the interpolated image are a 3,3 , b 3,3 , and c 3,3 , respectively.

まず、ブロックサイズを要求サイズ未満に設定した例を示す。図3に理想的なブロック対応付けの例を示す。補間画素の中心画素c3,3を注目画素、動きベクトル候補をベクトル(1,0)として、3×3画素のブロックを切り出している。また、ブロックの中心が動く探索範囲は注目画素を中心に縦・横±1画素とする。図中、太線で示される部分がブロック、点線で示される部分が探索範囲である。このとき、切り出されるブロックの中心は過去画像でa2,3、未来画像でb4,3となる。 First, an example in which the block size is set to be smaller than the required size is shown. FIG. 3 shows an example of ideal block association. A block of 3 × 3 pixels is cut out with the center pixel c 3 , 3 of the interpolation pixel as the pixel of interest and the motion vector candidate as the vector (1, 0). The search range in which the center of the block moves is vertical and horizontal ± 1 pixel centered on the pixel of interest. In the figure, a portion indicated by a bold line is a block, and a portion indicated by a dotted line is a search range. At this time, the center of the block to be cut out is a 2,3 in the past image and b 4,3 in the future image.

過去画像、未来画像ともに低輝度で輝度変化の少ない平坦領域に高輝度の白い縦線が配置されており、過去画像では中央より左に1画素の位置に、未来画像では中央より右に1画素の位置に白線がある。このため、時間軸上で過去画像と未来画像の中間に位置する補間画像では、ちょうど画像の中央の位置に白線があることが理想的である。図3において切り出されるブロックは、両ブロックともに白線を中央に捉えており、これらのブロックから補間されるc3,3は白線の一部の白画素として補間される。同様に理想的な動き補償がなされた場合、補間画像は図に示すように、白線が中央に位置する理想的な画像となる。 A high brightness white vertical line is placed in a flat area with low brightness and little change in brightness in both past and future images. In the past image, one pixel is located to the left of the center, and in the future image, one pixel to the right of the center. There is a white line at the position. For this reason, in an interpolated image positioned between the past image and the future image on the time axis, it is ideal that there is a white line at the center position of the image. Blocks to be cut out in FIG. 3, Both block and capture the white line in the middle in, c 3,3 interpolated from these blocks are interpolated as part of the white pixel of the white line. Similarly, when ideal motion compensation is performed, the interpolated image becomes an ideal image with the white line positioned at the center, as shown in the figure.

図4に誤ったブロック対応付けの例を示す。動きベクトル候補はベクトル(−1,0)であり、注目画素、ブロックサイズ、探索範囲は図3と同様である。切り出されるブロックの中心は過去画像でa4,3、未来画像でb2,3となる。このとき、両ブロックは平坦領域内を切り出しており、これらのブロックから補間されるc3,3は平坦領域の一部の低輝度の画素として補間される。同様に誤った動き補償がなされた場合、補間画像は図に示すように、白線が存在しない画像となる。このように、図4で切り出されるブロックの対応付けは望ましくない補間結果を与える。 FIG. 4 shows an example of incorrect block association. The motion vector candidate is a vector (-1, 0), and the target pixel, block size, and search range are the same as those in FIG. The center of the block to be cut out is a 4,3 in the past image and b 2,3 in the future image. At this time, both blocks are cut flat area, c 3,3 are interpolated from these blocks is interpolated as a pixel of a portion of low brightness of the flat region. Similarly, when erroneous motion compensation is performed, the interpolated image is an image having no white line as shown in the figure. In this way, the association of the blocks cut out in FIG. 4 gives an undesirable interpolation result.

しかし、このような対応付けの誤りが起きる可能性は高い。図4のようなブロックペアにおいて、ブロック内には輝度変化の小さい平坦領域しか捉えていないため両ブロックの各画素の輝度差も小さい。このため、非類似度算出部103において算出される非類似度が小さくなり、結果として動き推定部104において誤ったブロックの対応付けを与える動きベクトル候補が選ばれる可能性が高まる。   However, there is a high possibility that such an association error will occur. In the block pair as shown in FIG. 4, only a flat region with a small luminance change is captured in the block, so that the luminance difference between the pixels of both blocks is small. For this reason, the dissimilarity calculated in the dissimilarity calculating unit 103 is reduced, and as a result, the possibility that a motion vector candidate that gives an incorrect block association is selected in the motion estimating unit 104 increases.

次に、ブロックサイズを要求サイズに設定した例を図5に示す。注目画素はc3,3、動きベクトル候補はベクトル(−1,0)、探索範囲は注目画素を中心に縦・横±1画素であり、ブロックサイズ以外の条件は図4と同様になっている。探索範囲の設定より、探索範囲の広さは縦・横ともに3画素分である。従って、ブロックの要求サイズは、5×5画素となる。この場合、図5のように過去画像から切り出されるブロックはブロックの左端に、未来画像から切り出されるブロックはブロックの右端に白線が捉えることとなる。このため、ブロック間の非類似度の評価において、少なくともブロックの左右の端では低輝度の画素と高輝度の画素の差分が取られて非類似度が高くなるため、誤った対応付けが起きることを防ぐことができる。 Next, an example in which the block size is set to the requested size is shown in FIG. The target pixel is c 3,3 , the motion vector candidate is the vector (−1, 0), the search range is vertical and horizontal ± 1 pixel centered on the target pixel, and the conditions other than the block size are the same as in FIG. Yes. From the setting of the search range, the size of the search range is 3 pixels both vertically and horizontally. Accordingly, the required block size is 5 × 5 pixels. In this case, as shown in FIG. 5, a white line is captured at the left end of the block from the past image, and a white line is captured at the right end of the block from the future image. For this reason, in the evaluation of dissimilarity between blocks, at least the left and right ends of the block take the difference between the low-brightness pixels and the high-brightness pixels, resulting in high dissimilarity, resulting in incorrect association. Can be prevented.

以上のように、ブロックサイズを要求サイズに設定し、探索範囲全域をブロック内に収めることにより、ブロック対応付けの誤りを低減することができる。   As described above, block matching errors can be reduced by setting the block size to the required size and keeping the entire search range within the block.

図1の説明に戻る。探索範囲決定部105では、動き推定部104から出力された動き推定結果を基に探索範囲を決定し、決定した探索範囲を未来画像切り出し部101と過去画像切り出し部に102に出力する。動き推定部104では、基準画像上の補間すべき画素ごとに動き推定結果を出力するため、探索範囲決定部105においても、基準画像上の補間すべき画素ごとに探索範囲を決定する。   Returning to the description of FIG. The search range determination unit 105 determines a search range based on the motion estimation result output from the motion estimation unit 104, and outputs the determined search range to the future image cutout unit 101 and the past image cutout unit 102. Since the motion estimation unit 104 outputs a motion estimation result for each pixel to be interpolated on the reference image, the search range determination unit 105 also determines a search range for each pixel to be interpolated on the reference image.

探索範囲の決定方法を図6に例を示す。図6は画像の中心である座標(3,3)における動き推定であり、探索範囲を縦・横ともに中心位置から±1画素、動きベクトルをベクトル(1,1)としている。図中の点線が現在の探索範囲、破線が次回の探索範囲を示している。探索範囲は注目画素の座標から動きベクトル分移動した位置を中心とした所定の範囲として決定するため、図のように座標(4,4)を中心とした新たな探索範囲が設定されることがわかる。これにより、探索範囲の広さを小さく保ったまま、様々な動きを推定することができる。ここでは、未来画像の例を示したが、過去画像においても同様の処理が行われ、注目画素に関して点対称の位置に同サイズの探索範囲が設定される。
探索範囲は中心位置に対して±n画素の範囲とするため、探索範囲の広さは2n+1のように奇数となる。前述した探索範囲の広さの縦・横のサイズH、Wを奇数としたのは、このためである。
An example of the search range determination method is shown in FIG. FIG. 6 shows motion estimation at the coordinates (3, 3), which is the center of the image. The search range is set to ± 1 pixel from the center position in both the vertical and horizontal directions, and the motion vector is the vector (1, 1). The dotted line in the figure indicates the current search range, and the broken line indicates the next search range. Since the search range is determined as a predetermined range centered on the position moved by the motion vector from the coordinates of the target pixel, a new search range centered on the coordinates (4, 4) may be set as shown in the figure. Recognize. As a result, various motions can be estimated while keeping the search range small. Here, an example of a future image is shown, but the same processing is performed on a past image, and a search range of the same size is set at a point-symmetric position with respect to the target pixel.
Since the search range is a range of ± n pixels with respect to the center position, the search range is an odd number such as 2n + 1. This is why the vertical and horizontal sizes H and W of the search range described above are set to odd numbers.

この探索範囲決定方法では、探索範囲の広さを変えずに様々なベクトルを動きベクトル候補にすることができる。図6において、現在の探索範囲においてはベクトル(−1,−1)、(0,−1)、(1,−1)、(−1,0)、(0,0)、(1,0)、(−1,1)、(0,1)、(1,1)が動きベクトル候補となるが、次回の探索範囲においてはベクトル(0,0)、(1,0)、(2,0)、(0,1)、(1,1)、(2,1)、(0,2)、(1,2)、(2,2)が動きベクトル候補となる。以上のように、探索範囲決定部105では、現在の動きベクトルに応じて次回の探索範囲を決定することで、探索範囲の広さを小さく保ったまま、様々な動きを推定することができる。   In this search range determination method, various vectors can be used as motion vector candidates without changing the size of the search range. In FIG. 6, in the current search range, vectors (-1, -1), (0, -1), (1, -1), (-1, 0), (0, 0), (1, 0 ), (-1, 1), (0, 1), (1, 1) are motion vector candidates, but in the next search range, vectors (0, 0), (1, 0), (2, 0), (0, 1), (1, 1), (2, 1), (0, 2), (1, 2), (2, 2) are motion vector candidates. As described above, the search range determination unit 105 can estimate various motions while keeping the size of the search range small by determining the next search range according to the current motion vector.

ここで、未来画像切り出し部101と過去画像切り出し部102において切り出すブロックのサイズ設定と探索範囲決定部105による探索範囲の決定を組合せることの効果を説明する。本実施の形態では、ブロック対応付け誤りを防ぐために、探索範囲の広さの縦・横のサイズH、Wに対して、ブロックサイズを縦(2×H−1)画素、横(2×W−1)画素に設定するため、広範囲を探索する場合には計算量が膨大になる。しかし、探索範囲決定部105によって、推定可能な動きに対して探索範囲の広さを小さくすることができるため、計算量を抑えたままブロック対応付け誤りを低減することができる。   Here, the effect of combining the size setting of the block to be cut out by the future image cutout unit 101 and the past image cutout unit 102 and the search range determination by the search range determination unit 105 will be described. In this embodiment, in order to prevent block matching errors, the block size is set to vertical (2 × H−1) pixels and horizontal (2 × W) with respect to the vertical and horizontal sizes H and W of the search range. -1) Since a pixel is set, the amount of calculation is enormous when searching a wide range. However, since the search range determination unit 105 can reduce the size of the search range with respect to the motion that can be estimated, it is possible to reduce block association errors while suppressing the amount of calculation.

ただし、探索範囲が無制限に決定される場合、探索範囲の決定が繰り返されるうちに注目画素から離れた位置に探索範囲が設定される可能性がある。この場合、推定される動きは極端に大きな動きのみとなる。一般的に時間軸上で隣接する画像間において極端に大きい動きは生じないため、このような状況は望ましくない。そこで、探索範囲決定部105において決定される探索範囲に有効範囲を設定する。有効範囲は注目画素の座標を中心とした所定の範囲で、例えば探索範囲の縦・横2倍の広さに設定することができる。   However, when the search range is determined indefinitely, the search range may be set at a position away from the target pixel while the search range determination is repeated. In this case, the estimated motion is only an extremely large motion. Such a situation is not desirable because generally no extremely large movement occurs between adjacent images on the time axis. Therefore, an effective range is set to the search range determined by the search range determination unit 105. The effective range is a predetermined range centered on the coordinates of the target pixel, and can be set, for example, twice as wide as the search range.

図7を用いて、有効範囲外に探索範囲が設定された場合の例を示す。図7において、各画素は図2と同様に識別される。図中の点線が新たに設定された探索範囲、3重線が有効範囲を示している。図において画素b3,3が注目画素であり、有効範囲はb3,3を中心として縦・横±2画素である。また、探索範囲は画素b5,1を中心として縦・横±1画素に設定されている。このとき、探索範囲内において画素b4,0、b5,0、b6,0、b6,1、b6,2は有効範囲外に位置している。このため、実際に探索される範囲はb4,1、b5,1、b4,2、b5,2となる。更に次の探索範囲を決定する場合、この4つの画素のいずれかを中心に探索範囲が設定されるため、探索範囲の中心は必ず有効範囲内となる。 FIG. 7 shows an example when the search range is set outside the effective range. In FIG. 7, each pixel is identified as in FIG. In the figure, a dotted line indicates a newly set search range, and a triple line indicates an effective range. In the figure, pixels b 3 and 3 are pixels of interest, and the effective range is ± 2 pixels vertically and horizontally with b 3 and 3 as the center. The search range is set to vertical and horizontal ± 1 pixel with the pixel b 5,1 as the center. At this time, the pixels b 4,0 , b 5,0 , b 6,0 , b 6,1 , b 6,2 are located outside the effective range within the search range. For this reason, the range actually searched is b 4,1 , b 5,1 , b 4,2 , b 5,2 . Further, when the next search range is determined, the search range is set around one of the four pixels, so that the center of the search range is always within the effective range.

以上のように有効範囲を設定することで、探索範囲の中心が必ず有効範囲の内側に位置するため、探索範囲が注目画素の座標から一定以上離れることがない。これにより、極端に大きな動きを除外した適切な動き推定が可能となる。   By setting the effective range as described above, the center of the search range is always located inside the effective range, so that the search range does not deviate from the coordinates of the target pixel by a certain amount or more. Thereby, it is possible to perform appropriate motion estimation excluding extremely large motion.

図1の説明に戻る。動き補償補間処理部106では、未来画像、過去画像と動き推定部104から出力される動き推定結果を基に補間画像を生成し、組合せ部107に出力する。具体的には、動き推定部104で得られる動きベクトルで対応づけられる未来画像と過去画像上の画素(すなわち、動き推定で対応づけられたブロックの中心画素)の平均値を画素値とする補間画素を生成する。   Returning to the description of FIG. The motion compensation interpolation processing unit 106 generates an interpolation image based on the future image, the past image, and the motion estimation result output from the motion estimation unit 104, and outputs it to the combination unit 107. Specifically, an interpolation using the average value of the future image associated with the motion vector obtained by the motion estimation unit 104 and the pixel on the past image (that is, the central pixel of the block associated with the motion estimation) as the pixel value. Generate a pixel.

動き補償補間処理部106において補間すべき画素は、解像度変換によって新たに生成される画素である。補間すべき画素について図を用いて説明する。本実施の形態の解像度変換装置では基準画像に対して縦・横におよそ2倍の高解像度画像を出力するため、基準画像と高解像度画像の関係は図8のようになる。図において丸と四角は画素を示している。丸で示される画素は基準画像のオリジナルの画素であり、四角で示される画素は動き補償によって補間された画素である。動き補償補間処理部106では四角で示される画素を生成する。   The pixel to be interpolated in the motion compensation interpolation processing unit 106 is a pixel newly generated by resolution conversion. A pixel to be interpolated will be described with reference to the drawings. Since the resolution conversion apparatus according to the present embodiment outputs a high-resolution image approximately twice as long and vertically as the reference image, the relationship between the reference image and the high-resolution image is as shown in FIG. In the figure, circles and squares indicate pixels. Pixels indicated by circles are original pixels of the reference image, and pixels indicated by squares are pixels interpolated by motion compensation. The motion compensation interpolation processing unit 106 generates pixels indicated by squares.

図8において四角で示される画素は、基準画像上ではオリジナルの画素の中間に位置するサブピクセルである。基準画像を高解像度化するためには、このサブピクセルを補間する必要がある。従って、動き推定もサブピクセルについて行われる必要がある。これまでは、簡単のために画素の動き推定を説明してきたため、以下にサブピクセルの動き推定を説明する。   The pixels indicated by the squares in FIG. 8 are subpixels located in the middle of the original pixels on the reference image. In order to increase the resolution of the reference image, it is necessary to interpolate these subpixels. Therefore, motion estimation also needs to be performed for subpixels. So far, pixel motion estimation has been described for the sake of simplicity, so sub-pixel motion estimation will be described below.

サブピクセルの動き推定の場合、動きベクトルは補間すべきサブピクセルを始点、探索範囲内の画素を終点とするベクトルとなる。
図9にサブピクセルの動き推定の場合の探索範囲の設定について例を示す。図中の白丸は画素、黒丸はサブピクセル、三角は補間すべき位置にあるサブピクセルである。これらの画素から構成される画像は過去画像、または未来画像であるとする。画素のカウントは、白丸間が1画素であり、白丸と黒丸の間(すなわち画素とサブピクセル間)が0.5画素とする。図において、探索範囲は補間すべき位置を中心として±1画素として設定され、破線で示されている。このとき、探索範囲内にある画素は6つであり、動きベクトル候補はこの6つの画素と補間すべき位置からベクトル(−0.5,−1)、(0.5,−1)、(−0.5,0)、(0.5,0)、(−0.5,1)、(0.5,1)となる。
In the case of subpixel motion estimation, the motion vector is a vector having a subpixel to be interpolated as a start point and a pixel within the search range as an end point.
FIG. 9 shows an example of setting a search range in the case of sub-pixel motion estimation. In the figure, white circles are pixels, black circles are subpixels, and triangles are subpixels at positions to be interpolated. It is assumed that an image composed of these pixels is a past image or a future image. The pixel count is 1 pixel between white circles and 0.5 pixel between white circles and black circles (that is, between pixels and sub-pixels). In the figure, the search range is set as ± 1 pixel around the position to be interpolated, and is indicated by a broken line. At this time, there are six pixels within the search range, and the motion vector candidates are vector (-0.5, -1), (0.5, -1), ( −0.5,0), (0.5,0), (−0.5,1), and (0.5,1).

次に、サブピクセルの動き推定におけるブロックの切り出しの例を図10に示す。図中の白丸は画素、黒丸はサブピクセル、三角はブロックの中心に設定された画素である。これらの画素から構成される画像は過去画像、または未来画像であるとする。図において、ブロックサイズは3×3画素であり、ブロックは太線で示されている。サブピクセルの動き推定では、探索範囲内の画素が終点になるように動きベクトル候補が設定されるため、ブロックの中心は必ず画素となる。従って、画素の動き推定と同様に、ブロックサイズをa×b画素とするとブロック内にa×bの画素が含まれる。なお、図10においては、図を簡略化するためにブロックサイズが3×3画素の例を示したが、実際にはサブピクセルの動き推定においてもブロックサイズは前述の要求サイズに設定される。   Next, FIG. 10 shows an example of block cutout in subpixel motion estimation. In the figure, white circles are pixels, black circles are subpixels, and triangles are pixels set at the center of the block. It is assumed that an image composed of these pixels is a past image or a future image. In the figure, the block size is 3 × 3 pixels, and the blocks are indicated by bold lines. In motion estimation of subpixels, motion vector candidates are set so that pixels within the search range end, so the center of the block is always a pixel. Therefore, similarly to pixel motion estimation, if the block size is a × b pixels, a × b pixels are included in the block. In FIG. 10, an example in which the block size is 3 × 3 pixels is shown to simplify the drawing. However, in actuality, the block size is set to the above-described required size in sub-pixel motion estimation.

以上のように、サブピクセルの動き推定においても切り出されるブロックは画素を中心とする所定のサイズのブロックとなるため、未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、動き推定部104は画素の動き推定で説明した通りの動作によって動き推定をすることができる。また、探索範囲決定部105においても、新たに設定される探索範囲の中心は画素となるため、画素の動き推定と同様の動作で探索範囲を決定することができる。   As described above, since the block to be cut out in the sub-pixel motion estimation is a block having a predetermined size centered on the pixel, the future image cutout unit 101, the past image cutout unit 102, the dissimilarity calculation unit 103, the motion The estimation unit 104 can perform motion estimation by the operation described in the pixel motion estimation. Also in the search range determination unit 105, the center of the newly set search range is the pixel, so that the search range can be determined by the same operation as the pixel motion estimation.

図1の説明に戻る。組合せ部107では、基準画像と動き補償補間部106から得られる補間画像を組合せて、高解像度画像を出力する。図8の高解像度画像において、丸で示される画素は基準画像から、四角で示される画素は補間画像から得られるため、それらを組合せて高解像度画像を生成する。   Returning to the description of FIG. The combination unit 107 combines the reference image and the interpolation image obtained from the motion compensation interpolation unit 106, and outputs a high resolution image. In the high-resolution image of FIG. 8, pixels indicated by circles are obtained from the reference image, and pixels indicated by squares are obtained from the interpolated image.

なお、未来画像切り出し部101、及び過去画像切り出し部102において、探索範囲の広さが縦H画素、横W画素の場合、ブロックサイズを縦(2×H−1)画素、横(2×W−1)画素としたが、ブロックサイズを更に大きくしてもよい。また、ブロックサイズがこれより小さい場合でも、縦がH画素、横がW画素以上ならば多少のブロック対応付け誤り低減効果が得られるため、縦のサイズをH画素から(2H−1)画素の間の値に設定してもよく、横のサイズをW画素から(2W−1)画素の間の値に設定してもよい。   In the future image cutout unit 101 and the past image cutout unit 102, when the search range is vertical H pixels and horizontal W pixels, the block size is vertical (2 × H−1) pixels and horizontal (2 × W). -1) Although the pixel is used, the block size may be further increased. Even if the block size is smaller than this, if the vertical size is H pixels and the horizontal size is W pixels or more, a slight block matching error reduction effect can be obtained. Therefore, the vertical size is changed from H pixels to (2H-1) pixels. The horizontal size may be set to a value between W pixels and (2W-1) pixels.

また、非類似度算出部103において、上記の例では非類似度を輝度の差分絶対値和として算出したが、非類似度の算出方法はこれに限定されない。例えば、RGB信号の場合、R、G、Bの成分ごとに差分絶対値和を算出し、それらの和を非類似度としてもよい。また、勾配情報を用いて非類似度を算出してもよい。   In the above example, the dissimilarity calculation unit 103 calculates the dissimilarity as the sum of absolute differences in luminance. However, the dissimilarity calculation method is not limited to this. For example, in the case of an RGB signal, a sum of absolute differences may be calculated for each of R, G, and B components, and these sums may be used as dissimilarities. Further, the dissimilarity may be calculated using gradient information.

また、探索範囲決定部105において、上記の例では補間位置における現在の動きベクトルを基に探索範囲を決定したが、それ以外の方法によって探索範囲を決定してもよい。例えば、補間位置周囲の動きベクトルを平均したベクトルから探索範囲を決定してもよい。また、例えば、過去数回分の動きベクトルを記録しておき、それらを平均した平均ベクトルから探索範囲を決定してもよい。更に、全ての動きベクトルから画面全体の動きを推定し、その画面全体の動きベクトルから探索範囲を決定してもよい。   In the above example, the search range is determined based on the current motion vector at the interpolation position in the search range determination unit 105. However, the search range may be determined by other methods. For example, the search range may be determined from a vector obtained by averaging motion vectors around the interpolation position. Further, for example, motion vectors for the past several times may be recorded, and the search range may be determined from an average vector obtained by averaging them. Furthermore, the motion of the entire screen may be estimated from all the motion vectors, and the search range may be determined from the motion vector of the entire screen.

本実施の形態によれば、ブロックの対応付け誤りを低減した適切な動き補償による高画質な高解像度画像の生成を、計算量の増加を抑えたまま実現できる。   According to the present embodiment, it is possible to realize generation of a high-quality high-resolution image by appropriate motion compensation with reduced block correspondence errors while suppressing an increase in calculation amount.

実施の形態2.
本実施の形態では、対応づけられた2ブロックにおける画像の平坦度を算出し、その値に応じたペナルティを動き推定時に考慮する。これにより、実施の形態1の解像度変換装置よりもブロック対応誤りを低減し、更に高画質な高解像度画像を得る。
Embodiment 2. FIG.
In the present embodiment, the flatness of the image in the two associated blocks is calculated, and the penalty corresponding to the value is taken into account when estimating the motion. Thereby, the block correspondence error is reduced as compared with the resolution conversion apparatus of the first embodiment, and a high-resolution image with higher image quality is obtained.

図11はこの発明の実施の形態2の解像度変換装置の構成を示すブロック図である。
本実施の形態の解像度変換装置200は、解像度変換の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像の3枚の画像を入力とし、未来画像と過去画像から取得した画素情報を基に基準画像に対して縦・横におよそ2倍のサイズの高解像度画像を出力する装置であり、未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、平坦度算出部201a、平坦度算出部201b、動き推定部202、探索範囲決定部105、動き補償補間処理部106、及び組合せ部107を備える。
この装置はテレビやモニターなどの映像表示装置、さらには、パーソナルコンピュータ上での画像処理への適用等が考えられる。
FIG. 11 is a block diagram showing the configuration of the resolution conversion apparatus according to the second embodiment of the present invention.
The resolution conversion apparatus 200 according to the present embodiment includes a reference image that is an object of resolution conversion, a future image that is positioned one time later on the time axis with respect to the reference image, and one image on the time axis that is relative to the reference image. An apparatus that receives three images of previous past images as input and outputs a high-resolution image having a size approximately twice as long as that of the reference image based on pixel information acquired from the future image and the past image. The future image clipping unit 101, the past image clipping unit 102, the dissimilarity calculation unit 103, the flatness calculation unit 201a, the flatness calculation unit 201b, the motion estimation unit 202, the search range determination unit 105, and the motion compensation interpolation processing unit 106 and a combination unit 107.
This device can be applied to video display devices such as televisions and monitors, and further to image processing on personal computers.

本実施の形態と実施の形態1との相違点は、平坦度算出部201a、及び平坦度算出部201bが加わっている点と、動き推定部104の代わりに動き推定部202を置いている点である。未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、探索範囲決定部105、動き補償補間処理部106、及び組合せ部107の動作については実施の形態1と同様であるため、説明を省略する。   The difference between the present embodiment and the first embodiment is that a flatness calculation unit 201 a and a flatness calculation unit 201 b are added, and that a motion estimation unit 202 is placed instead of the motion estimation unit 104. It is. Since the operations of the future image cutout unit 101, the past image cutout unit 102, the dissimilarity calculation unit 103, the search range determination unit 105, the motion compensation interpolation processing unit 106, and the combination unit 107 are the same as those in the first embodiment, Description is omitted.

平坦度算出部201a、及び平坦度算出部201bでは、切り出されたブロックにおける画像の平坦度を算出し、その結果を動き推定部202に出力する。平坦度算出部201aには未来画像切り出し101によって切り出されたブロックが入力され、平坦度算出部201bには過去画像切り出し部102によって切り出されたブロックが入力される。
平坦度Fは、例えば、式(4)により算出する。ただし、MAXは輝度値が取り得る最大値(正の値)、σはブロック内の画素の輝度値の標準偏差である。
The flatness calculation unit 201 a and the flatness calculation unit 201 b calculate the flatness of the image in the cut out block, and output the result to the motion estimation unit 202. The block cut out by the future image cutout 101 is input to the flatness calculation unit 201a, and the block cut out by the past image cutout unit 102 is input to the flatness calculation unit 201b.
The flatness F is calculated by, for example, Expression (4). However, MAX is the maximum value (positive value) that the luminance value can take, and σ is the standard deviation of the luminance value of the pixels in the block.

Figure 2011223086
Figure 2011223086

式(4)で算出される平坦度Fはブロック内の画素が全て同じ輝度値である場合に1となる。一方、ブロック内の画素の輝度のばらつきが大きい場合には小さな値を取る。   The flatness F calculated by Expression (4) is 1 when all the pixels in the block have the same luminance value. On the other hand, when the variation in luminance of the pixels in the block is large, a small value is taken.

動き推定部202は、平坦度を考慮にいれて動きベクトルを推定するものであり、非類似度算出部103で得られる非類似度と平坦度算出部201aおよび201bで得られる平坦度を基に動きベクトル評価値を算出し、最小の動きベクトル評価値を与える動きベクトル候補を動き推定結果として探索範囲決定部105と動き補償補間部106に出力する。   The motion estimation unit 202 estimates the motion vector in consideration of the flatness, and based on the dissimilarity obtained by the dissimilarity calculation unit 103 and the flatness obtained by the flatness calculation units 201a and 201b. A motion vector evaluation value is calculated, and a motion vector candidate that gives the minimum motion vector evaluation value is output to the search range determination unit 105 and the motion compensation interpolation unit 106 as a motion estimation result.

本実施の形態において動きベクトル評価値は、対応付けられたブロックの非類似度にブロックの平坦度に応じた平坦領域ペナルティを加算して算出する。2つのブロックの平坦度をそれぞれF、F、平坦領域ペナルティ設定のための閾値をth1(ただし、0<th1<1で例えばth1=0.8)、ペナルティの重さを定数Wp(ただしWpは正の数)とすると、F>th1またはF>th1なら平坦領域ペナルティFP=Wpとし、それ以外の場合、FP=0とする。 In this embodiment, the motion vector evaluation value is calculated by adding a flat area penalty corresponding to the flatness of the block to the dissimilarity of the associated block. The flatness of the two blocks is F 1 and F 2 , the threshold value for setting a flat area penalty is th1 (where 0 <th1 <1, for example, th1 = 0.8), and the weight of the penalty is a constant Wp (where Wp is a positive number), if F 1 > th1 or F 2 > th1, the flat area penalty FP = Wp, otherwise FP = 0.

平坦領域ペナルティを導入する効果を図12(a)〜(d)によって説明する。図では平坦領域近傍におけるブロックペアの例を示しており、ブロック1、ブロック2は未来画像切り出し部101と過去画像切り出し部102から切り出された5×5画素のブロックである。図12(a)、図12(b)、図12(c)、図12(d)では、それぞれ異なるブロックのペアが比較されている。このうち、図12(c)は線形動き補間の課題である平坦領域近傍でのブロック対応付け誤りの原因となるブロックペア、図12(d)は正しい動きベクトルによって与えられる理想的なブロックペアであるとする。この図を説明するにあたって、ブロック内に白線が無い場合に平坦領域ペナルティが課せられるものとする。   The effect of introducing the flat area penalty will be described with reference to FIGS. In the figure, an example of a block pair in the vicinity of a flat region is shown. Blocks 1 and 2 are 5 × 5 pixel blocks cut out from the future image cutout unit 101 and the past image cutout unit 102. In FIG. 12A, FIG. 12B, FIG. 12C, and FIG. 12D, pairs of different blocks are compared. Of these, FIG. 12 (c) is a block pair that causes a block matching error near the flat region, which is a problem of linear motion interpolation, and FIG. 12 (d) is an ideal block pair given by a correct motion vector. Suppose there is. In explaining this figure, it is assumed that a flat area penalty is imposed when there is no white line in the block.

図12(a)、図12(b)で比較されるブロックペアはブロック内の白線の有無や白線の位置が異なるため非類似度が高い。一方、図12(c)は両ブロックともに白線が無く、図12(d)は両ブロックとも白線が中央にあるため、非類似度が低い。このため、評価すべき動きベクトル候補の中に図12(c)と図12(d)のブロックペアを切り出す動きベクトル候補が同時に存在する場合、非類似度だけではどちらの動きベクトル候補が正しいか判断できない。仮に、図12(c)のブロックペアを与える動きベクトル候補が正しいと判断された場合、平坦領域近傍でのブロック対応付け誤りが頻発する。   The block pairs compared in FIG. 12A and FIG. 12B have a high degree of dissimilarity because the presence or absence of the white line in the block and the position of the white line are different. On the other hand, in FIG. 12C, both blocks have no white line, and in FIG. 12D, the white line is in the center of both blocks, so the dissimilarity is low. For this reason, when motion vector candidates for extracting the block pairs of FIG. 12 (c) and FIG. 12 (d) simultaneously exist in the motion vector candidates to be evaluated, which motion vector candidate is correct only by the dissimilarity degree. I can't judge. If it is determined that the motion vector candidate that gives the block pair in FIG. 12C is correct, block correspondence errors frequently occur in the vicinity of the flat region.

この問題は平坦領域ペナルティを導入することで解決できる。平坦領域ペナルティを導入した場合、図12(a)と図12(c)のブロックペアを与える動きベクトル候補には平坦領域ペナルティが課せられる。これにより、非類似度が同程度の図12(c)と図12(d)において図12(c)のみに平坦領域ペナルティが課せられるため、理想的な対応付けであるブロックペア図12(d)を与える動きベクトル候補が動き推定結果として出力される。   This problem can be solved by introducing a flat area penalty. When a flat area penalty is introduced, a flat area penalty is imposed on the motion vector candidate that gives the block pair of FIG. 12 (a) and FIG. 12 (c). As a result, a flat area penalty is imposed only on FIG. 12C in FIG. 12C and FIG. 12D with the same degree of dissimilarity. The motion vector candidate giving () is output as the motion estimation result.

また、本実施の形態において、図12(c)のようなブロック1とブロック2の両方が平坦な場合だけではなく、図12(a)のようなブロック1とブロック2のどちらか一方でも平坦ならば平坦領域ペナルティを課している。これは以下の理由による。   In this embodiment, not only the case where both block 1 and block 2 are flat as shown in FIG. 12C, but also one of block 1 and block 2 as shown in FIG. 12A is flat. If so, a flat area penalty is imposed. This is due to the following reason.

補間すべき位置が平坦領域の内部である場合、例えば図12(c)のような平坦領域内に設定されたブロック同士の対応付けが理想的である。一方で、平坦領域の端では、探索範囲内に例えば図12(a)のような対応付けを与える動きベクトル候補が含まれることがある。平坦領域ペナルティが図12(a)と図12(c)に課せられる場合、非類似度の低い図12(c)のブロックペアを与える動きベクトル候補が適切に選ばれるが、平坦領域ペナルティが図12(c)のみに課せられた場合、図12(a)と図12(c)の動きベクトル評価値の大小が逆転して図12(c)のブロックペアを与える動きベクトル候補が動きベクトルとして選ばれる可能性がある。そのため、本実施の形態では、どちら一方のブロックが平坦ならば平坦領域ペナルティを課している。   When the position to be interpolated is inside the flat area, for example, the correspondence between the blocks set in the flat area as shown in FIG. 12C is ideal. On the other hand, at the end of the flat region, there may be a motion vector candidate that gives an association as shown in FIG. When the flat region penalty is imposed on FIGS. 12A and 12C, the motion vector candidate that gives the block pair of FIG. 12C with low dissimilarity is appropriately selected, but the flat region penalty is When imposed only on 12 (c), the motion vector candidate that gives the block pair in FIG. 12 (c) by reversing the magnitude of the motion vector evaluation values in FIG. 12 (a) and FIG. 12 (c) is used as the motion vector. May be chosen. Therefore, in this embodiment, if either one of the blocks is flat, a flat area penalty is imposed.

また、平坦度算出部201a及び平坦度算出部201bにおいて、上記の例ではブロック内の画素の輝度値の標準偏差から平坦度を算出したが、平坦度の算出方法はこれに限らず、ブロック内の画素値のばらつきを示す別の特徴量を用いてもより。例えば、標準偏差の代わりに分散を用いて平坦度を算出してもよい。また、ブロック内のエッジ成分から平坦度を算出してもよい。   In the above example, the flatness calculation unit 201a and the flatness calculation unit 201b calculate the flatness from the standard deviation of the luminance values of the pixels in the block. However, the flatness calculation method is not limited to this, and the flatness calculation unit 201a and the flatness calculation unit 201b Even if another feature amount indicating the variation of the pixel value is used. For example, the flatness may be calculated using variance instead of the standard deviation. Further, the flatness may be calculated from the edge component in the block.

また、動き推定部202において、上記の例では平坦領域ペナルティを定数とし、平坦度が閾値よりも高い場合にのみ加算するようにしたが、例えば式(5)のように平坦度に応じて平坦ペナルティを変化させてもよい。ただし、Kは正の定数とする。 In the above example, the motion estimation unit 202 uses the flat area penalty as a constant, and adds only when the flatness is higher than the threshold. However, for example, the flatness according to the flatness is calculated as in equation (5). You may change the penalty. However, Kp is a positive constant.

Figure 2011223086
Figure 2011223086

本実施の形態によれば、対応づけられる2つのブロックの平坦度を考慮した動き推定を行うため、平坦領域近傍のブロックの対応付け誤りがより低減され、高画質な高解像度画像が生成できる。   According to the present embodiment, since motion estimation is performed in consideration of the flatness of the two blocks to be associated with each other, the association error between the blocks in the vicinity of the flat region is further reduced, and a high-quality high-resolution image can be generated.

なお、実施の形態2の動き推定部202において、非類似度算出部103で得られる非類似度に、上記の平坦度ペナルティFPのみならず、動きベクトル候補の動き量に応じた動き量ペナルティMPを加算し、加算結果を動きベクトル評価値として用いることとしても良い。   Note that in the motion estimation unit 202 of the second embodiment, the dissimilarity obtained by the dissimilarity calculation unit 103 includes not only the flatness penalty FP but also a motion amount penalty MP according to the motion amount of the motion vector candidate. And the addition result may be used as a motion vector evaluation value.

実施の形態1においても同様に、動き推定部104において、非類似度算出部103で得られる非類似度に、動きベクトル候補の動き量に応じた動き量ペナルティMPを加算し、加算結果を動きベクトル評価値として用いることとしても良い。   Similarly, in the first embodiment, the motion estimation unit 104 adds a motion amount penalty MP corresponding to the motion amount of the motion vector candidate to the dissimilarity obtained by the dissimilarity calculation unit 103, and uses the motion as a result of the addition. It may be used as a vector evaluation value.

例えば、動き量ペナルティMPは式(6)で与えられる。ただし、動きベクトル候補をベクトル(mv,mv)とし、Wは動き量ペナルティの重さの係数(ただし、Wは正の数)とする。 For example, the motion amount penalty MP is given by Expression (6). However, a motion vector candidate is a vector (mv x , mv y ), and W m is a coefficient of weight of a motion amount penalty (W m is a positive number).

Figure 2011223086
Figure 2011223086

動き量ペナルティを導入することにより、補間すべき位置に近いブロックペアが対応づけられやすくなる。つまり、推定する動きは小さな動きであるという仮定を導入することになる。画像内の動きは小さな動きばかりとは限らないが、動きが大きい箇所は撮影の段階でぼやけており、適切に動き推定をしても高解像度化したときの解像度感向上の効果が小さい場合が多い。動き量ペナルティを導入することにより、大きな効果が得られる動きの小さい箇所を優先して補間できるため、解像度感向上効果が高まる。   By introducing a motion amount penalty, a block pair close to the position to be interpolated can be easily associated. In other words, an assumption is made that the estimated motion is a small motion. The movements in the image are not limited to small movements, but areas with large movements are blurred at the stage of shooting, and even if the movement is estimated appropriately, the effect of improving the sense of resolution when increasing the resolution may be small. Many. By introducing a motion amount penalty, it is possible to preferentially interpolate a portion with a small motion where a large effect can be obtained, so that the effect of improving the sense of resolution is enhanced.

実施の形態3.
本実施の形態では、動き補償による補間処理に加え、画像内の画素を用いた補間処理を行う。2つの補間処理によって生成された補間画素から適切な補間値を決定することによって、より高画質な高解像度画像が生成できる。
Embodiment 3 FIG.
In the present embodiment, interpolation processing using pixels in an image is performed in addition to interpolation processing by motion compensation. By determining an appropriate interpolation value from the interpolation pixels generated by the two interpolation processes, a high-resolution image with higher image quality can be generated.

図13はこの発明の実施の形態3の解像度変換装置の構成を示すブロック図である。
本実施の形態の解像度変換装置300は、解像度変換の対象となる基準画像、基準画像に対して時間軸上で1つ後に位置する未来画像、及び基準画像に対して時間軸上で1つ前に位置する過去画像の3枚の画像と、パラメータ信号を入力とし、未来画像と過去画像から取得した画素情報を基に基準画像に対して縦・横におよそ2倍のサイズの高解像度画像を出力する装置であり、未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、平坦度算出部201a、平坦度算出部201b、動き推定部202、探索範囲決定部105、動き補償補間処理部106、画像内補間処理部301、補間値合成部302、及び組合せ部107を備える。
この装置はテレビやモニターなどの映像表示装置、さらには、パーソナルコンピュータ上での画像処理への適用等が考えられる。
FIG. 13 is a block diagram showing a configuration of a resolution conversion apparatus according to Embodiment 3 of the present invention.
The resolution conversion apparatus 300 according to the present embodiment includes a reference image that is a target of resolution conversion, a future image that is positioned one time later on the time axis with respect to the reference image, and one time before the reference image on the time axis. A high-resolution image having a size approximately twice as long as that of the reference image based on the pixel information acquired from the future image and the past image. The output device includes a future image clipping unit 101, a past image clipping unit 102, a dissimilarity calculation unit 103, a flatness calculation unit 201a, a flatness calculation unit 201b, a motion estimation unit 202, a search range determination unit 105, and motion compensation. An interpolation processing unit 106, an intra-image interpolation processing unit 301, an interpolation value synthesis unit 302, and a combination unit 107 are provided.
This device can be applied to video display devices such as televisions and monitors, and further to image processing on personal computers.

本実施の形態と実施の形態2との相違点は、パラメータ信号を入力する点と、画像内処理部301、補間値合成部302を備えている点である。
未来画像切り出し部101、過去画像切り出し部102、非類似度算出部103、平坦度算出部201a、平坦度算出部201b、動き推定部202、探索範囲決定部105、動き補償補間処理部106、及び組合せ部107の動作については実施の形態2と同様であるため、説明を省略する。
The difference between the present embodiment and the second embodiment is that a parameter signal is input and an in-image processing unit 301 and an interpolation value synthesis unit 302 are provided.
Future image cutout unit 101, past image cutout unit 102, dissimilarity calculation unit 103, flatness calculation unit 201a, flatness calculation unit 201b, motion estimation unit 202, search range determination unit 105, motion compensation interpolation processing unit 106, and Since the operation of the combination unit 107 is the same as that of the second embodiment, the description thereof is omitted.

画像内補間処理部301では、基準画像内の画素を利用して補間画像を生成する。ここで生成される補間画像は、本実施の形態の装置で出力される高解像度画像と同じサイズである。補間画像の生成には、バイリニア補間やバイキュービック補間が利用できる。   The intra-image interpolation processing unit 301 generates an interpolated image using the pixels in the reference image. The interpolated image generated here is the same size as the high-resolution image output by the apparatus of the present embodiment. Bilinear interpolation or bicubic interpolation can be used to generate the interpolation image.

補間値合成部302では、動き補償補間処理部106から得られる補間画像(以下、動き補償補間画像と呼称する)及び画像内補間処理部301から得られる補間画像(以下、画像内補間画像と呼称する)とパラメータ信号を基に新たな補間画素値(合成補間値)を決定する。パラメータ信号は画像内補間画像と動き補償補間画像の合成条件決定し、これにより補間値を決定するためのパラメータである。ここでは、例えば閾値th2、th3とする。ただし、輝度値が取り得る最大値をMAXとすると0<th2≦th3<MAXである。座標(x,y)において、動き補償補間画像の画素値をE(x,y)、画像内補間画像の画素値をE(x,y)とすると、新たに得られる補間値E(x,y)は式(9)で示される。 In the interpolation value synthesis unit 302, an interpolation image obtained from the motion compensation interpolation processing unit 106 (hereinafter referred to as a motion compensation interpolation image) and an interpolation image obtained from the intra image interpolation processing unit 301 (hereinafter referred to as an intra image interpolation image). And a new interpolation pixel value (composite interpolation value) is determined based on the parameter signal. The parameter signal is a parameter for determining a synthesis condition of the intra-image interpolation image and the motion compensated interpolation image, thereby determining an interpolation value. Here, for example, thresholds th2 and th3 are set. However, if the maximum value that the luminance value can take is MAX, 0 <th2 ≦ th3 <MAX. In the coordinates (x, y), the pixel value E M of motion compensated interpolation image (x, y), when the pixel value in the image interpolation image E F (x, y) and the interpolation value is newly obtained E S (X, y) is expressed by equation (9).

Figure 2011223086
Figure 2011223086

Figure 2011223086
Figure 2011223086

Figure 2011223086
Figure 2011223086

式(9)によって補間値を決定した場合、動き補償補間画像の画素と画像内補間画像の画素の輝度値の差の絶対値が閾値th2以下ならば動き補償補間画像の画素の輝度値を選択し、閾値th3より大きければ画像内補間画像の画素の輝度値を選択する。輝度値の差の絶対値がth2とth3の間ならば、2つの補間画素の輝度値に対して重み付き平均を行い、平均値を合成補間値とする。もし、th2=th3と設定した場合、重み付き平均は行われず、2つの補間画素の輝度値のどちらかが必ず選択される。th2、th3が大きな値ならば動き補償補間画像の画素を重視した補間値の決定が行われ、th2、th3が小さな値ならば画像内補間画像の画素を重視した補間値の決定が行われる。   When the interpolation value is determined by equation (9), if the absolute value of the difference between the luminance values of the pixels of the motion compensated interpolated image and the intrapolated interpolated image is equal to or smaller than the threshold th2, the luminance value of the pixel of the motion compensated interpolated image is selected. If it is larger than the threshold th3, the luminance value of the pixel of the intra-image interpolation image is selected. If the absolute value of the difference between the luminance values is between th2 and th3, weighted averaging is performed on the luminance values of the two interpolated pixels, and the average value is used as the combined interpolation value. If th2 = th3 is set, weighted averaging is not performed, and one of the luminance values of the two interpolation pixels is always selected. If th2 and th3 are large values, the interpolation value is determined with emphasis on the pixels of the motion compensated interpolation image. If th2 and th3 are small values, the interpolation value is determined with emphasis on the pixels of the intra-image interpolation image.

このように、上記の構成例では、補間値合成部302において、動き補償補間処理部106で生成される補間画像と画像内補間処理部301で生成される補間画像の各画素を比較して、比較結果に応じて、より具体的には両者の差分の絶対値(AD=|E−E|)とパラメータth2、th3との比較結果に応じて、画素ごとに、合成割合を定めて合成を行ない、合成補間画像を生成している。
パラメータth2、th3で決められる合成条件は、パラメータth2、th3を境界値とするそれぞれの範囲における合成方法乃至は合成割合を決めるものであるとも言える。
Thus, in the above configuration example, the interpolation value synthesis unit 302 compares each pixel of the interpolation image generated by the motion compensation interpolation processing unit 106 and the interpolation image generated by the intra-image interpolation processing unit 301, and According to the comparison result, more specifically, the composition ratio is determined for each pixel according to the comparison result between the absolute value of the difference between the two (AD = | E M −E F |) and the parameters th2 and th3. Compositing is performed to generate a composite interpolated image.
It can be said that the synthesis conditions determined by the parameters th2 and th3 determine the synthesis method or the synthesis ratio in the respective ranges where the parameters th2 and th3 are the boundary values.

画像内補間処理部301と、補間値合成部302と、組合せ部107とで、基準画像と動き補償補間処理部106で生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理部110が構成されている。これに対して、実施の形態1、2では、組合せ部107のみで統合処理部110が構成されていると見ることができる。   The inter-image interpolation processing unit 301, the interpolation value synthesis unit 302, and the combination unit 107 integrate the reference image and the interpolation image generated by the motion compensation interpolation processing unit 106 or the synthesized interpolation image generated based on the reference image. Thus, an integrated processing unit 110 for obtaining an output image is configured. On the other hand, in Embodiments 1 and 2, it can be seen that the integration processing unit 110 is configured only by the combination unit 107.

なお、本実施の形態において、補間値合成部302では動き補償補間画像と画像内補間画像との差の絶対値に応じて、より具体的には該輝度値の差の絶対値と閾値との比較の結果に基づいて合成補間値を決定していたが、他の方法により補間値を決定してもよい。例えば、動き補償補間画像の画素を生成するにあたり動き推定部202で算出された動きベクトル評価値に応じて、例えば該動きベクトル評価値と閾値との比較を行い、動きベクトル評価値が小さければ動き補償補間画像の画素の輝度値を選択し(或いは動き補償補間画像がより大きな割合を示すように合成を行ない)、大きければ画像内補間画像の画素の輝度値を選択する(或いは画像内補間画像がより大きな割合を示すように合成を行なう)ようにしてもよい。   In the present embodiment, the interpolation value synthesis unit 302 more specifically calculates the difference between the absolute value of the luminance value and the threshold according to the absolute value of the difference between the motion compensated interpolation image and the intra-image interpolation image. Although the composite interpolation value is determined based on the comparison result, the interpolation value may be determined by other methods. For example, according to the motion vector evaluation value calculated by the motion estimation unit 202 in generating the pixel of the motion compensated interpolation image, for example, the motion vector evaluation value is compared with a threshold value. Select the luminance value of the pixel of the compensated interpolated image (or combine so that the motion compensated interpolated image shows a larger ratio), and if it is larger, select the luminance value of the pixel of the interpolated image in the image (or interpolated image in the image) May be combined so that indicates a larger ratio).

また、実施の形態1、実施の形態2、及び本実施の形態においては、基準画像を縦・横に2倍する解像度変換を行ったが、別の倍率の解像度変換を行ってもよい。例えば、上記の例で得られた高解像度画像をバイリニア補間などにより異なる倍率の画像に変換することができる。また、縦・横のどちらか一方のみを2倍にする解像度変換を行ってもよい。   Further, in the first embodiment, the second embodiment, and the present embodiment, the resolution conversion for doubling the reference image vertically and horizontally is performed, but the resolution conversion of another magnification may be performed. For example, the high resolution image obtained in the above example can be converted into an image with a different magnification by bilinear interpolation or the like. Further, resolution conversion for doubling only one of the vertical and horizontal directions may be performed.

本実施の形態によれば、動き補償による補間処理と画像内の画素情報を用いた補間処理によって得られる2つの補間画像を基に、入力されるパラメータ信号に応じて適切な補間値を生成するため、より高画質な高解像度画像が生成できる。   According to the present embodiment, an appropriate interpolation value is generated according to an input parameter signal based on two interpolation images obtained by interpolation processing using motion compensation and interpolation processing using pixel information in the image. Therefore, a higher resolution image with higher image quality can be generated.

実施の形態4.
図14はこの発明の実施の形態4の走査線補間装置の構成を示すブロック図である。
本実施の形態の走査線補間装置500は、走査線補間を縦2倍の解像度変換と見なし、インターレース画像をプログレッシブ画像に変換する。本走査線補間装置は、基準画像、未来画像、過去画像がインターレース画像であることを除けば、実施の形態1の解像度変換装置と同じ構成であり、本実施の形態の走査線補間装置500は、解像度変換装置の一種であるとみることもできる。
Embodiment 4 FIG.
FIG. 14 is a block diagram showing the configuration of the scanning line interpolation apparatus according to the fourth embodiment of the present invention.
Scanning line interpolation apparatus 500 according to the present embodiment regards scanning line interpolation as double-resolution resolution conversion, and converts an interlaced image into a progressive image. This scanning line interpolation apparatus has the same configuration as the resolution conversion apparatus of the first embodiment except that the reference image, the future image, and the past image are interlaced images. The scanning line interpolation apparatus 500 of the present embodiment is It can also be regarded as a kind of resolution conversion device.

ただし、インターレース画像はフィールドの種類によって画素の存在する位置が異なるため、フィールドの種類に応じて、サブピクセルを補間する位置を変える必要がある。図15(a)〜(c)にフィールドの種類に応じた画素とサブピクセルの位置を示す。図中の白丸は画素、黒丸はサブピクセルを示すものとする。最上行に画素のあるフィールド(以下ではトップフィールド)を図15(a)に、最上行がサブピクセルであるフィールド(以下ではボトムフィールド)を図15(b)に示している。インターレース方式では、トップフィールドとボトムフィールドが交互に現れるため、本走査線補間装置ではフィールドの種類に応じて補間位置を切り替えてサブピクセルの補間を行う。   However, in the interlaced image, the position where the pixel exists differs depending on the type of the field. Therefore, it is necessary to change the position where the sub-pixel is interpolated according to the type of the field. FIGS. 15A to 15C show the positions of pixels and sub-pixels according to the field type. In the figure, white circles indicate pixels, and black circles indicate subpixels. FIG. 15A shows a field having a pixel in the top row (hereinafter, the top field), and FIG. 15B shows a field having the top row being a sub-pixel (hereinafter, the bottom field). In the interlace method, since the top field and the bottom field appear alternately, the scanning line interpolating apparatus switches the interpolation position according to the type of the field and performs sub-pixel interpolation.

また、上記のように、インターレース方式ではトップフィールドとボトムフィールドが交互に出現するため、基準画像と未来画像・過去画像とではフィールドの種類が異なる。そのため、探索範囲決定部105によって設定される探索範囲が同じでも、探索範囲から得られる動きベクトル候補がプログレッシブ方式とは異なる。図16(a)〜(c)を例として、このことを説明する。図中の白丸は画素、黒丸はサブピクセル、三角は補間すべき位置にあるサブピクセルである。また、破線は探索範囲を示しており、補間すべき位置のサブピクセルから3画素×3画素の範囲を探索範囲としている。図16(a)は基準画像、図16(b)はプログレッシブ方式での未来画像、図16(c)はインターレース方式での未来画像である。   Further, as described above, since the top field and the bottom field appear alternately in the interlace method, the type of field differs between the reference image and the future image / past image. Therefore, even if the search range set by the search range determining unit 105 is the same, motion vector candidates obtained from the search range are different from the progressive method. This will be described using FIGS. 16A to 16C as an example. In the figure, white circles are pixels, black circles are subpixels, and triangles are subpixels at positions to be interpolated. A broken line indicates a search range, and a range of 3 pixels × 3 pixels from a sub-pixel at a position to be interpolated is set as a search range. FIG. 16A shows a reference image, FIG. 16B shows a future image by the progressive method, and FIG. 16C shows a future image by the interlace method.

プログレッシブ方式では、基準画像と未来画像における画素とサブピクセルの位置関係が同じである。動きベクトル候補は、補間すべきサブピクセルの位置を始点、未来画像における探索範囲内の画素を終点とするベクトルであるため、図16では(−1,−0.5)、(0,−0.5)、(1,−0.5)、(−1,0.5)、(0,0.5)、(1,0.5)がプログレッシブ方式の場合の動きベクトル候補となる。一方、インターレース方式では基準画像と未来画像のフィールドの種類が異なるため、画素とサブピクセルの位置関係が異なる。図16では(−1,−1)、(0,−1)、(1,−1)、(−1,0)、(0,0)、(1,0)、(−1,1)、(0,1)、(1,1)がインターレース方式の場合の動きベクトル候補となる。   In the progressive method, the positional relationship between pixels and sub-pixels in the reference image and the future image is the same. Since the motion vector candidate is a vector having the position of the sub-pixel to be interpolated as the start point and the pixel within the search range in the future image as the end point, in FIG. 16, (−1, −0.5), (0, −0) .5), (1, -0.5), (-1, 0.5), (0, 0.5), (1, 0.5) are motion vector candidates in the case of the progressive method. On the other hand, in the interlace method, since the field types of the reference image and the future image are different, the positional relationship between the pixel and the sub-pixel is different. In FIG. 16, (-1, -1), (0, -1), (1, -1), (-1, 0), (0, 0), (1, 0), (-1, 1). , (0, 1), (1, 1) are motion vector candidates in the case of the interlace method.

本実施の形態によれば、ブロックの対応付け誤りを低減した適切な動き補償による高品質な解像度変換方法を走査線補間に利用することができるため、高品質な走査線補間画像が得られる。
以上、実施の形態1で説明した解像度変換を走査線補間に利用する例について説明したが、同様に、実施の形態2及び3で説明した解像度変換を走査線補間に利用することもできる。
According to the present embodiment, a high-quality resolution conversion method based on appropriate motion compensation with reduced block correspondence errors can be used for scanning line interpolation, so that a high-quality scanning line interpolation image can be obtained.
The example in which the resolution conversion described in the first embodiment is used for scanning line interpolation has been described above. Similarly, the resolution conversion described in the second and third embodiments can be used for scanning line interpolation.

実施の形態5.
図17はこの発明の実施の形態5の映像表示装置の構成を示すブロック図である。
本実施の形態の映像表示装置400は、ユーザ指定信号と低解像度映像を入力とし、ユーザの好みに応じた画質の高解像度映像を表示する装置であり、シーン検出部401、パラメータ設定部402、解像度変換装置403、表示部404から構成される。
Embodiment 5 FIG.
FIG. 17 is a block diagram showing a configuration of a video display apparatus according to Embodiment 5 of the present invention.
The video display device 400 according to the present embodiment is a device that receives a user-specified signal and a low-resolution video, and displays a high-resolution video with an image quality according to the user's preference, and includes a scene detection unit 401, a parameter setting unit 402, It consists of a resolution conversion device 403 and a display unit 404.

シーン検出部401では、入力された低解像度映像のシーンの切り替わりを検出する。シーンの切り替わりの検出方法としては、例えば、時間軸上で隣接する画像間において各画素の輝度値の差分絶対値を取り、差分絶対値が予め定めた閾値より大きくなる画素が一定数以上あった場合にシーンの切り替わりと判断する方法がある。シーンの切り替わりの検出結果は検知信号として出力され、パラメータ設定部402に入力される。   The scene detection unit 401 detects scene switching of the input low-resolution video. As a method for detecting scene switching, for example, the absolute value of the luminance value of each pixel is taken between adjacent images on the time axis, and there are a certain number of pixels in which the absolute value of the difference is greater than a predetermined threshold. In some cases, there is a method for determining a scene change. The detection result of the scene change is output as a detection signal and input to the parameter setting unit 402.

パラメータ設定部402では、シーン検出部401から得られる検知信号(シーン切り替わりの検出結果)と入力であるユーザ指定信号を基に解像度変換のパラメータを設定し、パラメータ信号として解像度変換装置403に出力する。ユーザ指定信号は、ユーザによってリモコンなどから指定される信号である。ユーザ指定信号に応じた複数のパラメータセットを用意することでユーザの好みに応じたパラメータ設定が可能である。また、シーン切り替え用のパラメータセットを用意しておくこともできる。   The parameter setting unit 402 sets resolution conversion parameters based on a detection signal (scene change detection result) obtained from the scene detection unit 401 and a user-specified signal that is an input, and outputs the parameters to the resolution conversion apparatus 403 as parameter signals. . The user designation signal is a signal designated by a user from a remote controller or the like. By preparing a plurality of parameter sets according to the user-designated signal, it is possible to set parameters according to the user's preference. Also, a parameter set for scene switching can be prepared.

解像度変換装置403は、入力映像に対してパラメータ信号に応じた画質の高解像度画像を出力する装置である。具体的には、実施の形態3の解像度変換装置と同等の機能を有する装置により実現される。   The resolution conversion apparatus 403 is an apparatus that outputs a high-resolution image with an image quality corresponding to a parameter signal with respect to an input video. Specifically, it is realized by a device having the same function as the resolution conversion device of the third embodiment.

パラメータ設定部402から出力され解像度変換装置403に入力されるパラメータ信号は、例えば、実施の形態3の装置において補間値合成部302で用いる補間値決定のための閾値th2、th3である。パラメータセットは、ユーザからの指定により設定され、シーン切り替えの前後はシーン切り替え用のパラメータセットに切り替わる。例えば、通常時はユーザの指定に従って動き補償補間を優先するようにth2、th3が大きい値を取るパラメータセットを出力し、シーン切り替え前後では画像内補間が優先されるようにth2、th3が小さい値を取るパラメータセットを出力することもできる。
このように、解像度変換装置403の補間値合成部302は、パラメータ設定部402によって設定されたパラメータに基づいて、動き補償補間画像と画像内補間画像の合成条件を定める。
The parameter signals output from the parameter setting unit 402 and input to the resolution conversion device 403 are, for example, threshold values th2 and th3 for determining an interpolation value used in the interpolation value synthesis unit 302 in the device of the third embodiment. The parameter set is set by designation from the user, and before and after the scene switching, the parameter set is switched to the scene switching parameter set. For example, a parameter set in which th2 and th3 take large values so as to prioritize motion compensation interpolation according to the user's specification is output, and th2 and th3 are small values so that intra-image interpolation is prior to and after scene switching. It is also possible to output a parameter set that takes
As described above, the interpolation value synthesis unit 302 of the resolution conversion apparatus 403 determines the synthesis conditions for the motion compensated interpolation image and the intra-image interpolation image based on the parameters set by the parameter setting unit 402.

表示部404では、解像度変換装置403から出力される高解像度映像を受け取り、画面に表示する。   The display unit 404 receives the high-resolution video output from the resolution conversion device 403 and displays it on the screen.

本実施の形態によれば、ユーザの設定に応じた画質の解像度変換が行われるため、ユーザの好みに応じた高画質な高解像度画像を表示できる。   According to the present embodiment, since the resolution conversion of the image quality according to the user setting is performed, a high-resolution high-resolution image according to the user preference can be displayed.

100、200、300 解像度変換装置、 101 未来画像切り出し部、 102 過去画像切り出し部、 103 非類似度算出部、 104 動き推定部、 105 探索範囲決定部、 106 動き補償補間処理部、 107 組合せ部、 110 統合処理部、 201a、201b 平坦度算出部、 202 動き推定部、 301 画像内補間処理部、 302 補間値合成部、 400 映像表示装置、 401 シーン検出部、 402 パラメータ設定部、 403 解像度変換装置、 404 表示部、 500 走査線補間装置。   100, 200, 300 Resolution conversion device, 101 Future image clipping unit, 102 Past image clipping unit, 103 Dissimilarity calculation unit, 104 Motion estimation unit, 105 Search range determination unit, 106 Motion compensation interpolation processing unit, 107 Combination unit, 110 Integration processing unit, 201a, 201b Flatness calculation unit, 202 Motion estimation unit, 301 Intra-image interpolation processing unit, 302 Interpolation value synthesis unit, 400 Video display device, 401 Scene detection unit, 402 Parameter setting unit, 403 Resolution conversion device 404 display unit, 500 scanning line interpolation device.

Claims (22)

連続する複数枚の画像において、高解像度化の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像を入力画像とし、
動きベクトルの探索範囲を決定する探索範囲決定部と、
前記探索範囲決定部で決定された探索範囲内の動きベクトル候補と基準画像上の補間すべき画素の座標を基に、未来画像から複数の画素で構成されるブロックを該探索範囲の広さ以上に設定された所定のサイズで切り出す未来画像切り出し部と、
基準画像上の補間すべき画素に関して前記未来画像切り出し部によって切り出されたブロックと点対称の位置にあるブロックを過去画像から切り出す過去画像切り出し部と、
前記未来画像切り出し部と前記過去画像切り出し部によって切り出された2つのブロック間の非類似度を算出する非類似度算出部と、
前記非類似度算出部で算出された非類似度に基づいて求めた動きベクトル評価値を最小とする動きベクトルを出力する動き推定部と、
前記動き推定部から出力される動きベクトルに基づいて未来画像と過去画像から画素情報を取得し、該画素情報から補間画素を生成することで補間画像を生成する動き補償補間処理部と、
基準画像と前記動き補償補間処理部で生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理部とを備え、
前記探索範囲決定部は、各画像を基準画像としたときの前記動き推定部から出力される動きベクトルに基づいて次の画像を基準画像とするときの高解像度化処理における探索範囲を決定する
ことを特徴とする解像度変換装置。
In a plurality of continuous images, a reference image to be increased in resolution, a future image positioned one time later on the time axis with respect to the reference image, and one time previous on the time axis with respect to the reference image Use the past image located as the input image,
A search range determination unit for determining a search range of a motion vector;
Based on the motion vector candidate within the search range determined by the search range determination unit and the coordinates of the pixel to be interpolated on the reference image, a block composed of a plurality of pixels from the future image is larger than the width of the search range A future image cutout unit that cuts out with a predetermined size set to
A past image cutout unit that cuts out a block that is point-symmetric with a block cut out by the future image cutout unit with respect to the pixel to be interpolated on the reference image;
A dissimilarity calculation unit that calculates a dissimilarity between two blocks cut out by the future image cutout unit and the past image cutout unit;
A motion estimator that outputs a motion vector that minimizes a motion vector evaluation value obtained based on the dissimilarity calculated by the dissimilarity calculator;
A motion compensation interpolation processing unit that obtains pixel information from a future image and a past image based on a motion vector output from the motion estimation unit, and generates an interpolation image by generating an interpolation pixel from the pixel information;
An integrated processing unit that obtains an output image by integrating a reference image and an interpolation image generated by the motion compensation interpolation processing unit or a synthetic interpolation image generated based on the interpolation image;
The search range determination unit determines a search range in the high resolution processing when the next image is a reference image based on a motion vector output from the motion estimation unit when each image is a reference image. A resolution converter characterized by the above.
前記探索範囲決定部は、前記動き推定部から出力される動きベクトルを中心とする所定の範囲を探索範囲とすることを特徴とする請求項1に記載の解像度変換装置。   The resolution conversion apparatus according to claim 1, wherein the search range determination unit sets a predetermined range centered on a motion vector output from the motion estimation unit as a search range. 前記探索範囲決定部は、基準画像上の補間すべき画素を中心とした所定の範囲を有効範囲とし、前記探索範囲から該有効範囲外の範囲を除外する
ことを特徴とする請求項1又は2に記載の解像度変換装置。
The search range determination unit sets a predetermined range centered on a pixel to be interpolated on a reference image as an effective range, and excludes a range outside the effective range from the search range. The resolution converter described in 1.
前記未来画像切り出し部は、ブロックの中心が移動する探索範囲の広さが縦h画素(ただし、hは正の整数)、横w画素(ただし、wは正の整数)の場合には、未来画像から複数の画素で構成されるブロックを縦(2×h−1)画素以上、横(2×w−1)画素以上に設定された所定のサイズで切り出すことを特徴とする請求項1から3のいずれか1項に記載の解像度変換装置。   The future image cutout unit determines that the future when the width of the search range in which the center of the block moves is vertical h pixels (where h is a positive integer) and horizontal w pixels (where w is a positive integer). 2. A block composed of a plurality of pixels is cut out from an image with a predetermined size set to vertical (2 × h−1) pixels or more and horizontal (2 × w−1) pixels or more. 4. The resolution conversion apparatus according to any one of 3 above. 前記未来画像切り出し部によって切り出されたブロックの画像の平坦度を算出し、平坦度算出結果を出力する第1の平坦度算出部と、
前記過去画像切り出し部によって切り出されたブロックの画像の平坦度を算出し、平坦度算出結果を出力する第2の平坦度算出部とをさらに備え、
前記動き推定部は、前記第1の平坦度算出部と前記第2の平坦度算出部から出力される平坦度算出結果を基に決定する平坦領域ペナルティを、前記非類似度に加算することで前記動きベクトル評価値を求める
ことを特徴とする請求項1から4のいずれか1項に記載の解像度変換装置。
A first flatness calculation unit that calculates flatness of an image of a block cut out by the future image cutout unit and outputs a flatness calculation result;
A second flatness calculation unit that calculates the flatness of the image of the block cut out by the past image cutout unit and outputs the flatness calculation result;
The motion estimation unit adds a flat area penalty determined based on the flatness calculation results output from the first flatness calculation unit and the second flatness calculation unit to the dissimilarity. The resolution conversion apparatus according to claim 1, wherein the motion vector evaluation value is obtained.
前記動き推定部は、動きベクトルの大きさに応じた動き量ペナルティを前記非類似度に加算することで、前記動きベクトル評価値を求める
ことを特徴とする請求項1から5のいずれか1項に記載の解像度変換装置。
The said motion estimation part calculates | requires the said motion vector evaluation value by adding the motion amount penalty according to the magnitude | size of a motion vector to the said dissimilarity degree, The any one of Claim 1 to 5 characterized by the above-mentioned. The resolution converter described in 1.
統合処理部は、
基準画像に対して画像内の情報を基に補間画像を生成する画像内補間処理部と、
前記動き補償補間処理部で生成される補間画像と前記画像内補間処理部で生成される補間画像とを合成して、合成補間画像を生成する補間値合成部とを備え、
前記補間値合成部は、前記動き補償補間処理部で生成される補間画像と前記画像内補間処理部で生成される補間画像の、各画素の値を比較して、該比較結果に応じて、前記合成における合成割合を定める
ことを特徴とする請求項1から6のいずれか1項に記載の解像度変換装置。
The integrated processing unit
An intra-image interpolation processing unit that generates an interpolated image based on information in the image with respect to the reference image;
An interpolation value combining unit that combines the interpolation image generated by the motion compensation interpolation processing unit and the interpolation image generated by the intra-image interpolation processing unit to generate a combined interpolation image;
The interpolation value synthesis unit compares the value of each pixel of the interpolation image generated by the motion compensation interpolation processing unit and the interpolation image generated by the intra-image interpolation processing unit, and according to the comparison result, The resolution conversion apparatus according to claim 1, wherein a composition ratio in the composition is determined.
前記補間値合成部は、前記動き補償補間処理部で生成される補間画像と前記画像内補間処理部で生成される補間画像の、各画素の値の差分の絶対値に応じて、前記合成における合成割合を定める
ことを特徴とする請求項7に記載の解像度変換装置。
The interpolation value synthesizing unit is configured to perform the synthesis according to an absolute value of a difference between pixel values of the interpolation image generated by the motion compensation interpolation processing unit and the interpolation image generated by the intra-image interpolation processing unit. The resolution conversion apparatus according to claim 7, wherein a composition ratio is determined.
連続する複数枚の画像において、走査線補間の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像を入力画像とし、
動きベクトルの探索範囲を決定する探索範囲決定部と、
前記探索範囲決定部で決定された探索範囲内の動きベクトル候補と基準画像上の補間すべき画素の座標を基に、未来画像から複数の画素で構成されるブロックを該探索範囲の広さ以上に設定された所定のサイズで切り出す未来画像切り出し部と、
基準画像上の補間すべき画素に関して前記未来画像切り出し部によって切り出されたブロックと点対称の位置にあるブロックを過去画像から切り出す過去画像切り出し部と、
前記未来画像切り出し部と前記過去画像切り出し部によって切り出された2つのブロック間の非類似度を算出する非類似度算出部と、
前記非類似度算出部で算出された非類似度に基づいて求めた動きベクトル評価値を最小とする動きベクトルを出力する動き推定部と、
前記動き推定部から出力される動きベクトルに基づいて未来画像と過去画像から画素情報を取得し、該画素情報から補間画素を生成することで補間画像を生成する動き補償補間処理部と、
基準画像と前記動き補償補間処理部で生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理部とを備え、
前記探索範囲決定部は、各画像を基準画像としたときの前記動き推定部から出力される動きベクトルに基づいて次の画像を基準画像とするときの走査線補間処理における探索範囲を決定する
ことを特徴とする走査線補間装置。
In a plurality of continuous images, a reference image to be subjected to scanning line interpolation, a future image positioned one time later on the time axis with respect to the reference image, and one time previous on the time axis with respect to the reference image Use the past image located as the input image,
A search range determination unit for determining a search range of a motion vector;
Based on the motion vector candidate within the search range determined by the search range determination unit and the coordinates of the pixel to be interpolated on the reference image, a block composed of a plurality of pixels from the future image is larger than the width of the search range A future image cutout unit that cuts out with a predetermined size set to
A past image cutout unit that cuts out a block that is point-symmetric with a block cut out by the future image cutout unit with respect to the pixel to be interpolated on the reference image;
A dissimilarity calculation unit that calculates a dissimilarity between two blocks cut out by the future image cutout unit and the past image cutout unit;
A motion estimator that outputs a motion vector that minimizes a motion vector evaluation value obtained based on the dissimilarity calculated by the dissimilarity calculator;
A motion compensation interpolation processing unit that obtains pixel information from a future image and a past image based on a motion vector output from the motion estimation unit, and generates an interpolation image by generating an interpolation pixel from the pixel information;
An integrated processing unit that obtains an output image by integrating a reference image and an interpolation image generated by the motion compensation interpolation processing unit or a synthetic interpolation image generated based on the interpolation image;
The search range determination unit determines a search range in a scanning line interpolation process when a next image is a reference image based on a motion vector output from the motion estimation unit when each image is a reference image. A scanning line interpolation apparatus characterized by the above.
請求項1から8のいずれか1項に記載の解像度変換装置、もしくは請求項9に記載の走査線補間装置を備えた映像表示装置。   An image display device comprising the resolution conversion device according to any one of claims 1 to 8, or the scanning line interpolation device according to claim 9. 請求項7又は8に記載の解像度変換装置と、
入力された低解像度映像のシーンの切り替わりを検出するシーン検出部と、
ユーザ指定信号と前記シーン検出部で得られるシーン切り替わりの検出結果に基づいて解像度変換のパラメータを設定するパラメータ設定部とを備え、
前記解像度変換装置の前記補間値合成部は、前記パラメータ設定部によって設定されたパラメータに基づいて、前記動き補償補間画像と前記画像内補間画像の合成条件を定める
ことを特徴とする画像表示装置。
The resolution conversion device according to claim 7 or 8,
A scene detection unit for detecting a scene change of the input low-resolution video;
A parameter setting unit for setting a parameter for resolution conversion based on a user-specified signal and a detection result of scene switching obtained by the scene detection unit;
The image display device, wherein the interpolation value synthesis unit of the resolution conversion device determines a synthesis condition for the motion compensated interpolation image and the intra-image interpolation image based on the parameter set by the parameter setting unit.
連続する複数枚の画像において、高解像度化の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像を入力画像とし、
動きベクトルの探索範囲を決定する探索範囲決定ステップと、
前記探索範囲決定ステップで決定された探索範囲内の動きベクトル候補と基準画像上の補間すべき画素の座標を基に、未来画像から複数の画素で構成されるブロックを該探索範囲の広さ以上に設定された所定のサイズで切り出す未来画像切り出しステップと、
基準画像上の補間すべき画素に関して前記未来画像切り出しステップによって切り出されたブロックと点対称の位置にあるブロックを過去画像から切り出す過去画像切り出しステップと、
前記未来画像切り出しステップと前記過去画像切り出しステップによって切り出された2つのブロック間の非類似度を算出する非類似度算出ステップと、
前記非類似度算出ステップで算出された非類似度に基づいて求めた動きベクトル評価値を最小とする動きベクトルを出力する動き推定ステップと、
前記動き推定ステップから出力される動きベクトルに基づいて未来画像と過去画像から画素情報を取得し、該画素情報から補間画素を生成することで補間画像を生成する動き補償補間処理ステップと、
基準画像と前記動き補償補間処理ステップで生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理ステップとを備え、
前記探索範囲決定ステップは、各画像を基準画像としたときの前記動き推定ステップから出力される動きベクトルに基づいて次の画像を基準画像とするときの高解像度化処理における探索範囲を決定する
ことを特徴とする解像度変換方法。
In a plurality of continuous images, a reference image to be increased in resolution, a future image positioned one time later on the time axis with respect to the reference image, and one time previous on the time axis with respect to the reference image Use the past image located as the input image,
A search range determining step for determining a search range of a motion vector;
Based on the motion vector candidates in the search range determined in the search range determination step and the coordinates of the pixel to be interpolated on the reference image, a block composed of a plurality of pixels from the future image is larger than the width of the search range A future image cutout step to cut out at a predetermined size set in
A past image cutout step of cutting out a block in a point-symmetrical position with respect to the block cut out by the future image cutout step with respect to the pixel to be interpolated on the reference image;
A dissimilarity calculating step of calculating a dissimilarity between the two blocks cut out by the future image cutting step and the past image cutting step;
A motion estimation step for outputting a motion vector that minimizes a motion vector evaluation value obtained based on the dissimilarity calculated in the dissimilarity calculating step;
A motion compensation interpolation processing step of acquiring pixel information from a future image and a past image based on a motion vector output from the motion estimation step, and generating an interpolation image by generating an interpolation pixel from the pixel information;
An integration processing step of integrating a reference image and the interpolation image generated in the motion compensation interpolation processing step or a synthetic interpolation image generated based on the interpolation image to obtain an output image;
The search range determining step determines a search range in the high-resolution processing when a next image is set as a reference image based on a motion vector output from the motion estimation step when each image is set as a reference image. A resolution conversion method characterized by the above.
前記探索範囲決定ステップは、前記動き推定ステップから出力される動きベクトルを中心とする所定の範囲を探索範囲とすることを特徴とする請求項12に記載の解像度変換方法。   13. The resolution conversion method according to claim 12, wherein the search range determination step uses a predetermined range centered on the motion vector output from the motion estimation step as a search range. 前記探索範囲決定ステップは、基準画像上の補間すべき画素を中心とした所定の範囲を有効範囲とし、前記探索範囲から該有効範囲外の範囲を除外する
ことを特徴とする請求項12又は13に記載の解像度変換方法。
The search range determination step includes setting a predetermined range centered on a pixel to be interpolated on a reference image as an effective range, and excluding a range outside the effective range from the search range. Resolution conversion method described in 1.
前記未来画像切り出しステップは、ブロックの中心が移動する探索範囲の広さが縦h画素(ただし、hは正の整数)、横w画素(ただし、wは正の整数)の場合には、未来画像から複数の画素で構成されるブロックを縦(2×h−1)画素以上、横(2×w−1)画素以上に設定された所定のサイズで切り出すことを特徴とする請求項12から14のいずれか1項に記載の解像度変換方法。   The future image cut-out step is performed when the search range in which the center of the block moves is vertical h pixels (where h is a positive integer) and horizontal w pixels (where w is a positive integer). 13. A block composed of a plurality of pixels is cut out from an image at a predetermined size set to vertical (2 × h−1) pixels or more and horizontal (2 × w−1) pixels or more. 14. The resolution conversion method according to any one of 14 above. 前記未来画像切り出しステップによって切り出されたブロックの画像の平坦度を算出し、平坦度算出結果を出力する第1の平坦度算出ステップと、
前記過去画像切り出しステップによって切り出されたブロックの画像の平坦度を算出し、平坦度算出結果を出力する第2の平坦度算出ステップとをさらに備え、
前記動き推定ステップは、前記第1の平坦度算出ステップと前記第2の平坦度算出ステップから出力される平坦度算出結果を基に決定する平坦領域ペナルティを、前記非類似度に加算することで前記動きベクトル評価値を求める
ことを特徴とする請求項12から15のいずれか1項に記載の解像度変換方法。
Calculating a flatness of the image of the block cut out by the future image cutout step, and outputting a flatness calculation result;
A flatness calculation step of calculating a flatness of the image of the block cut out by the past image cutout step and outputting a flatness calculation result; and
The motion estimation step adds a flat area penalty determined based on the flatness calculation results output from the first flatness calculation step and the second flatness calculation step to the dissimilarity. The resolution conversion method according to claim 12, wherein the motion vector evaluation value is obtained.
前記動き推定ステップは、動きベクトルの大きさに応じた動き量ペナルティを前記非類似度に加算することで、前記動きベクトル評価値を求める
ことを特徴とする請求項12から16のいずれか1項に記載の解像度変換方法。
The motion estimation step is to obtain the motion vector evaluation value by adding a motion amount penalty corresponding to the magnitude of a motion vector to the dissimilarity. Resolution conversion method described in 1.
統合処理ステップは、
基準画像に対して画像内の情報を基に補間画像を生成する画像内補間処理ステップと、
前記動き補償補間処理ステップで生成される補間画像と前記画像内補間処理ステップで生成される補間画像とを合成して、合成補間画像を生成する補間値合成ステップとを備え、
前記補間値合成ステップは、前記動き補償補間処理ステップで生成される補間画像と前記画像内補間処理ステップで生成される補間画像の、各画素の値を比較して、該比較結果に応じて、前記合成における合成割合を定める
ことを特徴とする請求項12から17のいずれか1項に記載の解像度変換方法。
The integration process steps are
Intra-image interpolation processing step for generating an interpolated image based on information in the image with respect to the reference image;
An interpolation value synthesizing step for synthesizing the interpolation image generated in the motion compensation interpolation processing step and the interpolation image generated in the intra-image interpolation processing step to generate a synthetic interpolation image;
The interpolation value synthesis step compares the value of each pixel of the interpolation image generated in the motion compensation interpolation processing step and the interpolation image generated in the intra-image interpolation processing step, and according to the comparison result, The resolution conversion method according to claim 12, wherein a composition ratio in the composition is determined.
前記補間値合成ステップは、前記動き補償補間処理ステップで生成される補間画像と前記画像内補間処理ステップで生成される補間画像の、各画素の値の差分の絶対値に応じて、前記合成における合成割合を定める
ことを特徴とする請求項18に記載の解像度変換方法。
The interpolation value synthesizing step is performed in the synthesis according to an absolute value of a difference between pixel values of the interpolation image generated in the motion compensation interpolation processing step and the interpolation image generated in the intra-image interpolation processing step. The resolution conversion method according to claim 18, wherein a composition ratio is determined.
連続する複数枚の画像において、走査線補間の対象となる基準画像と、基準画像に対して時間軸上で1つ後に位置する未来画像と、基準画像に対して時間軸上で1つ前に位置する過去画像を入力画像とし、
動きベクトルの探索範囲を決定する探索範囲決定ステップと、
前記探索範囲決定ステップで決定された探索範囲内の動きベクトル候補と基準画像上の補間すべき画素の座標を基に、未来画像から複数の画素で構成されるブロックを該探索範囲の広さ以上に設定された所定のサイズで切り出す未来画像切り出しステップと、
基準画像上の補間すべき画素に関して前記未来画像切り出しステップによって切り出されたブロックと点対称の位置にあるブロックを過去画像から切り出す過去画像切り出しステップと、
前記未来画像切り出しステップと前記過去画像切り出しステップによって切り出された2つのブロック間の非類似度を算出する非類似度算出ステップと、
前記非類似度算出ステップで算出された非類似度に基づいて求めた動きベクトル評価値を最小とする動きベクトルを出力する動き推定ステップと、
前記動き推定ステップから出力される動きベクトルに基づいて未来画像と過去画像から画素情報を取得し、該画素情報から補間画素を生成することで補間画像を生成する動き補償補間処理ステップと、
基準画像と前記動き補償補間処理ステップで生成される補間画像又はこれに基づいて生成される合成補間画像を統合して出力画像を得る統合処理ステップとを備え、
前記探索範囲決定ステップは、各画像を基準画像としたときの前記動き推定ステップから出力される動きベクトルに基づいて次の画像を基準画像とするときの走査線補間処理における探索範囲を決定する
ことを特徴とする走査線補間方法。
In a plurality of continuous images, a reference image to be subjected to scanning line interpolation, a future image positioned one time later on the time axis with respect to the reference image, and one time previous on the time axis with respect to the reference image Use the past image located as the input image,
A search range determining step for determining a search range of a motion vector;
Based on the motion vector candidates in the search range determined in the search range determination step and the coordinates of the pixel to be interpolated on the reference image, a block composed of a plurality of pixels from the future image is larger than the width of the search range A future image cutout step to cut out at a predetermined size set in
A past image cutout step of cutting out a block in a point-symmetrical position with respect to the block cut out by the future image cutout step with respect to the pixel to be interpolated on the reference image;
A dissimilarity calculating step of calculating a dissimilarity between the two blocks cut out by the future image cutting step and the past image cutting step;
A motion estimation step for outputting a motion vector that minimizes a motion vector evaluation value obtained based on the dissimilarity calculated in the dissimilarity calculating step;
A motion compensation interpolation processing step of acquiring pixel information from a future image and a past image based on a motion vector output from the motion estimation step, and generating an interpolation image by generating an interpolation pixel from the pixel information;
An integration processing step of integrating a reference image and the interpolation image generated in the motion compensation interpolation processing step or a synthetic interpolation image generated based on the interpolation image to obtain an output image;
The search range determining step determines a search range in a scanning line interpolation process when a next image is set as a reference image based on a motion vector output from the motion estimation step when each image is set as a reference image. A scanning line interpolation method characterized by the above.
請求項12から19のいずれか1項に記載の解像度変換方法、もしくは請求項20に記載の走査線補間方法を備えた映像表示方法。   An image display method comprising the resolution conversion method according to any one of claims 12 to 19 or the scanning line interpolation method according to claim 20. 請求項18又は19に記載の解像度変換方法と、
入力された低解像度映像のシーンの切り替わりを検出するシーン検出ステップと、
ユーザ指定信号と前記シーン検出ステップで得られるシーン切り替わりの検出結果に基づいて解像度変換のパラメータを設定するパラメータ設定ステップとを備え、
前記解像度変換方法の前記補間値合成ステップは、前記パラメータ設定ステップによって設定されたパラメータに基づいて、前記動き補償補間画像と前記画像内補間画像の合成条件を定める
ことを特徴とする画像表示方法。
The resolution conversion method according to claim 18 or 19,
A scene detection step for detecting a scene change of the input low-resolution video;
A parameter setting step for setting a parameter for resolution conversion based on a user-specified signal and a detection result of a scene change obtained in the scene detection step;
The interpolating value synthesizing step of the resolution conversion method determines a synthesizing condition of the motion compensated interpolated image and the intra-image interpolated image based on the parameter set by the parameter setting step.
JP2010086880A 2010-04-05 2010-04-05 Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method Expired - Fee Related JP5448983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086880A JP5448983B2 (en) 2010-04-05 2010-04-05 Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086880A JP5448983B2 (en) 2010-04-05 2010-04-05 Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method

Publications (2)

Publication Number Publication Date
JP2011223086A true JP2011223086A (en) 2011-11-04
JP5448983B2 JP5448983B2 (en) 2014-03-19

Family

ID=45039547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086880A Expired - Fee Related JP5448983B2 (en) 2010-04-05 2010-04-05 Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method

Country Status (1)

Country Link
JP (1) JP5448983B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142281A (en) * 2014-01-29 2015-08-03 キヤノン株式会社 Subject searching device, control method and control program of the same, and imaging device
KR101568073B1 (en) 2011-12-14 2015-11-10 페킹 유니버시티 Nonlocality-based super-resolution reconstruction method and device
CN110166795A (en) * 2018-07-19 2019-08-23 腾讯科技(深圳)有限公司 A kind of video interception method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217263A (en) * 1993-01-20 1994-08-05 Oki Electric Ind Co Ltd Motion correction system interpolation signal generating device
JPH07240927A (en) * 1993-04-21 1995-09-12 Matsushita Electric Ind Co Ltd Video encoder
JP2006352611A (en) * 2005-06-17 2006-12-28 Hitachi Displays Ltd Picture interpolator, frame rate changer and picture display
JP2009077309A (en) * 2007-09-21 2009-04-09 Toshiba Corp Motion prediction apparatus and method
JP2010055252A (en) * 2008-08-27 2010-03-11 Mitsubishi Electric Corp Motion vector detector and image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217263A (en) * 1993-01-20 1994-08-05 Oki Electric Ind Co Ltd Motion correction system interpolation signal generating device
JPH07240927A (en) * 1993-04-21 1995-09-12 Matsushita Electric Ind Co Ltd Video encoder
JP2006352611A (en) * 2005-06-17 2006-12-28 Hitachi Displays Ltd Picture interpolator, frame rate changer and picture display
JP2009077309A (en) * 2007-09-21 2009-04-09 Toshiba Corp Motion prediction apparatus and method
JP2010055252A (en) * 2008-08-27 2010-03-11 Mitsubishi Electric Corp Motion vector detector and image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101568073B1 (en) 2011-12-14 2015-11-10 페킹 유니버시티 Nonlocality-based super-resolution reconstruction method and device
JP2015142281A (en) * 2014-01-29 2015-08-03 キヤノン株式会社 Subject searching device, control method and control program of the same, and imaging device
CN110166795A (en) * 2018-07-19 2019-08-23 腾讯科技(深圳)有限公司 A kind of video interception method and device

Also Published As

Publication number Publication date
JP5448983B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP4997281B2 (en) Method for determining estimated motion vector in image, computer program, and display device
JP4162621B2 (en) Frame interpolation method and apparatus for frame rate conversion
Kang et al. Motion compensated frame rate up-conversion using extended bilateral motion estimation
US8144778B2 (en) Motion compensated frame rate conversion system and method
US8724022B2 (en) Frame rate conversion using motion estimation and compensation
US8644387B2 (en) Motion estimation method
US20030086498A1 (en) Apparatus and method of converting frame and/or field rate using adaptive motion compensation
JP5534299B2 (en) Method and apparatus for dealing with periodic structures in motion compensation
US20120093231A1 (en) Image processing apparatus and image processing method
KR20100114499A (en) Image interpolation with halo reduction
US20100177239A1 (en) Method of and apparatus for frame rate conversion
US8675128B2 (en) Image processing method and system with repetitive pattern detection
JP2005012797A (en) Pixel-data selection device for motion compensation, and method thereof
JP5887764B2 (en) Motion compensation frame generation apparatus and method
US20080187050A1 (en) Frame interpolation apparatus and method for motion estimation through separation into static object and moving object
JP5448983B2 (en) Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method
JP5737072B2 (en) Motion compensation frame generation apparatus and method
CN111294545B (en) Image data interpolation method and device, storage medium and terminal
AU2004200237B2 (en) Image processing apparatus with frame-rate conversion and method thereof
Park et al. Covariance-based adaptive deinterlacing method using edge map
US7944504B2 (en) Apparatus for interpolating scanning lines
JP4179089B2 (en) Motion estimation method for motion image interpolation and motion estimation device for motion image interpolation
JP2003289511A (en) Image scan converting method and apparatus
US8698954B2 (en) Image processing method, image processing apparatus and image processing program
JP5887763B2 (en) Motion compensation frame generation apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Ref document number: 5448983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees