JP4655213B2 - Image processing apparatus and method, program, and recording medium - Google Patents

Image processing apparatus and method, program, and recording medium Download PDF

Info

Publication number
JP4655213B2
JP4655213B2 JP2005261433A JP2005261433A JP4655213B2 JP 4655213 B2 JP4655213 B2 JP 4655213B2 JP 2005261433 A JP2005261433 A JP 2005261433A JP 2005261433 A JP2005261433 A JP 2005261433A JP 4655213 B2 JP4655213 B2 JP 4655213B2
Authority
JP
Japan
Prior art keywords
pixel
frame
value
image
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005261433A
Other languages
Japanese (ja)
Other versions
JP2007074590A (en
Inventor
孝文 森藤
彰彦 貝野
邦雄 川口
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005261433A priority Critical patent/JP4655213B2/en
Publication of JP2007074590A publication Critical patent/JP2007074590A/en
Application granted granted Critical
Publication of JP4655213B2 publication Critical patent/JP4655213B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Description

本発明は画像処理装置および方法、プログラム並びに記録媒体に関し、特に、画像を処理する画像処理装置および方法、プログラム並びに記録媒体に関する。   The present invention relates to an image processing apparatus and method, a program, and a recording medium, and more particularly, to an image processing apparatus and method, a program, and a recording medium for processing an image.

従来、テレビジョン信号を記憶するフレームメモリと、これらから読み出したテレビジョン信号の動きを検出する動きベクトル検出回路と、これらからの複数の動きベクトルデータの平均を得る動きベクトル平均回路と、これからの平均動きベクトルデータ、フレームメモリから読み出されたテレビジョン信号にフレーム内挿処理を施す位置補正回路、乗算回路、加算回路、補正信号発生回路とを備える画像変換装置が提案されている(例えば、特許文献1参照)。   Conventionally, a frame memory for storing a television signal, a motion vector detection circuit for detecting the motion of the television signal read from the frame memory, a motion vector averaging circuit for obtaining an average of a plurality of motion vector data therefrom, An image conversion apparatus including a position correction circuit that performs frame interpolation processing on average motion vector data and a television signal read from a frame memory, a multiplication circuit, an addition circuit, and a correction signal generation circuit has been proposed (for example, Patent Document 1).

また、動き部分・動き量検出回路では、MUSE信号と動きベクトルから動き部分および動き量が検出され、フレーム間内挿回路では、MUSE信号の静止画像に動きベクトルを考慮したフレームが補間され、LPFおよびサンプリング周波数変換回路を介してフィールド間内挿回路において、フィールド間にフィールドが補間され、クラス分類適応補間回路では、補間がなされる周辺画素のレベル分布のパターンとエッジデータからクラス分類がなされ、読み出された係数データを用いてフィールド内内挿および/またはフレーム内内挿の処理が行われ、サンプリング周波数変換回路を介して混合回路へ供給され、混合回路では、動き部分・動き量に応じて比率が決定され、静止画像と動き画像とが混合されるようにしているものもある(特許文献2参照)。   The motion part / motion amount detection circuit detects the motion part and the motion amount from the MUSE signal and the motion vector, and the interframe interpolation circuit interpolates a frame in consideration of the motion vector into the still image of the MUSE signal, and the LPF. In the inter-field interpolation circuit via the sampling frequency conversion circuit, the field is interpolated between the fields, and in the class classification adaptive interpolation circuit, the class classification is performed from the level distribution pattern and edge data of the peripheral pixels to be interpolated, Using the read coefficient data, field interpolation and / or frame interpolation processing is performed and supplied to the mixing circuit via the sampling frequency conversion circuit. Some ratios are determined so that still images and motion images are mixed ( Patent reference 2).

特開平6−121290号公報JP-A-6-121290

特開平9−172621号公報Japanese Patent Laid-Open No. 9-172621

しかしながら、内挿に用いるベクトルが誤っている場合など、本来はないエッジなどが生成される画像に生じ、生成される画像が破綻することがある。このような破綻は画像の劣化として目立ち、画像の主観的な画質が落ちてしまう。   However, when the vector used for interpolation is incorrect, an original edge or the like may occur in the generated image, and the generated image may break down. Such a failure is noticeable as image degradation, and the subjective image quality of the image is degraded.

本発明は、このような状況に鑑みてなされたものであり、生成した画像の破綻を目立たないようにするものである。   The present invention has been made in view of such a situation, and prevents the generated image from becoming inconspicuous.

本発明の一側面の画像処理装置は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理装置であって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段と、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出する第2の算出手段と、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段と、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成する生成手段と、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する混合手段とを備える。   An image processing apparatus according to an aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and assigns the assigned motion vector. An image processing device that generates a pixel value of a pixel on the second frame based on the second frame, the pixel on the second frame from which the pixel value is generated, and a pixel of interest A value indicating a variation between the motion vector assigned to the target pixel and the motion vector assigned to the first peripheral pixel that is a pixel in a predetermined first range around the target pixel is calculated. First calculating means, a pixel value of the target pixel, a pixel on the second frame, and a second peripheral pixel that is a pixel in a predetermined second range around the target pixel Pixel value of Second calculation means for calculating a value indicating a change in the pixel value in the spatial direction, and a value indicating the variation in the motion vector and a value indicating the change in the pixel value in the spatial direction based on the second calculation means. The pixel of the pixel on the input third frame, wherein the second frame is arranged between the determination unit for determining whether the image of the second frame is broken and the first frame The time from the time of the first frame to the time of the second frame from the value and the pixel value of the pixel on the first frame at the same position as the pixel on the third frame; Generating means for generating an interpolation value corresponding to a pixel on the second frame in accordance with a ratio of a time from the time of the second frame to a time of the third frame; Picture of the second frame Is determined to have failed, the pixel value of the pixel of interest is mixed with the interpolation value corresponding to the pixel of interest according to a predetermined ratio, and the pixel on the second frame, Mixing means for mixing the interpolation value corresponding to the third peripheral pixel with the pixel value of the third peripheral pixel which is a pixel in a predetermined third range around the pixel of interest.

前記第1の算出手段は、ばらつきを示す値として、前記注目画素に割り付けられている前記動きベクトルと一致する前記動きベクトルであって、前記第1の周辺画素に割り付けられている前記動きベクトルの数を算出するようにすることができる。   The first calculation means is a motion vector that matches the motion vector assigned to the target pixel as a value indicating variation, and that is the motion vector assigned to the first peripheral pixel. The number can be calculated.

前記第1の算出手段は、ばらつきを示す値として、前記注目画素に割り付けられている前記動きベクトルの成分で定められる範囲に入る大きさの前記動きベクトルであって、前記第1の周辺画素に割り付けられている前記動きベクトルの数を算出するようにすることができる。   The first calculating means is a motion vector having a magnitude that falls within a range defined by a component of the motion vector assigned to the target pixel as a value indicating variation, and It is possible to calculate the number of motion vectors assigned.

前記第2の算出手段は、空間方向の画素値の変化を示す値として、前記注目画素の画素値と前記第2の周辺画素の画素値との差の絶対値のうち、最大の絶対値を算出するようにすることができる。   The second calculating means calculates a maximum absolute value of absolute values of differences between a pixel value of the target pixel and a pixel value of the second peripheral pixel as a value indicating a change in a pixel value in a spatial direction. It can be calculated.

前記判定手段には、前記動きベクトルのばらつきを示す値および予め定めた第1の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第1の破綻画像候補判定手段と、空間方向の画素値の変化を示す値と予め定めた第2の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第2の破綻画像候補判定手段と、前記第1の破綻画像候補判定手段における判定の結果と、前記第2の破綻画像候補判定手段における判定の結果とから、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する破綻箇所判定手段とを設けることができる。   The determination means determines whether the image of the second frame at the target pixel is a failed image candidate based on a value indicating the variation in the motion vector and a predetermined first threshold. The image of the second frame at the pixel of interest is broken based on a first broken image candidate determining means for determining whether or not a value indicating a change in the pixel value in the spatial direction and a predetermined second threshold value. Second failed image candidate determining means for determining whether or not the image is a candidate for the image, determination results in the first failed image candidate determining means, and determination in the second failed image candidate determining means From the above result, it is possible to provide a failure location determination unit that determines whether or not the image of the second frame has failed in the target pixel.

前記第2のフレーム上の画素のそれぞれを順に前記注目画素とした場合の、前記注目画素の画素値と前記第2の周辺画素の画素値との差の絶対値のうち、最大の絶対値の分布から、前記第2の閾値を算出する閾値算出手段をさらに設けることができる。   The maximum absolute value of the absolute values of the difference between the pixel value of the target pixel and the pixel value of the second peripheral pixel when each pixel on the second frame is sequentially set as the target pixel. Threshold calculating means for calculating the second threshold from the distribution can be further provided.

前記注目画素の画素値または前記第3の周辺画素の画素値に、前記注目画素または前記第3の周辺画素に対応する前記補間値を混合する前記比率を決定する決定手段をさらに設けることができる。   A determination unit may be further provided that determines the ratio of mixing the interpolation value corresponding to the target pixel or the third peripheral pixel into the pixel value of the target pixel or the pixel value of the third peripheral pixel. .

前記決定手段は、前記注目画素からの距離に対応して、予め記憶している比率のデータを基に、前記比率を決定するようにすることができる。   The determining means may determine the ratio based on ratio data stored in advance corresponding to the distance from the target pixel.

前記決定手段は、前記注目画素または前記第3の周辺画素の1つに対して2つ以上の前記比率が求められた場合、最終的な前記比率を、求められた前記比率のうちの大きいものに決定するようにすることができる。   In the case where two or more of the ratios are obtained for one of the target pixel or the third peripheral pixel, the determining unit determines the final ratio as a larger one of the obtained ratios. Can be determined.

本発明の一側面の画像処理方法は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理方法であって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合するステップを含む。   The image processing method according to one aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and assigns the assigned motion vector. An image processing method for generating a pixel value of a pixel on the second frame based on the pixel, the pixel on the second frame from which the pixel value is generated, and a pixel of interest A value indicating a variation between the motion vector assigned to the target pixel and the motion vector assigned to the first peripheral pixel that is a pixel in a predetermined first range around the target pixel is calculated. Then, from the pixel value of the target pixel and the pixel value of the second peripheral pixel that is a pixel on the second frame and is a pixel in a predetermined second range around the target pixel, Pixels in the spatial direction Whether or not the image of the second frame is broken at the target pixel based on the value indicating the variation of the motion vector and the value indicating the change in the pixel value in the spatial direction. The pixel value of the pixel on the input third frame, in which the second frame is arranged between the first frame and the position of the pixel on the third frame The time from the time of the first frame to the time of the second frame from the pixel value of the pixel on the first frame at the position, and the time of the third frame from the time of the second frame When an interpolation value corresponding to a pixel on the second frame is generated according to a ratio to the time to the time, and it is determined that the image of the second frame is broken at the target pixel, According to a predetermined ratio, The interpolation value corresponding to the pixel of interest is mixed with the pixel value of the pixel, and the pixels on the second frame are pixels in a predetermined third range around the pixel of interest. Mixing the interpolated values corresponding to the third peripheral pixels with the pixel values of the three peripheral pixels.

本発明の一側面のプログラムは、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムであって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合するステップを含む。   A program according to an aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and based on the assigned motion vector A program for causing a computer to perform image processing for generating a pixel value of a pixel on the second frame, the pixel on the second frame from which the pixel value is generated, A variation between the motion vector assigned to the target pixel that is a certain pixel and the motion vector assigned to the first peripheral pixel that is a pixel in a predetermined first range around the target pixel. A pixel value of the target pixel and a second peripheral pixel which is a pixel on the second frame and which is a pixel in a predetermined second range around the target pixel. A value indicating a change in the pixel value in the spatial direction is calculated from the pixel value, and the second pixel is calculated for the target pixel based on the value indicating the variation in the motion vector and the value indicating the change in the pixel value in the spatial direction. It is determined whether the image of the frame is broken, and the pixel value of the pixel on the input third frame in which the second frame is arranged between the first frame and the first frame The time from the time of the first frame to the time of the second frame from the pixel value of the pixel on the first frame at the same position as the position of the pixel on the third frame, and the second An interpolation value corresponding to a pixel on the second frame is generated according to a ratio of a time from a frame time to a time from the third frame, and an image of the second frame is generated at the target pixel. When it is determined to be bankrupt The pixel value of the target pixel is mixed with the interpolation value corresponding to the target pixel according to a predetermined ratio, and the pixel on the second frame is a predetermined first area around the target pixel. A step of mixing the interpolation value corresponding to the third peripheral pixel with the pixel value of the third peripheral pixel which is a pixel in the range of 3.

本発明の一側面の記録媒体は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムであって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合するステップを含むプログラムを記録している。   The recording medium of one aspect of the present invention detects an input motion vector on the first frame, assigns the detected motion vector to a pixel on the second frame, and assigns the assigned motion vector to the motion vector. A program for causing a computer to perform image processing for generating a pixel value of a pixel on the second frame based on the pixel on the second frame from which the pixel value is generated. Variation between the motion vector assigned to the pixel of interest that is a current pixel and the motion vector assigned to the first peripheral pixel that is a pixel in a predetermined first range around the pixel of interest And a pixel value of the target pixel and a pixel of the second peripheral pixel which is a pixel on the second frame and which is a pixel in a predetermined second range around the target pixel. A value indicating a change in the pixel value in the spatial direction is calculated from the prime value, and the second pixel in the target pixel is calculated based on the value indicating the variation in the motion vector and the value indicating the change in the pixel value in the spatial direction. It is determined whether the image of the frame is broken, and the pixel value of the pixel on the input third frame in which the second frame is arranged between the first frame and the first frame The time from the time of the first frame to the time of the second frame from the pixel value of the pixel on the first frame at the same position as the position of the pixel on the third frame, and the second An interpolation value corresponding to a pixel on the second frame is generated according to a ratio of a time from a frame time to a time from the third frame, and an image of the second frame is generated at the target pixel. When it is determined that the bankruptcy According to a predetermined ratio, the interpolated value corresponding to the target pixel is mixed with the pixel value of the target pixel, and the pixel on the second frame is a predetermined third around the target pixel. A program including a step of mixing the interpolation value corresponding to the third peripheral pixel with the pixel value of the third peripheral pixel which is a pixel in the range of is recorded.

本発明の一側面においては、画素値が生成された第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値が算出され、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値が算出され、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かが判定され、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値が生成され、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値が混合される。   In one aspect of the present invention, the motion vector assigned to the pixel of interest that is a pixel on the second frame in which the pixel value is generated and is the pixel of interest, and the surroundings of the pixel of interest A value indicating a variation with the motion vector allocated to the first peripheral pixel that is a pixel in the first range determined in advance is calculated, and the pixel value of the target pixel and the pixel on the second frame A value indicating a change in a pixel value in a spatial direction is calculated from a pixel value of a second peripheral pixel that is a pixel in a predetermined second range around the pixel of interest, and the motion vector Based on the value indicating the variation and the value indicating the change in the pixel value in the spatial direction, it is determined whether or not the image of the second frame is broken at the pixel of interest, and between the first frame and The second frame is arranged From the input pixel value of the pixel on the third frame and the pixel value of the pixel on the first frame at the same position as the pixel position on the third frame. Depending on the ratio of the time from the time of the frame to the time of the second frame and the time from the time of the second frame to the time of the third frame, the pixels on the second frame When a corresponding interpolation value is generated and it is determined that the image of the second frame is broken at the target pixel, the pixel value of the target pixel is set to the pixel value of the target pixel according to a predetermined ratio. The interpolation value is mixed, and the pixel value of the third peripheral pixel which is a pixel on the second frame and which is a pixel in a predetermined third range around the target pixel is set to the third value. The interpolation values corresponding to the surrounding pixels are mixed. It is.

以上のように、本発明の一側面によれば、画像を生成することができる。   As described above, according to one aspect of the present invention, an image can be generated.

また、本発明の一側面によれば、生成した画像の破綻を目立たないようにすることができる。   Also, according to one aspect of the present invention, it is possible to make the generated image inconspicuous.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の画像処理装置は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理装置であって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段(例えば、図9のベクトル一致数算出部111)と、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出する第2の算出手段(例えば、図9の最大勾配算出部113)と、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段(例えば、図9の判定部112)と、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成する生成手段(例えば、図9の0ベクトル補間画像生成部116)と、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する混合手段(例えば、図9の画像混合部118)とを備える。   An image processing apparatus according to an aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and assigns the assigned motion vector. An image processing device that generates a pixel value of a pixel on the second frame based on the second frame, the pixel on the second frame from which the pixel value is generated, and a pixel of interest A value indicating a variation between the motion vector assigned to the target pixel and the motion vector assigned to the first peripheral pixel that is a pixel in a predetermined first range around the target pixel is calculated. First calculation means (for example, the vector coincidence calculation unit 111 in FIG. 9), the pixel value of the target pixel, and the pixels on the second frame, which are predetermined around the target pixel. Second Second calculation means (for example, the maximum gradient calculation unit 113 in FIG. 9) that calculates a value indicating a change in the pixel value in the spatial direction from the pixel values of the second peripheral pixels that are pixels in the range; Based on a value indicating the variation of the vector and a value indicating the change in the pixel value in the spatial direction, determination means for determining whether or not the image of the second frame is broken in the target pixel (for example, FIG. 9 The pixel value of the pixel on the input third frame and the position of the pixel on the third frame, in which the second frame is arranged between the determination unit 112) and the first frame The time from the time of the first frame to the time of the second frame, and the time from the time of the second frame to the third value from the pixel value of the pixel on the first frame at the same position as Depending on the ratio of time to frame time Generating means for generating an interpolation value corresponding to the pixel on the second frame (for example, the 0 vector interpolation image generation unit 116 in FIG. 9), and the image of the second frame is broken at the target pixel. If it is determined that the pixel value of the target pixel is mixed with the interpolation value corresponding to the target pixel according to a predetermined ratio, the pixel on the second frame is the target pixel. 9 is a mixing unit that mixes the interpolation value corresponding to the third peripheral pixel with the pixel value of the third peripheral pixel that is a pixel in a predetermined third range around the pixel (for example, the image mixing unit in FIG. 9). 118).

前記判定手段には、前記動きベクトルのばらつきを示す値および予め定めた第1の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第1の破綻画像候補判定手段(例えば、図9の破綻箇所候補判定部131)と、空間方向の画素値の変化を示す値と予め定めた第2の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第2の破綻画像候補判定手段(例えば、図9の破綻箇所候補判定部132)と、前記第1の破綻画像候補判定手段における判定の結果と、前記第2の破綻画像候補判定手段における判定の結果とから、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する破綻箇所判定手段(例えば、図9の破綻箇所判定部133)とを設けることができる。   The determination means determines whether the image of the second frame at the target pixel is a failed image candidate based on a value indicating the variation in the motion vector and a predetermined first threshold. Based on first failure image candidate determination means (for example, failure location candidate determination unit 131 in FIG. 9) for determining whether or not a value indicating a change in the pixel value in the spatial direction and a predetermined second threshold value are used. Second failed image candidate determining means (for example, a failed part candidate determining unit 132 in FIG. 9) for determining whether or not the image of the second frame at the target pixel is a failed image candidate; Whether or not the image of the second frame has failed in the target pixel is determined based on the determination result in the first failed image candidate determination unit and the determination result in the second failed image candidate determination unit. Defect location judgment Means (e.g., collapse point determination unit 133 of FIG. 9) and can be provided.

本発明の一側面の画像処理装置は、前記第2のフレーム上の画素のそれぞれを順に前記注目画素とした場合の、前記注目画素の画素値と前記第2の周辺画素の画素値との差の絶対値のうち、最大の絶対値の分布から、前記第2の閾値を算出する閾値算出手段(例えば、図9の勾配閾値算出部115)をさらに設けることができる。   The image processing apparatus according to one aspect of the present invention provides a difference between a pixel value of the target pixel and a pixel value of the second peripheral pixel when each pixel on the second frame is the target pixel in order. Threshold value calculation means (for example, the gradient threshold value calculation unit 115 in FIG. 9) for calculating the second threshold value from the distribution of the maximum absolute value among the absolute values of the absolute value can be further provided.

本発明の一側面の画像処理装置は、前記注目画素の画素値または前記第3の周辺画素の画素値に、前記注目画素または前記第3の周辺画素に対応する前記補間値を混合する前記比率を決定する決定手段(例えば、図9の混合比決定部117)をさらに設けることができる。   The image processing apparatus according to one aspect of the present invention is configured to mix the interpolation value corresponding to the target pixel or the third peripheral pixel into the pixel value of the target pixel or the pixel value of the third peripheral pixel. Further, a determination unit (for example, a mixture ratio determination unit 117 in FIG. 9) can be provided.

本発明の一側面の画像処理方法またはプログラムは、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し(例えば、図20のステップS102)、前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し(例えば、図20のステップS103)、前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し(例えば、図20のステップS104)、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し(例えば、図20のステップS101)、前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する(例えば、図20のステップS106)ステップを含む。   The image processing method or program according to one aspect of the present invention is the pixel on the second frame in which the pixel value is generated, and the motion vector assigned to the pixel of interest that is the pixel of interest; A value indicating a variation with the motion vector assigned to the first peripheral pixel which is a pixel in a predetermined first range around the pixel of interest is calculated (for example, step S102 in FIG. 20), From the pixel value of the pixel of interest and the pixel value of the second peripheral pixel which is a pixel on the second frame and which is a pixel in a predetermined second range around the pixel of interest, A value indicating a change in pixel value is calculated (for example, step S103 in FIG. 20), and the second pixel is calculated for the target pixel based on the value indicating the variation in the motion vector and the value indicating the change in the pixel value in the spatial direction. of It is determined whether or not the frame image is broken (for example, step S104 in FIG. 20), and the second frame is arranged between the first frame and the input third frame. From the time of the first frame to the time of the second frame from the pixel value of the first frame and the pixel value of the pixel on the first frame at the same position as the pixel on the third frame And an interpolation value corresponding to the pixel on the second frame is generated according to the ratio of the time until the time of the second frame to the time of the third frame (for example, FIG. 20 Step S101), when it is determined that the image of the second frame is broken at the target pixel, the interpolation value corresponding to the target pixel is set to the pixel value of the target pixel according to a predetermined ratio. And mix Further, a pixel value of a third peripheral pixel which is a pixel on the second frame and which is a pixel in a predetermined third range around the target pixel corresponds to the third peripheral pixel. The step includes mixing the interpolation values (for example, step S106 in FIG. 20).

以下、図を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理装置1の構成例を表している。画像処理装置1は、例えば、パーソナルコンピュータなどで構成される。図1において、CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記憶部18に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。   FIG. 1 shows a configuration example of an image processing apparatus 1 to which the present invention is applied. The image processing apparatus 1 is composed of, for example, a personal computer. In FIG. 1, a CPU (Central Processing Unit) 11 executes various processes according to a program stored in a ROM (Read Only Memory) 12 or a storage unit 18. A RAM (Random Access Memory) 13 appropriately stores programs executed by the CPU 11 and data. The CPU 11, ROM 12, and RAM 13 are connected to each other by a bus 14.

CPU11にはまた、バス14を介して入出力インタフェース15が接続されている。入出力インタフェース15には、キーボード、マウス、マイクロフォンなどよりなる入力部16、ディスプレイ、スピーカなどよりなる出力部17が接続されている。CPU11は、入力部16から入力される指令に対応して各種の処理を実行する。そして、CPU11は、処理の結果、得られた画像や音声等を出力部17に出力する。   An input / output interface 15 is also connected to the CPU 11 via the bus 14. The input / output interface 15 is connected to an input unit 16 including a keyboard, a mouse, a microphone, and the like, and an output unit 17 including a display and a speaker. The CPU 11 executes various processes in response to commands input from the input unit 16. Then, the CPU 11 outputs the image and sound obtained as a result of the processing to the output unit 17.

入出力インタフェース15に接続されている記憶部18は、例えばハードディスクなどで構成され、CPU11が実行するプログラムや各種のデータを記憶する。通信部19は、インターネット、その他のネットワークを介して外部の装置と通信する。また、通信部19を介してプログラムを取得し、記憶部18に記憶してもよい。   The storage unit 18 connected to the input / output interface 15 is composed of, for example, a hard disk and stores programs executed by the CPU 11 and various data. The communication unit 19 communicates with an external device via the Internet or other networks. A program may be acquired via the communication unit 19 and stored in the storage unit 18.

入出力インタフェース15に接続されているドライブ20は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア21が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部18に転送され、記憶される。   The drive 20 connected to the input / output interface 15 drives a removable medium 21 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 18 as necessary.

なお、画像処理装置1は、例えば、テレビジョン受像機、ハードディスクプレーヤ、光ディスクプレーヤ、ポータブルプレーヤ(携帯電話機)など、または、それらの画像処理部とすることもできる。   The image processing apparatus 1 can be, for example, a television receiver, a hard disk player, an optical disk player, a portable player (cellular phone), or the like, or an image processing unit thereof.

図2は、画像処理装置1の機能の構成の例を示すブロック図である。画像処理装置1は、フレームメモリ51、ベクトル検出部52、検出ベクトルメモリ53、ベクトル割付部54、割付ベクトルメモリ55、割付フラグメモリ56、割付補償部57、画像補間部58、および画質改善処理部59を備える。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the image processing apparatus 1. The image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a detection vector memory 53, a vector allocation unit 54, an allocation vector memory 55, an allocation flag memory 56, an allocation compensation unit 57, an image interpolation unit 58, and an image quality improvement processing unit. 59.

なお、画像処理装置1の各機能をハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、本明細書の各ブロック図は、ハードウェアのブロック図と考えても、ソフトウェアによる機能ブロック図と考えてもよい。   It does not matter whether each function of the image processing apparatus 1 is realized by hardware or software. That is, each block diagram in this specification may be considered as a hardware block diagram or a software functional block diagram.

図2に構成を示す画像処理装置1においては、例えば、フレーム周波数24Hzのプログレッシブ画像信号(以下、24P信号と称する)の画像が入力され、入力された画像(入力画像)が、フレーム周波数60Hzのプログレッシブ画像信号(以下、60P信号と称する)の画像に変換されて、出力される。   In the image processing apparatus 1 having the configuration shown in FIG. 2, for example, an image of a progressive image signal (hereinafter referred to as a 24P signal) with a frame frequency of 24 Hz is input, and the input image (input image) has a frame frequency of 60 Hz. It is converted into an image of a progressive image signal (hereinafter referred to as 60P signal) and output.

画像処理装置1に入力された24P信号の入力画像は、フレームメモリ51、ベクトル検出部52、ベクトル割付部54、割付補償部57、画像補間部58、および画質改善処理部59に供給される。フレームメモリ51は、入力画像をフレーム単位で記憶する。フレームメモリ51は、時刻t+1の入力画像の1つ前の時刻tのフレームを記憶する。フレームメモリ51に記憶される時刻tのフレームは、ベクトル検出部52、ベクトル割付部54、割付補償部57、画像補間部58、および画質改善処理部59に供給される。なお、以下、フレームメモリ51上の時刻tのフレームをフレームtと称し、時刻t+1の入力画像のフレームを、フレームt+1と称する。   The input image of the 24P signal input to the image processing apparatus 1 is supplied to the frame memory 51, the vector detection unit 52, the vector allocation unit 54, the allocation compensation unit 57, the image interpolation unit 58, and the image quality improvement processing unit 59. The frame memory 51 stores input images in units of frames. The frame memory 51 stores a frame at time t one before the input image at time t + 1. The frame at time t stored in the frame memory 51 is supplied to the vector detection unit 52, the vector allocation unit 54, the allocation compensation unit 57, the image interpolation unit 58, and the image quality improvement processing unit 59. Hereinafter, the frame at time t on the frame memory 51 is referred to as frame t, and the frame of the input image at time t + 1 is referred to as frame t + 1.

ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶する。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。検出ベクトルメモリ53は、フレームtにおいて、ベクトル検出部52により検出された動きベクトルを記憶する。   The vector detection unit 52 detects a motion vector between the target block of the frame t on the frame memory 51 and the target block of the frame t + 1 of the input image, and stores the detected motion vector in the detection vector memory 53. As a method for detecting the motion vector between the two frames, a gradient method or a block matching method is used. The detection vector memory 53 stores the motion vector detected by the vector detection unit 52 in the frame t.

ベクトル割付部54は、24P信号のフレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する60P信号のフレーム(以下、60P信号のフレームは、24P信号のフレームと区別するため、内挿フレームとも称する)上の画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。   The vector allocation unit 54 distinguishes the motion vector obtained on the frame t of the 24P signal from the frame of the 60P signal to be interpolated in the allocation vector memory 55 (hereinafter, the frame of the 60P signal is distinguished from the frame of the 24P signal). , Which is also referred to as an interpolation frame), and the allocation flag of the allocation flag memory 56 of the pixel to which the motion vector is allocated is rewritten to 1 (True).

割付ベクトルメモリ55は、ベクトル割付部54により割り付けられた動きベクトルを、内挿フレームの各画素に対応させて記憶する。割付フラグメモリ56は、内挿フレームの画素毎に、割り付けられる動きベクトルの有無を示す割付フラグを記憶している。例えば、True(1)である割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、False(0)である割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。   The allocation vector memory 55 stores the motion vector allocated by the vector allocation unit 54 in association with each pixel of the interpolation frame. The allocation flag memory 56 stores an allocation flag indicating the presence / absence of a motion vector to be allocated for each pixel of the interpolation frame. For example, an assignment flag of True (1) indicates that a motion vector is assigned to the corresponding pixel, and an assignment flag of False (0) indicates that a motion vector is not assigned to the corresponding pixel. Show.

割付補償部57は、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを割り付けた着目画素の割付フラグを1(True)に書き換える。   The allocation compensation unit 57 refers to the allocation flag of the allocation flag memory 56, and supplements the motion vector of the peripheral pixel of the target pixel with respect to the target pixel for which the motion vector has not been allocated by the vector allocation unit 54. Allocate on 55 interpolation frames. At this time, the allocation compensator 57 rewrites the allocation flag of the target pixel to which the motion vector is allocated to 1 (True).

画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよび次のフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームを画質改善処理部59に出力し、その次に、必要に応じて、フレームt+1を画質改善処理部59に出力する。なお、以下において、画像補間部58から出力される画像を補間画像とも称する。   The image interpolation unit 58 interpolates and generates the pixel value of the interpolation frame using the motion vector allocated to the interpolation frame in the allocation vector memory 55 and the pixel values of the frame t and the next frame t + 1. Then, the image interpolation unit 58 outputs the generated interpolation frame to the image quality improvement processing unit 59, and then outputs the frame t + 1 to the image quality improvement processing unit 59 as necessary. Hereinafter, the image output from the image interpolation unit 58 is also referred to as an interpolation image.

画質改善処理部59は、割付ベクトルメモリ55に記憶されている内挿フレームに割り付けられた動きベクトルと、予め定めた閾値と、フレームtおよび次のフレームt+1の画素値とを用いて、内挿フレームに含まれる画像のうち、破綻した画像に画質を改善する処理を適用して、60P信号の画像を図示せぬ後段に出力する。   The image quality improvement processing unit 59 uses the motion vector allocated to the interpolation frame stored in the allocation vector memory 55, the predetermined threshold value, and the pixel values of the frame t and the next frame t + 1 to interpolate. A process for improving the image quality is applied to the broken image among the images included in the frame, and the 60P signal image is output to a subsequent stage (not shown).

内挿フレームの画素値を補間生成する場合に生じる画像の破綻は、経験的に、内挿フレームの画素に割り付けられている動きベクトルが暴れているとき、生成された内挿フレームにおいてアクティビティが高いとき、起こりえる。   Image corruption that occurs when interpolating the pixel value of the interpolation frame is empirically high when the motion vector assigned to the pixel of the interpolation frame is rampant. Sometimes it can happen.

画質改善処理部59は、割り付けられている動きベクトルが暴れ、空間方向の画素値の変化が大きい部分に、画像の破綻(劣化)が生じていると見なす。画質改善処理部59は、破綻が生じていると見なされた部分に、0ベクトル補間画像の画素を混合して、破綻した画像の画質を改善する。これにより、画像の破綻が目立たなくなる。   The image quality improvement processing unit 59 considers that a broken (degraded) image has occurred in a portion where the allocated motion vector is unclear and the change in the pixel value in the spatial direction is large. The image quality improvement processing unit 59 improves the image quality of the failed image by mixing the pixels of the zero vector interpolation image with the portion that is considered to have failed. Thereby, the failure of the image becomes inconspicuous.

なお、0ベクトル補間画像は、フレームtとフレームt+1とを0ベクトルで補間してなる画像である。ここで、0ベクトルは、空間方向の成分が0である動きベクトルである。   The 0 vector interpolation image is an image obtained by interpolating the frame t and the frame t + 1 with the 0 vector. Here, the zero vector is a motion vector whose spatial component is zero.

また、閾値は、外部から供給するようにしてもよく、内部に記憶しておくようにしてもよい。予め定めたとは、それぞれの処理の実行の前に予め定めたという意味であり、少なくとも、処理を実行する時点で定まっているという意味である。従って、各ブロックにおける処理が実行される前に、閾値を変更して定めることは、予め定めたに該当する。   Further, the threshold value may be supplied from the outside or stored inside. “Predetermined” means that it is predetermined before the execution of each process, and means that it is determined at least when the process is executed. Therefore, changing the threshold before the process in each block is executed corresponds to the predetermined.

図3は、本発明に係る画像処理装置1におけるフレームを内挿する処理の原理を説明する図である。図3の例においては、点線が、画像処理装置1に入力される、時刻t,t+1,およびt+2における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t,t+0.4,t+0.8,t+1.2,t+1.6,およびt+2における60P信号の内挿フレームを表している。   FIG. 3 is a diagram for explaining the principle of processing for interpolating frames in the image processing apparatus 1 according to the present invention. In the example of FIG. 3, a dotted line represents a frame of a 24P signal that is input to the image processing apparatus 1 at times t, t + 1, and t + 2, and a solid line is represented by the image processing apparatus 1 from the input 24P signal. , The 60P signal interpolation frames at the generated times t, t + 0.4, t + 0.8, t + 1.2, t + 1.6, and t + 2.

一般に、24P信号を、60P信号に変換するためには、5/2倍のフレームが必要になる。すなわち、2枚の24P信号の画像から5枚の60P信号の画像が生成されなければならない。このとき、生成される60P信号の内挿フレームは、そのフレーム間隔を等しくするために、24P信号上での時間位相が0.0,0.4,0.8,1.2,および1.6となる位置に配置される。この中で、時間位相が0.0である時刻tの1フレームを除く4フレーム(t+0.4,t+0.8,t+1.2,およびt+1.6のフレーム)は、24P信号上には存在しない画像である。したがって、画像処理装置1は、24P信号の画像が入力されると、24P信号の時刻tおよび時刻t+1の2枚のフレームから、4つの内挿フレームを生成する。したがって、画像処理装置1からは、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚のフレームからなる60P信号の画像が出力される。   Generally, in order to convert a 24P signal into a 60P signal, 5/2 times as many frames are required. That is, five 60P signal images must be generated from two 24P signal images. At this time, the generated interpolated frame of the 60P signal has a time phase of 0.0, 0.4, 0.8, 1.2, and 1 on the 24P signal in order to equalize the frame interval. 6 is arranged at a position. Among these, 4 frames (frames of t + 0.4, t + 0.8, t + 1.2, and t + 1.6) except for one frame at time t with a time phase of 0.0 do not exist on the 24P signal. It is an image. Therefore, when the image of the 24P signal is input, the image processing apparatus 1 generates four interpolation frames from the two frames at time t and time t + 1 of the 24P signal. Therefore, the image processing apparatus 1 outputs a 60P signal image including five frames at times t, t + 0.4, t + 0.8, t + 1.2, and t + 1.6.

以上のようにして、画像処理装置1は、24P信号の画像から60P信号の画像に、フレーム周波数を変換する処理を実行する。   As described above, the image processing apparatus 1 executes the process of converting the frame frequency from the 24P signal image to the 60P signal image.

なお、原理的には、上述したように、24P信号の時刻tおよび時刻t+1の2枚のフレームから、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚の60P信号のフレームが新しく生成されるが、実際には、図3の例の場合、24P信号の時刻tおよび時刻t+1の2枚のフレームに基づいて、t,t+0.4,t+0.8の60P信号のフレームが生成され、24P信号の時刻t+1およびt+2の2枚のフレームに基づいて、t+1.2,t+1.6,およびt+2の60P信号のフレームが生成される。   In principle, as described above, from the two frames at time t and time t + 1 of the 24P signal, five frames at times t, t + 0.4, t + 0.8, t + 1.2, and t + 1.6 are obtained. A frame of 60P signal is newly generated. Actually, in the example of FIG. 3, 60P of t, t + 0.4, and t + 0.8 is based on two frames at time t and time t + 1 of the 24P signal. A frame of the signal is generated, and a frame of the 60P signal of t + 1.2, t + 1.6, and t + 2 is generated based on the two frames at the times t + 1 and t + 2 of the 24P signal.

また、以下、時刻t+0.4,t+0.8,t+1.2,およびt+1.6などの時刻t+kの内挿フレームを内挿フレームt+kと称する。   Also, hereinafter, an interpolation frame at time t + k such as time t + 0.4, t + 0.8, t + 1.2, and t + 1.6 is referred to as an interpolation frame t + k.

図4は、フレームを内挿する処理をより具体的に説明する図である。図4の例においては、太線矢印は、各状態への遷移を表しており、矢印Tは、状態81乃至85における時間の経過方向を表している。また、状態81乃至85は、画像処理装置1を構成する各部への入出力時の、24P信号の時刻tのフレームt、時刻tの次の時刻t+1のフレームt+1、または、フレームtおよびフレームt+1の間に生成される60P信号の内挿フレームFの状態を概念的に表している。すなわち、実際には、例えば、状態82に示されるような動きベクトルが検出されたフレームは入力されず、フレームと動きベクトルは、別々に入力される。   FIG. 4 is a diagram for more specifically explaining the process of interpolating a frame. In the example of FIG. 4, a thick arrow represents a transition to each state, and an arrow T represents a time passage direction in the states 81 to 85. In states 81 to 85, the frame t at the time t of the 24P signal, the frame t + 1 at the time t + 1 next to the time t, or the frame t and the frame t + 1 at the time of input / output to each unit constituting the image processing apparatus 1 The state of the interpolation frame F of the 60P signal produced | generated during is shown notionally. That is, actually, for example, a frame in which a motion vector is detected as shown in the state 82 is not input, and the frame and the motion vector are input separately.

状態81は、ベクトル検出部52に入力される、24P信号のフレームtおよびフレームt+1の状態を表している。状態81のフレームt上の黒点は、フレームt上の画素を表している。ベクトル検出部52は、状態81のフレームt上の画素が、次の時刻のフレームt+1において、どの位置に移動するかを検出し、その動きを、状態82のフレームt上に示されるように、各画素に対応する動きベクトルとして出力する。この2フレーム間の動きベクトルの検出方法には、ブロックマッチング法または勾配法などが用いられる。なお、このとき、例えば、画素に複数の動きベクトルが検出された場合、ベクトル検出部52は、各動きベクトルについて、評価値を求め、その評価値に基づいて動きベクトルを選択する。   The state 81 represents the state of the frame t and the frame t + 1 of the 24P signal input to the vector detection unit 52. A black dot on the frame t in the state 81 represents a pixel on the frame t. The vector detection unit 52 detects the position where the pixel on the frame t in the state 81 moves in the frame t + 1 of the next time, and the movement is indicated as shown on the frame t in the state 82. It outputs as a motion vector corresponding to each pixel. As a method for detecting the motion vector between the two frames, a block matching method or a gradient method is used. At this time, for example, when a plurality of motion vectors are detected in the pixel, the vector detection unit 52 obtains an evaluation value for each motion vector, and selects a motion vector based on the evaluation value.

状態82は、ベクトル割付部54に入力される、フレームtおよびフレームt+1の状態を表している。状態82において、フレームtの各画素の矢印は、ベクトル検出部52により検出された動きベクトルを表している。   A state 82 represents the state of the frame t and the frame t + 1 input to the vector allocation unit 54. In the state 82, the arrow of each pixel of the frame t represents the motion vector detected by the vector detection unit 52.

ベクトル割付部54は、状態82のフレームtの各画素に対して検出された動きベクトルを、次のフレームt+1まで延長させ、予め設定されている時間位相(例えば、図3のt+0.4)にある内挿フレームF上のどの位置を通過するかを求める。これは、フレームtおよびフレームt+1の間が一定動きであると仮定すると、動きベクトルが内挿フレームFを通過した点が、そのフレームでの画素位置となるためである。したがって、ベクトル割付部54は、この通過する動きベクトルを、状態83の内挿フレームF上の近傍4画素に割り付ける。また、このとき、内挿フレームの画素によっては、動きベクトルが存在しない場合、あるいは、複数の動きベクトルが、割付候補となりうる場合がある。後者のような場合には、例えば、ベクトル割付部54は、ベクトル検出部52と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。   The vector allocating unit 54 extends the motion vector detected for each pixel of the frame t in the state 82 to the next frame t + 1 and sets it to a preset time phase (for example, t + 0.4 in FIG. 3). A position on a certain interpolation frame F is obtained. This is because, assuming that there is a constant motion between the frame t and the frame t + 1, the point where the motion vector passes through the interpolation frame F is the pixel position in that frame. Therefore, the vector allocating unit 54 allocates the passing motion vector to four neighboring pixels on the interpolation frame F in the state 83. At this time, depending on the pixel of the interpolation frame, there may be a case where no motion vector exists, or a plurality of motion vectors may be candidates for allocation. In the latter case, for example, like the vector detection unit 52, the vector allocation unit 54 obtains an evaluation value for each motion vector and selects a motion vector to be allocated based on the evaluation value.

状態83は、割付補償部57に入力される、フレームtおよびフレームt+1、並びに動きベクトルが割り付けられた内挿フレームFの状態を表している。状態83の内挿フレームFにおいては、ベクトル割付部54により動きベクトルが割り付けられている画素と、動きベクトルが割り付けられなかった画素が示されている。   A state 83 represents the state of the frame t and the frame t + 1 and the interpolation frame F to which the motion vector is assigned, which is input to the assignment compensation unit 57. In the interpolation frame F in the state 83, the pixels to which the motion vector is assigned by the vector assigning unit 54 and the pixels to which the motion vector is not assigned are shown.

割付補償部57は、状態83の動きベクトルが割り付けられていない画素に対して、その画素の周辺画素に割り付けられている動きベクトルを用いて補う。これは、ある着目画素の近傍領域が同じ動きであるという仮定が成り立つならば、着目画素の周辺画素の動きベクトルと、その着目画素の動きベクトルは似たものであるからである。これにより、動きベクトルが割り付けられなかった画素にも、ある程度正確な動きベクトルが与えられ、状態84の内挿フレームF上のすべての画素に動きベクトルが割り付けられる。なお、この場合にも、複数の周辺画素の動きベクトルが候補として存在するため、割付補償部57は、例えば、ベクトル割付部54と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。   The allocation compensation unit 57 compensates for a pixel to which a motion vector in the state 83 is not allocated by using a motion vector allocated to a peripheral pixel of the pixel. This is because the motion vector of the peripheral pixel of the pixel of interest and the motion vector of the pixel of interest are similar if the assumption that the neighboring region of the pixel of interest has the same motion holds. As a result, a motion vector that is accurate to some extent is also given to a pixel to which no motion vector is assigned, and a motion vector is assigned to all the pixels on the interpolation frame F in the state 84. In this case as well, since motion vectors of a plurality of surrounding pixels exist as candidates, the allocation compensation unit 57 obtains an evaluation value for each motion vector, for example, similarly to the vector allocation unit 54, and the evaluation value A motion vector to be allocated is selected based on

状態84は、画像補間部58に入力される、フレームtおよびフレームt+1、並びに、すべての画素に動きベクトルが割り付けられた内挿フレームFの状態を表している。これらのすべての画素に割り付けられた動きベクトルにより、画像補間部58は、内挿フレームF上の画素と、2枚のフレームtおよびフレームt+1の画素の位置関係を決定することができる。したがって、画像補間部58は、内挿フレームF上に割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、状態85の内挿フレームFの黒点に示されるように、内挿フレームF上の画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の補間画像を、後段に出力する。   A state 84 represents the state of the frame t and the frame t + 1 input to the image interpolation unit 58 and the state of the interpolation frame F in which motion vectors are assigned to all the pixels. Based on the motion vectors assigned to all these pixels, the image interpolation unit 58 can determine the positional relationship between the pixels on the interpolation frame F and the two frames t and t + 1. Therefore, the image interpolation unit 58 uses the motion vector allocated on the interpolation frame F and the pixel values of the frame t and the frame t + 1 to interpolate as indicated by the black dot of the interpolation frame F in the state 85. Pixel values on the frame F are generated by interpolation. Then, the image interpolation unit 58 outputs the generated interpolated frame, and then outputs a frame t + 1 as necessary, thereby outputting an interpolated image of the 60P signal to the subsequent stage.

次に、図5のフローチャートを参照して、画像処理装置1のフレーム周波数を変換する処理を説明する。   Next, the process of converting the frame frequency of the image processing apparatus 1 will be described with reference to the flowchart of FIG.

ステップS1において、ベクトル検出部52は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力し、ステップS2に進む。なお、このとき、ベクトル割付部54、割付補償部57、画像補間部58、および画質改善処理部59は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力する。   In step S1, the vector detection unit 52 inputs the pixel value of the frame t + 1 of the input image at the time t + 1 and the pixel t of the frame t at the time t immediately before the input image of the frame memory 51, and proceeds to step S2. At this time, the vector allocating unit 54, the allocation compensating unit 57, the image interpolating unit 58, and the image quality improvement processing unit 59 perform the frame t + 1 of the input image at the time t + 1 and the time immediately before the input image in the frame memory 51. The pixel value of frame t of t is input.

ステップS2において、ベクトル検出部52は、動きベクトルを検出し、ステップS3に進む。すなわち、ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像である次のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶し、ステップS3に進む。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。   In step S2, the vector detection unit 52 detects a motion vector and proceeds to step S3. That is, the vector detection unit 52 detects a motion vector between the target block of the frame t on the frame memory 51 and the target block of the next frame t + 1 that is the input image, and the detected motion vector is detected by the detection vector memory 53. And proceed to step S3. As a method for detecting the motion vector between the two frames, a gradient method or a block matching method is used.

ステップS3において、ベクトル割付部54は、補間する内挿フレーム上の着目画素に動きベクトルを割り付け、ステップS4に進む。すなわち、ベクトル割付部54は、ステップS3において、フレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する内挿フレーム上の着目画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。例えば、Trueである割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、Falseである割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。   In step S3, the vector allocation unit 54 allocates a motion vector to the pixel of interest on the interpolation frame to be interpolated, and the process proceeds to step S4. That is, in step S3, the vector allocation unit 54 allocates the motion vector obtained on the frame t to the pixel of interest on the interpolation frame to be interpolated in the allocation vector memory 55, and the pixel to which the motion vector is allocated. The allocation flag in the allocation flag memory 56 is rewritten to 1 (True). For example, an allocation flag that is True indicates that a motion vector is allocated to the corresponding pixel, and an allocation flag that is False indicates that a motion vector is not allocated to the corresponding pixel.

ステップS4において、割付補償部57は、割り付けを補償し、ステップS5に進む。すなわち、割付補償部57は、ステップS4において、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを補い、割付けた着目画素の割付フラグを1(True)に書き換える。   In step S4, the allocation compensator 57 compensates the allocation and proceeds to step S5. That is, the allocation compensation unit 57 refers to the allocation flag in the allocation flag memory 56 in step S4, and for the pixel of interest for which no motion vector has been allocated by the vector allocation unit 54, the motion vector of the surrounding pixels of the pixel of interest. Is allocated on the interpolation frame of the allocation vector memory 55. At this time, the allocation compensator 57 compensates the motion vector and rewrites the allocation flag of the allocated pixel of interest to 1 (True).

ステップS5において、画像補間部58は、画像補間処理を実行する。すなわち、画像補間部58は、ステップS5において、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、ステップS6に進む。ステップS5における、画像補間処理の詳細は後述する。画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の補間画像を出力する。   In step S5, the image interpolation unit 58 executes an image interpolation process. That is, in step S5, the image interpolation unit 58 uses the motion vector allocated to the interpolation frame of the allocation vector memory 55 and the pixel values of the frame t and the frame t + 1 to generate an interpolation frame pixel value. The process proceeds to step S6. Details of the image interpolation processing in step S5 will be described later. The image interpolation unit 58 outputs the generated interpolation frame, and then outputs a frame t + 1 as necessary, thereby outputting an interpolation image of a 60P signal.

ステップS6において、画質改善処理部59は、内挿フレームについて、画質改善処理を実行して、ステップS7に進む。画質改善処理の詳細は後述する。   In step S6, the image quality improvement processing unit 59 executes image quality improvement processing for the interpolated frame, and the process proceeds to step S7. Details of the image quality improvement processing will be described later.

画質改善処理部59は、ステップS7において、画質が改善された60P信号の補間画像を出力する。   In step S7, the image quality improvement processing unit 59 outputs an interpolation image of a 60P signal with improved image quality.

ステップS8において、ベクトル検出部52は、すべてのフレームの処理が終了したか否かを判断し、すべてのフレームの処理が終了していないと判断した場合、ステップS1に戻り、それ以降の処理を繰り返す。一方、ベクトル検出部52は、ステップS8において、すべてのフレームの処理が終了したと判断した場合、フレーム周波数を変換する処理を終了する。   In step S8, the vector detection unit 52 determines whether or not all the frames have been processed. If it is determined that all the frames have not been processed, the vector detection unit 52 returns to step S1 and performs the subsequent processing. repeat. On the other hand, when the vector detection unit 52 determines in step S8 that all the frames have been processed, the vector detection unit 52 ends the process of converting the frame frequency.

以上のように、本発明に係る画像処理装置1は、24P信号の入力画像のフレームから動きベクトルを検出し、検出した動きベクトルを、60P信号のフレーム上の画素に割付け、割付けられた動きベクトルに基づいて、60P信号のフレーム上の画素値を生成する。そして、画像処理装置1は、内挿フレームに画質改善処理を適用して、破綻のより目立ちにくい画像を出力する。   As described above, the image processing apparatus 1 according to the present invention detects a motion vector from a frame of an input image of a 24P signal, assigns the detected motion vector to a pixel on a frame of a 60P signal, and assigns the assigned motion vector. Based on the above, the pixel value on the frame of the 60P signal is generated. Then, the image processing apparatus 1 applies an image quality improvement process to the interpolated frame, and outputs an image that is less noticeable.

次に、画像補間部58の構成の詳細について説明する。   Next, details of the configuration of the image interpolation unit 58 will be described.

図6は、画像補間部58の構成を示すブロック図である。図6に構成を示す画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、60P信号の補間画像を出力する処理を行う。   FIG. 6 is a block diagram illustrating a configuration of the image interpolation unit 58. 6 interpolates and generates the pixel value of the interpolation frame using the motion vector allocated to the interpolation frame in the allocation vector memory 55 and the pixel values of the frame t and the frame t + 1. , 60P signal interpolation processing is performed.

図6の例において、時刻tの画像のフレームtは、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1は、空間フィルタ92−2およびバッファ95に入力される。   In the example of FIG. 6, the frame t of the image at time t is input to the spatial filter 92-1, and the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2 and the buffer 95.

補間制御部91は、割付ベクトルメモリ55の内挿フレームの画素を選択し、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求める。すなわち、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。   The interpolation control unit 91 selects the pixel of the interpolation frame in the allocation vector memory 55, and based on the motion vector assigned to the selected pixel, the pixel on the interpolation frame, the two frames t and t + 1 The positional relationship (spatial shift amount) with each pixel is obtained. That is, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t associated with the motion vector and the position of the pixel on the frame t corresponding to the pixel of the interpolation frame, The spatial shift amount is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-1. Similarly, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t + 1 associated with the motion vector and the position of the pixel on the frame t + 1 corresponding to the pixel of the interpolation frame. Is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-2.

また、補間制御部91は、予め設定されている内挿フレームの時間位相(時刻)に基づいて、フレームtとフレームt+1の間における補間重みを求め、求めた補間重みを、乗算器93−1および93−2に設定する。例えば、内挿フレームの時刻が、フレームt+1の時刻t+1から「k」離れた時刻で、かつ、フレームtの時刻tから「1−k」離れた時刻である場合(すなわち、内挿フレームが時刻tと時刻t+1を「1−k」:「k」に内分する時刻に生成される場合)、補間制御部91は、乗算器93−1に「1−k」の補間重みを設定し、乗算器93−2に「k」の補間重みを設定する。   Further, the interpolation control unit 91 obtains an interpolation weight between the frame t and the frame t + 1 based on a preset time phase (time) of the interpolation frame, and uses the obtained interpolation weight as a multiplier 93-1. And 93-2. For example, when the time of the interpolation frame is a time that is “k” away from the time t + 1 of the frame t + 1 and a time that is “1−k” away from the time t of the frame t (ie, the time of the interpolation frame is the time t and time t + 1 is “1−k”: generated at a time that is internally divided into “k”), the interpolation control unit 91 sets an interpolation weight of “1-k” in the multiplier 93-1. An interpolation weight of “k” is set in the multiplier 93-2.

空間フィルタ92−1および92−2は、例えば、キュービックフィルタなどにより構成される。空間フィルタ92−1は、入力されるフレームt上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt上の画素値を求め、求めた画素値を乗算器93−1に出力する。空間フィルタ92−2は、入力されるフレームt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt+1上の画素値を求め、求めた画素値を乗算器93−2に出力する。   Spatial filters 92-1 and 92-2 are constituted by cubic filters, for example. The spatial filter 92-1 is a pixel value on the frame t corresponding to the pixel of the interpolation frame based on the input pixel value of the pixel on the frame t and the spatial shift amount supplied from the interpolation control unit 91. And the obtained pixel value is output to the multiplier 93-1. The spatial filter 92-2, based on the input pixel value of the pixel on the frame t + 1 and the spatial shift amount supplied from the interpolation control unit 91, the pixel value on the frame t + 1 corresponding to the pixel of the interpolation frame And the obtained pixel value is output to the multiplier 93-2.

なお、内挿フレームの画素の位置が、フレームtまたはフレームt+1上の画素の位置と一致しない場合(すなわち、内挿フレームの画素の位置が、フレームtまたはフレームt+1において画素以下成分である場合)、空間フィルタ92−1および92−2は、フレームtまたはフレームt+1における内挿フレームの画素の位置の周辺4画素の画素値を用いて、周辺4画素の距離の逆比の和を求めることにより、内挿フレームの画素に対応するフレーム上の画素値を求める。すなわち、画素以下位置の画素値は、周辺4画素との距離を基にした線形補間で値が求められる。   When the position of the pixel in the interpolation frame does not match the position of the pixel on frame t or frame t + 1 (that is, when the position of the pixel in the interpolation frame is a component equal to or less than the pixel in frame t or frame t + 1). The spatial filters 92-1 and 92-2 obtain the sum of the inverse ratios of the distances of the four surrounding pixels by using the pixel values of the four surrounding pixels at the position of the pixel of the interpolation frame in the frame t or the frame t + 1. Then, the pixel value on the frame corresponding to the pixel of the interpolation frame is obtained. That is, the pixel values at the positions below the pixel are obtained by linear interpolation based on the distance from the surrounding four pixels.

乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。   The multiplier 93-1 multiplies the pixel value on the frame t input from the spatial filter 92-1 by the interpolation weight “1-k” set by the interpolation control unit 91, and the weighted pixel value is The result is output to the adder 94. The multiplier 93-2 multiplies the pixel value on the frame t + 1 input from the spatial filter 92-2 by the interpolation weight “k” set by the interpolation control unit 91, and adds the weighted pixel value to the adder. Output to 94.

加算器94は、乗算器93−1から入力される画素値と、乗算器93−2から入力される画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された内挿フレームの画素値を、バッファ95に出力する。バッファ95は、入力されたフレームt+1をバッファしている。バッファ95は、生成された内挿フレームを出力し、その次に、予め設定されている60Pフレームの時間位相(時刻)に基づいて、必要に応じて、バッファしているフレームt+1を出力することにより、60P信号の補間画像を画質改善処理部59に出力する。   The adder 94 generates the pixel value of the pixel of the interpolation frame by adding the pixel value input from the multiplier 93-1 and the pixel value input from the multiplier 93-2. The pixel value of the interpolation frame is output to the buffer 95. The buffer 95 buffers the input frame t + 1. The buffer 95 outputs the generated interpolation frame, and then outputs a buffered frame t + 1 as necessary based on a preset time phase (time) of the 60P frame. Thus, the 60P signal interpolated image is output to the image quality improvement processing unit 59.

以上のように構成される画像補間部58の画像補間処理の詳細を、図7のフローチャートを参照して説明する。   Details of the image interpolation processing of the image interpolation unit 58 configured as described above will be described with reference to the flowchart of FIG.

補間制御部91は、ステップS51において、処理する内挿フレームの時間位相に基づいて、フレームtとフレームt+1の間における内挿フレームの補間重み(例えば、「k」および「1−k」)を求め、求められた補間重みを、乗算器93−1および93−2にそれぞれ設定し、ステップS52に進む。   In step S51, the interpolation control unit 91 calculates interpolation weights (for example, “k” and “1-k”) of the interpolation frame between the frame t and the frame t + 1 based on the time phase of the interpolation frame to be processed. The obtained interpolation weights are set in the multipliers 93-1 and 93-2, respectively, and the process proceeds to step S52.

例えば、図8で示されるように、時刻tのフレームtと時刻t+1のフレームt+1の間の、時刻t+kの内挿フレームを生成する場合、補間制御部91は、kおよび1−kの補間重みを求め、求められた補間重みを、乗算器93−1および93−2にそれぞれ設定する。なお、図8の例においては、点線が、画像処理装置1に入力される、時刻tおよびt+1における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t+kにおける60P信号の内挿フレームを表している。   For example, as illustrated in FIG. 8, when generating an interpolation frame at time t + k between a frame t at time t and a frame t + 1 at time t + 1, the interpolation control unit 91 uses interpolation weights of k and 1-k. And the obtained interpolation weights are set in the multipliers 93-1 and 93-2, respectively. In the example of FIG. 8, the dotted line represents the frame of the 24P signal input to the image processing apparatus 1 at time t and t + 1, and the solid line is represented by the image processing apparatus 1 from the input 24P signal. It shows an interpolation frame of a 60P signal at time t + k to be generated.

補間制御部91は、ステップS52において、割付ベクトルメモリ55の内挿フレームの画素を選択し、ステップS53に進む。なお、内挿フレーム上の画素は、フレームの左上の画素からラスタスキャン順に選択される。   In step S52, the interpolation control unit 91 selects a pixel of the interpolation frame in the allocation vector memory 55, and proceeds to step S53. Note that the pixels on the interpolation frame are selected in the raster scan order from the upper left pixel of the frame.

補間制御部91は、ステップS53において、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求め、求められた空間シフト量を、それぞれ空間フィルタ92−1および92−2に供給し、ステップS54に進む。   In step S53, based on the motion vector assigned to the selected pixel, the interpolation control unit 91 determines the positional relationship between the pixels on the interpolation frame and the two frames t and t + 1 (space shift amount). ) And the obtained spatial shift amounts are supplied to the spatial filters 92-1 and 92-2, respectively, and the process proceeds to step S54.

具体的には、補間制御部91は、ステップS53において、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。   Specifically, in step S53, the interpolation control unit 91 uses the pixel of the interpolation frame as a reference, the position on the frame t associated with the motion vector, and the frame t corresponding to the pixel of the interpolation frame. The spatial shift amounts are obtained from the pixel positions, and the obtained spatial shift amounts are supplied to the spatial filter 92-1. Similarly, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t + 1 associated with the motion vector and the position of the pixel on the frame t + 1 corresponding to the pixel of the interpolation frame. Is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-2.

時刻tの画像のフレームtの画素値は、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1の画素値は、空間フィルタ92−2に入力されている。ステップS54において、空間フィルタ92−1および92−2は、入力されるフレームtおよびt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、各フレーム上の画素値を求め、求めた画素値を乗算器93−1および93−2にそれぞれ出力し、ステップS55に進む。   The pixel value of the frame t of the image at time t is input to the spatial filter 92-1, and the pixel value of the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2. In step S54, the spatial filters 92-1 and 92-2 determine the pixels of the interpolation frame based on the pixel values of the pixels on the input frames t and t + 1 and the spatial shift amount supplied from the interpolation control unit 91. The pixel values on each frame corresponding to are obtained, the obtained pixel values are output to the multipliers 93-1 and 93-2, and the process proceeds to step S55.

乗算器93−1および93−2は、ステップS55において、空間フィルタ92−1または92−2から入力される各フレーム上の画素値に、補間制御部91により設定された補間重みを重み付けし、重み付けされた画素値を、加算器94に出力し、ステップS56に進む。すなわち、乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。   In Step S55, the multipliers 93-1 and 93-2 weight the interpolation weight set by the interpolation control unit 91 to the pixel value on each frame input from the spatial filter 92-1 or 92-2, The weighted pixel value is output to the adder 94, and the process proceeds to step S56. That is, the multiplier 93-1 multiplies the pixel value on the frame t input from the spatial filter 92-1 by the interpolation weight “1-k” set by the interpolation control unit 91, and weighted pixel values. Is output to the adder 94. The multiplier 93-2 multiplies the pixel value on the frame t + 1 input from the spatial filter 92-2 by the interpolation weight “k” set by the interpolation control unit 91, and adds the weighted pixel value to the adder. Output to 94.

加算器94は、ステップS56において、乗算器93−1により重み付けされた画素値と、乗算器93−2により重み付けされた画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された画素値を、バッファ95に出力し、ステップS57に進む。   In step S56, the adder 94 adds the pixel value weighted by the multiplier 93-1 and the pixel value weighted by the multiplier 93-2 to generate the pixel value of the pixel of the interpolation frame. The generated pixel value is output to the buffer 95, and the process proceeds to step S57.

例えば、ステップS52乃至ステップS56の処理により、図8で示されるように、内挿フレームにおける選択された画素pに割り付けられている動きベクトルvで対応付けられるフレームt上の画素qの画素値およびフレームt+1上の画素rの画素値から、フレームtとフレームt+1の間の新たな内挿フレームt+k上の画素pの画素値が生成される。   For example, as shown in FIG. 8 by the processing of step S52 to step S56, the pixel value of the pixel q on the frame t associated with the motion vector v assigned to the selected pixel p in the interpolation frame and From the pixel value of the pixel r on the frame t + 1, the pixel value of the pixel p on the new interpolation frame t + k between the frame t and the frame t + 1 is generated.

補間制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したか否かを判断し、内挿フレーム上のすべての画素についての処理が終了していないと判断した場合、ステップS52に戻り、それ以降の処理を繰り返す。補間制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したと判断した場合、画像補間処理を終了する。   In step S57, the interpolation control unit 91 determines whether or not the processing for all the pixels on the interpolation frame is completed, and determines that the processing for all the pixels on the interpolation frame is not completed. If so, the process returns to step S52, and the subsequent processing is repeated. If the interpolation control unit 91 determines in step S57 that the processing for all the pixels on the interpolation frame has been completed, the interpolation control unit 91 ends the image interpolation processing.

以上のように、内挿フレームに割り付けられた動きベクトルに基づいて、内挿フレームの画素値が生成され、上述した図5のステップS5において、バッファ95により、内挿フレームが出力され、その次に、必要に応じて、フレームt+1が出力されることにより、60P信号の補間画像が画質改善処理部59に出力される。   As described above, the pixel value of the interpolation frame is generated based on the motion vector assigned to the interpolation frame, and the interpolation frame is output by the buffer 95 in step S5 of FIG. In addition, if necessary, the frame t + 1 is output, so that an interpolated image of the 60P signal is output to the image quality improvement processing unit 59.

なお、図7のフローチャートを参照して説明した処理は、内挿フレーム生成の処理とも称する。   Note that the processing described with reference to the flowchart of FIG. 7 is also referred to as interpolation frame generation processing.

次に、画質改善処理部59について説明する。   Next, the image quality improvement processing unit 59 will be described.

図9は、画質改善処理部59の構成の例を示すブロック図である。画質改善処理部59は、ベクトル一致数算出部111、判定部112、最大勾配算出部113、勾配ヒストグラム生成部114、勾配閾値算出部115、0ベクトル補間画像生成部116、混合比決定部117、および画像混合部118を備える。   FIG. 9 is a block diagram illustrating an example of the configuration of the image quality improvement processing unit 59. The image quality improvement processing unit 59 includes a vector matching number calculation unit 111, a determination unit 112, a maximum gradient calculation unit 113, a gradient histogram generation unit 114, a gradient threshold calculation unit 115, a 0 vector interpolation image generation unit 116, a mixture ratio determination unit 117, And an image mixing unit 118.

ベクトル一致数算出部111は、動きベクトルのばらつきを求める。すなわち、ベクトル一致数算出部111は、画素値が生成された内挿フレーム上の画素であって、注目している画素である注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出する。   The vector coincidence calculation unit 111 obtains variation in motion vectors. That is, the vector match number calculation unit 111 is a pixel on the interpolation frame in which the pixel value is generated, and the motion vector assigned to the target pixel that is the target pixel and the surroundings of the target pixel in advance. A value indicating variation with a motion vector assigned to surrounding pixels that are pixels in a predetermined range is calculated.

経験的に、内挿フレームの画素に割り付けられている動きベクトルが暴れているとき、内挿フレームに破綻が生じている可能性が高いので、ベクトル一致数算出部111において算出される動きベクトルとのばらつきを示す値は、破綻が生じている可能性を示していると言える。   Empirically, when the motion vector assigned to the pixel of the interpolation frame is unclear, there is a high possibility that the interpolation frame is broken, so the motion vector calculated by the vector match number calculation unit 111 It can be said that the value indicating the variation in the number indicates the possibility of the failure.

例えば、ベクトル一致数算出部111は、ばらつきを示す値として、注目画素に割り付けられている動きベクトルと一致する動きベクトルであって、周辺画素に割り付けられている動きベクトルの数を算出する。   For example, the vector coincidence calculation unit 111 calculates the number of motion vectors that are the same as the motion vectors assigned to the target pixel and that are assigned to the peripheral pixels, as values indicating variation.

より具体的には、ベクトル一致数算出部111は、注目画像に割り当てられた動きベクトルおよび注目画素の周辺の画素に割り当てられた動きベクトルを割付ベクトルメモリ55から読み出す。例えば、ベクトル一致数算出部111は、注目画素から、上下に2画素、左右に2画素離れた範囲の画素に割り付けられている動きベクトルまたは注目画素に割り付けられている動きベクトルを割付ベクトルメモリ55から読み出す。   More specifically, the vector coincidence calculation unit 111 reads the motion vector assigned to the target image and the motion vector assigned to the pixels around the target pixel from the assigned vector memory 55. For example, the vector coincidence number calculation unit 111 assigns a motion vector assigned to a pixel in a range that is two pixels up and down and two pixels left and right away from the target pixel, or a motion vector assigned to the target pixel. Read from.

ベクトル一致数算出部111は、注目画像に割り当てられた動きベクトルと、周辺の画素に割り当てられた動きベクトルとが一致するか否かを判定する。   The vector coincidence calculation unit 111 determines whether or not the motion vector assigned to the target image matches the motion vector assigned to the surrounding pixels.

例えば、ベクトル一致数算出部111は、注目画像に割り当てられた動きベクトルVのx成分であるVxおよびy成分であるVyのうち、絶対値の大きい成分から、一致判定に用いる範囲を定める。   For example, the vector coincidence calculation unit 111 determines a range to be used for coincidence determination from a component having a large absolute value among Vx that is the x component and Vy that is the y component of the motion vector V assigned to the target image.

注目画像に割り当てられた動きベクトルVのy成分であるVyに比較して、x成分であるVxが大きい場合、ベクトル一致数算出部111は、x成分であるVxを選択する。そして、ベクトル一致数算出部111は、一致判定に用いる範囲の中心位置を、始点が原点に一致するように配置された動きベクトルVの終点で示される位置として、一致判定に用いる範囲の幅および高さを、選択したVxの絶対値に所定の定数を乗じた値とする。   When the Vx that is the x component is larger than the Vy that is the y component of the motion vector V assigned to the image of interest, the vector match number calculation unit 111 selects Vx that is the x component. Then, the vector coincidence calculation unit 111 sets the center position of the range used for coincidence determination as the position indicated by the end point of the motion vector V arranged so that the start point coincides with the origin, and the width of the range used for coincidence determination and The height is set to a value obtained by multiplying the selected absolute value of Vx by a predetermined constant.

図10の例で示されるように、始点が原点に一致するように配置された動きベクトルVの終点で示される位置(Vx、Vy)を中心として、Vyから上に0.2×|Vx|、Vyから下に0.2×|Vx|、Vxから右に0.2×|Vx|、およびVxから左に0.2×|Vx|の範囲が、動きベクトルの一致判定に用いられる範囲(以下、一致許容範囲と称する。)とされる。この場合、一致許容範囲は、0.4×|Vx|を一辺とする矩形となる。図10において、斜線を付した部分が一致許容範囲を示す。   As shown in the example of FIG. 10, 0.2 × | Vx | above the Vy centered on the position (Vx, Vy) indicated by the end point of the motion vector V arranged so that the start point coincides with the origin. , Vy is 0.2 × | Vx |, Vx is 0.2 × | Vx |, and Vx is 0.2 × | Vx |. (Hereinafter, referred to as a matching allowable range). In this case, the matching allowable range is a rectangle having one side of 0.4 × | Vx |. In FIG. 10, the hatched portion indicates the matching allowable range.

すなわち、一致許容範囲の幅および高さは、式(1)により求められる。
一致許容範囲=±α×(注目画素の動きベクトルの最大成分の絶対値)
=±α×max(|Vx|,|Vy|)
・・・(1)
定数αは、例えば、0.2とされる。なお、max(a,b)は、aまたはbのうち、大きい方を選ぶ関数である。
That is, the width and height of the coincidence allowable range can be obtained by the equation (1).
Matchable range = ± α × (absolute value of maximum component of motion vector of target pixel)
= ± α × max (| Vx |, | Vy |)
... (1)
The constant α is, for example, 0.2. Note that max (a, b) is a function that selects the larger of a or b.

すなわち、注目画素の周辺の画素に割り付けられた動きベクトルの始点を原点に一致するように配置した場合、その動きベクトルの終点で、一致許容範囲の中が示されるとき、その動きベクトルは、注目画像に割り当てられた動きベクトルと一致すると判定される。一方、その動きベクトルの終点で、一致許容範囲の外が示されるとき、その動きベクトルは、注目画像に割り当てられた動きベクトルと一致しないと判定される。   That is, when the start point of the motion vector assigned to the pixels around the target pixel is arranged so as to coincide with the origin, when the end point of the motion vector indicates the matching allowable range, the motion vector is It is determined that it matches the motion vector assigned to the image. On the other hand, when the end point of the motion vector indicates that it is outside the allowable matching range, it is determined that the motion vector does not match the motion vector assigned to the target image.

なお、図11で示されるように、一致許容範囲を円形とするようにしてもよい。この場合、一致許容範囲の半径は、例えば、式(2)により求められる。
一致許容範囲=±α×(注目画素の動きベクトルの大きさ)
=±α×|V|
・・・(2)
この場合も、定数αは、例えば、0.2とされる。
In addition, as shown in FIG. 11, the matching allowable range may be circular. In this case, the radius of the coincidence allowable range is obtained by, for example, Expression (2).
Matchable range = ± α × (size of motion vector of target pixel)
= ± α × | V |
... (2)
Also in this case, the constant α is, for example, 0.2.

ベクトル一致数算出部111は、注目画素の周辺の画素に割り付けられた動きベクトルのそれぞれが、注目画像に割り当てられた動きベクトルと一致するか否かを判定して、注目画素の周辺の画素に割り付けられた動きベクトルのうち、注目画像に割り当てられた動きベクトルと一致する動きベクトルの数を求める。   The vector matching number calculation unit 111 determines whether each of the motion vectors assigned to the pixels around the target pixel matches the motion vector assigned to the target image, Among the assigned motion vectors, the number of motion vectors that match the motion vector assigned to the target image is obtained.

ベクトル一致数算出部111は、動きベクトルのばらつきを示す値を判定部112に供給する。   The vector coincidence calculation unit 111 supplies a value indicating the variation of the motion vector to the determination unit 112.

最大勾配算出部113は、内挿フレームのアクティビティを求める。すなわち、最大勾配算出部113は、注目画素の画素値と、内挿フレーム上の画素であって、注目画素の周辺の予め定めた範囲の画素である周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出する。   The maximum gradient calculation unit 113 obtains the activity of the interpolation frame. That is, the maximum gradient calculating unit 113 calculates the spatial direction from the pixel value of the target pixel and the pixel values of the peripheral pixels that are pixels in the interpolation frame and are in a predetermined range around the target pixel. A value indicating a change in pixel value is calculated.

経験的に、生成された内挿フレームにおいてアクティビティが高いとき、内挿フレームに破綻が生じている可能性が高いので、最大勾配算出部113において算出される空間方向の画素値の変化を示す値は、破綻が生じている可能性を示していると言える。   Empirically, when the activity in the generated interpolation frame is high, there is a high possibility that the interpolation frame has failed, so the value indicating the change in the pixel value in the spatial direction calculated by the maximum gradient calculation unit 113 Can be said to indicate the possibility of bankruptcy.

例えば、最大勾配算出部113は、空間方向の画素値の変化を示す値として、注目画素の画素値と周辺画素の画素値との差の絶対値のうち、最大の絶対値を算出する。   For example, the maximum gradient calculation unit 113 calculates the maximum absolute value among the absolute values of the difference between the pixel value of the target pixel and the pixel values of the surrounding pixels as a value indicating the change in the pixel value in the spatial direction.

より詳細には、例えば、最大勾配算出部113は、図12で示されるように、注目画素を中心する3×3画素の範囲の周辺画素について、注目画素の画素値と周辺画素の画素値との差分の絶対値を求める。すなわち、最大勾配算出部113は、注目画素の画素値と、注目画素に対して、上下左右、斜めに隣接している周辺画素の画素値との差分の絶対値を求める。   More specifically, for example, as illustrated in FIG. 12, the maximum gradient calculating unit 113 determines the pixel value of the target pixel and the pixel value of the peripheral pixel for the peripheral pixels in the range of 3 × 3 pixels centering on the target pixel. Find the absolute value of the difference. That is, the maximum gradient calculating unit 113 obtains an absolute value of a difference between the pixel value of the target pixel and the pixel values of neighboring pixels that are adjacent to the target pixel in the up, down, left, and right directions.

最大勾配算出部113は、注目画素の画素値と周辺画素の画素値との差分の絶対値のうち、最大の値を注目画素の最大勾配とする。   The maximum gradient calculation unit 113 sets the maximum value of the absolute values of the difference between the pixel value of the target pixel and the pixel values of the surrounding pixels as the maximum gradient of the target pixel.

なお、最大勾配を求めるとき、注目画素に対して斜めの位置の画素についての勾配は考慮しないようにしてもよい。   Note that when obtaining the maximum gradient, the gradient of the pixel at an oblique position with respect to the target pixel may not be considered.

最大勾配算出部113は、空間方向の画素値の変化を示す値の一例である最大勾配を勾配ヒストグラム生成部114および判定部112に供給する。   The maximum gradient calculation unit 113 supplies a maximum gradient, which is an example of a value indicating a change in the pixel value in the spatial direction, to the gradient histogram generation unit 114 and the determination unit 112.

勾配ヒストグラム生成部114は、最大勾配算出部113から供給された最大勾配のヒストグラムを生成する。例えば、図13で示されるように、画像の縦方向の画素の数が480である場合、勾配ヒストグラム生成部114は、最大勾配算出部113から供給された最大勾配のうち、画像の上端または下端の100画素の最大勾配を除いた、最大勾配のヒストグラムを生成する。すなわち、勾配ヒストグラム生成部114は、画像の中心の縦方向に280画素、横方向に720画素の領域を対象領域として、対象領域の画素を注目画素とするときの最大勾配のヒストグラムを生成する。   The gradient histogram generation unit 114 generates a histogram of the maximum gradient supplied from the maximum gradient calculation unit 113. For example, as illustrated in FIG. 13, when the number of pixels in the vertical direction of the image is 480, the gradient histogram generation unit 114 includes the upper end or lower end of the image among the maximum gradients supplied from the maximum gradient calculation unit 113. A histogram of the maximum gradient excluding the maximum gradient of 100 pixels is generated. That is, the gradient histogram generation unit 114 generates a histogram of the maximum gradient when the pixel of the target region is the target pixel, with the region of 280 pixels in the vertical direction and 720 pixels in the horizontal direction of the center of the image as the target region.

画像の上端または下端を除いたのは、画像の上端または下端にはテロップやバナーが表示されることが多く、テロップやバナーが表示されると、勾配が大きくなってしまうので、この影響を避けるためである。   Excluding the top or bottom of the image, a telop or banner is often displayed at the top or bottom of the image, and when the telop or banner is displayed, the gradient becomes larger, so avoid this effect Because.

なお、対象領域を、画像の中心の縦方向に280画素とすると説明したが、280画素に限定されるものではない。また、対象領域の高さ(画素数)は、画像全体(フレーム全体)の縦方向の画素数に応じて、変えるようにしてもよい。   Note that although it has been described that the target area is 280 pixels in the vertical direction of the center of the image, the target area is not limited to 280 pixels. Further, the height (number of pixels) of the target region may be changed according to the number of pixels in the vertical direction of the entire image (entire frame).

また、対象領域の画素を間引いて最大勾配のヒストグラムを生成するようにしてもよい。例えば、対象領域の画素のうち、1つおきの画素についての最大勾配のヒストグラムを生成するようにしてもよい。   Further, a histogram having the maximum gradient may be generated by thinning out pixels in the target area. For example, a maximum gradient histogram may be generated for every other pixel in the target region.

勾配ヒストグラム生成部114は、生成したヒストグラムを示すデータを勾配閾値算出部115に供給する。   The gradient histogram generation unit 114 supplies data indicating the generated histogram to the gradient threshold value calculation unit 115.

勾配閾値算出部115は、内挿フレーム上の画素のそれぞれを順に注目画素とした場合の、注目画素の画素値と注目画素の周辺の画素である周辺画素の画素値との差の絶対値のうち、最大の絶対値の分布から、閾値(勾配閾値)を算出する。例えば、勾配閾値算出部115は、勾配ヒストグラム生成部114から供給されたヒストグラムを示すデータを基に、ヒストグラムにおいて、最大勾配の小さい方からの度数の積算値が全体の数の95%に達した部分の最大勾配を閾値とする。   The gradient threshold value calculation unit 115 calculates the absolute value of the difference between the pixel value of the target pixel and the pixel values of the peripheral pixels that are the peripheral pixels of the target pixel when each pixel on the interpolation frame is the target pixel in order. Among these, a threshold value (gradient threshold value) is calculated from the maximum absolute value distribution. For example, the gradient threshold value calculation unit 115, based on the data indicating the histogram supplied from the gradient histogram generation unit 114, has reached 95% of the total number of frequencies from the smaller maximum gradient in the histogram. The maximum gradient of the part is set as a threshold value.

なお、閾値は、95%に達した部分の最大勾配に限られるものではない。本発明者による実験においては、90%乃至95%に達した部分の最大勾配を閾値とすると好ましい結果が得られた。   Note that the threshold value is not limited to the maximum gradient of the portion that has reached 95%. In the experiment by the present inventor, a favorable result was obtained by setting the maximum gradient of the portion reaching 90% to 95% as a threshold value.

図14は、勾配ヒストグラム生成部114から供給されたデータで示されるヒストグラムを表す図である。図14において、横軸は、最大勾配を示し、縦軸は度数を示す。図14で示されるヒストグラムの例において、8刻みの最大勾配の区間に対する度数が示されている。すなわち、図14で示されるヒストグラムの例において、0乃至7の最大勾配の区間、8乃至15の最大勾配の区間、16乃至23の最大勾配の区間、24乃至31の最大勾配の区間、32乃至39の最大勾配の区間、および40乃至47の最大勾配の区間・・・のそれぞれの区間の度数が示されている。   FIG. 14 is a diagram illustrating a histogram indicated by data supplied from the gradient histogram generator 114. In FIG. 14, the horizontal axis indicates the maximum gradient, and the vertical axis indicates the frequency. In the example of the histogram shown in FIG. 14, the frequency for the interval of the maximum gradient of 8 steps is shown. That is, in the example of the histogram shown in FIG. 14, the maximum gradient section of 0 to 7, the maximum gradient section of 8 to 15, the maximum gradient section of 16 to 23, the maximum gradient section of 24 to 31, The frequency of each section of 39 maximum gradient sections, 40 to 47 maximum gradient sections... Is shown.

例えば、図13で示されるように、画像の中心の縦方向に280画素で横方向に720画素を対象領域とする場合、対象領域の画素の数は、201600である。201600の95%は、191520なので、度数の積算値が191520を超えた次の区間における最大勾配のうちの最小値が閾値とされる。   For example, as shown in FIG. 13, when the target area is 280 pixels in the vertical direction and 720 pixels in the horizontal direction in the center of the image, the number of pixels in the target area is 201600. Since 95% of 2011600 is 191520, the minimum value of the maximum gradient in the next section in which the integrated value of frequencies exceeds 191520 is set as the threshold value.

例えば、0乃至7の最大勾配の区間から32乃至39の最大勾配の区間までの度数の積算値が191520を超えた場合、勾配閾値算出部115は、39の最大勾配の次の最大勾配である40を閾値とする。   For example, when the integrated value of the frequency from the maximum gradient section of 0 to 7 to the maximum gradient section of 32 to 39 exceeds 191520, the gradient threshold value calculation unit 115 is the next maximum gradient of the 39 maximum gradient. 40 is the threshold value.

なお、ヒストグラムの1つの区間は、8刻みに限るものではなく、任意の数とすることができる。ヒストグラムの1つの区間を、2以上のn刻み(nは整数)とすることで、処理をより簡単にすることができる。1つの最大勾配を1つの区間とするようにしてもよいことは勿論である。   Note that one section of the histogram is not limited to 8 steps, and may be an arbitrary number. By setting one section of the histogram in increments of 2 or more (n is an integer), the processing can be simplified. Of course, one maximum gradient may be set as one section.

勾配閾値算出部115は、算出した閾値(勾配閾値)を判定部112に供給する。   The gradient threshold value calculation unit 115 supplies the calculated threshold value (gradient threshold value) to the determination unit 112.

判定部112は、動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、注目画素において内挿フレームの画像が破綻しているか否かを判定する。判定部112は、破綻箇所候補判定部131、破綻箇所候補判定部132、および破綻箇所判定部133を備える。   The determination unit 112 determines whether or not the image of the interpolated frame has failed at the target pixel, based on the value indicating the motion vector variation and the value indicating the change in the pixel value in the spatial direction. The determination unit 112 includes a failure location candidate determination unit 131, a failure location candidate determination unit 132, and a failure location determination unit 133.

破綻箇所候補判定部131は、動きベクトルのばらつきを示す値および予め定めた閾値を基に、注目画素における内挿フレームの画像が、破綻している画像の候補であるか否かを判定する。   The failure location candidate determination unit 131 determines whether the image of the interpolation frame at the target pixel is a failed image candidate based on the value indicating the variation of the motion vector and a predetermined threshold.

破綻箇所候補判定部132は、空間方向の画素値の変化を示す値と予め定めた閾値(勾配閾値)を基に、注目画素における内挿フレームの画像が、破綻している画像の候補であるか否かを判定する。   The failure location candidate determination unit 132 is based on a value indicating a change in the pixel value in the spatial direction and a predetermined threshold (gradient threshold), and the image of the interpolated frame at the target pixel is a candidate for an image that has failed. It is determined whether or not.

破綻箇所判定部133は、破綻箇所候補判定部131における判定の結果と、破綻箇所候補判定部132における判定の結果とから、注目画素において内挿フレームの画像が破綻しているか否かを判定する。   The failure location determination unit 133 determines whether the image of the interpolation frame has failed at the target pixel from the determination result of the failure location candidate determination unit 131 and the determination result of the failure location candidate determination unit 132. .

例えば、破綻箇所候補判定部131は、ベクトル一致数算出部111から供給された値で示される、注目画像に割り当てられた動きベクトルと一致する動きベクトルの数が、予め定めた閾値TH1未満である場合、注目画素における内挿フレームの画像が、破綻している画像の候補であると判定し、注目画像に割り当てられた動きベクトルと一致する動きベクトルの数が、予め定めた閾値TH1以上である場合、注目画素における内挿フレームの画像が、破綻している画像の候補でないと判定する。 For example, the failure location candidate determination unit 131 indicates that the number of motion vectors matching the motion vector assigned to the target image indicated by the value supplied from the vector match number calculation unit 111 is less than a predetermined threshold TH 1 . In some cases, it is determined that the image of the interpolated frame at the target pixel is a candidate for a failed image, and the number of motion vectors that match the motion vector assigned to the target image is greater than or equal to a predetermined threshold TH 1 If it is, it is determined that the image of the interpolated frame at the pixel of interest is not a candidate for a broken image.

すなわち、破綻箇所候補判定部131は、式(3)で示される条件が満たされる場合、注目画素における内挿フレームの画像が、破綻している画像の候補であると判定し、式(3)で示される条件が満たされない場合、注目画素における内挿フレームの画像が、破綻している画像の候補でないと判定する。
動きベクトルの一致数<TH1 ・・・(3)
That is, the failure location candidate determination unit 131 determines that the image of the interpolated frame at the target pixel is a failed image candidate when the condition represented by Equation (3) is satisfied, and Equation (3) When the condition indicated by is not satisfied, it is determined that the image of the interpolation frame at the target pixel is not a failed image candidate.
Number of motion vector matches <TH 1 (3)

経験的に、閾値TH1は、ベクトル一致数算出部111において一致の判定の対象となる動きベクトルの数の半分とすることが好ましい。ベクトル一致数算出部111において、注目画素から、上下に2画素、左右に2画素離れた範囲の画素に割り付けられている動きベクトルが一致の判定の対象となる場合、一致の判定の対象となる動きベクトルの数が8なので(注目画素の割り付けられた動きベクトルを除く)、閾値TH1は、4とすることが好ましい。従って、この場合、破綻箇所候補判定部131は、注目画素に割り付けられている動きベクトルと一致する動きベクトルの数が4未満であるとき、注目画素における内挿フレームの画像が、破綻している画像の候補であると判定する。 Empirically, it is preferable that the threshold TH 1 is half of the number of motion vectors to be determined for matching in the vector matching number calculation unit 111. In the vector coincidence calculation unit 111, when a motion vector assigned to a pixel in a range that is 2 pixels up and down and 2 pixels left and right from the target pixel is a match determination target, the match determination target Since the number of motion vectors is 8 (excluding the motion vector to which the pixel of interest is assigned), the threshold TH 1 is preferably 4. Therefore, in this case, when the number of motion vectors matching the motion vector assigned to the pixel of interest is less than 4, the failure location candidate determination unit 131 has failed the image of the interpolation frame at the pixel of interest. It is determined that the image is a candidate.

例えば、破綻箇所候補判定部132は、最大勾配算出部113から供給された最大勾配が勾配閾値である閾値TH2以上である場合、注目画素における内挿フレームの画像が、破綻している画像の候補であると判定し、最大勾配算出部113から供給された最大勾配が閾値TH2未満である場合、注目画素における内挿フレームの画像が、破綻している画像の候補でないと判定する。 For example, when the maximum gradient supplied from the maximum gradient calculation unit 113 is equal to or greater than the threshold TH 2 that is the gradient threshold, the failure location candidate determination unit 132 determines that the image of the interpolation frame at the target pixel is a broken image. is determined to be a candidate, if the maximum gradient supplied from the maximum gradient calculating unit 113 is less than the threshold TH 2, it determines that the image of the interpolation frame in the target pixel is not a candidate for an image that is broken.

すなわち、破綻箇所候補判定部132は、式(4)で示される条件が満たされる場合、注目画素における内挿フレームの画像が、破綻している画像の候補であると判定し、式(4)で示される条件が満たされない場合、注目画素における内挿フレームの画像が、破綻している画像の候補でないと判定する。
最大勾配>=TH2 ・・・(4)
In other words, the failure location candidate determination unit 132 determines that the image of the interpolation frame at the target pixel is a failed image candidate when the condition represented by Equation (4) is satisfied, and Equation (4) When the condition indicated by is not satisfied, it is determined that the image of the interpolation frame at the target pixel is not a failed image candidate.
Maximum gradient> = TH 2 (4)

例えば、破綻箇所判定部133は、注目画素について、破綻箇所候補判定部131において、破綻している画像の候補であると判定されると共に、破綻箇所候補判定部132において、破綻している画像の候補であると判定された場合、注目画素における内挿フレームの画像が破綻していると判定する。破綻箇所判定部133は、注目画素について、破綻箇所候補判定部131において、破綻している画像の候補でないと判定されるか、または、破綻箇所候補判定部132において、破綻している画像の候補でないと判定された場合、注目画素における内挿フレームの画像が破綻していないと判定する。   For example, the failure location determination unit 133 determines that the target pixel is a candidate for a failed image in the failure location candidate determination unit 131 and the failure location candidate determination unit 132 determines that the image of the failure has occurred. When it is determined as a candidate, it is determined that the image of the interpolation frame at the target pixel is broken. The failure location determination unit 133 determines that the target pixel is not a candidate for a failed image in the failure location candidate determination unit 131, or a failed image candidate in the failure location candidate determination unit 132. If it is determined that it is not, it is determined that the image of the interpolation frame at the target pixel has not failed.

すなわち、破綻箇所判定部133は、式(5)で示されるように、動きベクトルの一致数によって破綻している画像の候補であると判定された画像と、最大勾配によって破綻している画像の候補であると判定された画像との積集合を、破綻している画像であると判定する。
破綻箇所=動きベクトルの一致数による破綻箇所候補∩最大勾配による破綻箇所候補
・・・(5)
That is, as shown in Expression (5), the failure location determination unit 133 includes an image determined to be a candidate for an image that has failed due to the number of motion vector matches and an image that has failed due to the maximum gradient. A product set with an image determined to be a candidate is determined to be a failed image.
Failure location = failure location candidate based on the number of motion vector matches ∩ failure location candidate due to maximum gradient
... (5)

なお、破綻箇所判定部133は、式(6)で示されるように、動きベクトルの一致数によって破綻している画像の候補であると判定された画像と、最大勾配によって破綻している画像の候補であると判定された画像との和集合を、破綻している画像であると判定するようにしてもよい。
破綻箇所=動きベクトルの一致数による破綻箇所候補∪最大勾配による破綻箇所候補
・・・(6)
Note that, as shown in Expression (6), the failure location determination unit 133 includes an image determined to be a candidate for an image that has failed due to the number of matching motion vectors, and an image that has failed due to the maximum gradient. You may make it determine with the union with the image determined to be a candidate the image which has failed.
Failure location = failure location candidate based on the number of motion vector matches ∪ failure location candidate due to maximum gradient
... (6)

破綻箇所判定部133は、破綻していると判定された画像を示すデータ(例えば、位置を示すデータ)を混合比決定部117に供給する。   The failure location determination unit 133 supplies data indicating an image determined to have failed (for example, data indicating a position) to the mixture ratio determination unit 117.

0ベクトル補間画像生成部116は、フレームtとの間に内挿フレームt+kが配置される、入力されたフレームt+1上の画素の画素値と、フレームt+1上の画素の位置と同じ位置のフレームt上の画素の画素値とから、フレームtの時刻tから内挿フレームt+kの時刻t+kまでの時間kと、内挿フレームt+kの時刻t+kからフレームt+1の時刻t+1までの時間1−kとの比率に応じて、内挿フレームt+k上の画素に対応する補間値を生成する。   The zero vector interpolated image generation unit 116 has the interpolated frame t + k arranged between the frame t and the input pixel value of the pixel on the frame t + 1 and the frame t at the same position as the pixel on the frame t + 1. A ratio between the pixel value of the upper pixel and the time k from the time t of the frame t to the time t + k of the interpolation frame t + k and the time 1-k from the time t + k of the interpolation frame t + k to the time t + 1 of the frame t + 1 Accordingly, an interpolation value corresponding to the pixel on the interpolation frame t + k is generated.

図15は、0ベクトル補間画像生成部116における0ベクトル補間画像の補間値の生成を説明する図である。なお、図15の例においては、点線が、画像処理装置1に入力される、時刻tおよびt+1における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t+kにおける60P信号の内挿フレームを表している。また、動きベクトルvは、内挿フレームの画素pに割り付けられ、フレームt+1上の画素rおよびフレームt上の画素qが、動きベクトルvによって対応付けられている。   FIG. 15 is a diagram for explaining generation of an interpolation value of a 0 vector interpolation image in the 0 vector interpolation image generation unit 116. In the example of FIG. 15, the dotted line represents the frame of the 24P signal input to the image processing apparatus 1 at time t and t + 1, and the solid line is represented by the image processing apparatus 1 from the input 24P signal. It shows an interpolation frame of a 60P signal at time t + k to be generated. The motion vector v is assigned to the pixel p of the interpolation frame, and the pixel r on the frame t + 1 and the pixel q on the frame t are associated with each other by the motion vector v.

図中の空間方向の成分が0である0ベクトルは、内挿フレーム上の注目画素pの位置と同じ位置のフレームt上の画素pと、注目画素pの位置と同じ位置のフレームt+1上の画素pとを対応付けている。   The zero vector whose spatial component in the figure is 0 is the pixel p on the frame t at the same position as the position of the target pixel p on the interpolation frame and the frame t + 1 at the same position as the position of the target pixel p. The pixel p is associated.

図15で示されるように、0ベクトル補間画像生成部116は、内挿フレーム上の画素pに注目している場合、画素pの位置と同じ位置のフレームt上の画素pの画素値Ft(p)と、画素pの位置と同じ位置のフレームt+1上の画素pの画素値Ft+1(p)とを取得する。そして、0ベクトル補間画像生成部116は、画素値Ft+1(p)に、時刻tから時刻t+kまでの時間に応じた重みkを乗算し、画素値Ft(p)に、時刻t+kから時刻t+1までの時間に応じた重み1−kを乗算する。さらに、0ベクトル補間画像生成部116は、これらの乗算の結果を加算することで、補間値Gt+k(p)を生成する。 As illustrated in FIG. 15, when paying attention to the pixel p on the interpolation frame, the 0 vector interpolation image generation unit 116 has a pixel value F t of the pixel p on the frame t at the same position as the position of the pixel p. (P) and the pixel value F t + 1 (p) of the pixel p on the frame t + 1 at the same position as the position of the pixel p are acquired. Then, the 0 vector interpolated image generation unit 116 multiplies the pixel value F t + 1 (p) by a weight k corresponding to the time from time t to time t + k, and the pixel value F t (p) at time t + k. Is multiplied by a weight 1-k according to the time from to time t + 1. Further, the zero vector interpolation image generation unit 116 adds these multiplication results to generate an interpolation value G t + k (p).

すなわち、0ベクトル補間画像生成部116によって、式(7)で示される補間値Gt+k(p)が求められる。
t+k(p)=(1−k)Ft(p)+kFt+1(p) (7)
That is, the zero vector interpolation image generation unit 116 obtains the interpolation value G t + k (p) represented by the equation (7).
G t + k (p) = (1−k) F t (p) + kF t + 1 (p) (7)

0ベクトル補間画像生成部116は、内挿フレームの全ての画素について、式(7)で示される演算で求められる補間値を生成する。0ベクトル補間画像生成部116は、生成した補間値からなる0ベクトル補間画像を画像混合部118に供給する。   The zero vector interpolation image generation unit 116 generates an interpolation value obtained by the calculation represented by Expression (7) for all the pixels of the interpolation frame. The zero vector interpolation image generation unit 116 supplies a zero vector interpolation image including the generated interpolation value to the image mixing unit 118.

混合比決定部117は、注目画素の画素値または周辺画素の画素値に、注目画素または周辺画素に対応する補間値を混合する比率を決定する。例えば、混合比決定部117は、注目画素からの距離に対応して、予め記憶している比率のデータを基に、比率を決定する。   The mixing ratio determining unit 117 determines a ratio for mixing the pixel value of the target pixel or the pixel value of the peripheral pixel with the interpolation value corresponding to the target pixel or the peripheral pixel. For example, the mixture ratio determination unit 117 determines the ratio based on the ratio data stored in advance corresponding to the distance from the target pixel.

以下、画素値と補間値を混合する比率を混合比とも称する。   Hereinafter, the ratio of mixing the pixel value and the interpolation value is also referred to as a mixing ratio.

混合比決定部117は、決定した混合比を画像混合部118に供給する。   The mixing ratio determination unit 117 supplies the determined mixing ratio to the image mixing unit 118.

画像混合部118は、注目画素が破綻箇所である場合、注目画素を中心としたある一定の範囲に、0ベクトル補間画像を混合する。すなわち、画像混合部118は、注目画素において内挿フレームの画像が破綻していると判定された場合、混合比決定部117からの比率(混合比)に従って、注目画素の画素値に、注目画素に対応する補間値を混合すると共に、内挿フレーム上の画素であって、注目画素の周辺の予め定めた範囲の画素である周辺画素の画素値に、周辺画素に対応する補間値を混合する。   When the target pixel is a failure location, the image mixing unit 118 mixes the zero vector interpolation image in a certain range centered on the target pixel. That is, when it is determined that the image of the interpolation frame has failed at the target pixel, the image mixing unit 118 sets the target pixel to the pixel value of the target pixel according to the ratio (mixing ratio) from the mixing ratio determination unit 117. And the interpolation value corresponding to the peripheral pixel is mixed with the pixel value of the peripheral pixel which is a pixel in the interpolation frame and is in a predetermined range around the pixel of interest. .

例えば、画像混合部118は、混合比決定部117から画素pについて混合比γが入力された場合、0ベクトル補間画像生成部116から供給された0ベクトル補間画像に含まれる、画素pに対応する補間値Gt+k(p)に混合比γを乗算し、内挿フレームt+kの画素pの画素値Ft+k(p)に(1−γ)を乗算する。そして、画像混合部118は、これらの乗算の結果を加算した値を内挿フレームt+kの画素pの画素値F’t+k(p)とする。 For example, when the mixing ratio γ is input for the pixel p from the mixing ratio determination unit 117, the image mixing unit 118 corresponds to the pixel p included in the 0 vector interpolation image supplied from the 0 vector interpolation image generation unit 116. The interpolation value G t + k (p) is multiplied by the mixture ratio γ, and the pixel value F t + k (p) of the pixel p of the interpolation frame t + k is multiplied by (1−γ). Then, the image mixing unit 118 sets a value obtained by adding these multiplication results as a pixel value F ′ t + k (p) of the pixel p of the interpolation frame t + k.

すなわち、画像混合部118によって、画素pについての混合比γに従って、内挿フレームt+kの画素pの画素値Ft+k(p)に、0ベクトル補間画像生成部116において生成された補間値Gt+k(p)が混合されることで、式(8)で示される、内挿フレームt+kの画素pの画素値F’t+k(p)が求められる。
F’t+k(p)=(1−γ)Ft+k(p)+γGt+k(p) (8)
That is, the interpolation value G generated by the 0 vector interpolation image generation unit 116 is converted by the image mixing unit 118 into the pixel value F t + k (p) of the pixel p of the interpolation frame t + k according to the mixing ratio γ for the pixel p. By mixing t + k (p), the pixel value F ′ t + k (p) of the pixel p of the interpolation frame t + k, which is represented by Expression (8), is obtained.
F ′ t + k (p) = (1−γ) F t + k (p) + γG t + k (p) (8)

画像混合部118は、混合の結果得られた画像を出力画像として出力する。   The image mixing unit 118 outputs an image obtained as a result of the mixing as an output image.

ここで、混合比の具体例について、説明する。   Here, a specific example of the mixing ratio will be described.

例えば、混合比決定部117は、注目画素について混合比を決め、また、注目画素を中心した所定の範囲の周辺の画素である周辺画素について混合比を決める。例えば、図16で示されるように、混合比決定部117は、注目画素を中心とした15×15画素の範囲の画素に対する混合比を決める。   For example, the mixture ratio determination unit 117 determines the mixture ratio for the pixel of interest, and determines the mixture ratio for peripheral pixels that are pixels around a predetermined range centered on the pixel of interest. For example, as shown in FIG. 16, the mixture ratio determination unit 117 determines the mixture ratio for pixels in the range of 15 × 15 pixels centered on the target pixel.

例えば、注目画素についての混合比は、最大の75%とされ、最小の混合比は、40%とされる。注目画素は破綻箇所なので、注目画素と補間値との混合比が最も大きくされ、注目画素の周辺に向かって徐々に混合比は小さくされる。すなわち、周辺画素の混合比は、周辺画素が注目画素から離れるに従って、小さい値とされる。   For example, the maximum mixture ratio for the target pixel is 75%, and the minimum mixture ratio is 40%. Since the target pixel is a broken part, the mixture ratio between the target pixel and the interpolation value is maximized, and the mixture ratio is gradually decreased toward the periphery of the target pixel. That is, the mixture ratio of the peripheral pixels is set to a smaller value as the peripheral pixels are separated from the target pixel.

例えば、図16で示されるように、混合比は、gaussian関数により決められる。この場合、例えば、混合比決定部117は、図17で示されるルックアップテーブル(LUT:Look Up Table)を予め記憶している。   For example, as shown in FIG. 16, the mixing ratio is determined by a gaussian function. In this case, for example, the mixture ratio determination unit 117 stores a look-up table (LUT) shown in FIG. 17 in advance.

図17に例示されているルックアップテーブルは、横23行×縦23列の配列からなる。ルックアップテーブルの各要素は、各画素に対応している。すなわち、横23画素×縦23画素の範囲で混合比を設定する場合の例を示している。なお、図17の例は、簡単のため、小数点以下3bitの精度(10進数の0.125に相当する)を保った場合の数値を示す。   The lookup table illustrated in FIG. 17 has an array of 23 rows x 23 columns. Each element of the lookup table corresponds to each pixel. That is, an example in which the mixture ratio is set in a range of 23 horizontal pixels × 23 vertical pixels is shown. For the sake of simplicity, the example in FIG. 17 shows a numerical value when the precision of 3 bits after the decimal point (corresponding to decimal number 0.125) is maintained.

例えば、ルックアップテーブルには、gaussian関数により決まる値が、混合比として配列の要素に配置されている。   For example, in the lookup table, values determined by the gaussian function are arranged in the elements of the array as a mixture ratio.

gaussian関数は、σおよびλを定数として、式(9)で表される。
Gex(x,y)=λ2exp[−(x2+y2)/2σ2] ・・・(9)
式(9)において、(x,y)は、画素位置を示す。
The gaussian function is expressed by Equation (9), where σ and λ are constants.
G ex (x, y) = λ 2 exp [− (x 2 + y 2 ) / 2σ 2 ] (9)
In Expression (9), (x, y) indicates a pixel position.

図17に示す例においては、λ2=1/2πσ2とおいて、式(10)によって、注目画素を中心とした場合の係数を混合比として求めた。
Gex(x,y)=(1/2πσ2)exp[−(x2+y2)/2σ2] ・・・(10)
In the example shown in FIG. 17, with λ 2 = 1 / 2πσ 2 , the coefficient in the case where the target pixel is the center is obtained as a mixing ratio by Expression (10).
G ex (x, y) = (1 / 2πσ 2 ) exp [− (x 2 + y 2 ) / 2σ 2 ] (10)

図17に例示されているルックアップテーブルの要素に混合比が配置されている場合、ルックアップテーブルの配列の中心の要素(左から12行目であって上から12列目の要素)は、注目画素の混合比とされる。この場合、注目画素の混合比は、1.000とされる   When the mixture ratio is arranged in the elements of the lookup table illustrated in FIG. 17, the element at the center of the lookup table array (the element in the 12th row from the left and the 12th column from the top) is: The mixing ratio of the target pixel is used. In this case, the mixture ratio of the target pixel is 1.000.

また、左から11行目乃至13行目であって上から11列目乃至13列目の要素は、1.000なので、注目画素に隣接する周辺画素の混合比も、1.000とされる。   Further, since the elements in the 11th to 13th rows from the left and the 11th to 13th columns from the top are 1.000, the mixture ratio of the peripheral pixels adjacent to the target pixel is also 1.000. .

例えば、左から10行目であって上から10列目乃至14列目の要素、左から11行目であって上から10列目の要素、左から12行目であって上から10列目の要素、左から13行目であって上から10列目の要素、左から11行目であって上から14列目の要素、左から12行目であって上から14列目の要素、左から13行目であって上から14列目の要素、および左から14行目であって上から10列目乃至14列目の要素は、0.875なので、注目画素から2画素離れた周辺画素の混合比は、0.875とされる。   For example, the elements in the 10th row from the left and the 10th to 14th columns from the top, the elements in the 11th row from the left and the 10th column from the top, the elements in the 12th row from the left and the 10th column from the top The element of the eye, the 13th row from the left and the 10th column from the top, the 11th row from the left and the 14th column from the top, the 12th row from the left and the 14th column from the top Since the element, the element in the 13th row from the left and the 14th column from the top, and the element in the 14th row from the left and the 10th to 14th columns from the top are 0.875, 2 pixels from the target pixel The mixing ratio of the distant peripheral pixels is set to 0.875.

同様に、例えば、左から2行目であって上から12列目の要素は、0.125なので、注目画素から左に10画素離れた周辺画素の混合比は、0.125とされる。   Similarly, for example, since the element in the second row from the left and the twelfth column from the top is 0.125, the mixture ratio of the peripheral pixels 10 pixels to the left from the target pixel is 0.125.

また、混合比の最大値に乗算するための係数をルックアップテーブルに配置するようにしてもよい。   Further, a coefficient for multiplying the maximum value of the mixture ratio may be arranged in the lookup table.

混合比の最大値を0.75とし、図17のルックアップテーブルが、混合比の最大値に乗算するための係数を要素として配置しているとした場合を例に説明する。   An example will be described in which the maximum value of the mixing ratio is set to 0.75, and the look-up table in FIG. 17 arranges the coefficient for multiplying the maximum value of the mixing ratio as an element.

左から12行目であって上から12列目の要素は、1.0なので、注目画素の混合比は、0.75(1.0×0.75(混合比の最大値))とされる。左から11行目乃至13行目であって上から11列目乃至13列目の要素は、1.0なので、注目画素に隣接する周辺画素の混合比は、0.75とされる。   Since the element in the 12th row from the left and the 12th column from the top is 1.0, the mixture ratio of the target pixel is 0.75 (1.0 × 0.75 (maximum value of the mixture ratio)). The Since the elements in the 11th to 13th rows from the left and the 11th to 13th columns from the top are 1.0, the mixture ratio of the peripheral pixels adjacent to the target pixel is 0.75.

例えば、左から10行目であって上から10列目乃至14列目の要素、左から11行目であって上から10列目の要素、左から12行目であって上から10列目の要素、左から13行目であって上から10列目の要素、左から11行目であって上から14列目の要素、左から12行目であって上から14列目の要素、左から13行目であって上から14列目の要素、および左から14行目であって上から10列目乃至14列目の要素は、0.875なので、0.875×0.75から、注目画素から2画素離れた周辺画素の混合比は、0.65625とされる。   For example, the elements in the 10th row from the left and the 10th to 14th columns from the top, the elements in the 11th row from the left and the 10th column from the top, the elements in the 12th row from the left and the 10th column from the top The element of the eye, the 13th row from the left and the 10th column from the top, the 11th row from the left and the 14th column from the top, the 12th row from the left and the 14th column from the top The element, the element in the 13th row from the left and the 14th column from the top, and the element in the 14th row from the left and the 10th to 14th columns from the top are 0.875, so 0.875 × 0 .75, the mixture ratio of the peripheral pixels that are two pixels away from the target pixel is 0.65625.

同様に、例えば、左から2行目であって上から12列目の要素は、0.125なので、0.125×0.75から、注目画素から左に10画素離れた周辺画素の混合比は、0.09375とされる。   Similarly, for example, the element in the second row from the left and the twelfth column from the top is 0.125, so the mixture ratio of the surrounding pixels 10 pixels to the left from the target pixel from 0.125 × 0.75 Is 0.09375.

このように、混合比決定部117は、予め記憶しているルックアップテーブルを基に、注目画素および周辺画素についての混合比を決めることができる。   As described above, the mixture ratio determination unit 117 can determine the mixture ratio for the target pixel and the peripheral pixels based on the lookup table stored in advance.

なお、混合比を決める関数は、gaussian関数に限らず、中心から離れる程、値が減少するものであれば他の関数であってもよい。例えば、図18で示されるように、1次関数を基に、混合比を決めるようにしてもよい。   The function for determining the mixing ratio is not limited to the gaussian function, and may be other functions as long as the value decreases as the distance from the center increases. For example, as shown in FIG. 18, the mixing ratio may be determined based on a linear function.

また、図19で示されるように、近接している箇所で破綻が生じた場合には(破綻箇所Aと破綻箇所Bとが近接している場合には)、補間値と混合される周辺画素からなる領域に重なりが生じて、1つの画素について複数の混合比が求められるときがある。この場合、混合比決定部117は、1つの画素について求められた複数の混合比のうち、大きいほうをその画素の混合比として採用する。すなわち、混合比決定部117は、注目画素または周辺画素の1つに対して2つ以上の比率が求められた場合、最終的な比率を、求められた比率のうちの大きいものに決定する。   In addition, as shown in FIG. 19, when a failure occurs in an adjacent location (when failure location A and failure location B are close), neighboring pixels mixed with the interpolation value In some cases, an overlapping region is generated, and a plurality of mixing ratios are obtained for one pixel. In this case, the mixture ratio determination unit 117 employs the larger one of the plurality of mixture ratios obtained for one pixel as the mixture ratio of the pixel. That is, when two or more ratios are obtained for one of the target pixel or the peripheral pixels, the mixture ratio determination unit 117 determines the final ratio as a larger one of the obtained ratios.

次に、図20のフローチャートを参照して、図5のステップS6の画質改善の処理の詳細を説明する。ステップS101において、0ベクトル補間画像生成部116は、フレームtおよびフレームt+1から、0ベクトル補間画像を生成する。すなわち、ステップS101において、0ベクトル補間画像生成部116は、フレームtとの間に内挿フレームt+kが配置される、入力されたフレームt+1上の画素の画素値と、フレームt+1上の画素の位置と同じ位置のフレームt上の画素の画素値とから、フレームtの時刻tから内挿フレームt+kの時刻t+kまでの時間と、内挿フレームt+kの時刻t+kからフレームt+1の時刻t+1までの時間との比率に応じて、内挿フレームt+k上の画素に対応する補間値を生成する。   Next, the details of the image quality improvement processing in step S6 in FIG. 5 will be described with reference to the flowchart in FIG. In step S101, the 0 vector interpolation image generation unit 116 generates a 0 vector interpolation image from the frame t and the frame t + 1. In other words, in step S101, the 0 vector interpolation image generation unit 116 inputs the pixel value of the pixel on the frame t + 1 and the position of the pixel on the frame t + 1 in which the interpolation frame t + k is arranged between the frame t. The time from the time t of the frame t to the time t + k of the interpolation frame t + k, the time from the time t + k of the interpolation frame t + k to the time t + 1 of the frame t + 1, The interpolation value corresponding to the pixel on the interpolation frame t + k is generated according to the ratio.

ステップS102において、ベクトル一致数算出部111は、注目画像の周辺の画素に割り当てられた動きベクトルから、注目画像に割り当てられた動きベクトルと一致する動きベクトルの数を算出する。すなわち、ステップS102において、ベクトル一致数算出部111は、画素値が生成された内挿フレーム上の画素であって、注目している画素である注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出する。   In step S102, the vector matching number calculation unit 111 calculates the number of motion vectors that match the motion vector assigned to the target image, from the motion vectors assigned to the pixels around the target image. That is, in step S102, the vector coincidence calculation unit 111 calculates a motion vector assigned to a target pixel that is a pixel on the interpolation frame in which the pixel value is generated and is a target pixel, and the target pixel. A value indicating a variation from a motion vector assigned to a peripheral pixel which is a pixel in a predetermined range around the pixel is calculated.

ステップS103において、最大勾配算出部113は、注目画像の画素値と周辺の画素の画素値との最大勾配を算出する。すなわち、ステップS103において、最大勾配算出部113は、注目画素の画素値と、内挿フレーム上の画素であって、注目画素の周辺の予め定めた範囲の画素である周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出する。例えば、ステップS103において、最大勾配算出部113は、空間方向の画素値の変化を示す値として、注目画素の画素値と周辺画素の画素値との差の絶対値のうち、最大の絶対値(最大勾配)を算出する。   In step S103, the maximum gradient calculation unit 113 calculates the maximum gradient between the pixel value of the image of interest and the pixel values of surrounding pixels. In other words, in step S103, the maximum gradient calculating unit 113 calculates the pixel value of the target pixel and the pixel values of the peripheral pixels that are pixels on the interpolation frame and are pixels in a predetermined range around the target pixel. Then, a value indicating a change in the pixel value in the spatial direction is calculated. For example, in step S <b> 103, the maximum gradient calculating unit 113 uses the maximum absolute value (the absolute value of the difference between the pixel value of the target pixel and the pixel value of the surrounding pixels as a value indicating the change in the pixel value in the spatial direction ( Maximum slope) is calculated.

ステップS104において、判定部112は、動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、判定箇所を判定する。すなわち、ステップS104において、判定部112は、注目画素についての動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、注目画素において内挿フレームの画像が破綻しているか否かを判定する。   In step S104, the determination unit 112 determines a determination location based on a value indicating variation in motion vectors and a value indicating a change in pixel value in the spatial direction. That is, in step S104, the determination unit 112 determines whether the image of the interpolated frame has failed in the target pixel based on the value indicating the variation in the motion vector for the target pixel and the value indicating the change in the pixel value in the spatial direction. Determine whether or not.

例えば、ステップS104において、判定部112は、動きベクトルのばらつきを示す値が閾値TH1より小さく、空間方向の画素値の変化を示す値が閾値TH2以上である場合、注目画素において内挿フレームの画像が破綻していると判定する。 For example, in step S104, the determination unit 112 is smaller than the value the threshold TH 1 showing a variation in motion vectors, when the value indicating the change of the pixel values in the spatial direction is the threshold value TH 2 or more, the interpolation frame in the pixel of interest It is determined that the image of is broken.

ステップS105において、混合比決定部117は、注目画素の画素値または周辺画素の画素値に、注目画素または周辺画素に対応する補間値を混合する比率である混合比を決定する。例えば、ステップS105において、混合比決定部117は、予め記憶しているルックアップテーブルを基に、混合比を決定する。   In step S <b> 105, the mixture ratio determination unit 117 determines a mixture ratio that is a ratio of mixing the pixel value of the target pixel or the pixel value of the peripheral pixel with the interpolation value corresponding to the target pixel or the peripheral pixel. For example, in step S105, the mixture ratio determining unit 117 determines the mixture ratio based on a lookup table stored in advance.

ステップS106において、画像混合部118は、補間画像と0ベクトル補間画像とを混合する。すなわち、ステップS106において、画像混合部118は、注目画素において内挿フレームの画像が破綻していると判定された場合、混合比決定部117からの比率(混合比)に従って、注目画素の画素値に、注目画素に対応する補間値を混合すると共に、内挿フレーム上の画素であって、注目画素の周辺の予め定めた範囲の画素である周辺画素の画素値に、周辺画素に対応する補間値を混合する。   In step S106, the image mixing unit 118 mixes the interpolation image and the zero vector interpolation image. That is, in step S106, when the image mixing unit 118 determines that the image of the interpolation frame has failed at the target pixel, the pixel value of the target pixel is determined according to the ratio (mixing ratio) from the mixing ratio determination unit 117. In addition, the interpolation value corresponding to the target pixel is mixed, and the pixel corresponding to the peripheral pixel is the pixel value of the peripheral pixel that is a pixel on the interpolation frame and is in a predetermined range around the target pixel. Mix values.

ステップS107において、画質改善処理部59は、内挿フレームの全ての画素について、処理を終了したか否かを判定し、処理を終了していないと判定された場合、ステップS102に戻り、内挿フレームの次の画素について、ステップS102乃至ステップS106の処理が繰り返される。なお、ステップS102乃至ステップS106の処理の対象となる画素(注目画素)は、例えば、ラスタスキャン順に選択される。   In step S107, the image quality improvement processing unit 59 determines whether or not the process has been completed for all the pixels of the interpolation frame. If it is determined that the process has not been completed, the process returns to step S102 to interpolate. The process from step S102 to step S106 is repeated for the next pixel of the frame. Note that the pixel (target pixel) that is the target of the processing in steps S102 to S106 is selected in the raster scan order, for example.

ステップS107において、内挿フレームの全ての画素について処理を終了したと判定された場合、ステップS108に進み、勾配閾値算出部115は、勾配判定の閾値を決定して、画質改善処理は終了する。   If it is determined in step S107 that the processing has been completed for all the pixels in the interpolation frame, the process proceeds to step S108, where the gradient threshold value calculation unit 115 determines a gradient determination threshold value, and the image quality improvement processing ends.

すなわち、例えば、ステップS108において、勾配ヒストグラム生成部114は、最大勾配算出部113から供給された最大勾配のヒストグラムを生成する。例えば、ステップS108において、勾配ヒストグラム生成部114は、内挿フレーム上の画素のそれぞれを順に注目画素とした場合の、注目画素の画素値と注目画素の周辺の画素である周辺画素の画素値との差の絶対値のうち、最大の絶対値の分布を示すヒストグラムを生成する。そして、勾配閾値算出部115は、最大の絶対値の分布を示すヒストグラムから、閾値を算出する。   That is, for example, in step S108, the gradient histogram generation unit 114 generates a histogram of the maximum gradient supplied from the maximum gradient calculation unit 113. For example, in step S108, the gradient histogram generation unit 114 determines the pixel value of the target pixel and the pixel values of the peripheral pixels that are the peripheral pixels of the target pixel when each pixel on the interpolation frame is the target pixel in order. A histogram showing the distribution of the maximum absolute value among the absolute values of the differences is generated. Then, the gradient threshold value calculation unit 115 calculates a threshold value from a histogram indicating the maximum absolute value distribution.

なお、ステップS108で算出された閾値は、次に実行されるステップS104の判定の処理に用いられる。すなわち、ステップS104の判定の処理で用いる閾値は、1つ前のフレームで算出された値である。このようにすることで、閾値を算出するまで判定の処理をホールドさせる必要がなく、簡単に、かつ、迅速に処理を実行することができる。   Note that the threshold value calculated in step S108 is used for the determination process in step S104 to be executed next. That is, the threshold value used in the determination process in step S104 is a value calculated in the previous frame. In this way, it is not necessary to hold the determination process until the threshold value is calculated, and the process can be executed easily and quickly.

このように、内挿フレームの破綻している部分に、0ベクトル補間画像を混合するようにしたので、画像の動きの滑らかさを損なうことなく、画像の破綻を目立たなくすることができる。画像の破綻が目立ちにくくなるので、画像を見ている使用者には、画像の画質が改善されたように感じられる。   As described above, since the zero vector interpolation image is mixed with the portion where the interpolation frame has failed, the failure of the image can be made inconspicuous without impairing the smoothness of the motion of the image. Since the failure of the image is less noticeable, the user viewing the image feels that the image quality of the image has been improved.

動きベクトルのばらつきおよび画像の空間方向の変化を基に、より正確に、より精度良く破綻した画像を検出することができる。   Based on the variation of the motion vector and the change in the spatial direction of the image, the broken image can be detected more accurately and with higher accuracy.

このように、第1のフレーム上の動きベクトルを検出し、第2のフレーム上の画素に、検出された動きベクトルを割り付け、割り付けられた動きベクトルに基づいて、第1のフレームおよび第3のフレームから、画素値を算出することで、第2のフレーム上の画素を生成するようにした場合には、画像を生成することができる。また、画素値が生成された第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出し、注目画素の画素値と、第2のフレーム上の画素であって、注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、注目画素において第2のフレームの画像が破綻しているか否かを判定し、第1のフレームとの間に第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、第3のフレーム上の画素の位置と同じ位置の第1のフレーム上の画素の画素値とから、第1のフレームの時刻から第2のフレームの時刻までの時間と、第2のフレームの時刻から第3のフレームの時刻までの時間との比率に応じて、第2のフレーム上の画素に対応する補間値を生成し、注目画素において第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、注目画素の画素値に、注目画素に対応する補間値を混合すると共に、第2のフレーム上の画素であって、注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、第3の周辺画素に対応する補間値を混合するようにした場合には、生成した画像の破綻を目立たないようにすることができる。   In this way, the motion vector on the first frame is detected, the detected motion vector is allocated to the pixel on the second frame, and the first frame and the third frame are assigned based on the allocated motion vector. When the pixel value is calculated from the frame to generate the pixel on the second frame, an image can be generated. In addition, the motion vector assigned to the pixel of interest that is a pixel on the second frame in which the pixel value is generated, and the pixel of interest, and a predetermined first range around the pixel of interest A value indicating a variation with the motion vector assigned to the first peripheral pixel that is a pixel is calculated, and a pixel value of the target pixel and a pixel on the second frame that are predetermined around the target pixel are determined in advance. The value indicating the change in the pixel value in the spatial direction is calculated from the pixel values of the second peripheral pixels that are the pixels in the second range, and the value indicating the variation in the motion vector and the change in the pixel value in the spatial direction are calculated. Based on the indicated value, it is determined whether or not the image of the second frame is broken at the target pixel, and the second frame is arranged between the first frame and the input third frame The pixel value of the upper pixel and on the third frame From the pixel value of the pixel on the first frame at the same position as the pixel position, the time from the time of the first frame to the time of the second frame, and the time of the second frame from the time of the second frame An interpolation value corresponding to the pixel on the second frame is generated according to the ratio to the time until the time, and when it is determined that the image of the second frame is broken at the target pixel, a predetermined ratio And the pixel value of the target pixel is mixed with the interpolation value corresponding to the target pixel, and the pixels on the second frame, which are pixels in a predetermined third range around the target pixel. When the interpolated value corresponding to the third peripheral pixel is mixed with the pixel value of the peripheral pixel, the failure of the generated image can be made inconspicuous.

また、本実施の形態においては、各処理を行う領域を、例えば、3画素×3画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行う領域を構成する画素は、この画素数に限定されない。   Further, in the present embodiment, the area where each process is performed is described as being configured by, for example, 3 pixels × 3 pixels, but these are only examples, and the pixels constituting the area where each process is performed Is not limited to this number of pixels.

さらに、本実施の形態においては、24P信号から60P信号への信号変換を例に、説明したが、本発明は、例えば、動画像のフレーム周波数変換として、インターレース信号や、他のフレームレート変換にも適用することができる。   Furthermore, in the present embodiment, the signal conversion from 24P signal to 60P signal has been described as an example. However, the present invention can be applied to interlace signal or other frame rate conversion as frame frequency conversion of moving images, for example. Can also be applied.

また、入力画像は、アナログ信号またはデジタル信号のどちらの信号を媒体とする画像でもよく、さらに、記録媒体から読み出した画像、放送または通信により送信されてきた画像、ネットワークを介して取得した画像などいずれの画像でもよく、本発明を限定するものではない。   The input image may be an image using either an analog signal or a digital signal as a medium. Further, an image read from a recording medium, an image transmitted by broadcasting or communication, an image acquired via a network, etc. Any image may be used, and the present invention is not limited thereto.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図1に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア21、または、プログラムが一時的もしくは永続的に格納されるROM12や、記憶部18を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部19を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 1, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disk), or removable media 21 that is a package medium made of semiconductor memory or the like, or ROM 12 in which a program is temporarily or permanently stored, The storage unit 18 is configured by a hard disk or the like. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 19 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した画像処理装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the image processing apparatus to which this invention is applied. 画像処理装置の機能の構成の例を示すブロック図である。It is a block diagram which shows the example of a function structure of an image processing apparatus. フレームを内挿する処理の原理を説明する図である。It is a figure explaining the principle of the process which interpolates a flame | frame. フレームを内挿する処理をより具体的に説明する図である。It is a figure explaining the process which interpolates a frame more concretely. フレーム周波数を変換する処理を説明するフローチャートである。It is a flowchart explaining the process which converts a frame frequency. 画像補間部の構成を示すブロック図である。It is a block diagram which shows the structure of an image interpolation part. 画像補間処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an image interpolation process. 内挿フレームを説明する図である。It is a figure explaining an interpolation frame. 画質改善処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of an image quality improvement process part. 動きベクトルの一致の許容範囲の例を示す図である。It is a figure which shows the example of the tolerance | permissible_range of a motion vector matching. 動きベクトルの一致の許容範囲の例を示す図である。It is a figure which shows the example of the tolerance | permissible_range of a motion vector matching. 最大勾配を説明する図である。It is a figure explaining the maximum gradient. 最大勾配のヒストグラムの生成の対象となる領域を説明する図である。It is a figure explaining the area | region used as the object of the production | generation of the histogram of the maximum gradient. ヒストグラムの例を示す図である。It is a figure which shows the example of a histogram. 補間値の生成を説明する図である。It is a figure explaining the production | generation of an interpolation value. 混合比の例を説明する図である。It is a figure explaining the example of mixing ratio. ルックアップテーブルの例を示す図である。It is a figure which shows the example of a look-up table. 混合比の例を説明する図である。It is a figure explaining the example of mixing ratio. 混合比の決定を説明する図である。It is a figure explaining determination of a mixture ratio. 画質改善の処理の詳細を説明するフローチャートである。10 is a flowchart illustrating details of image quality improvement processing.

符号の説明Explanation of symbols

11 CPU, 12 ROM, 13 RAM, 18 記憶部, 21 リムーバブルメディア, 51 フレームメモリ, 52 ベクトル検出部, 53 検出ベクトルメモリ, 54 ベクトル割付部, 55 割付ベクトルメモリ, 56 割付フラグメモリ, 57 割付補償部, 58 画像補間部, 59 画質改善処理部, 111 ベクトル一致数算出部, 112 判定部, 113 最大勾配算出部, 114 勾配ヒストグラム生成部, 115 勾配閾値算出部, 116 0ベクトル補間画像生成部, 117 混合比決定部, 118 画像混合部, 131 破綻箇所候補判定部, 132 破綻箇所候補判定部, 133 破綻箇所判定部   11 CPU, 12 ROM, 13 RAM, 18 storage unit, 21 removable media, 51 frame memory, 52 vector detection unit, 53 detection vector memory, 54 vector allocation unit, 55 allocation vector memory, 56 allocation flag memory, 57 allocation compensation unit , 58 image interpolation unit, 59 image quality improvement processing unit, 111 vector matching number calculation unit, 112 determination unit, 113 maximum gradient calculation unit, 114 gradient histogram generation unit, 115 gradient threshold calculation unit, 1160 vector interpolation image generation unit, 117 Mixing ratio determination unit, 118 image mixing unit, 131 failed location candidate determination unit, 132 failed location candidate determination unit, 133 failed location determination unit

Claims (12)

入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理装置において、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段と、
前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出する第2の算出手段と、
前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段と、
前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成する生成手段と、
前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する混合手段と
を備える画像処理装置。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In an image processing device that generates pixel values of pixels,
The motion vector assigned to the pixel of interest that is the pixel on the second frame in which the pixel value is generated and is the pixel of interest, and a predetermined first range around the pixel of interest First calculation means for calculating a value indicating variation with the motion vector assigned to the first peripheral pixel which is a pixel of
From the pixel value of the target pixel and the pixel value of a second peripheral pixel that is a pixel on the second frame and that is a pixel in a predetermined second range around the target pixel, in the spatial direction Second calculating means for calculating a value indicating a change in the pixel value of
Determination means for determining whether or not the image of the second frame is broken in the target pixel based on a value indicating the variation of the motion vector and a value indicating a change in the pixel value in the spatial direction;
The second frame is arranged between the first frame and the input pixel value of the pixel on the third frame, and the position of the pixel at the same position as the position of the pixel on the third frame. The time from the time of the first frame to the time of the second frame, and the time from the time of the second frame to the time of the third frame from the pixel value of the pixel on one frame Generating means for generating an interpolated value corresponding to a pixel on the second frame according to the ratio of:
When it is determined that the image of the second frame is broken at the target pixel, the interpolation value corresponding to the target pixel is mixed with the pixel value of the target pixel according to a predetermined ratio, and A pixel value of a third peripheral pixel that is a pixel on a second frame and is a pixel in a predetermined third range around the pixel of interest, and the interpolation value corresponding to the third peripheral pixel An image processing apparatus comprising: a mixing unit that mixes.
前記第1の算出手段は、ばらつきを示す値として、前記注目画素に割り付けられている前記動きベクトルと一致する前記動きベクトルであって、前記第1の周辺画素に割り付けられている前記動きベクトルの数を算出する
請求項1に記載の画像処理装置。
The first calculation means is a motion vector that matches the motion vector assigned to the target pixel as a value indicating variation, and that is the motion vector assigned to the first peripheral pixel. The image processing apparatus according to claim 1, wherein the number is calculated.
前記第1の算出手段は、ばらつきを示す値として、前記注目画素に割り付けられている前記動きベクトルの成分で定められる範囲に入る大きさの前記動きベクトルであって、前記第1の周辺画素に割り付けられている前記動きベクトルの数を算出する
請求項2に記載の画像処理装置。
The first calculating means is a motion vector having a magnitude that falls within a range defined by a component of the motion vector assigned to the target pixel as a value indicating variation, and The image processing apparatus according to claim 2, wherein the number of motion vectors assigned is calculated.
前記第2の算出手段は、空間方向の画素値の変化を示す値として、前記注目画素の画素値と前記第2の周辺画素の画素値との差の絶対値のうち、最大の絶対値を算出する
請求項1に記載の画像処理装置。
The second calculating means calculates a maximum absolute value of absolute values of differences between a pixel value of the target pixel and a pixel value of the second peripheral pixel as a value indicating a change in a pixel value in a spatial direction. The image processing apparatus according to claim 1.
前記判定手段は、
前記動きベクトルのばらつきを示す値および予め定めた第1の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第1の破綻画像候補判定手段と、
空間方向の画素値の変化を示す値と予め定めた第2の閾値を基に、前記注目画素における前記第2のフレームの画像が、破綻している画像の候補であるか否かを判定する第2の破綻画像候補判定手段と、
前記第1の破綻画像候補判定手段における判定の結果と、前記第2の破綻画像候補判定手段における判定の結果とから、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する破綻箇所判定手段と
を備える
請求項1に記載の画像処理装置。
The determination means includes
First determining whether or not the image of the second frame at the pixel of interest is a failed image candidate based on a value indicating the variation of the motion vector and a predetermined first threshold. A failed image candidate determination means,
Based on a value indicating a change in the pixel value in the spatial direction and a predetermined second threshold value, it is determined whether or not the image of the second frame at the target pixel is a failed image candidate. A second failed image candidate determination means;
Whether or not the image of the second frame has failed in the target pixel is determined based on the determination result in the first failed image candidate determination unit and the determination result in the second failed image candidate determination unit. The image processing apparatus according to claim 1, further comprising: a failure location determination unit that determines.
前記第2のフレーム上の画素のそれぞれを順に前記注目画素とした場合の、前記注目画素の画素値と前記第2の周辺画素の画素値との差の絶対値のうち、最大の絶対値の分布から、前記第2の閾値を算出する閾値算出手段をさらに備える
請求項5に記載の画像処理装置。
The maximum absolute value of the absolute values of the difference between the pixel value of the target pixel and the pixel value of the second peripheral pixel when each pixel on the second frame is sequentially set as the target pixel. The image processing apparatus according to claim 5, further comprising a threshold value calculation unit that calculates the second threshold value from a distribution.
前記注目画素の画素値または前記第3の周辺画素の画素値に、前記注目画素または前記第3の周辺画素に対応する前記補間値を混合する前記比率を決定する決定手段をさらに備える
請求項1に記載の画像処理装置。
The apparatus further comprises a determining unit that determines the ratio of mixing the interpolation value corresponding to the target pixel or the third peripheral pixel into the pixel value of the target pixel or the pixel value of the third peripheral pixel. An image processing apparatus according to 1.
前記決定手段は、前記注目画素からの距離に対応して、予め記憶している比率のデータを基に、前記比率を決定する
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the determination unit determines the ratio based on ratio data stored in advance corresponding to the distance from the target pixel.
前記決定手段は、前記注目画素または前記第3の周辺画素の1つに対して2つ以上の前記比率が求められた場合、最終的な前記比率を、求められた前記比率のうちの大きいものに決定する
請求項8に記載の画像処理装置。
In the case where two or more of the ratios are obtained for one of the target pixel or the third peripheral pixel, the determining unit determines the final ratio as a larger one of the obtained ratios. The image processing apparatus according to claim 8.
入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理方法において、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、
前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、
前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、
前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し、
前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する
ステップを含む画像処理方法。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In an image processing method for generating a pixel value of a pixel,
The motion vector assigned to the pixel of interest that is the pixel on the second frame in which the pixel value is generated and is the pixel of interest, and a predetermined first range around the pixel of interest A value indicating variation with the motion vector assigned to the first peripheral pixel that is a pixel of
From the pixel value of the target pixel and the pixel value of a second peripheral pixel that is a pixel on the second frame and that is a pixel in a predetermined second range around the target pixel, in the spatial direction A value indicating the change in the pixel value of
Based on the value indicating the variation of the motion vector and the value indicating the change in the pixel value in the spatial direction, it is determined whether or not the image of the second frame is broken in the target pixel,
The second frame is arranged between the first frame and the input pixel value of the pixel on the third frame, and the position of the pixel at the same position as the position of the pixel on the third frame. The time from the time of the first frame to the time of the second frame, and the time from the time of the second frame to the time of the third frame from the pixel value of the pixel on one frame And generating an interpolated value corresponding to the pixel on the second frame according to the ratio of
When it is determined that the image of the second frame is broken at the target pixel, the interpolation value corresponding to the target pixel is mixed with the pixel value of the target pixel according to a predetermined ratio, and A pixel value of a third peripheral pixel that is a pixel on a second frame and is a pixel in a predetermined third range around the pixel of interest, and the interpolation value corresponding to the third peripheral pixel An image processing method including the step of mixing.
入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムにおいて、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた第1の範囲の画素である第1の周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、
前記注目画素の画素値と、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第2の範囲の画素である第2の周辺画素の画素値とから、空間方向の画素値の変化を示す値を算出し、
前記動きベクトルのばらつきを示す値および空間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、
前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素の画素値と、前記第3のフレーム上の画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、前記第1のフレームの時刻から前記第2のフレームの時刻までの時間と、前記第2のフレームの時刻から前記第3のフレームの時刻までの時間との比率に応じて、前記第2のフレーム上の画素に対応する補間値を生成し、
前記注目画素において前記第2のフレームの画像が破綻していると判定された場合、所定の比率に従って、前記注目画素の画素値に、前記注目画素に対応する前記補間値を混合すると共に、前記第2のフレーム上の画素であって、前記注目画素の周辺の予め定めた第3の範囲の画素である第3の周辺画素の画素値に、前記第3の周辺画素に対応する前記補間値を混合する
ステップを含むプログラム。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In a program for causing a computer to perform image processing for generating pixel values of pixels,
The motion vector assigned to the pixel of interest that is the pixel on the second frame in which the pixel value is generated and is the pixel of interest, and a predetermined first range around the pixel of interest A value indicating variation with the motion vector assigned to the first peripheral pixel that is a pixel of
From the pixel value of the target pixel and the pixel value of a second peripheral pixel that is a pixel on the second frame and that is a pixel in a predetermined second range around the target pixel, in the spatial direction A value indicating the change in the pixel value of
Based on the value indicating the variation of the motion vector and the value indicating the change in the pixel value in the spatial direction, it is determined whether or not the image of the second frame is broken in the target pixel,
The second frame is arranged between the first frame and the input pixel value of the pixel on the third frame, and the position of the pixel at the same position as the position of the pixel on the third frame. The time from the time of the first frame to the time of the second frame, and the time from the time of the second frame to the time of the third frame from the pixel value of the pixel on one frame And generating an interpolated value corresponding to the pixel on the second frame according to the ratio of
When it is determined that the image of the second frame is broken at the target pixel, the interpolation value corresponding to the target pixel is mixed with the pixel value of the target pixel according to a predetermined ratio, and A pixel value of a third peripheral pixel that is a pixel on a second frame and is a pixel in a predetermined third range around the pixel of interest, and the interpolation value corresponding to the third peripheral pixel A program that includes a step of mixing.
請求項11に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 11 is recorded.
JP2005261433A 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium Expired - Fee Related JP4655213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005261433A JP4655213B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005261433A JP4655213B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2007074590A JP2007074590A (en) 2007-03-22
JP4655213B2 true JP4655213B2 (en) 2011-03-23

Family

ID=37935619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005261433A Expired - Fee Related JP4655213B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4655213B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5329770B2 (en) * 2007-05-08 2013-10-30 日立コンシューマエレクトロニクス株式会社 Image converter
JP5106203B2 (en) 2008-03-27 2012-12-26 株式会社東芝 Interpolated image generating apparatus, method and program
JP2018061130A (en) 2016-10-05 2018-04-12 キヤノン株式会社 Image processing device, image processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218210A (en) * 2000-02-02 2001-08-10 Sony Corp Noise detection method, noise detector, image data processing unit, and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304424B2 (en) * 1992-10-06 2002-07-22 ソニー株式会社 Image conversion device
JP3864444B2 (en) * 1995-12-20 2006-12-27 ソニー株式会社 Image signal processing apparatus and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218210A (en) * 2000-02-02 2001-08-10 Sony Corp Noise detection method, noise detector, image data processing unit, and recording medium

Also Published As

Publication number Publication date
JP2007074590A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US7738556B2 (en) Apparatus and method for estimating motion vector with gradient method
US7667778B2 (en) Image processing apparatus and method, and recording medium and program used therewith
US20100202711A1 (en) Image processing apparatus, image processing method, and program
US7848427B2 (en) Apparatus and method for determining motion vector with effective pixel gradient
US8189941B2 (en) Image processing device, display device, image processing method, and program
US7881539B2 (en) Image processing apparatus and method, program recording medium, and program
JP4296218B1 (en) Video display device
US7551805B2 (en) Converting the resolution of an image using interpolation and displaying the converted image
EP2161687A1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP2010093672A (en) Video conversion apparatus and method, and program
JP2001024988A (en) System and device for converting number of movement compensation frames of picture signal
JP4655213B2 (en) Image processing apparatus and method, program, and recording medium
US8385430B2 (en) Video signal processing apparatus and video signal processing method
JP4650683B2 (en) Image processing apparatus and method, program, and recording medium
US20050078884A1 (en) Method and apparatus for interpolating a digital image
KR20070094521A (en) Image processing apparatus and method and program
JP4650684B2 (en) Image processing apparatus and method, program, and recording medium
JP4419069B2 (en) Image processing apparatus and method, recording medium, and program
JP4655214B2 (en) Image processing apparatus and method, program, and recording medium
JP4470324B2 (en) Image signal conversion apparatus and method
JP4174891B2 (en) Image information conversion apparatus and method
JP4650682B2 (en) Image processing apparatus and method, program, and recording medium
JP4655217B2 (en) Image processing apparatus and method, recording medium, and program
JP4250807B2 (en) Field frequency conversion device and conversion method
JP2007110461A (en) Image processing device and method therefor, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees