JP4650684B2 - Image processing apparatus and method, program, and recording medium - Google Patents

Image processing apparatus and method, program, and recording medium Download PDF

Info

Publication number
JP4650684B2
JP4650684B2 JP2005261432A JP2005261432A JP4650684B2 JP 4650684 B2 JP4650684 B2 JP 4650684B2 JP 2005261432 A JP2005261432 A JP 2005261432A JP 2005261432 A JP2005261432 A JP 2005261432A JP 4650684 B2 JP4650684 B2 JP 4650684B2
Authority
JP
Japan
Prior art keywords
frame
pixel
image
motion vector
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005261432A
Other languages
Japanese (ja)
Other versions
JP2007074589A (en
Inventor
孝文 森藤
彰彦 貝野
邦雄 川口
賢 堀士
康昭 高橋
幸弘 中村
典文 吉原
悠太 長木
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005261432A priority Critical patent/JP4650684B2/en
Publication of JP2007074589A publication Critical patent/JP2007074589A/en
Application granted granted Critical
Publication of JP4650684B2 publication Critical patent/JP4650684B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理装置および方法、プログラム並びに記録媒体に関し、特に、画像を処理する画像処理装置および方法、プログラム並びに記録媒体に関する。   The present invention relates to an image processing apparatus and method, a program, and a recording medium, and more particularly, to an image processing apparatus and method, a program, and a recording medium for processing an image.

従来、テレビジョン信号を記憶するフレームメモリと、これらから読み出したテレビジョン信号の動きを検出する動きベクトル検出回路と、これらからの複数の動きベクトルデータの平均を得る動きベクトル平均回路と、これからの平均動きベクトルデータ、フレームメモリから読み出されたテレビジョン信号にフレーム内挿処理を施す位置補正回路、乗算回路、加算回路、補正信号発生回路とを備える画像変換装置が提案されている(例えば、特許文献1参照)。   Conventionally, a frame memory for storing a television signal, a motion vector detection circuit for detecting the motion of the television signal read from the frame memory, a motion vector averaging circuit for obtaining an average of a plurality of motion vector data therefrom, An image conversion apparatus including a position correction circuit that performs frame interpolation processing on average motion vector data and a television signal read from a frame memory, a multiplication circuit, an addition circuit, and a correction signal generation circuit has been proposed (for example, Patent Document 1).

また、動き部分・動き量検出回路では、MUSE信号と動きベクトルから動き部分および動き量が検出され、フレーム間内挿回路では、MUSE信号の静止画像に動きベクトルを考慮したフレームが補間され、LPFおよびサンプリング周波数変換回路を介してフィールド間内挿回路において、フィールド間にフィールドが補間され、クラス分類適応補間回路では、補間がなされる周辺画素のレベル分布のパターンとエッジデータからクラス分類がなされ、読み出された係数データを用いてフィールド内内挿および/またはフレーム内内挿の処理が行われ、サンプリング周波数変換回路を介して混合回路へ供給され、混合回路では、動き部分・動き量に応じて比率が決定され、静止画像と動き画像とが混合されるようにしているものもある(特許文献2参照)。   The motion part / motion amount detection circuit detects the motion part and the motion amount from the MUSE signal and the motion vector, and the interframe interpolation circuit interpolates a frame in consideration of the motion vector into the still image of the MUSE signal, and the LPF. In the inter-field interpolation circuit via the sampling frequency conversion circuit, the field is interpolated between the fields, and in the class classification adaptive interpolation circuit, the class classification is performed from the level distribution pattern and edge data of the peripheral pixels to be interpolated, Using the read coefficient data, field interpolation and / or frame interpolation processing is performed and supplied to the mixing circuit via the sampling frequency conversion circuit. Some ratios are determined so that still images and motion images are mixed ( Patent reference 2).

特開平6−121290号公報JP-A-6-121290

特開平9−172621号公報Japanese Patent Laid-Open No. 9-172621

しかしながら、内挿に用いるベクトルが誤っている場合など、本来はないエッジなどが生成される画像に生じ、生成される画像が破綻することがある。このような破綻は画像の劣化として目立ち、画像の主観的な画質が落ちてしまう。   However, when the vector used for interpolation is incorrect, an original edge or the like may occur in the generated image, and the generated image may break down. Such a failure is noticeable as image degradation, and the subjective image quality of the image is degraded.

本発明は、このような状況に鑑みてなされたものであり、生成した画像の破綻を目立たないようにするものである。   The present invention has been made in view of such a situation, and prevents the generated image from becoming inconspicuous.

本発明の一側面の画像処理装置は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理装置であって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段と、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段と、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する除去手段とを備える。   An image processing apparatus according to an aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and assigns the assigned motion vector. An image processing device that generates a pixel value of a pixel on the second frame based on the second frame, the pixel on the second frame from which the pixel value is generated, and a pixel of interest First calculation means for calculating a value indicating a variation between the motion vector allocated to the target pixel and the motion vector allocated to the peripheral pixel that is a pixel in a predetermined range around the target pixel. Determining means for determining whether or not the image of the second frame is broken at the target pixel based on the value indicating the variation of the motion vector; and the image of the second frame If is it is determined that the collapse, from an image of a predetermined range including the target pixel in the second frame, and a removal means for removing high-frequency components of the image.

前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素であって、前記第2のフレーム上の前記注目画素の位置と同じ位置の第3のフレーム上の画素の画素値と、前記注目画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、時間方向の画素値の変化を示す値を算出する第2の算出手段をさらに設け、前記判定手段は、前記動きベクトルのばらつきを示す値および時間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定するようにすることができる。   The second frame is disposed between the first frame and a pixel on the input third frame, the second position being the same as the position of the target pixel on the second frame. A second value that calculates a change in the pixel value in the time direction from the pixel value of the pixel on the third frame and the pixel value of the pixel on the first frame at the same position as the position of the target pixel; A calculating means is further provided, wherein the determining means determines whether the image of the second frame has failed at the target pixel based on a value indicating variation in the motion vector and a value indicating change in the pixel value in the time direction. It can be determined whether or not.

画像の高域成分を除去する複数のフィルタから、前記動きベクトルのばらつきを示す値を基に、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に適用するフィルタを選択する選択手段をさらに設け、前記除去手段は、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に選択されたフィルタを適用することで、画像の高域成分を除去するようにすることができる。   Selection means for selecting a filter to be applied to the image in the range including the target pixel in the second frame, based on a value indicating variation in the motion vector, from a plurality of filters that remove high frequency components of the image. Further, the removing means may remove the high frequency component of the image by applying the selected filter to the image in the range including the target pixel in the second frame.

前記選択手段は、前記動きベクトルがよりばらついている場合、画像の高域成分をより多く除去するフィルタを選択するようにすることができる。   The selection unit may select a filter that removes more high-frequency components of an image when the motion vectors are more varied.

前記算出手段は、前記第2のフレーム上のn個の画素毎に前記動きベクトルが割り付けられている場合、前記注目画素からn個の画素だけ離れた前記周辺画素に割り付けられている前記動きベクトルと、前記注目画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出するようにすることができる。   When the motion vector is assigned to every n pixels on the second frame, the calculating means assigns the motion vector assigned to the surrounding pixels separated from the target pixel by n pixels. Then, a value indicating a variation from the motion vector assigned to the target pixel can be calculated.

前記第1のフレーム上の前記動きベクトルを検出する検出手段と、前記第2のフレーム上の画素に、検出された前記動きベクトルを割り付ける割り付け手段と、割り付けられた前記動きベクトルに基づいて、前記第1のフレームおよび前記第3のフレームから、前記第2のフレーム上の画素の画素値を生成する生成手段とをさらに設けることができる。   Based on the motion vector assigned to the detection means for detecting the motion vector on the first frame, the assignment means for assigning the detected motion vector to the pixels on the second frame, Generation means for generating pixel values of pixels on the second frame from the first frame and the third frame may be further provided.

本発明の一側面の画像処理方法は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理方法であって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去するステップを含む。   The image processing method according to one aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and assigns the assigned motion vector. An image processing method for generating a pixel value of a pixel on the second frame based on the pixel, the pixel on the second frame from which the pixel value is generated, and a pixel of interest Calculating a value indicating a variation between the motion vector assigned to the target pixel and the motion vector assigned to a peripheral pixel that is a pixel in a predetermined range around the target pixel; Based on a value indicating variation, it is determined whether or not the image of the second frame has failed in the target pixel, and if it is determined that the image of the second frame has failed , From an image of a predetermined range including the target pixel in the second frame, comprising the steps of removing a high-frequency component of the image.

本発明の一側面のプログラムは、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムであって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去するステップを含む。   A program according to an aspect of the present invention detects an input motion vector on a first frame, assigns the detected motion vector to a pixel on a second frame, and based on the assigned motion vector A program for causing a computer to perform image processing for generating a pixel value of a pixel on the second frame, the pixel on the second frame from which the pixel value is generated, Calculating a value indicating a variation between the motion vector assigned to the pixel of interest that is a pixel and the motion vector assigned to a peripheral pixel that is a pixel in a predetermined range around the pixel of interest; Based on the value indicating the variation of the motion vector, it is determined whether the image of the second frame is broken at the target pixel, and the image of the second frame is determined. If is it is determined that the collapse, from an image of a predetermined range including the target pixel in the second frame, comprising the steps of removing a high-frequency component of the image.

本発明の一側面の記録媒体は、入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムであって、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去するステップを含むプログラムが記録されている。   The recording medium of one aspect of the present invention detects an input motion vector on the first frame, assigns the detected motion vector to a pixel on the second frame, and assigns the assigned motion vector to the motion vector. A program for causing a computer to perform image processing for generating a pixel value of a pixel on the second frame based on the pixel on the second frame from which the pixel value is generated. Calculating a value indicating a variation between the motion vector assigned to the target pixel that is a target pixel and the motion vector assigned to a peripheral pixel that is a pixel in a predetermined range around the target pixel. And determining whether the image of the second frame is broken at the target pixel based on the value indicating the variation of the motion vector, and determining whether the image of the second frame If it is determined that the broken, the image of a predetermined range including the target pixel in the second frame, the program comprising the step of removing high frequency components of the image are recorded.

本発明の一側面においては、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値が算出され、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かが判定され、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分が除去される。   In one aspect of the present invention, the motion vector assigned to a pixel of interest that is a pixel on the second frame in which a pixel value is generated and is a pixel of interest, and the periphery of the pixel of interest A value indicating a variation with the motion vector assigned to a peripheral pixel that is a pixel in a predetermined range is calculated, and based on the value indicating the variation in the motion vector, the second frame at the target pixel is calculated. If it is determined whether or not the image of the second frame is broken, and it is determined that the image of the second frame is broken, an image of a predetermined range including the target pixel in the second frame Is removed.

以上のように、本発明の一側面によれば、画像を生成することができる。   As described above, according to one aspect of the present invention, an image can be generated.

また、本発明の一側面によれば、生成した画像の破綻を目立たないようにすることができる。   Also, according to one aspect of the present invention, it is possible to make the generated image inconspicuous.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の画像処理装置は、第1に、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段(例えば、図20のベクトル特徴量算出部141)と、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段(例えば、図20の破綻箇所判定部161)と、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する除去手段(例えば、図20のフィルタ処理部146)とを備える。   In the image processing apparatus according to the aspect of the present invention, firstly, the motion vector assigned to a target pixel that is a pixel on the second frame in which a pixel value is generated and is a target pixel. And a first calculation means for calculating a value indicating a variation between the motion vector assigned to the peripheral pixels that are pixels in a predetermined range around the target pixel (for example, the vector feature amount calculation in FIG. 20) Unit 141) and determination means for determining whether or not the image of the second frame has failed in the pixel of interest based on the value indicating the variation of the motion vector (for example, the failure point determination unit in FIG. 20) 161), when it is determined that the image of the second frame is broken, the removal of removing the high frequency component of the image from the image in a predetermined range including the target pixel in the second frame And a stage (e.g., the filter processing unit 146 in FIG. 20).

本発明の一側面の画像処理装置は、第2に、前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素であって、前記第2のフレーム上の前記注目画素の位置と同じ位置の第3のフレーム上の画素の画素値と、前記注目画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、時間方向の画素値の変化を示す値を算出する第2の算出手段(例えば、図12の画像特徴量算出部143)をさらに設け、前記判定手段(例えば、図12の破綻箇所判定部142)は、前記動きベクトルのばらつきを示す値および時間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定するようにすることができる。   An image processing apparatus according to an aspect of the present invention is secondly provided with pixels on the input third frame in which the second frame is arranged between the first frame and the first frame. From the pixel value of the pixel on the third frame at the same position as the position of the target pixel on the second frame and the pixel value of the pixel on the first frame at the same position as the position of the target pixel A second calculation unit (for example, the image feature amount calculation unit 143 in FIG. 12) that calculates a value indicating the change in the pixel value in the direction is further provided, and the determination unit (for example, the failure location determination unit 142 in FIG. 12) includes Determining whether or not the image of the second frame is broken at the target pixel based on the value indicating the variation in the motion vector and the value indicating the change in the pixel value in the time direction. it can.

本発明の一側面の画像処理装置は、第3に、画像の高域成分を除去する複数のフィルタから、前記動きベクトルのばらつきを示す値を基に、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に適用するフィルタを選択する選択手段(例えば、図12のフィルタ選択部145)をさらに設け、前記除去手段(例えば、図12のフィルタ処理部146)は、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に選択されたフィルタを適用することで、画像の高域成分を除去するようにすることができる。   Thirdly, the image processing apparatus according to one aspect of the present invention is configured to detect the target pixel in the second frame based on a value indicating the variation in the motion vector from a plurality of filters that remove a high frequency component of the image. The image processing apparatus further includes a selection unit (for example, a filter selection unit 145 in FIG. 12) that selects a filter to be applied to the image in the range including the second frame. By applying the selected filter to the image in the range including the pixel of interest in, the high frequency component of the image can be removed.

本発明の一側面の画像処理装置は、第4に、前記第1のフレーム上の前記動きベクトルを検出する検出手段(例えば、図2のベクトル検出部52)と、前記第2のフレーム上の画素に、検出された前記動きベクトルを割り付ける割り付け手段(例えば、図2のベクトル割付部54)と、割り付けられた前記動きベクトルに基づいて、前記第1のフレームおよび前記第3のフレームから、前記第2のフレーム上の画素の画素値を生成する生成手段(例えば、図2の画像補間部58)とをさらに設けることができる。   Fourthly, an image processing apparatus according to one aspect of the present invention includes a detection unit (for example, the vector detection unit 52 in FIG. 2) that detects the motion vector on the first frame, and the second frame. From the first frame and the third frame based on the allocation means (for example, the vector allocation unit 54 in FIG. 2) that allocates the detected motion vector to the pixel, and the allocated motion vector, Generation means (for example, the image interpolation unit 58 in FIG. 2) for generating pixel values of pixels on the second frame can be further provided.

本発明の一側面の画像処理方法またはプログラムは、画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し(例えば、図18のステップS141)、前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し(例えば、図18のステップS143)、前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する(例えば、図18のステップS145)ステップを含む。   The image processing method or program according to one aspect of the present invention is the pixel on the second frame in which the pixel value is generated, and the motion vector assigned to the pixel of interest that is the pixel of interest; A value indicating variation with the motion vector allocated to the peripheral pixels that are pixels in a predetermined range around the target pixel is calculated (for example, step S141 in FIG. 18), and the variation in the motion vector is indicated. Based on the value, it is determined whether or not the image of the second frame has failed in the target pixel (for example, step S143 in FIG. 18), and it is determined that the image of the second frame has failed. If so, the high frequency component of the image is removed from the image in the predetermined range including the target pixel in the second frame (for example, step S145 in FIG. 18). Including the flop.

以下、図を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理装置1の構成例を表している。画像処理装置1は、例えば、パーソナルコンピュータなどで構成される。図1において、CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記憶部18に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。   FIG. 1 shows a configuration example of an image processing apparatus 1 to which the present invention is applied. The image processing apparatus 1 is composed of, for example, a personal computer. In FIG. 1, a CPU (Central Processing Unit) 11 executes various processes according to a program stored in a ROM (Read Only Memory) 12 or a storage unit 18. A RAM (Random Access Memory) 13 appropriately stores programs executed by the CPU 11 and data. The CPU 11, ROM 12, and RAM 13 are connected to each other by a bus 14.

CPU11にはまた、バス14を介して入出力インタフェース15が接続されている。入出力インタフェース15には、キーボード、マウス、マイクロフォンなどよりなる入力部16、ディスプレイ、スピーカなどよりなる出力部17が接続されている。CPU11は、入力部16から入力される指令に対応して各種の処理を実行する。そして、CPU11は、処理の結果、得られた画像や音声等を出力部17に出力する。   An input / output interface 15 is also connected to the CPU 11 via the bus 14. The input / output interface 15 is connected to an input unit 16 including a keyboard, a mouse, a microphone, and the like, and an output unit 17 including a display and a speaker. The CPU 11 executes various processes in response to commands input from the input unit 16. Then, the CPU 11 outputs the image and sound obtained as a result of the processing to the output unit 17.

入出力インタフェース15に接続されている記憶部18は、例えばハードディスクなどで構成され、CPU11が実行するプログラムや各種のデータを記憶する。通信部19は、インターネット、その他のネットワークを介して外部の装置と通信する。また、通信部19を介してプログラムを取得し、記憶部18に記憶してもよい。   The storage unit 18 connected to the input / output interface 15 is composed of, for example, a hard disk and stores programs executed by the CPU 11 and various data. The communication unit 19 communicates with an external device via the Internet or other networks. A program may be acquired via the communication unit 19 and stored in the storage unit 18.

入出力インタフェース15に接続されているドライブ20は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア21が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部18に転送され、記憶される。   The drive 20 connected to the input / output interface 15 drives a removable medium 21 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 18 as necessary.

なお、画像処理装置1は、例えば、テレビジョン受像機、ハードディスクプレーヤ、光ディスクプレーヤ、ポータブルプレーヤ(携帯電話機)など、または、それらの画像処理部とすることもできる。   The image processing apparatus 1 can be, for example, a television receiver, a hard disk player, an optical disk player, a portable player (cellular phone), or the like, or an image processing unit thereof.

図2は、画像処理装置1の機能の構成の例を示すブロック図である。画像処理装置1は、フレームメモリ51、ベクトル検出部52、検出ベクトルメモリ53、ベクトル割付部54、割付ベクトルメモリ55、割付フラグメモリ56、割付補償部57、画像補間部58、フレーム全体後処理部59、および破綻箇所後処理部60を備える。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the image processing apparatus 1. The image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a detection vector memory 53, a vector allocation unit 54, an allocation vector memory 55, an allocation flag memory 56, an allocation compensation unit 57, an image interpolation unit 58, an entire frame post-processing unit 59, and a failed part post-processing unit 60.

なお、画像処理装置1の各機能をハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、本明細書の各ブロック図は、ハードウェアのブロック図と考えても、ソフトウェアによる機能ブロック図と考えてもよい。   It does not matter whether each function of the image processing apparatus 1 is realized by hardware or software. That is, each block diagram in this specification may be considered as a hardware block diagram or a software functional block diagram.

図2に構成を示す画像処理装置1においては、例えば、フレーム周波数24Hzのプログレッシブ画像信号(以下、24P信号と称する)の画像が入力され、入力された画像(入力画像)が、フレーム周波数60Hzのプログレッシブ画像信号(以下、60P信号と称する)の画像に変換されて、出力される。   In the image processing apparatus 1 having the configuration shown in FIG. 2, for example, an image of a progressive image signal (hereinafter referred to as a 24P signal) with a frame frequency of 24 Hz is input, and the input image (input image) has a frame frequency of 60 Hz. It is converted into an image of a progressive image signal (hereinafter referred to as 60P signal) and output.

画像処理装置1に入力された24P信号の入力画像は、フレームメモリ51、ベクトル検出部52、ベクトル割付部54、割付補償部57、画像補間部58、フレーム全体後処理部59、および破綻箇所後処理部60に供給される。フレームメモリ51は、入力画像をフレーム単位で記憶する。フレームメモリ51は、時刻t+1の入力画像の1つ前の時刻tのフレームを記憶する。フレームメモリ51に記憶される時刻tのフレームは、ベクトル検出部52、ベクトル割付部54、割付補償部57、画像補間部58、フレーム全体後処理部59、および破綻箇所後処理部60に供給される。なお、以下、フレームメモリ51上の時刻tのフレームをフレームtと称し、時刻t+1の入力画像のフレームを、フレームt+1と称する。   The input image of the 24P signal input to the image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a vector allocation unit 54, an allocation compensation unit 57, an image interpolation unit 58, an entire frame post-processing unit 59, and a failure location It is supplied to the processing unit 60. The frame memory 51 stores input images in units of frames. The frame memory 51 stores a frame at time t one before the input image at time t + 1. The frame at time t stored in the frame memory 51 is supplied to the vector detection unit 52, the vector allocation unit 54, the allocation compensation unit 57, the image interpolation unit 58, the entire frame post-processing unit 59, and the failed part post-processing unit 60. The Hereinafter, the frame at time t on the frame memory 51 is referred to as frame t, and the frame of the input image at time t + 1 is referred to as frame t + 1.

ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶する。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。検出ベクトルメモリ53は、フレームtにおいて、ベクトル検出部52により検出された動きベクトルを記憶する。   The vector detection unit 52 detects a motion vector between the target block of the frame t on the frame memory 51 and the target block of the frame t + 1 of the input image, and stores the detected motion vector in the detection vector memory 53. As a method for detecting the motion vector between the two frames, a gradient method or a block matching method is used. The detection vector memory 53 stores the motion vector detected by the vector detection unit 52 in the frame t.

ベクトル割付部54は、24P信号のフレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する60P信号のフレーム(以下、60P信号のフレームは、24P信号のフレームと区別するため、内挿フレームとも称する)上の画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。   The vector allocation unit 54 distinguishes the motion vector obtained on the frame t of the 24P signal from the frame of the 60P signal to be interpolated in the allocation vector memory 55 (hereinafter, the frame of the 60P signal is distinguished from the frame of the 24P signal). , Which is also referred to as an interpolation frame), and the allocation flag of the allocation flag memory 56 of the pixel to which the motion vector is allocated is rewritten to 1 (True).

割付ベクトルメモリ55は、ベクトル割付部54により割り付けられた動きベクトルを、内挿フレームの各画素に対応させて記憶する。割付フラグメモリ56は、内挿フレームの画素毎に、割り付けられる動きベクトルの有無を示す割付フラグを記憶している。例えば、True(1)である割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、False(0)である割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。   The allocation vector memory 55 stores the motion vector allocated by the vector allocation unit 54 in association with each pixel of the interpolation frame. The allocation flag memory 56 stores an allocation flag indicating the presence / absence of a motion vector to be allocated for each pixel of the interpolation frame. For example, an assignment flag of True (1) indicates that a motion vector is assigned to the corresponding pixel, and an assignment flag of False (0) indicates that a motion vector is not assigned to the corresponding pixel. Show.

割付補償部57は、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを割り付けた着目画素の割付フラグを1(True)に書き換える。   The allocation compensation unit 57 refers to the allocation flag of the allocation flag memory 56, and supplements the motion vector of the peripheral pixel of the target pixel with respect to the target pixel for which the motion vector has not been allocated by the vector allocation unit 54. Allocate on 55 interpolation frames. At this time, the allocation compensator 57 rewrites the allocation flag of the target pixel to which the motion vector is allocated to 1 (True).

画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよび次のフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームをフレーム全体後処理部59に出力し、その次に、必要に応じて、フレームt+1をフレーム全体後処理部59に出力する。なお、以下において、画像補間部58から出力される画像を補間画像とも称する。   The image interpolation unit 58 interpolates and generates the pixel value of the interpolation frame using the motion vector allocated to the interpolation frame in the allocation vector memory 55 and the pixel values of the frame t and the next frame t + 1. Then, the image interpolation unit 58 outputs the generated interpolation frame to the entire frame post-processing unit 59, and then outputs the frame t + 1 to the entire frame post-processing unit 59 as necessary. Hereinafter, the image output from the image interpolation unit 58 is also referred to as an interpolation image.

フレーム全体後処理部59は、予め定めた混合比と、フレームtおよび次のフレームt+1の画素値とを用いて、破綻が目立たないようにする後処理を、画像補間部58から供給された補間画像の内挿フレームの全体に適用する。フレーム全体後処理部59は、後処理を適用した画像を破綻箇所後処理部60に供給する。   The whole frame post-processing unit 59 uses the predetermined mixing ratio and the pixel values of the frame t and the next frame t + 1 to perform post-processing that prevents the failure from becoming noticeable. Applies to the entire image interpolation frame. The entire frame post-processing unit 59 supplies the image to which the post-processing is applied to the failed portion post-processing unit 60.

破綻箇所後処理部60は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、予め定めた閾値と、フレームtおよび次のフレームt+1の画素値とを用いて、内挿フレームに含まれる画像のうち、破綻した画像に後処理を適用して、60P信号の画像を図示せぬ後段に出力する。   The failure location post-processing unit 60 uses the motion vector assigned to the interpolation frame in the assignment vector memory 55, the predetermined threshold value, and the pixel values of the frame t and the next frame t + 1 to be included in the interpolation frame. The post-processing is applied to the broken image, and the 60P signal image is output to a subsequent stage (not shown).

なお、混合比および閾値は、外部から供給するようにしてもよく、内部に記憶しておくようにしてもよい。予め定めたとは、それぞれの処理の実行の前に予め定めたという意味であり、少なくとも、処理を実行する時点で定まっているという意味である。従って、各ブロックにおける処理が実行される前に、混合比および閾値を変更して定めることは、予め定めたに該当する。   Note that the mixture ratio and the threshold value may be supplied from the outside or may be stored inside. “Predetermined” means that it is predetermined before the execution of each process, and means that it is determined at least when the process is executed. Therefore, changing the mixture ratio and the threshold before the processing in each block is executed corresponds to the predetermined.

図3は、本発明に係る画像処理装置1におけるフレームを内挿する処理の原理を説明する図である。図3の例においては、点線が、画像処理装置1に入力される、時刻t,t+1,およびt+2における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t,t+0.4,t+0.8,t+1.2,t+1.6,およびt+2における60P信号の内挿フレームを表している。   FIG. 3 is a diagram for explaining the principle of processing for interpolating frames in the image processing apparatus 1 according to the present invention. In the example of FIG. 3, a dotted line represents a frame of a 24P signal that is input to the image processing apparatus 1 at times t, t + 1, and t + 2, and a solid line is represented by the image processing apparatus 1 from the input 24P signal. , The 60P signal interpolation frames at the generated times t, t + 0.4, t + 0.8, t + 1.2, t + 1.6, and t + 2.

一般に、24P信号を、60P信号に変換するためには、5/2倍のフレームが必要になる。すなわち、2枚の24P信号の画像から5枚の60P信号の画像が生成されなければならない。このとき、生成される60P信号の内挿フレームは、そのフレーム間隔を等しくするために、24P信号上での時間位相が0.0,0.4,0.8,1.2,および1.6となる位置に配置される。この中で、時間位相が0.0である時刻tの1フレームを除く4フレーム(t+0.4,t+0.8,t+1.2,およびt+1.6のフレーム)は、24P信号上には存在しない画像である。したがって、画像処理装置1は、24P信号の画像が入力されると、24P信号の時刻tおよび時刻t+1の2枚のフレームから、4つの内挿フレームを生成する。したがって、画像処理装置1からは、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚のフレームからなる60P信号の画像が出力される。   Generally, in order to convert a 24P signal into a 60P signal, 5/2 times as many frames are required. That is, five 60P signal images must be generated from two 24P signal images. At this time, the generated interpolated frame of the 60P signal has a time phase of 0.0, 0.4, 0.8, 1.2, and 1 on the 24P signal in order to equalize the frame interval. 6 is arranged at a position. Among these, 4 frames (frames of t + 0.4, t + 0.8, t + 1.2, and t + 1.6) except for one frame at time t with a time phase of 0.0 do not exist on the 24P signal. It is an image. Therefore, when the image of the 24P signal is input, the image processing apparatus 1 generates four interpolation frames from the two frames at time t and time t + 1 of the 24P signal. Therefore, the image processing apparatus 1 outputs a 60P signal image including five frames at times t, t + 0.4, t + 0.8, t + 1.2, and t + 1.6.

以上のようにして、画像処理装置1は、24P信号の画像から60P信号の画像に、フレーム周波数を変換する処理を実行する。   As described above, the image processing apparatus 1 executes the process of converting the frame frequency from the 24P signal image to the 60P signal image.

なお、原理的には、上述したように、24P信号の時刻tおよび時刻t+1の2枚のフレームから、時刻t,t+0.4,t+0.8,t+1.2,およびt+1.6の5枚の60P信号のフレームが新しく生成されるが、実際には、図3の例の場合、24P信号の時刻tおよび時刻t+1の2枚のフレームに基づいて、t,t+0.4,t+0.8の60P信号のフレームが生成され、24P信号の時刻t+1およびt+2の2枚のフレームに基づいて、t+1.2,t+1.6,およびt+2の60P信号のフレームが生成される。   In principle, as described above, from the two frames at time t and time t + 1 of the 24P signal, five frames at times t, t + 0.4, t + 0.8, t + 1.2, and t + 1.6 are obtained. A frame of 60P signal is newly generated. Actually, in the example of FIG. 3, 60P of t, t + 0.4, and t + 0.8 is based on two frames at time t and time t + 1 of the 24P signal. A frame of the signal is generated, and a frame of the 60P signal of t + 1.2, t + 1.6, and t + 2 is generated based on the two frames at the times t + 1 and t + 2 of the 24P signal.

また、以下、時刻t+0.4,t+0.8,t+1.2,およびt+1.6などの時刻t+kの内挿フレームを内挿フレームt+kと称する。   Also, hereinafter, an interpolation frame at time t + k such as time t + 0.4, t + 0.8, t + 1.2, and t + 1.6 is referred to as an interpolation frame t + k.

図4は、フレームを内挿する処理をより具体的に説明する図である。図4の例においては、太線矢印は、各状態への遷移を表しており、矢印Tは、状態81乃至85における時間の経過方向を表している。また、状態81乃至85は、画像処理装置1を構成する各部への入出力時の、24P信号の時刻tのフレームt、時刻tの次の時刻t+1のフレームt+1、または、フレームtおよびフレームt+1の間に生成される60P信号の内挿フレームFの状態を概念的に表している。すなわち、実際には、例えば、状態82に示されるような動きベクトルが検出されたフレームは入力されず、フレームと動きベクトルは、別々に入力される。   FIG. 4 is a diagram for more specifically explaining the process of interpolating a frame. In the example of FIG. 4, a thick arrow represents a transition to each state, and an arrow T represents a time passage direction in the states 81 to 85. In states 81 to 85, the frame t at the time t of the 24P signal, the frame t + 1 at the time t + 1 next to the time t, or the frame t and the frame t + 1 at the time of input / output to each unit constituting the image processing apparatus 1 The state of the interpolation frame F of the 60P signal produced | generated during is shown notionally. That is, actually, for example, a frame in which a motion vector is detected as shown in the state 82 is not input, and the frame and the motion vector are input separately.

状態81は、ベクトル検出部52に入力される、24P信号のフレームtおよびフレームt+1の状態を表している。状態81のフレームt上の黒点は、フレームt上の画素を表している。ベクトル検出部52は、状態81のフレームt上の画素が、次の時刻のフレームt+1において、どの位置に移動するかを検出し、その動きを、状態82のフレームt上に示されるように、各画素に対応する動きベクトルとして出力する。この2フレーム間の動きベクトルの検出方法には、ブロックマッチング法または勾配法などが用いられる。なお、このとき、例えば、画素に複数の動きベクトルが検出された場合、ベクトル検出部52は、各動きベクトルについて、評価値を求め、その評価値に基づいて動きベクトルを選択する。   The state 81 represents the state of the frame t and the frame t + 1 of the 24P signal input to the vector detection unit 52. A black dot on the frame t in the state 81 represents a pixel on the frame t. The vector detection unit 52 detects the position where the pixel on the frame t in the state 81 moves in the frame t + 1 of the next time, and the movement is indicated as shown on the frame t in the state 82. It outputs as a motion vector corresponding to each pixel. As a method for detecting the motion vector between the two frames, a block matching method or a gradient method is used. At this time, for example, when a plurality of motion vectors are detected in the pixel, the vector detection unit 52 obtains an evaluation value for each motion vector, and selects a motion vector based on the evaluation value.

状態82は、ベクトル割付部54に入力される、フレームtおよびフレームt+1の状態を表している。状態82において、フレームtの各画素の矢印は、ベクトル検出部52により検出された動きベクトルを表している。   A state 82 represents the state of the frame t and the frame t + 1 input to the vector allocation unit 54. In the state 82, the arrow of each pixel of the frame t represents the motion vector detected by the vector detection unit 52.

ベクトル割付部54は、状態82のフレームtの各画素に対して検出された動きベクトルを、次のフレームt+1まで延長させ、予め設定されている時間位相(例えば、図3のt+0.4)にある内挿フレームF上のどの位置を通過するかを求める。これは、フレームtおよびフレームt+1の間が一定動きであると仮定すると、動きベクトルが内挿フレームFを通過した点が、そのフレームでの画素位置となるためである。したがって、ベクトル割付部54は、この通過する動きベクトルを、状態83の内挿フレームF上の近傍4画素に割り付ける。また、このとき、内挿フレームの画素によっては、動きベクトルが存在しない場合、あるいは、複数の動きベクトルが、割付候補となりうる場合がある。後者のような場合には、例えば、ベクトル割付部54は、ベクトル検出部52と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。   The vector allocating unit 54 extends the motion vector detected for each pixel of the frame t in the state 82 to the next frame t + 1 and sets it to a preset time phase (for example, t + 0.4 in FIG. 3). A position on a certain interpolation frame F is obtained. This is because, assuming that there is a constant motion between the frame t and the frame t + 1, the point where the motion vector passes through the interpolation frame F is the pixel position in that frame. Therefore, the vector allocating unit 54 allocates the passing motion vector to four neighboring pixels on the interpolation frame F in the state 83. At this time, depending on the pixel of the interpolation frame, there may be a case where no motion vector exists, or a plurality of motion vectors may be candidates for allocation. In the latter case, for example, like the vector detection unit 52, the vector allocation unit 54 obtains an evaluation value for each motion vector and selects a motion vector to be allocated based on the evaluation value.

状態83は、割付補償部57に入力される、フレームtおよびフレームt+1、並びに動きベクトルが割り付けられた内挿フレームFの状態を表している。状態83の内挿フレームFにおいては、ベクトル割付部54により動きベクトルが割り付けられている画素と、動きベクトルが割り付けられなかった画素が示されている。   A state 83 represents the state of the frame t and the frame t + 1 and the interpolation frame F to which the motion vector is assigned, which is input to the assignment compensation unit 57. In the interpolation frame F in the state 83, the pixels to which the motion vector is assigned by the vector assigning unit 54 and the pixels to which the motion vector is not assigned are shown.

割付補償部57は、状態83の動きベクトルが割り付けられていない画素に対して、その画素の周辺画素に割り付けられている動きベクトルを用いて補う。これは、ある着目画素の近傍領域が同じ動きであるという仮定が成り立つならば、着目画素の周辺画素の動きベクトルと、その着目画素の動きベクトルは似たものであるからである。これにより、動きベクトルが割り付けられなかった画素にも、ある程度正確な動きベクトルが与えられ、状態84の内挿フレームF上のすべての画素に動きベクトルが割り付けられる。なお、この場合にも、複数の周辺画素の動きベクトルが候補として存在するため、割付補償部57は、例えば、ベクトル割付部54と同様に、各動きベクトルについての評価値を求め、その評価値に基づいて割り付ける動きベクトルを選択する。   The allocation compensation unit 57 compensates for a pixel to which a motion vector in the state 83 is not allocated by using a motion vector allocated to a peripheral pixel of the pixel. This is because the motion vector of the peripheral pixel of the pixel of interest and the motion vector of the pixel of interest are similar if the assumption that the neighboring region of the pixel of interest has the same motion holds. As a result, a motion vector that is accurate to some extent is also given to a pixel to which no motion vector is assigned, and a motion vector is assigned to all the pixels on the interpolation frame F in the state 84. In this case as well, since motion vectors of a plurality of surrounding pixels exist as candidates, the allocation compensation unit 57 obtains an evaluation value for each motion vector, for example, similarly to the vector allocation unit 54, and the evaluation value A motion vector to be allocated is selected based on

状態84は、画像補間部58に入力される、フレームtおよびフレームt+1、並びに、すべての画素に動きベクトルが割り付けられた内挿フレームFの状態を表している。これらのすべての画素に割り付けられた動きベクトルにより、画像補間部58は、内挿フレームF上の画素と、2枚のフレームtおよびフレームt+1の画素の位置関係を決定することができる。したがって、画像補間部58は、内挿フレームF上に割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、状態85の内挿フレームFの黒点に示されるように、内挿フレームF上の画素値を補間生成する。そして、画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の補間画像を、後段に出力する。   A state 84 represents the state of the frame t and the frame t + 1 input to the image interpolation unit 58 and the state of the interpolation frame F in which motion vectors are assigned to all the pixels. Based on the motion vectors assigned to all these pixels, the image interpolation unit 58 can determine the positional relationship between the pixels on the interpolation frame F and the two frames t and t + 1. Therefore, the image interpolation unit 58 uses the motion vector allocated on the interpolation frame F and the pixel values of the frame t and the frame t + 1 to interpolate as indicated by the black dot of the interpolation frame F in the state 85. Pixel values on the frame F are generated by interpolation. Then, the image interpolation unit 58 outputs the generated interpolated frame, and then outputs a frame t + 1 as necessary, thereby outputting an interpolated image of the 60P signal to the subsequent stage.

次に、図5のフローチャートを参照して、画像処理装置1のフレーム周波数を変換する処理を説明する。   Next, the process of converting the frame frequency of the image processing apparatus 1 will be described with reference to the flowchart of FIG.

ステップS1において、ベクトル検出部52は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力し、ステップS2に進む。なお、このとき、ベクトル割付部54、割付補償部57、画像補間部58、フレーム全体後処理部59、および破綻箇所後処理部60は、時刻t+1の入力画像のフレームt+1と、フレームメモリ51の入力画像の1つ前の時刻tのフレームtの画素値を入力する。   In step S1, the vector detection unit 52 inputs the pixel value of the frame t + 1 of the input image at the time t + 1 and the pixel t of the frame t at the time t immediately before the input image of the frame memory 51, and proceeds to step S2. At this time, the vector allocating unit 54, the allocation compensating unit 57, the image interpolating unit 58, the entire frame post-processing unit 59, and the failed part post-processing unit 60 The pixel value of frame t at time t immediately before the input image is input.

ステップS2において、ベクトル検出部52は、動きベクトルを検出し、ステップS3に進む。すなわち、ベクトル検出部52は、フレームメモリ51上のフレームtの着目ブロックと、入力画像である次のフレームt+1の対象ブロックの間で動きベクトルを検出し、検出した動きベクトルを、検出ベクトルメモリ53に記憶し、ステップS3に進む。この2フレーム間の動きベクトルの検出方法には、勾配法またはブロックマッチング法などが用いられる。   In step S2, the vector detection unit 52 detects a motion vector and proceeds to step S3. That is, the vector detection unit 52 detects a motion vector between the target block of the frame t on the frame memory 51 and the target block of the next frame t + 1 that is the input image, and the detected motion vector is detected by the detection vector memory 53. And proceed to step S3. As a method for detecting the motion vector between the two frames, a gradient method or a block matching method is used.

ステップS3において、ベクトル割付部54は、補間する内挿フレーム上の着目画素に動きベクトルを割り付け、ステップS4に進む。すなわち、ベクトル割付部54は、ステップS3において、フレームt上において求められた動きベクトルを、割付ベクトルメモリ55上の、補間する内挿フレーム上の着目画素に割り付け、動きベクトルが割り付けられた画素の割付フラグメモリ56の割付フラグを1(True)に書き換える。例えば、Trueである割付フラグは、対応する画素に動きベクトルが割り付けられていることを示し、Falseである割付フラグは、対応する画素に動きベクトルが割り付けられていないことを示す。   In step S3, the vector allocation unit 54 allocates a motion vector to the pixel of interest on the interpolation frame to be interpolated, and the process proceeds to step S4. That is, in step S3, the vector allocation unit 54 allocates the motion vector obtained on the frame t to the pixel of interest on the interpolation frame to be interpolated in the allocation vector memory 55, and the pixel to which the motion vector is allocated. The allocation flag in the allocation flag memory 56 is rewritten to 1 (True). For example, an allocation flag that is True indicates that a motion vector is allocated to the corresponding pixel, and an allocation flag that is False indicates that a motion vector is not allocated to the corresponding pixel.

ステップS4において、割付補償部57は、割り付けを補償し、ステップS5に進む。すなわち、割付補償部57は、ステップS4において、割付フラグメモリ56の割付フラグを参照し、ベクトル割付部54により動きベクトルが割り付けられなかった着目画素に対して、その着目画素の周辺画素の動きベクトルを補い、割付ベクトルメモリ55の内挿フレーム上に割り付ける。このとき、割付補償部57は、動きベクトルを補い、割付けた着目画素の割付フラグを1(True)に書き換える。   In step S4, the allocation compensator 57 compensates the allocation and proceeds to step S5. That is, the allocation compensation unit 57 refers to the allocation flag in the allocation flag memory 56 in step S4, and for the pixel of interest for which no motion vector has been allocated by the vector allocation unit 54, the motion vector of the surrounding pixels of the pixel of interest. Is allocated on the interpolation frame of the allocation vector memory 55. At this time, the allocation compensator 57 compensates the motion vector and rewrites the allocation flag of the allocated pixel of interest to 1 (True).

ステップS5において、画像補間部58は、画像補間処理を実行する。すなわち、画像補間部58は、ステップS5において、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、ステップS6に進む。ステップS5における、画像補間処理の詳細は後述する。画像補間部58は、生成された内挿フレームを出力し、その次に、必要に応じて、フレームt+1を出力することにより、60P信号の補間画像を出力する。   In step S5, the image interpolation unit 58 executes an image interpolation process. That is, in step S5, the image interpolation unit 58 uses the motion vector allocated to the interpolation frame of the allocation vector memory 55 and the pixel values of the frame t and the frame t + 1 to generate an interpolation frame pixel value. The process proceeds to step S6. Details of the image interpolation processing in step S5 will be described later. The image interpolation unit 58 outputs the generated interpolation frame, and then outputs a frame t + 1 as necessary, thereby outputting an interpolation image of a 60P signal.

ステップS6において、フレーム全体後処理部59は、内挿フレームについて、フレーム全体の後処理を実行して、ステップS7に進む。フレーム全体の後処理の詳細は後述する。   In step S6, the entire frame post-processing unit 59 performs post-processing of the entire frame for the interpolated frame, and the process proceeds to step S7. Details of post-processing of the entire frame will be described later.

ステップS7において、破綻箇所後処理部60は、内挿フレームについて、破綻箇所の後処理を実行して、ステップS8に進む。破綻箇所の後処理の詳細は後述する。   In step S7, the failed part post-processing unit 60 performs post-processing of the failed part for the interpolated frame, and proceeds to step S8. Details of post-processing of the failed part will be described later.

破綻箇所後処理部60は、ステップS8において、後処理された60P信号の補間画像を出力する。   In step S8, the failed location post-processing unit 60 outputs an interpolated image of the post-processed 60P signal.

ステップS9において、ベクトル検出部52は、すべてのフレームの処理が終了したか否かを判断し、すべてのフレームの処理が終了していないと判断した場合、ステップS1に戻り、それ以降の処理を繰り返す。一方、ベクトル検出部52は、ステップS9において、すべてのフレームの処理が終了したと判断した場合、フレーム周波数を変換する処理を終了する。   In step S9, the vector detection unit 52 determines whether or not all the frames have been processed. If it is determined that all the frames have not been processed, the vector detection unit 52 returns to step S1 and performs the subsequent processing. repeat. On the other hand, when the vector detection unit 52 determines in step S9 that all the frames have been processed, the vector detection unit 52 ends the process of converting the frame frequency.

以上のように、本発明に係る画像処理装置1は、24P信号の入力画像のフレームから動きベクトルを検出し、検出した動きベクトルを、60P信号のフレーム上の画素に割付け、割付けられた動きベクトルに基づいて、60P信号のフレーム上の画素値を生成する。そして、画像処理装置1は、内挿フレームについて、フレーム全体または破綻箇所に後処理を適用して、破綻のより目立ちにくい画像を出力する。   As described above, the image processing apparatus 1 according to the present invention detects a motion vector from a frame of an input image of a 24P signal, assigns the detected motion vector to a pixel on a frame of a 60P signal, and assigns the assigned motion vector. Based on the above, the pixel value on the frame of the 60P signal is generated. Then, the image processing apparatus 1 applies post-processing to the entire frame or the failure location of the interpolated frame, and outputs an image that is less prominent of the failure.

次に、画像補間部58の構成の詳細について説明する。   Next, details of the configuration of the image interpolation unit 58 will be described.

図6は、画像補間部58の構成を示すブロック図である。図6に構成を示す画像補間部58は、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、フレームtおよびフレームt+1の画素値を用いて、内挿フレームの画素値を補間生成し、60P信号の補間画像を出力する処理を行う。   FIG. 6 is a block diagram illustrating a configuration of the image interpolation unit 58. 6 interpolates and generates the pixel value of the interpolation frame using the motion vector allocated to the interpolation frame in the allocation vector memory 55 and the pixel values of the frame t and the frame t + 1. , 60P signal interpolation processing is performed.

図6の例において、時刻tの画像のフレームtは、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1は、空間フィルタ92−2およびバッファ95に入力される。   In the example of FIG. 6, the frame t of the image at time t is input to the spatial filter 92-1, and the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2 and the buffer 95.

補間制御部91は、割付ベクトルメモリ55の内挿フレームの画素を選択し、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求める。すなわち、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。   The interpolation control unit 91 selects the pixel of the interpolation frame in the allocation vector memory 55, and based on the motion vector assigned to the selected pixel, the pixel on the interpolation frame, the two frames t and t + 1 The positional relationship (spatial shift amount) with each pixel is obtained. That is, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t associated with the motion vector and the position of the pixel on the frame t corresponding to the pixel of the interpolation frame, The spatial shift amount is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-1. Similarly, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t + 1 associated with the motion vector and the position of the pixel on the frame t + 1 corresponding to the pixel of the interpolation frame. Is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-2.

また、補間制御部91は、予め設定されている内挿フレームの時間位相(時刻)に基づいて、フレームtとフレームt+1の間における補間重みを求め、求めた補間重みを、乗算器93−1および93−2に設定する。例えば、内挿フレームの時刻が、フレームt+1の時刻t+1から「k」離れた時刻で、かつ、フレームtの時刻tから「1−k」離れた時刻である場合(すなわち、内挿フレームが時刻tと時刻t+1を「1−k」:「k」に内分する時刻に生成される場合)、補間制御部91は、乗算器93−1に「1−k」の補間重みを設定し、乗算器93−2に「k」の補間重みを設定する。   Further, the interpolation control unit 91 obtains an interpolation weight between the frame t and the frame t + 1 based on a preset time phase (time) of the interpolation frame, and uses the obtained interpolation weight as a multiplier 93-1. And 93-2. For example, when the time of the interpolation frame is a time that is “k” away from the time t + 1 of the frame t + 1 and a time that is “1−k” away from the time t of the frame t (ie, the time of the interpolation frame is the time t and time t + 1 is “1−k”: generated at a time that is internally divided into “k”), the interpolation control unit 91 sets an interpolation weight of “1-k” in the multiplier 93-1. An interpolation weight of “k” is set in the multiplier 93-2.

空間フィルタ92−1および92−2は、例えば、キュービックフィルタなどにより構成される。空間フィルタ92−1は、入力されるフレームt上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt上の画素値を求め、求めた画素値を乗算器93−1に出力する。空間フィルタ92−2は、入力されるフレームt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、フレームt+1上の画素値を求め、求めた画素値を乗算器93−2に出力する。   Spatial filters 92-1 and 92-2 are constituted by cubic filters, for example. The spatial filter 92-1 is a pixel value on the frame t corresponding to the pixel of the interpolation frame based on the input pixel value of the pixel on the frame t and the spatial shift amount supplied from the interpolation control unit 91. And the obtained pixel value is output to the multiplier 93-1. The spatial filter 92-2, based on the input pixel value of the pixel on the frame t + 1 and the spatial shift amount supplied from the interpolation control unit 91, the pixel value on the frame t + 1 corresponding to the pixel of the interpolation frame And the obtained pixel value is output to the multiplier 93-2.

なお、内挿フレームの画素の位置が、フレームtまたはフレームt+1上の画素の位置と一致しない場合(すなわち、内挿フレームの画素の位置が、フレームtまたはフレームt+1において画素以下成分である場合)、空間フィルタ92−1および92−2は、フレームtまたはフレームt+1における内挿フレームの画素の位置の周辺4画素の画素値を用いて、周辺4画素の距離の逆比の和を求めることにより、内挿フレームの画素に対応するフレーム上の画素値を求める。すなわち、画素以下位置の画素値は、周辺4画素との距離を基にした線形補間で値が求められる。   When the position of the pixel in the interpolation frame does not match the position of the pixel on frame t or frame t + 1 (that is, when the position of the pixel in the interpolation frame is a component equal to or less than the pixel in frame t or frame t + 1). The spatial filters 92-1 and 92-2 obtain the sum of the inverse ratios of the distances of the four surrounding pixels by using the pixel values of the four surrounding pixels at the position of the pixel of the interpolation frame in the frame t or the frame t + 1. Then, the pixel value on the frame corresponding to the pixel of the interpolation frame is obtained. That is, the pixel values at the positions below the pixel are obtained by linear interpolation based on the distance from the surrounding four pixels.

乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。   The multiplier 93-1 multiplies the pixel value on the frame t input from the spatial filter 92-1 by the interpolation weight “1-k” set by the interpolation control unit 91, and the weighted pixel value is The result is output to the adder 94. The multiplier 93-2 multiplies the pixel value on the frame t + 1 input from the spatial filter 92-2 by the interpolation weight “k” set by the interpolation control unit 91, and adds the weighted pixel value to the adder. Output to 94.

加算器94は、乗算器93−1から入力される画素値と、乗算器93−2から入力される画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された内挿フレームの画素値を、バッファ95に出力する。バッファ95は、入力されたフレームt+1をバッファしている。バッファ95は、生成された内挿フレームを出力し、その次に、予め設定されている60Pフレームの時間位相(時刻)に基づいて、必要に応じて、バッファしているフレームt+1を出力することにより、60P信号の補間画像をフレーム全体後処理部59に出力する。   The adder 94 generates the pixel value of the pixel of the interpolation frame by adding the pixel value input from the multiplier 93-1 and the pixel value input from the multiplier 93-2. The pixel value of the interpolation frame is output to the buffer 95. The buffer 95 buffers the input frame t + 1. The buffer 95 outputs the generated interpolation frame, and then outputs a buffered frame t + 1 as necessary based on a preset time phase (time) of the 60P frame. Thus, the interpolated image of the 60P signal is output to the entire frame post-processing unit 59.

以上のように構成される画像補間部58の画像補間処理の詳細を、図7のフローチャートを参照して説明する。   Details of the image interpolation processing of the image interpolation unit 58 configured as described above will be described with reference to the flowchart of FIG.

補間制御部91は、ステップS51において、処理する内挿フレームの時間位相に基づいて、フレームtとフレームt+1の間における内挿フレームの補間重み(例えば、「k」および「1−k」)を求め、求められた補間重みを、乗算器93−1および93−2にそれぞれ設定し、ステップS52に進む。   In step S51, the interpolation control unit 91 calculates interpolation weights (for example, “k” and “1-k”) of the interpolation frame between the frame t and the frame t + 1 based on the time phase of the interpolation frame to be processed. The obtained interpolation weights are set in the multipliers 93-1 and 93-2, respectively, and the process proceeds to step S52.

例えば、図8で示されるように、時刻tのフレームtと時刻t+1のフレームt+1の間の、時刻t+kの内挿フレームを生成する場合、補間制御部91は、kおよび1−kの補間重みを求め、求められた補間重みを、乗算器93−1および93−2にそれぞれ設定する。なお、図8の例においては、点線が、画像処理装置1に入力される、時刻tおよびt+1における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t+kにおける60P信号の内挿フレームを表している。   For example, as illustrated in FIG. 8, when generating an interpolation frame at time t + k between a frame t at time t and a frame t + 1 at time t + 1, the interpolation control unit 91 uses interpolation weights of k and 1-k. And the obtained interpolation weights are set in the multipliers 93-1 and 93-2, respectively. In the example of FIG. 8, the dotted line represents the frame of the 24P signal input to the image processing apparatus 1 at time t and t + 1, and the solid line is represented by the image processing apparatus 1 from the input 24P signal. It shows an interpolation frame of a 60P signal at time t + k to be generated.

補間制御部91は、ステップS52において、割付ベクトルメモリ55の内挿フレームの画素を選択し、ステップS53に進む。なお、内挿フレーム上の画素は、フレームの左上の画素からラスタスキャン順に選択される。   In step S52, the interpolation control unit 91 selects a pixel of the interpolation frame in the allocation vector memory 55, and proceeds to step S53. Note that the pixels on the interpolation frame are selected in the raster scan order from the upper left pixel of the frame.

補間制御部91は、ステップS53において、選択した画素に割り付けられている動きベクトルに基づいて、内挿フレーム上の画素と、2枚のフレームtおよびフレームt+1の画素との位置関係(空間シフト量)をそれぞれ求め、求められた空間シフト量を、それぞれ空間フィルタ92−1および92−2に供給し、ステップS54に進む。   In step S53, based on the motion vector assigned to the selected pixel, the interpolation control unit 91 determines the positional relationship between the pixels on the interpolation frame and the two frames t and t + 1 (space shift amount). ) And the obtained spatial shift amounts are supplied to the spatial filters 92-1 and 92-2, respectively, and the process proceeds to step S54.

具体的には、補間制御部91は、ステップS53において、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt上の位置と、内挿フレームの画素に対応するフレームt上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−1に供給する。同様に、補間制御部91は、内挿フレームの画素を基準に、その動きベクトルで対応付けられるフレームt+1上の位置と、内挿フレームの画素に対応するフレームt+1上の画素の位置から、それらの空間シフト量を求め、求めた空間シフト量を空間フィルタ92−2に供給する。   Specifically, in step S53, the interpolation control unit 91 uses the pixel of the interpolation frame as a reference, the position on the frame t associated with the motion vector, and the frame t corresponding to the pixel of the interpolation frame. The spatial shift amounts are obtained from the pixel positions, and the obtained spatial shift amounts are supplied to the spatial filter 92-1. Similarly, the interpolation control unit 91 uses, based on the pixels of the interpolation frame, the position on the frame t + 1 associated with the motion vector and the position of the pixel on the frame t + 1 corresponding to the pixel of the interpolation frame. Is obtained, and the obtained spatial shift amount is supplied to the spatial filter 92-2.

時刻tの画像のフレームtの画素値は、空間フィルタ92−1に入力され、時刻t+1の画像のフレームt+1の画素値は、空間フィルタ92−2に入力されている。ステップS54において、空間フィルタ92−1および92−2は、入力されるフレームtおよびt+1上の画素の画素値と、補間制御部91から供給される空間シフト量に基づいて、内挿フレームの画素に対応する、各フレーム上の画素値を求め、求めた画素値を乗算器93−1および93−2にそれぞれ出力し、ステップS55に進む。   The pixel value of the frame t of the image at time t is input to the spatial filter 92-1, and the pixel value of the frame t + 1 of the image at time t + 1 is input to the spatial filter 92-2. In step S54, the spatial filters 92-1 and 92-2 determine the pixels of the interpolation frame based on the pixel values of the pixels on the input frames t and t + 1 and the spatial shift amount supplied from the interpolation control unit 91. The pixel values on each frame corresponding to are obtained, the obtained pixel values are output to the multipliers 93-1 and 93-2, and the process proceeds to step S55.

乗算器93−1および93−2は、ステップS55において、空間フィルタ92−1または92−2から入力される各フレーム上の画素値に、補間制御部91により設定された補間重みを重み付けし、重み付けされた画素値を、加算器94に出力し、ステップS56に進む。すなわち、乗算器93−1は、空間フィルタ92−1から入力されるフレームt上の画素値に、補間制御部91により設定された補間重み「1−k」を乗算し、重み付けされた画素値を、加算器94に出力する。乗算器93−2は、空間フィルタ92−2から入力されるフレームt+1上の画素値に、補間制御部91により設定された補間重み「k」を乗算し、重み付けされた画素値を、加算器94に出力する。   In Step S55, the multipliers 93-1 and 93-2 weight the interpolation weight set by the interpolation control unit 91 to the pixel value on each frame input from the spatial filter 92-1 or 92-2, The weighted pixel value is output to the adder 94, and the process proceeds to step S56. That is, the multiplier 93-1 multiplies the pixel value on the frame t input from the spatial filter 92-1 by the interpolation weight “1-k” set by the interpolation control unit 91, and weighted pixel values. Is output to the adder 94. The multiplier 93-2 multiplies the pixel value on the frame t + 1 input from the spatial filter 92-2 by the interpolation weight “k” set by the interpolation control unit 91, and adds the weighted pixel value to the adder. Output to 94.

加算器94は、ステップS56において、乗算器93−1により重み付けされた画素値と、乗算器93−2により重み付けされた画素値を加算することにより、内挿フレームの画素の画素値を生成し、生成された画素値を、バッファ95に出力し、ステップS57に進む。   In step S56, the adder 94 adds the pixel value weighted by the multiplier 93-1 and the pixel value weighted by the multiplier 93-2 to generate the pixel value of the pixel of the interpolation frame. The generated pixel value is output to the buffer 95, and the process proceeds to step S57.

例えば、ステップS52乃至ステップS56の処理により、図8で示されるように、内挿フレームにおける選択された画素pに割り付けられている動きベクトルvで対応付けられるフレームt上の画素qの画素値およびフレームt+1上の画素rの画素値から、フレームtとフレームt+1の間の新たな内挿フレームt+k上の画素pの画素値が生成される。   For example, as shown in FIG. 8 by the processing of step S52 to step S56, the pixel value of the pixel q on the frame t associated with the motion vector v assigned to the selected pixel p in the interpolation frame and From the pixel value of the pixel r on the frame t + 1, the pixel value of the pixel p on the new interpolation frame t + k between the frame t and the frame t + 1 is generated.

補間制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したか否かを判断し、内挿フレーム上のすべての画素についての処理が終了していないと判断した場合、ステップS52に戻り、それ以降の処理を繰り返す。補間制御部91は、ステップS57において、内挿フレーム上のすべての画素についての処理が終了したと判断した場合、画像補間処理を終了する。   In step S57, the interpolation control unit 91 determines whether or not the processing for all the pixels on the interpolation frame is completed, and determines that the processing for all the pixels on the interpolation frame is not completed. If so, the process returns to step S52, and the subsequent processing is repeated. If the interpolation control unit 91 determines in step S57 that the processing for all the pixels on the interpolation frame has been completed, the interpolation control unit 91 ends the image interpolation processing.

以上のように、内挿フレームに割り付けられた動きベクトルに基づいて、内挿フレームの画素値が生成され、上述した図5のステップS5において、バッファ95により、内挿フレームが出力され、その次に、必要に応じて、フレームt+1が出力されることにより、60P信号の補間画像がフレーム全体後処理部59に出力される。   As described above, the pixel value of the interpolation frame is generated based on the motion vector assigned to the interpolation frame, and the interpolation frame is output by the buffer 95 in step S5 of FIG. In addition, if necessary, the frame t + 1 is output, whereby an interpolated image of the 60P signal is output to the entire frame post-processing unit 59.

なお、図7のフローチャートを参照して説明した処理は、内挿フレーム生成の処理とも称する。   Note that the processing described with reference to the flowchart of FIG. 7 is also referred to as interpolation frame generation processing.

次に、フレーム全体後処理部59について説明する。   Next, the entire frame post-processing unit 59 will be described.

図9は、フレーム全体後処理部59の構成の例を示すブロック図である。フレーム全体後処理部59は、0ベクトル補間画像生成部111および画像混合部112を備える。   FIG. 9 is a block diagram illustrating an example of the configuration of the entire frame post-processing unit 59. The entire frame post-processing unit 59 includes a zero vector interpolation image generation unit 111 and an image mixing unit 112.

0ベクトル補間画像生成部111は、内挿フレームt+k上の画素に割り当てた0ベクトルで示される、内挿フレームt+kに隣接する入力画像のフレームtの画素の画素値およびフレームt+1の画素の画素値から、フレームtの時刻tから内挿フレームt+kの時刻t+kまでの時間と、内挿フレームt+kの時刻t+kからフレームt+1の時刻t+1までの時間との比率に応じて、画素値を生成する。   The zero vector interpolation image generation unit 111 indicates the pixel value of the pixel of the frame t and the pixel value of the pixel of the frame t + 1 of the input image adjacent to the interpolation frame t + k indicated by the zero vector assigned to the pixel on the interpolation frame t + k. To a pixel value is generated according to the ratio of the time from the time t of the frame t to the time t + k of the interpolation frame t + k and the time from the time t + k of the interpolation frame t + k to the time t + 1 of the frame t + 1.

ここで、0ベクトルは、空間方向の成分が0である動きベクトルである。   Here, the zero vector is a motion vector whose spatial component is zero.

すなわち、0ベクトル補間画像生成部111は、内挿フレームt+k上の画素であって、内挿フレームt+k上の注目している画素である注目画素の位置と同じ位置のフレームt上の画素の画素値と、注目画素の位置と同じ位置のフレームt+1上の画素の画素値とから、時刻tから時刻t+kまでの時間と、時刻t+kから時刻t+1までの時間との比率に応じて、画素値を生成する。   That is, the 0 vector interpolation image generation unit 111 is a pixel on the frame t at the same position as the pixel of interest that is a pixel on the interpolation frame t + k and is a pixel of interest on the interpolation frame t + k. The pixel value is determined according to the ratio between the time from time t to time t + k and the time from time t + k to time t + 1 from the value and the pixel value of the pixel on the frame t + 1 at the same position as the target pixel. Generate.

図10は、0ベクトル補間画像生成部111における画素値の生成を説明する図である。なお、図10の例においては、点線が、画像処理装置1に入力される、時刻tおよびt+1における24P信号のフレームを表しており、実線が、入力された24P信号から画像処理装置1により、生成される時刻t+kにおける60P信号の内挿フレームを表している。また、動きベクトルvは、内挿フレームの画素pに割り付けられ、フレームt+1上の画素rおよびフレームt上の画素qが、動きベクトルvによって対応付けられている。   FIG. 10 is a diagram for explaining generation of pixel values in the 0 vector interpolation image generation unit 111. In the example of FIG. 10, the dotted line represents the frame of the 24P signal input to the image processing apparatus 1 at time t and t + 1, and the solid line is represented by the image processing apparatus 1 from the input 24P signal. It shows an interpolation frame of a 60P signal at time t + k to be generated. The motion vector v is assigned to the pixel p of the interpolation frame, and the pixel r on the frame t + 1 and the pixel q on the frame t are associated with each other by the motion vector v.

図中の空間方向の成分が0である0ベクトル(0 vector)は、内挿フレーム上の注目画素pの位置と同じ位置のフレームt上の画素pと、注目画素pの位置と同じ位置のフレームt+1上の画素pとを対応付けている。   A zero vector (0 vector) having a spatial component of 0 in the figure is the pixel p on the frame t at the same position as the position of the target pixel p on the interpolation frame and the same position as the position of the target pixel p. The pixel p on the frame t + 1 is associated.

図10で示されるように、0ベクトル補間画像生成部111は、内挿フレーム上の画素pに注目している場合、画素pの位置と同じ位置のフレームt上の画素pの画素値Ft(p)と、画素pの位置と同じ位置のフレームt+1上の画素pの画素値Ft+1(p)とを取得する。そして、0ベクトル補間画像生成部111は、画素値Ft(p)に、時刻tから時刻t+kまでの時間に応じた重みkを乗算し、画素値Ft+1(p)に、時刻t+kから時刻t+1までの時間に応じた重み1−kを乗算する。さらに、0ベクトル補間画像生成部111は、これらの乗算の結果を加算することで、画素値Gt+k(p)を生成する。 As illustrated in FIG. 10, when paying attention to the pixel p on the interpolation frame, the 0 vector interpolation image generation unit 111 has the pixel value F t of the pixel p on the frame t at the same position as the position of the pixel p. (P) and the pixel value F t + 1 (p) of the pixel p on the frame t + 1 at the same position as the position of the pixel p are acquired. Then, 0 vector interpolation image generating unit 111, the pixel value F t (p), multiplied by the weight k corresponding to the period from time t to time t + k, the pixel value F t + 1 (p), a time t + k Is multiplied by a weight 1-k according to the time from to time t + 1. Further, the 0 vector interpolation image generation unit 111 adds the results of these multiplications to generate a pixel value G t + k (p).

すなわち、0ベクトル補間画像生成部111によって、式(1)で示される画素値Gt+k(p)が求められる。
t+k(p)=(1−k)Ft(p)+kFt+1(p) (1)
That is, the pixel value G t + k (p) represented by Expression (1) is obtained by the 0 vector interpolation image generation unit 111.
G t + k (p) = (1−k) F t (p) + kF t + 1 (p) (1)

0ベクトル補間画像生成部111は、内挿フレームの全ての画素について、式(1)で示される演算で求められる画素値を生成する。0ベクトル補間画像生成部111は、生成した画素値の画素からなる0ベクトル補間画像を画像混合部112に供給する。   The zero vector interpolation image generation unit 111 generates pixel values obtained by the calculation represented by Expression (1) for all the pixels of the interpolation frame. The 0 vector interpolation image generation unit 111 supplies a 0 vector interpolation image including pixels having the generated pixel values to the image mixing unit 112.

画像混合部112は、所定の混合比(割合)に従って、注目画素の画素値に、0ベクトル補間画像生成部111において生成された画素値を混合する。例えば、混合比は、予め定められている。   The image mixing unit 112 mixes the pixel value generated by the 0 vector interpolation image generation unit 111 with the pixel value of the target pixel according to a predetermined mixing ratio (ratio). For example, the mixing ratio is determined in advance.

例えば、画像混合部112は、外部から予め定めた混合比γが入力された場合、画素pに注目しているとき、0ベクトル補間画像生成部111から供給された0ベクトル補間画像の画素pの画素値Gt+k(p)に混合比γを乗算し、内挿フレームの画素pの画素値Ft+k(p)に(1−γ)を乗算する。そして、画像混合部112は、これらの乗算の結果を加算した値を内挿フレームの画素pの画素値F’t+k(p)とする。なお、混合比γは、0より大きく1より小さい。 For example, when a predetermined mixture ratio γ is input from the outside, the image mixing unit 112 focuses on the pixel p and the pixel p of the 0 vector interpolation image supplied from the 0 vector interpolation image generation unit 111 The pixel value G t + k (p) is multiplied by the mixture ratio γ, and the pixel value F t + k (p) of the pixel p in the interpolation frame is multiplied by (1−γ). Then, the image mixing unit 112 sets a value obtained by adding these multiplication results as a pixel value F ′ t + k (p) of the pixel p of the interpolation frame. Note that the mixing ratio γ is larger than 0 and smaller than 1.

すなわち、画像混合部112によって、混合比γに従って、注目画素pの画素値に、0ベクトル補間画像生成部111において生成された画素値Gt+k(p)が混合されることで、式(2)で示される、内挿フレームの画素pの画素値F’t+k(p)が求められる。
F’t+k(p)=(1−γ)Ft+k(p)+γGt+k(p) (2)
That is, the image mixing unit 112 mixes the pixel value G t + k (p) generated in the 0 vector interpolation image generation unit 111 with the pixel value of the target pixel p in accordance with the mixing ratio γ, thereby obtaining the expression ( The pixel value F ′ t + k (p) of the pixel p of the interpolation frame shown in 2) is obtained.
F ′ t + k (p) = (1−γ) F t + k (p) + γG t + k (p) (2)

画像混合部112は、内挿フレームの全ての画素について、式(2)で示されるように、混合比に従って、0ベクトル補間画像の画素を混合する。画像混合部112は、混合の結果得られた補間画像を出力する。   The image mixing unit 112 mixes the pixels of the 0 vector interpolation image according to the mixing ratio for all the pixels of the interpolation frame, as shown in Expression (2). The image mixing unit 112 outputs an interpolated image obtained as a result of mixing.

なお、0ベクトル補間画像生成部111において生成された画素値Gt+k(p)の割合を大きくすると、画像の動きが不自然になってしまうので、0.0<γ<=0.5の混合比γを利用するとよい。 If the ratio of the pixel value G t + k (p) generated by the 0 vector interpolation image generation unit 111 is increased, the motion of the image becomes unnatural, so 0.0 <γ <= 0.5. It is preferable to use the mixing ratio γ.

さらに好ましくは、0.25<=γ<=0.5の混合比γを利用するとよい。本発明者の実験において、0.25<=γ<=0.5の混合比γを用いると、より自然で、かつ画像の破綻がより目立ちにくい画像を得ることができることを確認している。   More preferably, a mixing ratio γ of 0.25 <= γ <= 0.5 is used. In the experiment of the present inventor, it has been confirmed that when a mixture ratio γ of 0.25 <= γ <= 0.5 is used, it is possible to obtain an image that is more natural and less prone to image failure.

なお、画像補間部58において、Ft+k(p)を算出する場合に、フレームtおよびフレームt+1を記憶するので、フレーム全体後処理部59は、フレームtおよびフレームt+1を画像補間部58から読み出すようにすれば、新たにメモリを用意する必要がない。 Note that when the image interpolation unit 58 calculates F t + k (p), since the frame t and the frame t + 1 are stored, the entire frame post-processing unit 59 receives the frame t and the frame t + 1 from the image interpolation unit 58. If reading is performed, it is not necessary to prepare a new memory.

また、内挿フレームの全ての画素に一律に0ベクトル補間画像の画素を混合するので、ハードウェアまたはソフトウェアをより簡単に実現することができる。   Moreover, since the pixels of the 0 vector interpolation image are uniformly mixed with all the pixels of the interpolation frame, hardware or software can be realized more easily.

図11は、図5のステップS6に対応するフレーム全体の後処理の詳細を説明するフローチャートである。ステップS101において、0ベクトル補間画像生成部111は、0ベクトル補間画像の画素を生成する。すなわち、例えば、ステップS101において、0ベクトル補間画像生成部111は、式(1)に従って、0ベクトル補間画像の画素の画素値Gt+k(p)を算出することで、0ベクトル補間画像の画素を生成する。 FIG. 11 is a flowchart for explaining details of post-processing of the entire frame corresponding to step S6 of FIG. In step S101, the 0 vector interpolation image generation unit 111 generates pixels of a 0 vector interpolation image. That is, for example, in step S101, the 0 vector interpolation image generation unit 111 calculates the pixel value G t + k (p) of the pixel of the 0 vector interpolation image according to Equation (1), thereby Generate a pixel.

ステップS102において、画像混合部112は、予め定めた混合比γに従って、入力された補間画像の画素と、0ベクトル補間画像の画素とを混合する。例えば、ステップS102において、画像混合部112は、式(2)で示されるように、混合比γに従って、内挿フレームの画素に、0ベクトル補間画像の画素を混合する。   In step S102, the image mixing unit 112 mixes the input interpolation image pixels and the zero vector interpolation image pixels in accordance with a predetermined mixture ratio γ. For example, in step S102, the image mixing unit 112 mixes the pixels of the 0 vector interpolation image with the pixels of the interpolation frame in accordance with the mixing ratio γ, as shown in Expression (2).

ステップS103において、フレーム全体後処理部59は、内挿フレームの全ての画素について、処理を終了したか否かを判定し、処理を終了していないと判定された場合、ステップS101に戻り、内挿フレームの次の画素について、ステップS101およびステップS102の処理が繰り返される。なお、ステップS101およびステップS102の処理の対象となる画素は、例えば、ラスタスキャン順に選択される。   In step S103, the entire frame post-processing unit 59 determines whether or not the process has been completed for all the pixels of the interpolated frame. If it is determined that the process has not been completed, the process returns to step S101. The process of step S101 and step S102 is repeated for the next pixel of the insertion frame. Note that the pixels to be processed in steps S101 and S102 are selected, for example, in raster scan order.

ステップS103において、内挿フレームの全ての画素について処理を終了したと判定された場合、フレーム全体の後処理は終了する。   If it is determined in step S103 that the processing has been completed for all the pixels in the interpolated frame, the post-processing for the entire frame ends.

このように、内挿フレームの全体について、0ベクトル補間画像を混合するようにしたので、簡単な処理で、画像の動きの滑らかさを損なうことなく、画像の破綻を目立たなくすることができる。画像の破綻が目立ちにくくなるので、画像を見ている使用者には、画像の画質が改善されたように感じられる。   As described above, since the zero vector interpolation image is mixed for the entire interpolation frame, it is possible to make the image inconspicuous with a simple process without impairing the smoothness of the motion of the image. Since the failure of the image is less noticeable, the user viewing the image feels that the image quality of the image has been improved.

なお、0ベクトル補間画像の全体を生成してから、補間画像と0ベクトル補間画像とを混合するようにしてもよい。   Note that the interpolation image and the zero vector interpolation image may be mixed after the entire zero vector interpolation image is generated.

次に、破綻箇所後処理部60について説明する。   Next, the failure location post-processing unit 60 will be described.

図12は、破綻箇所後処理部60の構成の例を示すブロック図である。破綻箇所後処理部60は、ベクトル特徴量算出部141、破綻箇所判定部142、画像特徴量算出部143、フィルタ係数ROM144、フィルタ選択部145、およびフィルタ処理部146を備える。   FIG. 12 is a block diagram illustrating an example of the configuration of the failed part post-processing unit 60. The failed part post-processing unit 60 includes a vector feature amount calculating unit 141, a failed part determining unit 142, an image feature amount calculating unit 143, a filter coefficient ROM 144, a filter selecting unit 145, and a filter processing unit 146.

ベクトル特徴量算出部141は、画像補間部58において画素値が生成された内挿フレーム上の画素であって、注目している画素である注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた範囲の内挿フレーム上の画素である周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出する。   The vector feature amount calculation unit 141 is a pixel on the interpolation frame in which the pixel value is generated by the image interpolation unit 58, and the motion vector assigned to the target pixel that is the target pixel and the target pixel A value indicating a variation from a motion vector assigned to a peripheral pixel that is a pixel on an interpolation frame in a predetermined peripheral range is calculated.

内挿フレームを生成する場合に生じる画像の破綻(劣化)は、経験的に、画素に割り付けられている動きベクトルが暴れている(ばらついている)部分において生じやすい。   An image collapse (deterioration) that occurs when generating an interpolation frame is empirically likely to occur in a portion where the motion vector assigned to the pixel is unclear (varied).

ベクトル特徴量算出部141は、画像の破綻(劣化)の生じる可能性を示す評価値として、生成した画像の画素に割り付けられている動きベクトルのばらつきを示す値を算出する。   The vector feature amount calculation unit 141 calculates a value indicating the variation of the motion vector assigned to the pixel of the generated image as an evaluation value indicating the possibility of image failure (deterioration).

例えば、ベクトル特徴量算出部141は、内挿フレームt+kにおける注目画素px,yについて、動きベクトルのばらつきを示す値の一例である、不規則性評価値を算出する。ここで、不規則性評価値とは、注目画素px,yに割り当てられた動きベクトルを、周辺の画素に割り当てられた動きベクトルと比較した場合に、どの程度ばらついているかを評価した結果を示すものである。 For example, the vector feature amount calculation unit 141 calculates an irregularity evaluation value, which is an example of a value indicating the variation of the motion vector, for the target pixel px , y in the interpolation frame t + k. Here, the irregularity evaluation value is a result of evaluating the degree of variation when the motion vector assigned to the pixel of interest px , y is compared with the motion vector assigned to the surrounding pixels. It is shown.

以下、ベクトル特徴量算出部141が、不規則性評価値として、VDAS(Vector Difference Absolute Summation)を算出する場合を例に説明する。   Hereinafter, a case where the vector feature amount calculation unit 141 calculates VDAS (Vector Difference Absolute Summation) as the irregularity evaluation value will be described as an example.

例えば、図13で示されるように、ベクトル特徴量算出部141は、内挿フレームt+k上の注目している画素を注目画素px,yとした場合、注目画素px,yを中心とした、1点鎖線で示される所定の範囲の画素に割り付けられている動きベクトルを割付ベクトルメモリ55から読み出す。 For example, as illustrated in FIG. 13, when the pixel of interest on the interpolation frame t + k is the pixel of interest px, y , the vector feature amount calculation unit 141 is centered on the pixel of interest px, y . A motion vector assigned to pixels in a predetermined range indicated by a one-dot chain line is read from the assigned vector memory 55.

より詳細には、例えば、ベクトル割付部54において2画素毎に動きベクトルを割り付ける場合、図14で示されるように、ベクトル特徴量算出部141は、内挿フレーム上の注目している画素を注目画素px,yとしたとき、注目画素px,yから、上下に2画素、左右に2画素離れた範囲の画素に割り付けられている動きベクトルを割付ベクトルメモリ55から読み出す。すなわち、ベクトル特徴量算出部141は、注目画素px,yに対して、2画素上側で2画素左側の画素px-2,y-2、注目画素px,yに対して、2画素上側の画素px,y-2、注目画素px,yに対して、2画素上側で2画素右側の画素px+2,y-2、注目画素px,yに対して、2画素左側の画素px-2,y、注目画素px,yに対して、2画素右側の画素px+2,y、注目画素px,yに対して、2画素下側で2画素左側の画素px-2,y+2、注目画素px,yに対して、2画素下側の画素px,y+2、注目画素px,yに対して、2画素下側で2画素右側の画素px+2,y+2、および注目画素px,yのそれぞれに割り付けられている動きベクトルを割付ベクトルメモリ55から読み出す。 More specifically, for example, when the vector allocating unit 54 allocates a motion vector for every two pixels, the vector feature amount calculating unit 141 focuses on the pixel of interest on the interpolation frame as shown in FIG. When the pixel is p x, y , the motion vector assigned to the pixel in the range of 2 pixels up and down and 2 pixels left and right from the target pixel p x, y is read from the assigned vector memory 55. That is, the vector feature amount calculation unit 141 has two pixels above the pixel of interest p x, y , two pixels above and two pixels left of the pixel p x-2, y-2 , and two pixels of the pixel of interest p x, y . For the upper pixel p x, y-2 and the target pixel p x, y , two pixels on the right and two pixels p x + 2, y−2 above the target pixel p x, y and two for the target pixel p x, y left pixel p x-2, y, the pixel of interest p x, with respect to y, the pixel of the 2 pixels to the right p x + 2, y, the pixel of interest p x, with respect to y, 2 pixels left two pixels lower pixel p x-2, y + 2, the pixel of interest p x, 2 against y, the pixel p x 2 pixels lower, y + 2, the pixel of interest p x, with respect to y, in two pixels lower The motion vector assigned to each of the pixel p x + 2, y + 2 on the right side of the pixel and the pixel of interest p x, y is read from the assigned vector memory 55.

ベクトル特徴量算出部141は、式(3)を基に、内挿フレームt+k上の注目画素px,yについてのVDASであるVDASt+k(px,y)を算出する。
VDASt+k(px,y)=max(VDASt+k(px,yx,VDASt+k(px,yy
・・・(3)
式(3)において、max(a,b)は、aとbのうち、大きい方を選ぶ関数である。
The vector feature amount calculation unit 141 calculates VDAS t + k (p x, y ) , which is VDAS for the target pixel px , y on the interpolation frame t + k, based on Expression (3).
VDAS t + k (p x, y ) = max (VDAS t + k (p x, y ) x , VDAS t + k (p x, y ) y )
... (3)
In equation (3), max (a, b) is a function that selects the larger of a and b.

VDASt+k(px,yxは、式(4)で算出され、VDASt+k(px,yyは、式(5)で算出される。 VDAS t + k (p x, y ) x is calculated by equation (4), and VDAS t + k (p x, y ) y is calculated by equation (5).

Figure 0004650684
・・・(4)
Figure 0004650684
... (4)

Figure 0004650684
・・・(5)
式(4)および式(5)において、i=−2,0,2であり、j=−2,0,2である。
Figure 0004650684
... (5)
In the equations (4) and (5), i = −2, 0, 2 and j = −2, 0, 2.

このように、例えば、ベクトル特徴量算出部141は、内挿フレーム上のn個の画素毎に動きベクトルが割り付けられている場合、注目画素からn個の画素だけ離れた周辺画素に割り付けられている動きベクトルと、注目画素に割り付けられている動きベクトルとのばらつきを示す値を算出する。   Thus, for example, when a motion vector is assigned to every n pixels on the interpolation frame, the vector feature amount calculation unit 141 is assigned to peripheral pixels that are separated from the target pixel by n pixels. A value indicating the variation between the motion vector currently assigned and the motion vector assigned to the target pixel is calculated.

以上のように、ベクトル特徴量算出部141は、不規則性評価値として、VDASを算出する。   As described above, the vector feature amount calculation unit 141 calculates VDAS as the irregularity evaluation value.

ベクトル特徴量算出部141は、不規則性評価値などの、動きベクトルのばらつきを示す値を破綻箇所判定部142に供給する。   The vector feature amount calculation unit 141 supplies a value indicating variation in motion vectors, such as an irregularity evaluation value, to the failure location determination unit 142.

なお、いわゆる4:2:2の画像信号のクロマ(色差信号)について、VDASを算出する場合、注目画素px,yから、上下に4画素、左右に4画素離れた範囲の画素に割り付けられている動きベクトルを割付ベクトルメモリ55から読み出して、読み出した動きベクトルに式(3)を適用して、VDASを算出する。この場合、i=−4,0,4であり、j=−4,0,4である。 When VDAS is calculated for the chroma (color difference signal) of the so-called 4: 2: 2 image signal, it is assigned to pixels in the range of 4 pixels vertically and 4 pixels horizontally from the pixel of interest px , y. The motion vector being read is read from the assigned vector memory 55, and the equation (3) is applied to the read motion vector to calculate VDAS. In this case, i = −4,0,4 and j = −4,0,4.

また、色差信号の場合、輝度信号において対応する画素の位置で算出されたVDASの値を用いるようにしてもよい。   In the case of a color difference signal, the VDAS value calculated at the position of the corresponding pixel in the luminance signal may be used.

さらに、式(4)および式(5)において、絶対値に代えて、自乗した値を用いるようにしてもよい。   Further, in the equations (4) and (5), a square value may be used instead of the absolute value.

さらにまた、VDASの値の算出には、動きベクトルの間のユークリッド距離の和を用いるようにしてもよい。   Furthermore, the sum of Euclidean distances between motion vectors may be used for calculating the value of VDAS.

なお、VDASの値の算出に際して、入力画像の種類に応じて画素の範囲を変更するようにしてもよい。例えば、注目画素を中心とした、上下に9画素、左右に9画素の範囲の全ての画素のそれぞれに割り付けられている81個の動きベクトルを基にVDASの値を算出するようにしてもよい。   In calculating the value of VDAS, the pixel range may be changed according to the type of input image. For example, the value of VDAS may be calculated on the basis of 81 motion vectors assigned to all the pixels in the range of 9 pixels vertically and 9 pixels horizontally, centered on the pixel of interest. .

次に、画像特徴量算出部143は、フレームtとの間に内挿フレームt+kが配置される、入力されたフレームt+1上の画素であって、内挿フレームt+k上の注目画素の位置と同じ位置のフレームt+1上の画素の画素値と、注目画素の位置と同じ位置のフレームt上の画素の画素値とから、時間方向の画素値の変化を示す値を算出する。   Next, the image feature amount calculation unit 143 has the same position as the pixel of interest on the input frame t + k, which is a pixel on the input frame t + 1 where the interpolation frame t + k is arranged between the frame t. A value indicating a change in the pixel value in the time direction is calculated from the pixel value of the pixel on the frame t + 1 at the position and the pixel value of the pixel on the frame t at the same position as the position of the target pixel.

これは、ばらつきを示す値の算出の対象となる動きベクトルが割り付けられている画素の範囲に、動きの異なるオブジェクトの境界が含まれている場合を考えると、画像が破綻していないときであっても、動きベクトルのばらつきが生じるので、動きベクトルのばらつきだけで画像が破綻しているか否かを判定すると、破綻箇所判定部142において画像が破綻していると誤って判定される(誤検出される)ときがある。   This is the case when the image is not broken, considering the case where the boundary of the object with different motion is included in the range of the pixel to which the motion vector for which the value indicating the variation is calculated is assigned. However, since variations in motion vectors occur, if it is determined whether or not an image has failed only by variations in motion vectors, the failure location determination unit 142 erroneously determines that the image has failed (false detection). There is a time.

例えば、図15で示されるように、5×5画素の領域の1画素おきの9個の画素(図中の丸)について考えた場合、上側の横の行の3つの画素と下側の横の行の3つの画素が、動いている背景の画像オブジェクトに対応し、上側の横の行の3つの画素と下側の横の行の3つの画素とに挟まれた中の横の行の3つの画素が、静止している前景の画像オブジェクトに対応するとき、上側の画素と下側の画素には、同じ動きベクトルが割り付けられるが、中の画素には、0ベクトルが割り付けられる。   For example, as shown in FIG. 15, when nine pixels (circles in the figure) every other pixel in a 5 × 5 pixel region are considered, three pixels in the upper horizontal row and the lower horizontal The three pixels in this row correspond to the moving background image object, and the middle row is sandwiched between the three pixels in the upper horizontal row and the three pixels in the lower horizontal row. When three pixels correspond to a still foreground image object, the upper pixel and the lower pixel are assigned the same motion vector, but the middle pixel is assigned the zero vector.

この場合、図16で示されるように、5×5画素の領域の1画素おきの9個の画素のうちの中心の画素を注目画素(図中の黒丸で示す画素)としたとき、動きベクトルのばらつきは、上側の横の行の3つの画素および下側の横の行の3つの画素に割り付けられた動きベクトルの大きさによって決まり、大きなものとなる。図に示される画像は、破綻していないにもかかわらず、動きベクトルのばらつきを示す値だけで画像が破綻しているか否かを判断すると、破綻していると誤って判断してしまうことになる。   In this case, as shown in FIG. 16, when the central pixel among the nine pixels of every other pixel in the 5 × 5 pixel region is the target pixel (pixel indicated by a black circle in the figure), the motion vector Is determined by the magnitudes of the motion vectors assigned to the three pixels in the upper horizontal row and the three pixels in the lower horizontal row, and becomes large. Although the image shown in the figure is not broken, if it is determined whether or not the image is broken only by a value indicating the variation of the motion vector, it is erroneously determined that the image is broken. Become.

そこで、画像の破綻箇所の検出から、このような誤った検出を減らして、破綻箇所の検出の精度を向上させるために、時間方向の画像の情報を用いることを考える。   Therefore, in order to reduce such erroneous detection and improve the accuracy of the detection of the broken part from the detection of the broken part of the image, it is considered to use the information of the image in the time direction.

図17で示されるように、画素pに注目している場合、画素pの位置と同じ位置(同位相)のフレームt上の画素の画素値Ft(p)と、画素pの位置と同じ位置のフレームt+1上の画素の画素値Ft+1(p)との差分絶対値D(p)を、時間方向の安定性を判定するための評価値(時間方向の画素値の変化を示す値)として用いる。差分絶対値D(p)は、式(6)で算出される。
D(p)=|Ft(p)−Ft+1(p)| ・・・(6)
As shown in FIG. 17, when attention is paid to the pixel p, the pixel value F t (p) of the pixel on the frame t at the same position (same phase) as the position of the pixel p is the same as the position of the pixel p. The absolute difference value D (p) from the pixel value F t + 1 (p) of the pixel on the frame t + 1 at the position is used as an evaluation value for indicating stability in the time direction (indicating a change in the pixel value in the time direction). Value). The absolute difference value D (p) is calculated by equation (6).
D (p) = | F t (p) −F t + 1 (p) | (6)

例えば、画像特徴量算出部143は、式(6)で示される演算により、時間方向の画素値の変化を示す値として差分絶対値D(p)を算出する。   For example, the image feature amount calculation unit 143 calculates the absolute difference value D (p) as a value indicating a change in the pixel value in the time direction by the calculation represented by Expression (6).

画像特徴量算出部143は、算出した時間方向の画素値の変化を示す値を破綻箇所判定部142に供給する。   The image feature amount calculation unit 143 supplies a value indicating the calculated change in the pixel value in the time direction to the failure location determination unit 142.

破綻箇所判定部142は、ベクトル特徴量算出部141から供給された動きベクトルのばらつきを示す値および画像特徴量算出部143から供給された時間方向の画素値の変化を示す値から、注目画素において内挿フレームの画像が破綻しているか否かを判定する。   The failure location determination unit 142 determines the pixel of interest from the value indicating the variation in the motion vector supplied from the vector feature amount calculation unit 141 and the value indicating the change in the pixel value in the time direction supplied from the image feature amount calculation unit 143. It is determined whether the image of the interpolation frame is broken.

例えば、破綻箇所判定部142は、注目画素px,yについて、ベクトル特徴量算出部141から供給されたVDASと予め定めた閾値THpf0とを比較し、画像特徴量算出部143から供給された差分絶対値D(p)と予め定めた閾値THpf1とを比較し、VDASが閾値THpf0より大きく、かつ、差分絶対値D(p)が閾値THpf1より大きい場合に、注目画素px,yにおいて内挿フレームの画像が破綻していると判定する。破綻箇所判定部142は、VDASが閾値THpf0以下であるか、または、差分絶対値D(p)が閾値THpf1以下である場合に、注目画素px,yにおいて内挿フレームの画像が破綻していないと判定する。 For example, the failure location determination unit 142 compares the VDAS supplied from the vector feature amount calculation unit 141 with a predetermined threshold value TH pf0 for the target pixel px , y , and is supplied from the image feature amount calculation unit 143. comparing the threshold value TH pf1 determined in advance and the difference absolute value D (p), VDAS is greater than the threshold value TH pf0, and, when the difference absolute value D (p) is greater than the threshold value TH pf1, the pixel of interest p x, It is determined that the image of the interpolation frame is broken at y . The failure location determination unit 142 causes the image of the interpolation frame to fail at the pixel of interest px , y when VDAS is equal to or less than the threshold value TH pf0 or the absolute difference value D (p) is equal to or less than the threshold value TH pf1. Judge that it is not.

すなわち、破綻箇所判定部142は、式(7)で示される条件が満たされる場合、内挿フレームの画像が破綻していると判定し、式(7)で示される条件が満たされない場合、内挿フレームの画像が破綻していないと判定する。
VDASt+k(px,y)>THpf0 ∩ D(p)>THpf1 ・・・(7)
In other words, the failure location determination unit 142 determines that the image of the interpolation frame has failed when the condition represented by Equation (7) is satisfied, and if the condition indicated by Equation (7) is not satisfied, It is determined that the image of the insertion frame has not failed.
VDAS t + k (p x, y )> TH pf0∩D (p)> TH pf1 (7)

このように、動きベクトルのばらつきから、画像の空間方向に対する破綻を検出することができるが、さらに画像の時間方向の情報を用いることにより、破綻箇所の誤検出を減らして、より正確に、より確実に、画像が破綻しているか否かを判定することができるようになる。   In this way, it is possible to detect the failure in the spatial direction of the image from the variation of the motion vector, but by further using the information in the time direction of the image, it is possible to reduce the erroneous detection of the failure location, more accurately, more It is possible to reliably determine whether or not the image is broken.

破綻箇所判定部142は、動きベクトルとのばらつきを示す値と共に、注目画素において内挿フレームの画像が破綻しているか否かの判定の結果を示すデータをフィルタ選択部145に供給する。   The failure location determination unit 142 supplies the filter selection unit 145 with data indicating the result of determination as to whether or not the image of the interpolation frame has failed at the target pixel, along with a value indicating the variation from the motion vector.

フィルタ係数ROM144は、画像の高域成分を除去するフィルタ(低域通過フィルタ)に用いて、フィルタの特性を決定するためのフィルタ係数を予め複数記憶している。   The filter coefficient ROM 144 stores in advance a plurality of filter coefficients for determining the characteristics of the filter used for a filter (low-pass filter) that removes the high-frequency component of the image.

フィルタ選択部145は、画像の高域成分を除去する複数のフィルタから、動きベクトルのばらつきを示す値を基に、内挿フレームにおける注目画素を含む所定の範囲の画像に適用する1つのフィルタを選択する。   The filter selection unit 145 applies one filter to be applied to an image in a predetermined range including the target pixel in the interpolation frame, based on a value indicating motion vector variation, from a plurality of filters that remove high frequency components of the image. select.

フィルタ処理部146は、注目画素において内挿フレームの画像が破綻していると判定された場合、補間画像のうちの内挿フレームにおける注目画素を含む所定の範囲の画像から、画像の高域成分を除去する。フィルタ処理部146は、高域成分を除去した画像を出力画像として出力する。例えば、フィルタ処理部146は、画像の高域成分を除去するフィルタの処理を、図13の1点鎖線で示される、内挿フレームにおける注目画素を含む所定の範囲の画像に適用することで、画像の高域成分を除去する。   When it is determined that the image of the interpolation frame has failed at the target pixel, the filter processing unit 146 determines the high frequency component of the image from an image in a predetermined range including the target pixel in the interpolation frame of the interpolated image. Remove. The filter processing unit 146 outputs an image from which the high frequency component has been removed as an output image. For example, the filter processing unit 146 applies the processing of the filter that removes the high-frequency component of the image to an image in a predetermined range including the target pixel in the interpolation frame, which is indicated by a one-dot chain line in FIG. Removes the high frequency component of the image.

なお、ばらつきを示す値を算出する動きベクトルが割り付けられている画素の範囲と、高域成分を除去する画像の範囲とは、同じであっても、異なるものであってもよい。   Note that the range of pixels to which a motion vector for calculating a value indicating variation is assigned may be the same as or different from the range of an image from which high-frequency components are removed.

より具体的には、例えば、フィルタ係数ROM144は、フィルタ処理部146において、画像の高域成分を除去するフィルタの処理に用い、フィルタの特性を決定するためのフィルタ係数を予め複数記憶している。   More specifically, for example, the filter coefficient ROM 144 stores in advance a plurality of filter coefficients for use in the filter processing unit 146 to process a filter that removes high-frequency components of an image and for determining filter characteristics. .

フィルタ選択部145は、動きベクトルのばらつきを示す値の一例であるVDASに応じて、フィルタ係数ROM144に記憶されているフィルタ係数のうち、所定のフィルタ係数を読み出す。フィルタ選択部145は、フィルタ係数ROM144から読み出したフィルタ係数をフィルタ処理部146に供給する。フィルタ処理部146は、フィルタ選択部145から供給されたフィルタ係数を用いたフィルタ処理を、内挿フレームにおける注目画素を含む所定の範囲の画像に適用することで、画像の高域成分を除去する。   The filter selection unit 145 reads a predetermined filter coefficient among the filter coefficients stored in the filter coefficient ROM 144 in accordance with VDAS which is an example of a value indicating the variation of the motion vector. The filter selection unit 145 supplies the filter coefficient read from the filter coefficient ROM 144 to the filter processing unit 146. The filter processing unit 146 applies the filter processing using the filter coefficient supplied from the filter selection unit 145 to the image in a predetermined range including the target pixel in the interpolation frame, thereby removing the high frequency component of the image. .

すなわち、例えば、フィルタ選択部145は、動きベクトルのばらつきを示す値を基に、複数のフィルタ係数のうち、所定のフィルタの特性を実現するための1つのフィルタ係数を選択し、フィルタ処理部146に選択したフィルタ係数を供給することで、内挿フレームにおける注目画素を含む所定の範囲の画像に適用するフィルタを選択する。   That is, for example, the filter selection unit 145 selects one filter coefficient for realizing a predetermined filter characteristic from among a plurality of filter coefficients based on the value indicating the variation of the motion vector, and the filter processing unit 146. By supplying the selected filter coefficient, a filter to be applied to an image in a predetermined range including the target pixel in the interpolation frame is selected.

より具体的には、フィルタ選択部145は、式(8)で示される条件が満たされる場合、フィルタ1を選択し、式(9)で示される条件が満たされる場合、フィルタ2を選択する。
THpf00<VDASt+k(px,y)<=THpf01 ・・・(8)
THpf01<VDASt+k(px,y)<=THpf02 ・・・(9)
但し、THpf00<THpf01<THpf02である。
More specifically, the filter selection unit 145 selects the filter 1 when the condition represented by Expression (8) is satisfied, and selects the filter 2 when the condition represented by Expression (9) is satisfied.
TH pf00 <VDAS t + k (p x, y ) <= TH pf01 (8)
TH pf01 <VDAS t + k (p x, y ) <= TH pf02 (9)
However, TH pf00 <TH pf01 <TH pf02 .

この場合、フィルタ2は、フィルタ1に比較して、画像の高域成分をより多く除去するフィルタとするのがよいことがわかっている。   In this case, it is known that the filter 2 should be a filter that removes more high-frequency components of the image than the filter 1.

すなわち、フィルタ選択部145は、式(8)で示される条件が満たされる場合、フィルタ1の特性を実現させるためのフィルタ係数を選択して、フィルタ係数ROM144から読み出して、フィルタ処理部146に供給する。一方、フィルタ選択部145は、式(9)で示される条件が満たされる場合、フィルタ2の特性を実現させるためのフィルタ係数を選択して、フィルタ係数ROM144から読み出して、フィルタ処理部146に供給する。   That is, when the condition expressed by Expression (8) is satisfied, the filter selection unit 145 selects a filter coefficient for realizing the characteristics of the filter 1, reads the filter coefficient from the filter coefficient ROM 144, and supplies the filter coefficient to the filter processing unit 146. To do. On the other hand, the filter selection unit 145 selects a filter coefficient for realizing the characteristics of the filter 2 when the condition represented by Expression (9) is satisfied, reads the filter coefficient from the filter coefficient ROM 144, and supplies the filter coefficient to the filter processing unit 146. To do.

フィルタ処理部146は、フィルタ選択部145から供給されたフィルタ係数に応じて、フィルタ1またはフィルタ2を破綻している画像に適用する。動きベクトルのばらつきがより大きい場合には、画像の高域成分がより多く除去されることになる。   The filter processing unit 146 applies the filter 1 or the filter 2 to the broken image according to the filter coefficient supplied from the filter selection unit 145. When the variation of the motion vector is larger, more high frequency components of the image are removed.

すなわち、動きベクトルのばらつきがより大きい場合には、画像が破綻している度合いも大きいと推定されるので、画像の高域成分がより多く除去されて、破綻が目立たない画像とされる。   That is, when the variation of the motion vector is larger, it is estimated that the degree to which the image is broken is large, so that more high frequency components of the image are removed, and the image is made inconspicuous.

破綻箇所後処理部60は、内挿フレームの画像のうち破綻している画像から画像の高域成分を除去するので、画像の動きの滑らかさを損なうことなく、画像の破綻が目立たない画像を出力することができる。画像の破綻が目立ちにくくなるので、画像を見ている使用者には、画像の画質が改善されたように感じられる。   Since the failed part post-processing unit 60 removes the high-frequency component of the image from the broken image among the images of the interpolation frame, the broken image is not noticeable without impairing the smoothness of the movement of the image. Can be output. Since the failure of the image is less noticeable, the user viewing the image feels that the image quality of the image has been improved.

また、動きベクトルおよび入力された画像(画像情報)を用いることで、正確に精度良く画像の破綻箇所を検出することができる。   In addition, by using the motion vector and the input image (image information), it is possible to detect a failed part of the image accurately and accurately.

このように、動きベクトルが暴れている部分に、画像の劣化が起こる可能性があるとみなして、この部分に低域通過フィルタが適用される。低域通過フィルタが適用されることで、補間された画像に生じた劣化を目立たなくすることができる。   In this way, assuming that there is a possibility of image degradation in a portion where the motion vector is rampant, a low-pass filter is applied to this portion. By applying the low-pass filter, it is possible to make the deterioration generated in the interpolated image inconspicuous.

次に、図5のステップS7の破綻箇所の後処理の詳細を図18のフローチャートを参照して説明する。   Next, details of the post-processing of the failed part in step S7 of FIG. 5 will be described with reference to the flowchart of FIG.

ステップS141において、ベクトル特徴量算出部141は、内挿フレーム上の注目している画素である注目画素の周辺の所定の範囲の画素に割り付けられている動きベクトルの不規則性評価値を算出する。例えば、ステップS141において、ベクトル特徴量算出部141は、式(3)を基に、不規則性評価値としてVDASを算出する。ベクトル特徴量算出部141は、不規則性評価値を破綻箇所判定部142に供給する。   In step S141, the vector feature amount calculation unit 141 calculates the irregularity evaluation value of the motion vector allocated to the pixels in a predetermined range around the target pixel that is the target pixel on the interpolation frame. . For example, in step S141, the vector feature amount calculation unit 141 calculates VDAS as the irregularity evaluation value based on Expression (3). The vector feature amount calculation unit 141 supplies the irregularity evaluation value to the failure location determination unit 142.

ステップS142において、画像特徴量算出部143は、時間方向の画素値の変化を示す画像特徴量を算出する。例えば、ステップS142において、画像特徴量算出部143は、式(6)を基に、画像特徴量として差分絶対値D(p)を算出する。画像特徴量算出部143は、画像特徴量を破綻箇所判定部142に供給する。   In step S142, the image feature amount calculation unit 143 calculates an image feature amount indicating a change in the pixel value in the time direction. For example, in step S142, the image feature amount calculation unit 143 calculates the absolute difference value D (p) as the image feature amount based on Expression (6). The image feature amount calculation unit 143 supplies the image feature amount to the failure location determination unit 142.

ステップS143において、破綻箇所判定部142は、不規則性評価値および画像特徴量を基に、注目画素において内挿フレームの画像が破綻しているか否かを判定する。ステップS143において、注目画素において内挿フレームの画像が破綻していると判定された場合、ステップS144に進み、フィルタ選択部145は、画像の高域成分を除去する複数のフィルタから、不規則性評価値を基に、内挿フレームにおける注目画素を含む範囲の画像に適用するフィルタを選択する。例えば、ステップS144において、フィルタ選択部145は、フィルタ係数ROM144に記憶されているフィルタ係数のうち、不規則性評価値に応じた所定のフィルタ係数を読み出し、フィルタ係数ROM144から読み出したフィルタ係数をフィルタ処理部146に供給することで、内挿フレームにおける注目画素を含む範囲の画像に適用するフィルタを選択する。   In step S143, the failure location determination unit 142 determines whether the image of the interpolation frame has failed at the target pixel based on the irregularity evaluation value and the image feature amount. If it is determined in step S143 that the image of the interpolation frame has failed at the target pixel, the process proceeds to step S144, and the filter selection unit 145 performs irregularity from the plurality of filters that remove the high frequency components of the image. Based on the evaluation value, a filter to be applied to an image in a range including the target pixel in the interpolation frame is selected. For example, in step S144, the filter selection unit 145 reads a predetermined filter coefficient corresponding to the irregularity evaluation value from the filter coefficients stored in the filter coefficient ROM 144, and filters the filter coefficient read from the filter coefficient ROM 144. By supplying to the processing unit 146, a filter to be applied to an image in a range including the target pixel in the interpolation frame is selected.

ステップS145において、フィルタ処理部146は、内挿フレームにおける注目画素を含む範囲の画像に選択されたフィルタを適用し、ステップS146に進む。すなわち、ステップS144において、フィルタ処理部146は、内挿フレームにおける注目画素を含む所定の範囲の画像から、画像の高域成分を除去する。例えば、フィルタ処理部146は、フィルタ選択部145から供給されたフィルタ係数で特性の定まるフィルタを、内挿フレームにおける注目画素を含む範囲の画像に適用する。   In step S145, the filter processing unit 146 applies the selected filter to the image in the range including the target pixel in the interpolation frame, and the process proceeds to step S146. That is, in step S144, the filter processing unit 146 removes the high frequency component of the image from the image in a predetermined range including the target pixel in the interpolation frame. For example, the filter processing unit 146 applies a filter whose characteristics are determined by the filter coefficient supplied from the filter selection unit 145 to an image in a range including the target pixel in the interpolation frame.

図19は、フィルタ処理部146において、内挿フレームにおける注目画素を含む範囲の画像に適用されるフィルタを説明する図である。図19の横方向は、画像の周波数を示し、図19の縦方向は、出力のレベルを示す。図19において、点線は、フィルタ処理部146において適用されるフィルタの一例である、画像の高域成分を除去するフィルタ1の特性を示し、実線は、フィルタ処理部146において適用されるフィルタの一例であって、フィルタ1に比較して、画像の高域成分をより多く除去するフィルタ2の特性を示す。   FIG. 19 is a diagram for explaining a filter applied to an image in a range including the target pixel in the interpolation frame in the filter processing unit 146. The horizontal direction in FIG. 19 indicates the frequency of the image, and the vertical direction in FIG. 19 indicates the output level. In FIG. 19, dotted lines indicate characteristics of the filter 1 that is an example of a filter applied in the filter processing unit 146 and removes a high frequency component of an image, and a solid line indicates an example of a filter applied in the filter processing unit 146. In comparison with the filter 1, the characteristic of the filter 2 that removes more high frequency components of the image is shown.

例えば、ステップS144において、式(8)で示される条件が満たされる場合、フィルタ選択部145は、フィルタ1を選択し、フィルタ係数ROM144からフィルタ1のフィルタ係数を読み出して、フィルタ処理部146に供給する。また、式(9)で示される条件が満たされる場合、フィルタ選択部145は、フィルタ2を選択し、フィルタ係数ROM144からフィルタ2のフィルタ係数を読み出して、フィルタ処理部146に供給する。   For example, when the condition represented by Expression (8) is satisfied in step S144, the filter selection unit 145 selects the filter 1, reads the filter coefficient of the filter 1 from the filter coefficient ROM 144, and supplies the filter coefficient to the filter processing unit 146. To do. Further, when the condition represented by Expression (9) is satisfied, the filter selection unit 145 selects the filter 2, reads the filter coefficient of the filter 2 from the filter coefficient ROM 144, and supplies the filter coefficient to the filter processing unit 146.

そして、フィルタ選択部145からフィルタ係数が供給されたフィルタ処理部146は、ステップS145において、内挿フレームにおける注目画素を含む範囲の画像に、そのフィルタ係数に応じて、フィルタ1またはフィルタ2のいずれか一方を適用して、内挿フレームにおける注目画素を含む所定の範囲の画像から、画像の高域成分を除去する。   Then, in step S145, the filter processing unit 146 to which the filter coefficient is supplied from the filter selection unit 145 adds either the filter 1 or the filter 2 to the image in the range including the target pixel in the interpolation frame according to the filter coefficient. Either one is applied to remove the high frequency component of the image from the image in a predetermined range including the target pixel in the interpolation frame.

ステップS143において、注目画素において内挿フレームの画像が破綻していないと判定された場合、ステップS144およびステップS145はスキップされ、手続きは、ステップS146に進む。   If it is determined in step S143 that the image of the interpolation frame has not failed at the target pixel, steps S144 and S145 are skipped, and the procedure proceeds to step S146.

ステップS146において、破綻箇所後処理部60は、内挿フレームの全ての画素について、処理を終了したか否かを判定し、処理を終了していないと判定された場合、ステップS141に戻り、内挿フレームの次の画素について、上述した処理が繰り返される。なお、ステップS141乃至ステップS145の処理の対象となる画素は、例えば、ラスタスキャン順に選択される。   In step S146, the failed part post-processing unit 60 determines whether or not the process has been completed for all the pixels of the interpolation frame. If it is determined that the process has not been completed, the process returns to step S141. The above-described processing is repeated for the next pixel of the insertion frame. Note that the pixels to be processed in steps S141 to S145 are selected in the raster scan order, for example.

ステップS146において、内挿フレームの全ての画素について処理を終了したと判定された場合、破綻箇所の後処理は終了する。   If it is determined in step S146 that the process has been completed for all the pixels of the interpolation frame, the post-processing of the failed part ends.

このように、内挿フレームの画像の内の破綻している画像から画像の高域成分を除去するようにしたので、破綻していない画像に影響を与えることなく、また、画像の動きの滑らかさを損なうことなく、画像の破綻を目立たなく(マスキング)することができる。また、画像の破綻の程度に応じて、適応的にフィルタを用いたので、必要以上に画像の高域成分を除去することなく、画像の破綻を目立たなく(マスキング)することができる。   As described above, since the high-frequency component of the image is removed from the broken image in the image of the interpolation frame, the non-broken image is not affected, and the image motion is smooth. It is possible to make the image inconspicuous (masking) without impairing the thickness. Further, since the filter is adaptively used according to the degree of image failure, the image failure can be made inconspicuous (masking) without removing the high frequency components of the image more than necessary.

画像の破綻が目立ちにくくなるので、画像を見ている使用者には、画像の画質が改善されたように感じられる。   Since the failure of the image is less noticeable, the user viewing the image feels that the image quality of the image has been improved.

なお、内挿フレームの全体について、ステップS141乃至ステップS145のそれぞれの処理を実行するようにしてもよい。すなわち、例えば、内挿フレームからラスタスキャン順に選択した画素のそれぞれについて、動きベクトルの不規則性評価値を算出し、内挿フレームの全体について、動きベクトルの不規則性評価値を算出したら、内挿フレームからラスタスキャン順に選択した画素のそれぞれについて、画像特徴量を算出するなどのように、内挿フレームの全体について、それぞれのステップの処理を実行するようにしてもよい。   In addition, you may make it perform each process of step S141 thru | or step S145 about the whole interpolation frame. That is, for example, if a motion vector irregularity evaluation value is calculated for each pixel selected from the interpolation frame in the raster scan order, and the motion vector irregularity evaluation value is calculated for the entire interpolation frame, For each pixel selected in the raster scan order from the insertion frame, the processing of each step may be executed for the entire interpolation frame, such as calculating the image feature amount.

また、破綻箇所後処理部60において、動きベクトルのばらつきを示す値だけで、時間方向の画素値の変化を示す値を用いないで、画像が破綻しているか否かを判定するようにしてもよい。   In addition, the failure location post-processing unit 60 may determine whether or not the image has failed without using only the value indicating the variation of the motion vector and the value indicating the change in the pixel value in the time direction. Good.

図20は、この場合の、破綻箇所後処理部60の構成の他の例を示すブロック図である。図20で構成が示される破綻箇所後処理部60は、ベクトル特徴量算出部141、フィルタ係数ROM144、フィルタ選択部145、フィルタ処理部146、および破綻箇所判定部161を備える。   FIG. 20 is a block diagram showing another example of the configuration of the failed part post-processing unit 60 in this case. The failure location post-processing unit 60 whose configuration is shown in FIG. 20 includes a vector feature amount calculation unit 141, a filter coefficient ROM 144, a filter selection unit 145, a filter processing unit 146, and a failure location determination unit 161.

図12に示す場合と同様の部分には同一の符号を付してありその説明は省略する。   The same parts as those shown in FIG. 12 are denoted by the same reference numerals, and the description thereof is omitted.

ベクトル特徴量算出部141は、内挿フレーム上の注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出し、算出した動きベクトルとのばらつきを示す値を破綻箇所判定部161に供給する。   The vector feature amount calculation unit 141 calculates a variation between the motion vector assigned to the pixel of interest on the interpolation frame and the motion vector assigned to the peripheral pixel that is a pixel in a predetermined range around the pixel of interest. A value indicating the deviation from the calculated motion vector is supplied to the failure location determination unit 161.

破綻箇所判定部161は、ベクトル特徴量算出部141から供給された動きベクトルのばらつきを示す値から、注目画素において内挿フレームの画像が破綻しているか否かを判定し、判定の結果を示すデータをフィルタ選択部145に供給する。   The failure location determination unit 161 determines whether the image of the interpolation frame has failed at the target pixel from the value indicating the variation of the motion vector supplied from the vector feature amount calculation unit 141, and indicates the determination result. Data is supplied to the filter selection unit 145.

図21は、図20で構成が示される破綻箇所後処理部60による、図5のステップS7の破綻箇所の後処理の詳細の他の例を説明するフローチャートである。   FIG. 21 is a flowchart for explaining another example of details of the post-failure location post-processing in step S7 of FIG. 5 by the failure location post-processing unit 60 whose configuration is shown in FIG.

ステップS161において、ベクトル特徴量算出部141は、内挿フレーム上の注目している画素である注目画素の周辺の所定の範囲の画素に割り付けられている動きベクトルの不規則性評価値を算出し、不規則性評価値を破綻箇所判定部161に供給する。   In step S161, the vector feature amount calculation unit 141 calculates the irregularity evaluation value of the motion vector assigned to the pixels in a predetermined range around the target pixel that is the target pixel on the interpolation frame. Then, the irregularity evaluation value is supplied to the failure location determination unit 161.

ステップS162において、破綻箇所判定部161は、不規則性評価値を基に、注目画素において内挿フレームの画像が破綻しているか否かを判定する。   In step S162, the failure location determination unit 161 determines whether the image of the interpolation frame has failed in the target pixel based on the irregularity evaluation value.

例えば、破綻箇所判定部161は、式(10)で示される条件が満たされる場合、内挿フレームの画像が破綻していると判定し、式(10)で示される条件が満たされない場合、内挿フレームの画像が破綻していないと判定する。
VDASt+k(px,y)>THpf0 ・・・(10)
For example, the failure location determination unit 161 determines that the image of the interpolated frame has failed when the condition indicated by Equation (10) is satisfied, and if the condition indicated by Equation (10) is not satisfied, It is determined that the image of the insertion frame has not failed.
VDAS t + k (p x, y )> TH pf0 (10)

ステップS163乃至ステップS165の処理は、それぞれ、図18のステップS144乃至ステップS146と同様なので、その説明は省略する。   The processing from step S163 to step S165 is the same as that from step S144 to step S146 in FIG.

このように、動きベクトルのばらつきを示す値だけで、画像が破綻しているか否かを判定することができる。この場合、より簡単な処理で、画像の動きの滑らかさを損なうことなく、画像の破綻が目立たない画像を出力することができる。   In this way, it is possible to determine whether or not the image is broken only by the value indicating the variation of the motion vector. In this case, it is possible to output an image in which the failure of the image is not noticeable with a simpler process without impairing the smoothness of the motion of the image.

なお、画像補間部58から出力された補間画像のうち、破綻した画像に後処理を適用してから、内挿フレームの全体に後処理を適用するようにしてもよい。   In addition, after the post-processing is applied to the broken image among the interpolated images output from the image interpolation unit 58, the post-processing may be applied to the entire interpolation frame.

図22は、画像処理装置1の機能の構成の他の例を示すブロック図である。画像処理装置1は、フレームメモリ51、ベクトル検出部52、検出ベクトルメモリ53、ベクトル割付部54、割付ベクトルメモリ55、割付フラグメモリ56、割付補償部57、画像補間部58、フレーム全体後処理部59、および破綻箇所後処理部60を備える。図2に示す場合と同様の部分には同一の符号を付してあり、その説明は適宜省略する。   FIG. 22 is a block diagram illustrating another example of the functional configuration of the image processing apparatus 1. The image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a detection vector memory 53, a vector allocation unit 54, an allocation vector memory 55, an allocation flag memory 56, an allocation compensation unit 57, an image interpolation unit 58, an entire frame post-processing unit 59, and a failed part post-processing unit 60. The same parts as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

画像補間部58は、補間画像を破綻箇所後処理部60に供給する。破綻箇所後処理部60は、画像補間部58から供給された補間画像の内挿フレームに含まれる画像のうち、破綻した画像に、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、予め定めた閾値と、フレームtおよび次のフレームt+1の画素値とを用いて、後処理を適用する。破綻箇所後処理部60は、破綻した画像に後処理を適用した補間画像をフレーム全体後処理部59に供給する。   The image interpolation unit 58 supplies the interpolated image to the failed part post-processing unit 60. The failure location post-processing unit 60, among the images included in the interpolation frame of the interpolation image supplied from the image interpolation unit 58, the motion vector assigned to the interpolation frame of the allocation vector memory 55 to the failed image, Post-processing is applied using a predetermined threshold value and pixel values of the frame t and the next frame t + 1. The failed part post-processing unit 60 supplies an interpolated image obtained by applying post-processing to the failed image to the entire frame post-processing unit 59.

フレーム全体後処理部59は、破綻箇所後処理部60から供給された補間画像の内挿フレームの全体に、予め定めた混合比と、フレームtおよび次のフレームt+1の画素値とを用いて、破綻が目立たないようにする後処理を適用する。フレーム全体後処理部59は、内挿フレームの全体に後処理を適用した、60P信号の画像を図示せぬ後段に出力する。   The entire frame post-processing unit 59 uses a predetermined mixing ratio and pixel values of the frame t and the next frame t + 1 for the entire interpolation frame of the interpolated image supplied from the failed part post-processing unit 60, Apply post-processing that prevents the failure from becoming noticeable. The entire frame post-processing unit 59 outputs a 60P signal image obtained by applying post-processing to the entire interpolated frame to a subsequent stage (not shown).

さらに、フレーム全体後処理部59または破綻箇所後処理部60のうち、いずれか一方だけを設けるようにしてもよい。   Furthermore, only one of the entire frame post-processing unit 59 and the failed part post-processing unit 60 may be provided.

図23は、画像処理装置1の機能の構成のさらに他の例を示すブロック図である。画像処理装置1は、フレームメモリ51、ベクトル検出部52、検出ベクトルメモリ53、ベクトル割付部54、割付ベクトルメモリ55、割付フラグメモリ56、割付補償部57、画像補間部58、およびフレーム全体後処理部59を備える。図2に示す場合と同様の部分には同一の符号を付してあり、その説明は適宜省略する。   FIG. 23 is a block diagram illustrating still another example of the functional configuration of the image processing apparatus 1. The image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a detection vector memory 53, a vector allocation unit 54, an allocation vector memory 55, an allocation flag memory 56, an allocation compensation unit 57, an image interpolation unit 58, and an entire frame post-processing. A portion 59 is provided. The same parts as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

フレーム全体後処理部59は、画像補間部58から供給された補間画像の内挿フレームの全体に、予め定めた混合比と、フレームtおよび次のフレームt+1の画素値とを用いて、破綻が目立たないようにする後処理を適用する。フレーム全体後処理部59は、内挿フレームの全体に後処理を適用した、60P信号の画像を図示せぬ後段に出力する。   The whole frame post-processing unit 59 uses the predetermined mixture ratio and the pixel values of the frame t and the next frame t + 1 for the entire interpolated frame of the interpolated image supplied from the image interpolation unit 58, so that the failure occurs. Apply post-processing to make it inconspicuous. The entire frame post-processing unit 59 outputs a 60P signal image obtained by applying post-processing to the entire interpolated frame to a subsequent stage (not shown).

図24は、画像処理装置1の機能の構成のさらに他の例を示すブロック図である。画像処理装置1は、フレームメモリ51、ベクトル検出部52、検出ベクトルメモリ53、ベクトル割付部54、割付ベクトルメモリ55、割付フラグメモリ56、割付補償部57、画像補間部58、および破綻箇所後処理部60を備える。図2に示す場合と同様の部分には同一の符号を付してあり、その説明は適宜省略する。   FIG. 24 is a block diagram illustrating still another example of the functional configuration of the image processing apparatus 1. The image processing apparatus 1 includes a frame memory 51, a vector detection unit 52, a detection vector memory 53, a vector allocation unit 54, an allocation vector memory 55, an allocation flag memory 56, an allocation compensation unit 57, an image interpolation unit 58, and a failed part post-processing. The unit 60 is provided. The same parts as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

破綻箇所後処理部60は、画像補間部58から供給された補間画像の内挿フレームに含まれる画像のうち、破綻した画像に、割付ベクトルメモリ55の内挿フレームに割り付けられた動きベクトルと、予め定めた閾値と、フレームtおよび次のフレームt+1の画素値とを用いて、後処理を適用する。破綻箇所後処理部60は、破綻した画像に後処理を適用した、60P信号の画像を図示せぬ後段に出力する。   The failure location post-processing unit 60, among the images included in the interpolation frame of the interpolation image supplied from the image interpolation unit 58, the motion vector assigned to the interpolation frame of the allocation vector memory 55 to the failed image, Post-processing is applied using a predetermined threshold value and pixel values of the frame t and the next frame t + 1. The failed part post-processing unit 60 outputs a 60P signal image obtained by applying post-processing to the failed image to a subsequent stage (not shown).

このように、第1のフレーム上の動きベクトルを検出し、第2のフレーム上の画素に、検出された動きベクトルを割り付け、割り付けられた動きベクトルに基づいて、第1のフレームおよび第3のフレームから、第2のフレーム上の画素の画素値を生成するようにした場合には、画像を生成することができる。また、画素値が生成された第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている動きベクトルと、注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている動きベクトルとのばらつきを示す値を算出し、動きベクトルのばらつきを示す値を基に、注目画素において第2のフレームの画像が破綻しているか否かを判定し、第2のフレームの画像が破綻していると判定された場合、第2のフレームにおける注目画素を含む所定の範囲の画像から、画像の高域成分を除去するようにした場合には、生成した画像の破綻を目立たないようにすることができる。   In this way, the motion vector on the first frame is detected, the detected motion vector is allocated to the pixels on the second frame, and the first frame and the third frame are assigned based on the allocated motion vector. When the pixel values of the pixels on the second frame are generated from the frame, an image can be generated. Further, the pixels on the second frame in which the pixel value is generated are the motion vector assigned to the target pixel that is the target pixel and the pixels in a predetermined range around the target pixel. Calculating a value indicating variation with the motion vector assigned to the peripheral pixels, and determining whether the image of the second frame is broken at the target pixel based on the value indicating variation in the motion vector; When it is determined that the image of the second frame is broken, it is generated when the high frequency component of the image is removed from the image of the predetermined range including the target pixel in the second frame. It is possible to make the image corruption inconspicuous.

また、本実施の形態においては、各処理を行う領域を、例えば、5画素×5画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行う領域を構成する画素は、この画素数に限定されない。   Further, in the present embodiment, the area where each process is performed is described as being configured by, for example, 5 pixels × 5 pixels, but these are only examples, and the pixels constituting the area where each process is performed Is not limited to this number of pixels.

さらに、本実施の形態においては、24P信号から60P信号への信号変換を例に、説明を行ったが、本発明は、例えば、動画像のフレーム周波数変換として、インターレース信号や、他のフレームレート変換にも適用することができる。   Furthermore, in the present embodiment, the signal conversion from the 24P signal to the 60P signal has been described as an example. However, the present invention can be applied to, for example, interlaced signals and other frame rates as frame frequency conversion of moving images. It can also be applied to conversion.

また、入力画像は、アナログ信号またはデジタル信号のどちらの信号を媒体とする画像でもよく、さらに、記録媒体から読み出した画像、放送または通信により送信されてきた画像、ネットワークを介して取得した画像などいずれの画像でもよく、本発明を限定するものではない。   The input image may be an image using either an analog signal or a digital signal as a medium. Further, an image read from a recording medium, an image transmitted by broadcasting or communication, an image acquired via a network, etc. Any image may be used, and the present invention is not limited thereto.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図1に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア21、または、プログラムが一時的もしくは永続的に格納されるROM12や、記憶部18を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部19を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 1, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disk), or removable media 21 that is a package medium made of semiconductor memory or the like, or ROM 12 in which a program is temporarily or permanently stored, The storage unit 18 is configured by a hard disk or the like. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 19 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した画像処理装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the image processing apparatus to which this invention is applied. 画像処理装置の機能の構成の例を示すブロック図である。It is a block diagram which shows the example of a function structure of an image processing apparatus. フレームを内挿する処理の原理を説明する図である。It is a figure explaining the principle of the process which interpolates a flame | frame. フレームを内挿する処理をより具体的に説明する図である。It is a figure explaining the process which interpolates a frame more concretely. フレーム周波数を変換する処理を説明するフローチャートである。It is a flowchart explaining the process which converts a frame frequency. 画像補間部の構成を示すブロック図である。It is a block diagram which shows the structure of an image interpolation part. 画像補間処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an image interpolation process. 内挿フレームを説明する図である。It is a figure explaining an interpolation frame. フレーム全体後処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of the whole frame post-processing part. 0ベクトル補間画像生成部における画素値の生成を説明する図である。It is a figure explaining the production | generation of the pixel value in a 0 vector interpolation image generation part. フレーム全体の後処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the post-process of the whole flame | frame. 破綻箇所後処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of a failure location post-processing part. ばらつきを示す値の算出の対象となる動きベクトルが割り付けられている画素の範囲を示す図である。It is a figure which shows the range of the pixel to which the motion vector used as the object of calculation of the value which shows dispersion | variation is allocated. VDASの算出に用いる動きベクトルが割り付けられている画素の範囲を示す図である。It is a figure which shows the range of the pixel to which the motion vector used for calculation of VDAS is allocated. 画像の破綻の誤検出を説明する図である。It is a figure explaining the erroneous detection of the failure of an image. 画像の破綻の誤検出を説明する図である。It is a figure explaining the erroneous detection of the failure of an image. 差分絶対値D(p)の算出を説明する図である。It is a figure explaining calculation of difference absolute value D (p). 破綻箇所の後処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the post-process of a failure location. フィルタの特性を説明する図である。It is a figure explaining the characteristic of a filter. 破綻箇所後処理部の構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a structure of a failure location post-processing part. 破綻箇所の後処理の詳細の他の例を説明するフローチャートである。It is a flowchart explaining the other example of the detail of the post-process of a failure location. 画像処理装置の機能の構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a function structure of an image processing apparatus. 画像処理装置の機能の構成のさらに他の例を示すブロック図である。FIG. 10 is a block diagram illustrating still another example of the functional configuration of the image processing apparatus. 画像処理装置の機能の構成のさらに他の例を示すブロック図である。FIG. 10 is a block diagram illustrating still another example of the functional configuration of the image processing apparatus.

符号の説明Explanation of symbols

11 CPU, 12 ROM, 13 RAM, 18 記憶部, 21 リムーバブルメディア, 51 フレームメモリ, 52 ベクトル検出部, 53 検出ベクトルメモリ, 54 ベクトル割付部, 55 割付ベクトルメモリ, 56 割付フラグメモリ, 57 割付補償部, 58 画像補間部, 59 フレーム全体後処理部, 60 破綻箇所後処理部, 111 0ベクトル補間画像生成部, 112 画像混合部, 141 ベクトル特徴量算出部, 142 破綻箇所判定部, 143 画像特徴量算出部, 144 フィルタ係数ROM, 145 フィルタ選択部, 146 フィルタ処理部, 161 破綻箇所判定部   11 CPU, 12 ROM, 13 RAM, 18 storage unit, 21 removable media, 51 frame memory, 52 vector detection unit, 53 detection vector memory, 54 vector allocation unit, 55 allocation vector memory, 56 allocation flag memory, 57 allocation compensation unit , 58 image interpolation unit, 59 whole frame post-processing unit, 60 failure location post-processing unit, 1100 vector interpolation image generation unit, 112 image mixing unit, 141 vector feature value calculation unit, 142 failure location determination unit, 143 image feature value Calculation unit, 144 Filter coefficient ROM, 145 Filter selection unit, 146 Filter processing unit, 161 Failure location determination unit

Claims (9)

入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理装置において、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する第1の算出手段と、
前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する判定手段と、
前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する除去手段と
を備える画像処理装置。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In an image processing device that generates pixel values of pixels,
A pixel on the second frame in which a pixel value is generated, the motion vector assigned to the pixel of interest that is the pixel of interest, and pixels in a predetermined range around the pixel of interest First calculation means for calculating a value indicating variation with the motion vector assigned to a certain peripheral pixel;
Determination means for determining whether or not the image of the second frame is broken in the target pixel based on a value indicating variation in the motion vector;
An image comprising: removal means for removing a high frequency component of an image from an image in a predetermined range including the target pixel in the second frame when it is determined that the image of the second frame has failed Processing equipment.
前記第1のフレームとの間に前記第2のフレームが配置される、入力された第3のフレーム上の画素であって、前記第2のフレーム上の前記注目画素の位置と同じ位置の第3のフレーム上の画素の画素値と、前記注目画素の位置と同じ位置の前記第1のフレーム上の画素の画素値とから、時間方向の画素値の変化を示す値を算出する第2の算出手段をさらに備え、
前記判定手段は、前記動きベクトルのばらつきを示す値および時間方向の画素値の変化を示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定する
請求項1に記載の画像処理装置。
The second frame is disposed between the first frame and a pixel on the input third frame, the second position being the same as the position of the target pixel on the second frame. A second value that calculates a change in the pixel value in the time direction from the pixel value of the pixel on the third frame and the pixel value of the pixel on the first frame at the same position as the position of the target pixel; A calculation means,
The determination unit determines whether or not the image of the second frame is broken at the target pixel based on a value indicating variation in the motion vector and a value indicating change in the pixel value in the time direction. Item 8. The image processing apparatus according to Item 1.
画像の高域成分を除去する複数のフィルタから、前記動きベクトルのばらつきを示す値を基に、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に適用するフィルタを選択する選択手段をさらに備え、
前記除去手段は、前記第2のフレームにおける前記注目画素を含む前記範囲の画像に選択されたフィルタを適用することで、画像の高域成分を除去する
請求項1に記載の画像処理装置。
Selection means for selecting a filter to be applied to the image in the range including the target pixel in the second frame, based on a value indicating variation in the motion vector, from a plurality of filters that remove high frequency components of the image. In addition,
The image processing apparatus according to claim 1, wherein the removing unit removes a high-frequency component of the image by applying a selected filter to the image in the range including the target pixel in the second frame.
前記選択手段は、前記動きベクトルがよりばらついている場合、画像の高域成分をより多く除去するフィルタを選択する
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the selection unit selects a filter that removes more high-frequency components of the image when the motion vector is more varied.
前記算出手段は、前記第2のフレーム上のn個の画素毎に前記動きベクトルが割り付けられている場合、前記注目画素からn個の画素だけ離れた前記周辺画素に割り付けられている前記動きベクトルと、前記注目画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出する
請求項1に記載の画像処理装置。
When the motion vector is assigned to every n pixels on the second frame, the calculating means assigns the motion vector assigned to the surrounding pixels separated from the target pixel by n pixels. The image processing apparatus according to claim 1, wherein a value indicating variation between the motion vector assigned to the target pixel is calculated.
前記第1のフレーム上の前記動きベクトルを検出する検出手段と、
前記第2のフレーム上の画素に、検出された前記動きベクトルを割り付ける割り付け手段と、
割り付けられた前記動きベクトルに基づいて、前記第1のフレームおよび前記第3のフレームから、前記第2のフレーム上の画素の画素値を生成する生成手段と
をさらに備える請求項1に記載の画像処理装置。
Detecting means for detecting the motion vector on the first frame;
Allocating means for allocating the detected motion vector to pixels on the second frame;
The image according to claim 1, further comprising: generating means for generating a pixel value of a pixel on the second frame from the first frame and the third frame based on the allocated motion vector. Processing equipment.
入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理方法において、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、
前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、
前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する
ステップを含む画像処理方法。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In an image processing method for generating a pixel value of a pixel,
A pixel on the second frame in which a pixel value is generated, the motion vector assigned to the pixel of interest that is the pixel of interest, and pixels in a predetermined range around the pixel of interest Calculate a value indicating a variation with the motion vector assigned to a certain peripheral pixel,
Based on the value indicating the variation of the motion vector, it is determined whether or not the image of the second frame has failed in the pixel of interest,
An image processing method including a step of removing a high frequency component of an image from an image in a predetermined range including the target pixel in the second frame when it is determined that the image of the second frame is broken .
入力された第1のフレーム上の動きベクトルを検出し、検出された前記動きベクトルを第2のフレーム上の画素に割り付けて、割り付けられた前記動きベクトルに基づいて、前記第2のフレーム上の画素の画素値を生成する画像処理を、コンピュータに行わせるプログラムにおいて、
画素値が生成された前記第2のフレーム上の画素であって、注目している画素である注目画素に割り付けられている前記動きベクトルと、前記注目画素の周辺の予め定めた範囲の画素である周辺画素に割り付けられている前記動きベクトルとのばらつきを示す値を算出し、
前記動きベクトルのばらつきを示す値を基に、前記注目画素において前記第2のフレームの画像が破綻しているか否かを判定し、
前記第2のフレームの画像が破綻していると判定された場合、前記第2のフレームにおける前記注目画素を含む所定の範囲の画像から、画像の高域成分を除去する
ステップを含むプログラム。
A motion vector on the input first frame is detected, the detected motion vector is allocated to a pixel on the second frame, and on the second frame based on the allocated motion vector In a program for causing a computer to perform image processing for generating pixel values of pixels,
A pixel on the second frame in which a pixel value is generated, the motion vector assigned to the pixel of interest that is the pixel of interest, and pixels in a predetermined range around the pixel of interest Calculate a value indicating a variation with the motion vector assigned to a certain peripheral pixel,
Based on the value indicating the variation of the motion vector, it is determined whether or not the image of the second frame has failed in the pixel of interest,
A program including a step of removing a high frequency component of an image from an image of a predetermined range including the target pixel in the second frame when it is determined that the image of the second frame is broken.
請求項8に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 8 is recorded.
JP2005261432A 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium Expired - Fee Related JP4650684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005261432A JP4650684B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005261432A JP4650684B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2007074589A JP2007074589A (en) 2007-03-22
JP4650684B2 true JP4650684B2 (en) 2011-03-16

Family

ID=37935618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005261432A Expired - Fee Related JP4650684B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4650684B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135878A (en) * 2007-11-06 2009-06-18 Sony Corp Image processing apparatus and method, learning apparatus and method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218210A (en) * 2000-02-02 2001-08-10 Sony Corp Noise detection method, noise detector, image data processing unit, and recording medium
JP2004180044A (en) * 2002-11-28 2004-06-24 Shibasoku:Kk Motion vector processing method and motion vector processing circuit

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304424B2 (en) * 1992-10-06 2002-07-22 ソニー株式会社 Image conversion device
JP3864444B2 (en) * 1995-12-20 2006-12-27 ソニー株式会社 Image signal processing apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218210A (en) * 2000-02-02 2001-08-10 Sony Corp Noise detection method, noise detector, image data processing unit, and recording medium
JP2004180044A (en) * 2002-11-28 2004-06-24 Shibasoku:Kk Motion vector processing method and motion vector processing circuit

Also Published As

Publication number Publication date
JP2007074589A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
US7881539B2 (en) Image processing apparatus and method, program recording medium, and program
US20100202711A1 (en) Image processing apparatus, image processing method, and program
US20050271144A1 (en) Image processing apparatus and method, and recording medium and program used therewith
US8204124B2 (en) Image processing apparatus, method thereof, and program
WO2001059751A1 (en) Image processing device and method, and recording medium
US8305489B2 (en) Video conversion apparatus and method, and program
JP2014194706A (en) Image processor, image processing method and program
KR100553893B1 (en) Method and apparatus for converting frame rate using time shifting and motion compensation
JP4650683B2 (en) Image processing apparatus and method, program, and recording medium
US8385430B2 (en) Video signal processing apparatus and video signal processing method
US20070229534A1 (en) Apparatus and method for converting interlaced image into progressive image
JP5159651B2 (en) Image processing apparatus, image processing method, and image display apparatus
KR20070094521A (en) Image processing apparatus and method and program
JP4650684B2 (en) Image processing apparatus and method, program, and recording medium
JP4655213B2 (en) Image processing apparatus and method, program, and recording medium
WO2001097510A1 (en) Image processing system, image processing method, program, and recording medium
JP4655214B2 (en) Image processing apparatus and method, program, and recording medium
JP2006101267A (en) Image processing apparatus and method, recording medium, and program
JP4650682B2 (en) Image processing apparatus and method, program, and recording medium
JP2005301620A (en) Image processing apparatus and method, recording medium, and program
JP4250807B2 (en) Field frequency conversion device and conversion method
JP2007110461A (en) Image processing device and method therefor, program and recording medium
JP4655217B2 (en) Image processing apparatus and method, recording medium, and program
JP4623345B2 (en) Image processing apparatus and method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees