JP2002058034A - Apparatus and method for processing image as well as recording medium - Google Patents

Apparatus and method for processing image as well as recording medium

Info

Publication number
JP2002058034A
JP2002058034A JP2000241803A JP2000241803A JP2002058034A JP 2002058034 A JP2002058034 A JP 2002058034A JP 2000241803 A JP2000241803 A JP 2000241803A JP 2000241803 A JP2000241803 A JP 2000241803A JP 2002058034 A JP2002058034 A JP 2002058034A
Authority
JP
Japan
Prior art keywords
class
tap
prediction
motion
selecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000241803A
Other languages
Japanese (ja)
Other versions
JP4415229B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Junichi Ishibashi
淳一 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000241803A priority Critical patent/JP4415229B2/en
Publication of JP2002058034A publication Critical patent/JP2002058034A/en
Application granted granted Critical
Publication of JP4415229B2 publication Critical patent/JP4415229B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable rapid and accurate prediction of an image having a large motion by a smaller-scale circuit. SOLUTION: A motion vector detector 11 detects the motion. A class tap area cutting-out unit 12 selects a class tap of an interval corresponding to the detected motion. An ADRC processing circuit 14 and a class code generator 15 calculate a class based on the selected tap. A predicting arithmetic unit 17 executes the prediction by a predicting method corresponding to the calculated class.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに記録媒体に関し、特に、データを予測
し、または予測に使用するデータを算出する画像処理装
置および方法、並びに記録媒体に関する。
The present invention relates to an image processing apparatus and method, and a recording medium, and more particularly, to an image processing apparatus and method for predicting data or calculating data used for prediction, and a recording medium.

【0002】[0002]

【従来の技術】従来より、図1(A)に示すフレームか
ら成る動画像を基に、その動画像のフレームの間に位置
するフレームを算出して、図1(B)に示すフレームか
ら成る動画像を生成する方法について、種々の方法が提
案されている。そのうちの1つに、クラス分類適応処理
を用いる方法がある。
2. Description of the Related Art Conventionally, based on a moving image composed of frames shown in FIG. 1A, a frame located between the frames of the moving image is calculated, and the frame composed of the frames shown in FIG. Various methods have been proposed for generating moving images. One of them is a method using a classification adaptive processing.

【0003】クラス分類適応処理とは、入力信号を、そ
の特徴に基づいて幾つかのクラスに分類し、各クラスの
入力信号に、そのクラスに適切な適応処理を施すもの
で、大きく、クラス分類処理と適応処理とに分かれてい
る。
[0003] Class classification adaptive processing is to classify an input signal into several classes based on the characteristics thereof, and to apply an appropriate adaptive processing to the input signal of each class to the class. It is divided into processing and adaptive processing.

【0004】ここで、クラス分類処理および適応処理に
ついて簡単に説明する。
Here, the class classification processing and the adaptive processing will be briefly described.

【0005】まず、クラス分類処理について説明する。First, the class classification processing will be described.

【0006】図2(A)に示すように、ある注目画素
と、それに隣接する3つの画素により、2×2画素でな
るブロック(クラス分類用ブロック)を構成し、また、
各画素は、1ビットで表現される(0または1のうちの
いずれかのレベルをとる)ものとする。この場合、注目
画素を含む2×2の4画素のブロックは、各画素のレベ
ル分布により、図2(B)に示すように、16(=(2
14)パターンに分類することができる。従って、いま
の場合、注目画素は、16のパターンに分類することが
できる。
As shown in FIG. 2A, a certain pixel of interest and three adjacent pixels form a block of 2 × 2 pixels (class classification block).
Each pixel is represented by 1 bit (takes any level of 0 or 1). In this case, as shown in FIG. 2B, the 2 × 2 4-pixel block including the target pixel is 16 (= (2
1 ) 4 ) Can be classified into patterns. Therefore, in this case, the target pixel can be classified into 16 patterns.

【0007】ここで、通常、各画素には、8ビット程度
が割り当てられる。クラス分類用のブロックが、3×3
の9画素で構成されると、(289という膨大な数のク
ラスに分類されることになる。
Here, usually, about 8 bits are assigned to each pixel. 3 × 3 blocks for class classification
If it is composed of 9 pixels, it will be classified into an enormous number of classes (2 8 ) 9 .

【0008】クラス分類用のブロックを構成する画素の
ビット数を小さくすることで、クラス数は削減される。
[0008] The number of classes can be reduced by reducing the number of bits of pixels constituting a block for class classification.

【0009】次に、適応処理について説明する。Next, the adaptive processing will be described.

【0010】例えば、いま、元の画像(補間された画像
に相当する(以下、適宜、教師データと称する))のフ
レームの画素値yの予測値E[y]を、そのフレームが
間引かれた画像の画素値(以下、適宜、学習データと称
する)x1,x2,・・・と、所定の予測係数w1,w2
・・・の線形結合により規定される線形1次結合モデル
により求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。
For example, a predicted value E [y] of a pixel value y of a frame of an original image (corresponding to an interpolated image (hereinafter, appropriately referred to as teacher data)) is thinned out. pixel values of the image (hereinafter, appropriately referred to as learning data) x 1, x 2, and ..., predetermined prediction coefficients w 1, w 2,
.. Are considered by a linear first-order combination model defined by the linear combination. In this case, the predicted value E [y]
Can be expressed by the following equation.

【0011】 E[y]=w11+w22+・・・ ・・・(1)E [y] = w 1 x 1 + w 2 x 2 +... (1)

【0012】そこで、一般化するために、予測係数wの
集合でなる行列W、学習データの集合でなる行列X、お
よび予測値E[y]の集合でなる行列Y’を、
Therefore, for generalization, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y] are

【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.

【0013】 XW=Y’ ・・・(2)XW = Y ′ (2)

【0014】そして、この観測方程式に最小自乗法を適
用して、元の画像の画素値yに近い予測値E[y]を求
めることを考える。この場合、元の画像の画素値yの集
合でなる行列Y、および元の画像の画素値yに対する予
測値E[y]の残差eの集合でなる行列Eを、
Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the pixel value y of the original image. In this case, a matrix Y consisting of a set of pixel values y of the original image and a matrix E consisting of a set of residuals e of predicted values E [y] for the pixel values y of the original image are given by:

【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。
(Equation 2) From equation (2), the following residual equation is established.

【0015】 XW=Y+E ・・・(3)XW = Y + E (3)

【0016】この場合、元の画像の画素値yに近い予測
値E[y]を求めるための予測係数wiは、自乗誤差
In this case, a prediction coefficient w i for obtaining a prediction value E [y] close to the pixel value y of the original image is a square error.

【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.

【0017】従って、上述の自乗誤差を予測係数wi
微分したものが0になる場合、即ち、次式を満たす予測
係数wiが、元の画像の画素値yに近い予測値E[y]
を求めるため最適値ということになる。
Therefore, when the above-mentioned squared error is differentiated by the prediction coefficient w i , the result becomes 0, that is, the prediction coefficient w i that satisfies the following equation is a prediction value E [y ]
Is the optimum value.

【0018】[0018]

【数4】 ・・・(4)(Equation 4) ... (4)

【0019】そこで、まず、式(3)を、予測係数wi
で微分することにより、次式が成立する。
Therefore, first, the equation (3) is calculated using the prediction coefficient w i
By differentiating with, the following equation is established.

【0020】[0020]

【数5】 ・・・(5)(Equation 5) ... (5)

【0021】式(4)および(5)より、式(6)が得
られる。
From equations (4) and (5), equation (6) is obtained.

【0022】[0022]

【数6】 ・・・(6)(Equation 6) ... (6)

【0023】さらに、式(3)の残差方程式における学
習データx、予測係数w、教師データy、および残差e
の関係を考慮すると、式(6)から、次のような正規方
程式を得ることができる。
Further, the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of the equation (3) are obtained.
In consideration of the relationship, the following normal equation can be obtained from Expression (6).

【0024】[0024]

【数7】 ・・・(7)(Equation 7) ... (7)

【0025】式(7)の正規方程式は、求めるべき予測
係数wの数と同じ数だけたてることができ、従って、式
(7)を解くことで、最適な予測係数wを求めることが
できる。なお、式(7)を解くにあたっては、例えば、
掃き出し法(Gauss-Jordanの消去法)などを適用するこ
とが可能である。
The normal equation of equation (7) can be set by the same number as the number of prediction coefficients w to be obtained. Therefore, by solving equation (7), the optimum prediction coefficient w can be obtained. . In solving equation (7), for example,
A sweeping method (Gauss-Jordan elimination method) or the like can be applied.

【0026】以上のようにして、クラスごとに最適な予
測係数wを求め、さらに、その予測係数wを用い、式
(1)により、元の画像の画素値yに近い予測値E
[y]を求めるのが適応処理である。
As described above, the optimum prediction coefficient w is obtained for each class, and further, using the prediction coefficient w, the prediction value E close to the pixel value y of the original image is obtained by the equation (1).
Finding [y] is adaptive processing.

【0027】[0027]

【発明が解決しようとする課題】しかしながら、動きの
大きい画像からフレームを予測する場合、クラス分類用
ブロックに含まれる画素(以下、クラスタップとも称す
る)の数、または適応処理を適用するブロックに含まれ
る画素(以下、予測タップとも称する)の数を増やさな
ければ、予測されるフレームの誤差を少なくすることが
できず、このため、処理に必要な回路の規模が増加する
か、または処理に時間がかかるという問題があった。
However, when predicting a frame from an image having a large motion, the number of pixels (hereinafter also referred to as a class tap) included in the classifying block or the number of pixels included in the block to which the adaptive processing is applied is included. If the number of pixels to be predicted (hereinafter also referred to as prediction taps) is not increased, the error of the predicted frame cannot be reduced, and therefore, the scale of a circuit required for processing increases or the time required for processing increases. There was a problem that it took.

【0028】本発明はこのような状況に鑑みてなされた
ものであり、動きの大きい画像を、より小さな規模の回
路で、迅速に、精度良く、予測できるようにすることを
目的とする。
The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to quickly and accurately predict an image having a large motion with a circuit having a smaller scale.

【0029】[0029]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、動きを検出する動き検出手段と、検出された
動きに対応する間隔のクラスタップを選択するクラスタ
ップ選択手段と、選択されたクラスタップを基に、クラ
スを算出するクラス算出手段と、算出したクラスに対応
する予測方式で、予測を実行する予測実行手段とを含む
ことを特徴とする。
An image processing apparatus according to claim 1, wherein: a motion detecting means for detecting a motion; a class tap selecting means for selecting a class tap at intervals corresponding to the detected motion; A class calculating means for calculating a class based on the class taps thus obtained, and a prediction executing means for executing a prediction by a prediction method corresponding to the calculated class.

【0030】クラスタップ選択手段は、総数が一定のク
ラスタップを選択するようにすることができる。
[0030] The class tap selecting means can select a class tap having a fixed total number.

【0031】検出手段は、動きの方向を検出し、クラス
タップ選択手段は、動きの方向に対応する位置関係を有
するクラスタップを選択するようにすることができる。
The detecting means may detect the direction of the movement, and the class tap selecting means may select a class tap having a positional relationship corresponding to the direction of the movement.

【0032】検出手段は、動きの大きさを検出し、クラ
スタップ選択手段は、動きの大きさに対応する距離のク
ラスタップを選択するようにすることができる。
The detecting means may detect the magnitude of the movement, and the class tap selecting means may select a class tap at a distance corresponding to the magnitude of the movement.

【0033】予測実行手段は、フレームの画素を予測す
るようにすることができる。
[0033] The prediction executing means can predict the pixels of the frame.

【0034】請求項6に記載の画像処理方法は、動きを
検出する動き検出ステップと、検出された動きに対応す
る間隔のクラスタップを選択するクラスタップ選択ステ
ップと、選択されたクラスタップを基に、クラスを算出
するクラス算出ステップと、算出したクラスに対応する
予測方式で、予測を実行する予測実行ステップとを含む
ことを特徴とする。
According to a sixth aspect of the present invention, there is provided an image processing method, comprising: a motion detecting step for detecting a motion; a class tap selecting step for selecting a class tap at intervals corresponding to the detected motion; And a prediction execution step of executing prediction by a prediction method corresponding to the calculated class.

【0035】請求項7に記載の記録媒体のプログラム
は、動きを検出する動き検出ステップと、検出された動
きに対応する間隔のクラスタップを選択するクラスタッ
プ選択ステップと、選択されたクラスタップを基に、ク
ラスを算出するクラス算出ステップと、算出したクラス
に対応する予測方式で、予測を実行する予測実行ステッ
プとを含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided a recording medium program comprising: a motion detecting step for detecting a motion; a class tap selecting step for selecting a class tap at an interval corresponding to the detected motion; Basically, the method includes a class calculation step of calculating a class, and a prediction execution step of executing prediction by a prediction method corresponding to the calculated class.

【0036】請求項8に記載の画像処理装置は、動きを
検出する動き検出手段と、クラスタップを選択するクラ
スタップ選択手段と、選択されたクラスタップを基に、
クラスを算出するクラス算出手段と、検出された動きに
対応する間隔の予測タップを選択する予測タップ選択手
段と、算出したクラスに対応する予測係数、および選択
された予測タップを基に、予測を実行する予測実行手段
とを含むことを特徴とする。
According to the image processing apparatus of the present invention, the motion detecting means for detecting the motion, the class tap selecting means for selecting the class tap, and the class tap selected based on the selected class tap.
Class calculating means for calculating a class; predictive tap selecting means for selecting a predictive tap at an interval corresponding to the detected movement; predictive coefficient corresponding to the calculated class; and a predictive tap based on the selected predictive tap. And a prediction execution means for executing.

【0037】予測タップ選択手段は、総数が一定の予測
タップを選択するようにすることができる。
[0037] The prediction tap selecting means can select a predetermined number of prediction taps.

【0038】検出手段は、動きの方向を検出し、予測タ
ップ選択手段は、動きの方向に対応する位置関係を有す
る予測タップを選択するようにすることができる。
The detecting means may detect the direction of the movement, and the predictive tap selecting means may select a predictive tap having a positional relationship corresponding to the direction of the motion.

【0039】検出手段は、動きの大きさを検出し、予測
タップ選択手段は、動きの大きさに対応する距離の予測
タップを選択するようにすることができる。
The detecting means may detect the magnitude of the motion, and the predictive tap selecting means may select a predictive tap at a distance corresponding to the magnitude of the motion.

【0040】予測実行手段は、フレームの画素を予測す
るようにすることができる。
The prediction executing means can predict the pixels of the frame.

【0041】請求項13に記載の画像処理方法は、動き
を検出する動き検出ステップと、クラスタップを選択す
るクラスタップ選択ステップと、選択されたクラスタッ
プを基に、クラスを算出するクラス算出ステップと、検
出された動きに対応する間隔の予測タップを選択する予
測タップ選択ステップと、算出したクラスに対応する予
測係数、および選択された予測タップを基に、予測を実
行する予測実行ステップとを含むことを特徴とする。
According to a thirteenth aspect of the present invention, in the image processing method, a motion detecting step for detecting a motion, a class tap selecting step for selecting a class tap, and a class calculating step for calculating a class based on the selected class tap. And a prediction tap selection step of selecting a prediction tap at an interval corresponding to the detected motion; and a prediction execution step of performing prediction based on the prediction coefficient corresponding to the calculated class and the selected prediction tap. It is characterized by including.

【0042】請求項14に記載の記録媒体のプログラム
は、動きを検出する動き検出ステップと、クラスタップ
を選択するクラスタップ選択ステップと、選択されたク
ラスタップを基に、クラスを算出するクラス算出ステッ
プと、検出された動きに対応する間隔の予測タップを選
択する予測タップ選択ステップと、算出したクラスに対
応する予測係数、および選択された予測タップを基に、
予測を実行する予測実行ステップとを含むことを特徴と
する。
According to a fourteenth aspect of the present invention, there is provided a program for a recording medium, comprising: a motion detecting step for detecting a motion, a class tap selecting step for selecting a class tap, and a class calculation for calculating a class based on the selected class tap. Steps, a prediction tap selection step of selecting a prediction tap at an interval corresponding to the detected motion, and a prediction coefficient corresponding to the calculated class, and based on the selected prediction tap,
And a prediction execution step of performing prediction.

【0043】請求項15に記載の画像処理装置は入力さ
れた教師データから学習データを生成する学習データ生
成手段と、学習データの動きを検出する動き検出手段
と、学習データから、検出された動きに対応する間隔の
クラスタップを選択するクラスタップ選択手段と、選択
されたクラスタップを基に、クラスを算出するクラス算
出手段と、教師データから、クラスに対応する予測係数
を算出する予測係数算出手段とを含むことを特徴とす
る。
According to a fifteenth aspect of the present invention, there is provided an image processing apparatus comprising: learning data generating means for generating learning data from input teacher data; motion detecting means for detecting a motion of learning data; Class tap selecting means for selecting a class tap at an interval corresponding to, class calculating means for calculating a class based on the selected class tap, and prediction coefficient calculation for calculating a prediction coefficient corresponding to the class from teacher data Means.

【0044】請求項16に記載の画像処理方法は、入力
された教師データから学習データを生成する学習データ
生成ステップと、学習データの動きを検出する動き検出
ステップと、学習データから、検出された動きに対応す
る間隔のクラスタップを選択するクラスタップ選択ステ
ップと、選択されたクラスタップを基に、クラスを算出
するクラス算出ステップと、教師データから、クラスに
対応する予測係数を算出する予測係数算出ステップとを
含むことを特徴とする。
In the image processing method according to the present invention, a learning data generating step for generating learning data from input teacher data, a motion detecting step for detecting a motion of the learning data, and the learning data are detected. A class tap selection step of selecting a class tap at an interval corresponding to the movement, a class calculation step of calculating a class based on the selected class tap, and a prediction coefficient of calculating a prediction coefficient corresponding to the class from teacher data And a calculating step.

【0045】請求項17に記載の画像処理装置は、入力
された教師データから学習データを生成する学習データ
生成手段と、学習データの動きを検出する動き検出手段
と、学習データから、クラスタップを選択するクラスタ
ップ選択手段と、選択されたクラスタップを基に、クラ
スを算出するクラス算出手段と、学習データから、検出
された動きに対応する間隔の予測タップを選択する予測
タップ選択手段と、選択された予測タップおよび教師デ
ータから、クラスに対応する予測係数を算出する予測係
数算出手段とを含むことを特徴とする。
An image processing apparatus according to a seventeenth aspect provides a learning data generating means for generating learning data from input teacher data, a motion detecting means for detecting a motion of the learning data, and a class tap from the learning data. Class tap selecting means to select, class calculating means for calculating a class based on the selected class tap, and prediction tap selecting means for selecting a prediction tap at an interval corresponding to the detected motion from the learning data, A prediction coefficient calculation unit configured to calculate a prediction coefficient corresponding to the class from the selected prediction tap and the teacher data.

【0046】請求項18に記載の画像処理方法は、入力
された教師データから学習データを生成する学習データ
生成ステップと、学習データの動きを検出する動き検出
ステップと、学習データから、クラスタップを選択する
クラスタップ選択ステップと、選択されたクラスタップ
を基に、クラスを算出するクラス算出ステップと、学習
データから、検出された動きに対応する間隔の予測タッ
プを選択する予測タップ選択ステップと、選択された予
測タップおよび教師データから、クラスに対応する予測
係数を算出する予測係数算出ステップとを含むことを特
徴とする。
In the image processing method according to the present invention, a learning data generating step for generating learning data from input teacher data, a motion detecting step for detecting a motion of the learning data, and a class tap from the learning data are performed. A class tap selection step to select, a class calculation step of calculating a class based on the selected class tap, and a prediction tap selection step of selecting a prediction tap at an interval corresponding to the detected motion from the learning data, Calculating a prediction coefficient corresponding to the class from the selected prediction tap and the teacher data.

【0047】請求項1に記載の画像処理装置、請求項6
に記載の画像処理方法、および請求項7に記載の記録媒
体においては、動きが検出され、検出された動きに対応
する間隔のクラスタップが選択され、選択されたクラス
タップを基に、クラスが算出され、算出したクラスに対
応する予測方式で、予測が実行される。
The image processing apparatus according to claim 1, claim 6.
In the image processing method described in the above, and the recording medium described in the claim 7, a motion is detected, a class tap at an interval corresponding to the detected motion is selected, and a class is determined based on the selected class tap. The prediction is performed using the calculated and predicted method corresponding to the calculated class.

【0048】請求項8に記載の画像処理装置、請求項1
3に記載の画像処理方法、および請求項14に記載の記
録媒体においては、動きが検出され、クラスタップが選
択され、選択されたクラスタップを基に、クラスが算出
され、検出された動きに対応する間隔の予測タップが選
択され、算出したクラスに対応する予測係数、および選
択された予測タップを基に、予測が実行される。
An image processing apparatus according to claim 8, wherein
In the image processing method according to the third aspect and the recording medium according to the fourteenth aspect, a motion is detected, a class tap is selected, a class is calculated based on the selected class tap, and a motion is detected. A prediction tap at a corresponding interval is selected, and prediction is executed based on the prediction coefficient corresponding to the calculated class and the selected prediction tap.

【0049】請求項15に記載の画像処理装置、および
請求項16に記載の画像処理方法においては、入力され
た教師データから学習データが生成され、学習データの
動きが検出され、学習データから、検出された動きに対
応する間隔のクラスタップが選択され、選択されたクラ
スタップを基に、クラスが算出され、教師データから、
クラスに対応する予測係数が算出される。
In the image processing apparatus according to the present invention, the learning data is generated from the input teacher data, the movement of the learning data is detected, and Class taps at intervals corresponding to the detected motion are selected, a class is calculated based on the selected class taps, and from the teacher data,
A prediction coefficient corresponding to the class is calculated.

【0050】請求項17に記載の画像処理装置、および
請求項18に記載の画像処理方法においては、入力され
た教師データから学習データが生成され、学習データの
動きが検出され、学習データから、クラスタップが選択
され、選択されたクラスタップを基に、クラスが算出さ
れ、学習データから、検出された動きに対応する間隔の
予測タップが選択され、選択された予測タップおよび教
師データから、クラスに対応する予測係数が算出され
る。
According to the image processing apparatus of the present invention, the learning data is generated from the input teacher data, the movement of the learning data is detected, and A class tap is selected, a class is calculated based on the selected class tap, a prediction tap at an interval corresponding to the detected motion is selected from the learning data, and a class is selected from the selected prediction tap and the teacher data. Is calculated.

【0051】[0051]

【発明の実施の形態】図3は、フレームを補間する、本
発明に係る画像処理装置の一実施の形態の構成を示す図
である。動きベクトル検出部11、クラスタップ領域切
り出し部12、予測タップ領域切り出し部13、および
予測演算部17には、画像処理装置に入力された画像デ
ータが供給される。
FIG. 3 is a diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention for interpolating frames. Image data input to the image processing apparatus is supplied to the motion vector detecting unit 11, the class tap area extracting unit 12, the prediction tap area extracting unit 13, and the prediction calculating unit 17.

【0052】動きベクトル検出部11は、例えば、入力
された画像データの2つのフレームを基に、動きベクト
ルを生成して、生成した動きベクトルをクラスタップ領
域切り出し部12および予測タップ領域切り出し部13
に供給する。
The motion vector detecting section 11 generates a motion vector based on, for example, two frames of the input image data, and outputs the generated motion vector to the class tap area extracting section 12 and the prediction tap area extracting section 13.
To supply.

【0053】クラスタップ領域切り出し部12は、動き
ベクトル検出部11から供給された動きベクトルを基
に、画像データからクラスタップとしての画素を切り出
して、切り出したクラスタップをADRC(Adaptive D
ynamic Range Coding)処理部14に供給する。
The class tap area cutout unit 12 cuts out pixels as class taps from the image data based on the motion vector supplied from the motion vector detection unit 11, and classifies the cut out class taps into an ADRC (Adaptive D).
(Dynamic Range Coding) processing unit 14.

【0054】予測タップ領域切り出し部13は、動きベ
クトル検出部11から供給された動きベクトルを基に、
画像データから予測タップとしての画素を切り出して、
切り出した予測タップを予測演算部17に供給する。
The prediction tap area cutout unit 13 uses the motion vector supplied from the motion vector detection unit 11
Cut out pixels as prediction taps from image data,
The extracted prediction tap is supplied to the prediction calculation unit 17.

【0055】ここで、クラスタップ領域切り出し部12
または予測タップ領域切り出し部13によるタップの切
り出しについて説明する。
Here, the class tap area cutout section 12
Alternatively, tap extraction by the predicted tap area extraction unit 13 will be described.

【0056】タップの切り出しの処理を説明するため
に、まず、移動する物体を、その物体の移動速度に比較
してゆっくりとした速度でパンさせて撮像した画像にお
ける画素の動きを図4に示すグラフを参照して説明す
る。
FIG. 4 shows the movement of pixels in an image obtained by panning a moving object at a speed slower than the moving speed of the moving object in order to explain the tap cutting process. This will be described with reference to a graph.

【0057】フレームが間引きされる前の元の画像にお
ける、背景に対応する画素は、ゆっくりとした速度でパ
ンされて撮像されているので、図4の○で示すように、
フレーム毎の画素の位置の差が少ない。
The pixels corresponding to the background in the original image before the frames are thinned are panned at a slow speed and imaged, and as shown in FIG.
The difference between the pixel positions for each frame is small.

【0058】フレームが間引きされると、図4の△で示
すように、背景に対応する画素は、フレームが間引きさ
れる前の元の画像の場合に比較して、フレーム毎の画素
の位置の差が増える。
When the frame is thinned out, the pixel corresponding to the background is compared with the original image before the frame is thinned out, as shown by the triangle in FIG. The difference increases.

【0059】フレームが間引きされる前の元の画像にお
ける、移動する物体に対応する画素は、図4の□で示す
ように、背景の画素に比較して、フレーム毎の画素の位
置の差が大きい。
The pixels corresponding to the moving object in the original image before the frames are decimated have a difference in the position of the pixels in each frame as compared with the background pixels as shown by the square in FIG. large.

【0060】移動する物体の速度が大きくなると、フレ
ーム毎の画素の位置の差は、より大きくなる。
As the speed of the moving object increases, the difference between the pixel positions for each frame increases.

【0061】フレームが間引きされると、図4の×で示
すように、移動する物体に対応する画素のフレーム毎の
位置の差は、更に大きくなる。
When the frames are thinned out, the difference between the positions of the pixels corresponding to the moving object in each frame is further increased, as shown by X in FIG.

【0062】図5および図6は、移動する物体に対応す
る画素の位置と、予測タップの位置の対応を説明する図
である。移動する物体に対応する画素を予測しようとす
る場合、予測タップの間隔が狭いとき、図5に示すよう
に、間引きされた画像において、移動する物体に対応す
る画素は、予測タップとして利用されない。このような
場合、補間されるフレームにおける画素が、移動する物
体に対応する画素であるにもかかわらず、移動する物体
に対応する画素以外の画素を利用して予測が行われるこ
とになるので、予測は、適切に行われない。
FIGS. 5 and 6 are diagrams for explaining the correspondence between the position of the pixel corresponding to the moving object and the position of the prediction tap. When the pixel corresponding to the moving object is to be predicted, when the interval between the prediction taps is narrow, the pixel corresponding to the moving object is not used as the prediction tap in the thinned image as shown in FIG. In such a case, since the pixel in the frame to be interpolated is a pixel corresponding to the moving object, the prediction is performed using pixels other than the pixel corresponding to the moving object. The prediction is not made properly.

【0063】これに対して、予測タップの間隔を広くす
ることにより、図6に示すように、間引きされた画像に
おいて、移動する物体に対応する画素を、予測タップと
して利用することができる。すなわち、移動する物体に
対応する画素を利用して予測が行われることになるの
で、予測は、適切に行われる。
On the other hand, by widening the interval between the prediction taps, the pixels corresponding to the moving object can be used as the prediction taps in the decimated image as shown in FIG. That is, since the prediction is performed using the pixel corresponding to the moving object, the prediction is appropriately performed.

【0064】このように、移動する物体に対応する画像
の動きに対応させて、予測タップの間隔を広くすれば、
移動する物体に対応する画素を、予測タップとして利用
することができるようになり、画像処理装置は、精度の
高い予測をすることができるようになる。
As described above, if the interval between the prediction taps is increased in accordance with the movement of the image corresponding to the moving object,
A pixel corresponding to a moving object can be used as a prediction tap, and the image processing apparatus can perform highly accurate prediction.

【0065】予測タップ領域切り出し部13は、例え
ば、図7に示すように、予め定められたaである基準タ
ップ間隔を記憶している。予測タップ領域切り出し部1
3は、動きベクトル検出部11から動きベクトルが供給
されたとき、動きベクトルから、例えば、水平方向の動
き量αおよび垂直方向の動き量βを抽出する。
The prediction tap area cutout unit 13 stores, for example, a reference tap interval which is a predetermined a as shown in FIG. Predicted tap area cutout unit 1
3, when the motion vector is supplied from the motion vector detection unit 11, for example, a horizontal motion amount α and a vertical motion amount β are extracted from the motion vector.

【0066】予測タップ領域切り出し部13は、水平方
向の動き量αが予め記憶している閾値より大きいか否か
を判定し、水平方向の動き量αが予め記憶している閾値
より大きいと判定された場合、基準タップ間隔aと水平
方向の動き量αとを乗じて、水平方向の予測タップのタ
ップ間隔を求める。
The prediction tap area cutout unit 13 determines whether the horizontal motion amount α is larger than a previously stored threshold value, and determines that the horizontal motion amount α is larger than the previously stored threshold value. In this case, the reference tap interval a is multiplied by the horizontal motion amount α to obtain the tap interval of the horizontal prediction tap.

【0067】予測タップ領域切り出し部13は、垂直方
向の動き量βが予め記憶している閾値より大きいか否か
を判定し、垂直方向の動き量βが予め記憶している閾値
より大きいと判定された場合、基準タップ間隔aと垂直
方向の動き量βとを乗じて、垂直方向の予測タップのタ
ップ間隔を求める。
The prediction tap area cutout unit 13 determines whether the vertical motion amount β is larger than a previously stored threshold value, and determines that the vertical motion amount β is larger than the previously stored threshold value. In this case, the reference tap interval a is multiplied by the vertical movement amount β to obtain the tap interval of the prediction tap in the vertical direction.

【0068】例えば、図8に示すように、基準タップ間
隔が1であり、垂直方向の動き量βが2であり、水平方
向の動き量αが3であり、予め記憶している閾値が1で
ある場合、予測タップ領域切り出し部13は、垂直方向
の予測タップのタップ間隔を2とし(垂直方向の予測タ
ップの間に1つ画素が存在する)、水平方向の予測タッ
プのタップ間隔を3とする(水平方向の予測タップの間
に2つ画素が存在する)。
For example, as shown in FIG. 8, the reference tap interval is 1, the vertical movement amount β is 2, the horizontal movement amount α is 3, and the previously stored threshold value is 1. In the case of, the prediction tap area cutout unit 13 sets the tap interval of the prediction tap in the vertical direction to 2 (one pixel exists between the prediction taps in the vertical direction), and sets the tap interval of the prediction tap in the horizontal direction to 3 (Two pixels exist between prediction taps in the horizontal direction).

【0069】このように、水平方向の動き量αおよび垂
直方向の動き量βが共に閾値より大きい場合、予測タッ
プ領域切り出し部13は、基準タップ間隔aと水平方向
の動き量αとを乗じて得られた間隔を、水平方向の予測
タップのタップ間隔とし、基準タップ間隔aと垂直方向
の動き量βとを乗じて得られた間隔を、垂直方向の予測
タップのタップ間隔とする。
As described above, when both the horizontal motion amount α and the vertical motion amount β are larger than the threshold value, the prediction tap area cutout unit 13 multiplies the reference tap interval a by the horizontal motion amount α. The obtained interval is set as the tap interval of the prediction tap in the horizontal direction, and the interval obtained by multiplying the reference tap interval a by the movement amount β in the vertical direction is set as the tap interval of the prediction tap in the vertical direction.

【0070】これに対して、垂直方向の動き量βが予め
記憶している閾値以下であると判定された場合、予測タ
ップ領域切り出し部13は、基準タップ間隔aを、垂直
方向の予測タップのタップ間隔とする。
On the other hand, when it is determined that the vertical movement amount β is equal to or less than the threshold value stored in advance, the prediction tap area cutout unit 13 sets the reference tap interval a to the vertical prediction tap of the prediction tap. Tap interval.

【0071】すなわち、垂直方向の動き量βが予め記憶
している閾値以下であり、水平方向の動き量αが閾値よ
り大きい場合、予測タップ領域切り出し部13は、基準
タップ間隔aと水平方向の動き量αとを乗じて得られた
間隔を、水平方向の予測タップのタップ間隔とし、基準
タップ間隔aを、垂直方向の予測タップのタップ間隔と
する。
That is, when the vertical motion amount β is equal to or smaller than the threshold value stored in advance and the horizontal motion amount α is larger than the threshold value, the prediction tap area cutout unit 13 determines whether the reference tap interval a is The interval obtained by multiplying by the motion amount α is set as the tap interval of the prediction tap in the horizontal direction, and the reference tap interval a is set as the tap interval of the prediction tap in the vertical direction.

【0072】例えば、図9に示すように、基準タップ間
隔が1であり、垂直方向の動き量βが0であり、水平方
向の動き量αが2であり、予め記憶している閾値が1で
ある場合、予測タップ領域切り出し部13は、垂直方向
の予測タップのタップ間隔を1とし(垂直方向の予測タ
ップが隣接する)、水平方向の予測タップのタップ間隔
を2とする(水平方向の予測タップの間に1つ画素が存
在する)。
For example, as shown in FIG. 9, the reference tap interval is 1, the vertical movement amount β is 0, the horizontal movement amount α is 2, and the previously stored threshold value is 1. In the case of, the prediction tap area cutout unit 13 sets the tap interval of the vertical prediction tap to 1 (the vertical prediction tap is adjacent), and sets the tap interval of the horizontal prediction tap to 2 (horizontal direction). There is one pixel between prediction taps).

【0073】また、水平方向の動き量αが予め記憶して
いる閾値以下であると判定された場合、予測タップ領域
切り出し部13は、基準タップ間隔aを、水平方向の予
測タップのタップ間隔とする。
When it is determined that the horizontal movement amount α is equal to or smaller than the threshold value stored in advance, the prediction tap area cutout unit 13 sets the reference tap interval a to the tap interval of the horizontal prediction tap. I do.

【0074】すなわち、水平方向の動き量αが予め記憶
している閾値以下であり、垂直方向の動き量βが閾値よ
り大きい場合、図10に示すように、予測タップ領域切
り出し部13は、基準タップ間隔aを、水平方向の予測
タップのタップ間隔とし、基準タップ間隔aと垂直方向
の動き量βとを乗じて得られた間隔を、垂直方向の予測
タップのタップ間隔とする。
That is, when the horizontal motion amount α is equal to or smaller than the threshold value stored in advance and the vertical motion amount β is larger than the threshold value, as shown in FIG. The tap interval a is set as the tap interval of the prediction tap in the horizontal direction, and the interval obtained by multiplying the reference tap interval a by the amount of movement β in the vertical direction is set as the tap interval of the prediction tap in the vertical direction.

【0075】例えば、図10に示すように、基準タップ
間隔が1であり、垂直方向の動き量βが2であり、水平
方向の動き量αが0であり、予め記憶している閾値が1
である場合、予測タップ領域切り出し部13は、垂直方
向の予測タップのタップ間隔を2とし、水平方向の予測
タップのタップ間隔を1とする(水平方向の予測タップ
が隣接する)。
For example, as shown in FIG. 10, the reference tap interval is 1, the vertical movement amount β is 2, the horizontal movement amount α is 0, and the previously stored threshold value is 1.
In the case of, the prediction tap region cutout unit 13 sets the tap interval of the prediction tap in the vertical direction to 2 and sets the tap interval of the prediction tap in the horizontal direction to 1 (the prediction tap in the horizontal direction is adjacent).

【0076】このようにすることで、予測タップ領域切
り出し部13は、画像に移動する物体の画素が含まれて
いても、適切な画素を予測タップとすることができ、そ
の結果、画像処理装置は、補間するフレームとして精度
の高い画像を予測することができる。
By doing so, the prediction tap area cutout unit 13 can set an appropriate pixel as a prediction tap even if the image includes a pixel of a moving object. As a result, the image processing apparatus Can predict a highly accurate image as a frame to be interpolated.

【0077】予測タップ領域切り出し部13が、例え
ば、予め記憶している数値に対応させて、その総数が一
定である画素を予測タップとするようにしても良い。
For example, the prediction tap area cutout unit 13 may set a pixel whose total number is constant as a prediction tap in correspondence with a numerical value stored in advance.

【0078】なお、動きベクトル検出部11が、動きベ
クトルの方向を示すデータを出力し、予測タップ領域切
り出し部13が、動きベクトルの方向を示すデータを基
に、予測タップを選択するようにしてもよい。また、例
えば、予測タップ領域切り出し部13が、水平方向の動
き量αが1以上であるか否か、または垂直方向の動き量
βが1以上であるか否かなどを基に、適切な画素を予測
タップとするようにしてもよい。
Note that the motion vector detecting section 11 outputs data indicating the direction of the motion vector, and the prediction tap area cutout section 13 selects a prediction tap based on the data indicating the direction of the motion vector. Is also good. In addition, for example, the prediction tap region cutout unit 13 may determine an appropriate pixel based on whether the horizontal motion amount α is 1 or more, or the vertical motion amount β is 1 or more. May be used as the prediction tap.

【0079】なお、動きベクトル検出部11が、動きベ
クトルの大きさを示すデータを出力し、予測タップ領域
切り出し部13が、動きベクトルの大きさを示すデータ
を基に、予測タップを選択するようにしてもよい。ま
た、例えば、予測タップ領域切り出し部13が、動きベ
クトルの大きさを基に、適切な画素を予測タップとする
ようにしてもよい。
The motion vector detecting section 11 outputs data indicating the magnitude of the motion vector, and the prediction tap area cutout section 13 selects a prediction tap based on the data indicating the magnitude of the motion vector. It may be. Further, for example, the prediction tap region cutout unit 13 may set an appropriate pixel as a prediction tap based on the magnitude of the motion vector.

【0080】クラスタップ領域切り出し部12も、以上
で説明した予測タップ領域切り出し部13と同様の処理
で、動きベクトルに対応して、クラスタップの間隔を変
更するので、その説明は省略する。
The class tap area cutout section 12 changes the interval between class taps in accordance with the motion vector in the same processing as that of the prediction tap area cutout section 13 described above, and a description thereof will be omitted.

【0081】クラスタップ領域切り出し部12が、例え
ば、予め記憶している数値に対応させて、その総数が一
定である画素をクラスタップとするようにしても良い。
For example, the class tap area cutout unit 12 may set a pixel having a constant total number as a class tap in correspondence with a numerical value stored in advance.

【0082】なお、動きベクトル検出部11が、動きベ
クトルの方向を示すデータを出力し、クラスタップ領域
切り出し部12が、動きベクトルの方向を示すデータを
基に、クラスタップを選択するようにしてもよい。ま
た、例えば、クラスタップ領域切り出し部12が、水平
方向の動き量αが1以上であるか否か、または垂直方向
の動き量βが1以上であるか否かなどを基に、適切な画
素をクラスタップとするようにしてもよい。
The motion vector detecting section 11 outputs data indicating the direction of the motion vector, and the class tap area extracting section 12 selects a class tap based on the data indicating the direction of the motion vector. Is also good. In addition, for example, the class tap area cutout unit 12 may determine an appropriate pixel based on whether the horizontal motion amount α is 1 or more, or the vertical motion amount β is 1 or more. May be used as a class tap.

【0083】なお、動きベクトル検出部11が、動きベ
クトルの大きさを示すデータを出力し、クラスタップ領
域切り出し部12が、動きベクトルの大きさを示すデー
タを基に、クラスタップを選択するようにしてもよい。
また、例えば、クラスタップ領域切り出し部12が、動
きベクトルの大きさを基に、適切な画素をクラスタップ
とするようにしてもよい。
The motion vector detecting section 11 outputs data indicating the magnitude of the motion vector, and the class tap area cutout section 12 selects a class tap based on the data indicating the magnitude of the motion vector. It may be.
Further, for example, the class tap area cutout unit 12 may set an appropriate pixel as a class tap based on the magnitude of the motion vector.

【0084】図3に戻り、ADRC処理部14は、クラ
スタップ領域切り出し部12から供給されるクラスタッ
プに対して、ADRC処理が施し、これにより、クラス
タップのビット数を小さくすることで、クラス数を削減
する。
Returning to FIG. 3, the ADRC processing section 14 performs ADRC processing on the class tap supplied from the class tap area cutout section 12, thereby reducing the number of bits of the class tap. Reduce the number.

【0085】即ち、例えば、いま、説明を簡単にするた
め、図11(A)に示すように、直線上に並んだ4画素
で構成されるクラスタップを考えると、ADRC処理に
おいては、その画素値の最大値MAXと最小値MINが
検出される。そして、DR=MAX−MINを、クラス
タップの局所的なダイナミックレンジとし、このダイナ
ミックレンジDRに基づいて、クラスタップを構成する
画素の画素値がKビットに再量子化される。
That is, for example, for simplicity, consider a class tap composed of four pixels arranged on a straight line as shown in FIG. A maximum value MAX and a minimum value MIN of the values are detected. Then, DR = MAX−MIN is set as a local dynamic range of the class tap, and based on the dynamic range DR, the pixel values of the pixels forming the class tap are requantized to K bits.

【0086】即ち、クラスタップ内の各画素値から、最
小値MINを減算し、その減算値をDR/2Kで除算す
る。そして、その結果得られる除算値に対応するコード
(ADRCコード)に変換される。具体的には、例え
ば、K=2とした場合、図11(B)に示すように、除
算値が、ダイナミックレンジDRを4(=22)等分し
て得られるいずれの範囲に属するかが判定され、除算値
が、最も下のレベルの範囲、下から2番目のレベルの範
囲、下から3番目のレベルの範囲、または最も上のレベ
ルの範囲に属する場合には、それぞれ、例えば、00
B,01B,10B、または11Bなどの2ビットにコ
ード化される(Bは2進数であることを表す)。
[0086] That is, from each pixel value in the class tap, and subtracts the minimum value MIN, dividing the subtracted value by DR / 2 K. Then, it is converted into a code (ADRC code) corresponding to the resulting division value. Specifically, for example, when K = 2, as shown in FIG. 11 (B), to which range the divided value belongs to the dynamic range DR obtained by equally dividing the dynamic range DR by 4 (= 2 2 ) If the divided value belongs to the range of the lowest level, the range of the second lowest level, the range of the third lowest level, or the range of the highest level, for example, 00
It is encoded into two bits such as B, 01B, 10B, or 11B (B represents a binary number).

【0087】ここで、このようなADRC処理はノンエ
ッジマッチングと呼ばれる。
Here, such ADRC processing is called non-edge matching.

【0088】なお、ADRC処理については、本件出願
人が先に出願した、例えば、特開平3−53778号公
報などに、その詳細が開示されている。
The details of the ADRC processing are disclosed in, for example, Japanese Unexamined Patent Publication No. 3-53778 filed earlier by the present applicant.

【0089】クラスタップを構成する画素に割り当てら
れているビット数より少ないビット数で再量子化を行う
ADRC処理を施すことにより、上述したように、クラ
ス数を削減することができ、このようなADRC処理
が、ADRC処理部14において行われる。
The number of classes can be reduced as described above by performing the ADRC process of performing re-quantization with a smaller number of bits than the number of bits assigned to the pixels constituting the class tap. ADRC processing is performed in the ADRC processing unit 14.

【0090】ADRC処理部14は、クラスタップにA
DRC処理を適応して生成した、ダイナミックレンジD
R、およびADRCコードをクラスコード発生部15に
供給する。
The ADRC processing unit 14 sets the class tap to A
Dynamic range D generated by applying DRC processing
R and the ADRC code are supplied to the class code generator 15.

【0091】クラスコード発生部15は、ADRC処理
部14から供給されたダイナミックレンジDR、および
ADRCコードを基に、最終的なクラスコードを生成
し、クラスコードを予測係数ROM16に供給する。
The class code generation section 15 generates a final class code based on the dynamic range DR and the ADRC code supplied from the ADRC processing section 14, and supplies the class code to the prediction coefficient ROM 16.

【0092】予測係数ROM16は、予め、クラスコー
ドに対応させて予測係数を記憶している。予測係数RO
M16は、クラスコード発生部15からクラスコードが
供給されたとき、供給されたクラスコードが示すクラス
に対応する予測係数を予測演算部17に供給する。
The prediction coefficient ROM 16 stores prediction coefficients in advance corresponding to the class codes. Prediction coefficient RO
When the class code is supplied from the class code generation unit 15, the M 16 supplies the prediction coefficient corresponding to the class indicated by the supplied class code to the prediction calculation unit 17.

【0093】予測演算部17は、予測タップ領域切り出
し部13から供給された予測タップと、予測係数ROM
16から供給された予測係数との線形1次結合により、
補間するフレームである予測値を算出する。予測演算部
17は、画像処理装置に入力された画像データのフレー
ムに、算出した補間するフレームを加えて、フレーム補
間された画像データとして出力する。
The prediction operation unit 17 stores the prediction tap supplied from the prediction tap area cutout unit 13 and the prediction coefficient ROM
By linear combination with the prediction coefficients supplied from 16
A predicted value that is a frame to be interpolated is calculated. The prediction calculation unit 17 adds the calculated frame to be interpolated to the frame of the image data input to the image processing apparatus, and outputs the resultant as frame-interpolated image data.

【0094】このように、本発明に係る画像処理装置
は、入力された画像の動きを基に、クラスタップまたは
予測タップの間隔を適切に変更するので、タップの数を
増やすことなく、精度の高いフレームが補間された画像
データを出力することができる。
As described above, the image processing apparatus according to the present invention appropriately changes the interval between the class taps or the prediction taps based on the motion of the input image, so that the accuracy of the accuracy can be improved without increasing the number of taps. It is possible to output image data in which a high frame is interpolated.

【0095】次に、画像処理装置における、補間するフ
レームの予測の処理を図12のフローチャートを参照し
て、説明する。
Next, the process of predicting a frame to be interpolated in the image processing apparatus will be described with reference to the flowchart of FIG.

【0096】ステップS11において、動きベクトル検
出部11は、入力された画像データから動きベクトルを
検出して、動きベクトルをクラスタップ領域切り出し部
12および予測タップ領域切り出し部13に供給する。
ステップS12において、クラスタップ領域切り出し部
12は、動きベクトル検出部11から供給された動きベ
クトルを基に、クラスタップの間隔を決定する。予測タ
ップ領域切り出し部13は、動きベクトル検出部11か
ら供給された動きベクトルを基に、予測タップの間隔を
決定する。
In step S11, the motion vector detecting section 11 detects a motion vector from the input image data, and supplies the motion vector to the class tap area extracting section 12 and the prediction tap area extracting section 13.
In step S <b> 12, the class tap region cutout unit 12 determines a class tap interval based on the motion vector supplied from the motion vector detection unit 11. The prediction tap region cutout unit 13 determines a prediction tap interval based on the motion vector supplied from the motion vector detection unit 11.

【0097】ステップS13において、クラスタップ領
域切り出し部12は、決定された間隔を基にクラスタッ
プを選択して、選択したクラスタップをADRC処理部
14に出力する。ステップS14において、ADRC処
理部14は、クラスタップ領域切り出し部12から供給
されたクラスタップにADRC処理を適用して、ダイナ
ミックレンジDRおよびADRCコードを生成して、生
成したダイナミックレンジDRおよびADRCコードを
クラスコード発生部15に供給する。クラスコード発生
部15は、ダイナミックレンジDRおよびADRCコー
ドを基に、クラスコードを生成して、クラスコードを予
測係数ROM16に主力する。
In step S13, the class tap area cutout unit 12 selects a class tap based on the determined interval, and outputs the selected class tap to the ADRC processing unit 14. In step S14, the ADRC processing unit 14 applies an ADRC process to the class tap supplied from the class tap region cutout unit 12, generates a dynamic range DR and an ADRC code, and generates the dynamic range DR and the ADRC code. It is supplied to the class code generator 15. The class code generation unit 15 generates a class code based on the dynamic range DR and the ADRC code, and mainly stores the class code in the prediction coefficient ROM 16.

【0098】ステップS15において、予測係数ROM
16は、クラスコード発生部15から供給されたクラス
コードが示すクラスに対応する予測係数を選択して、選
択した予測係数を予測演算部17に出力する。
In step S15, the prediction coefficient ROM
The selector 16 selects a prediction coefficient corresponding to the class indicated by the class code supplied from the class code generator 15 and outputs the selected prediction coefficient to the prediction calculator 17.

【0099】ステップS16において、予測タップ領域
切り出し部13は、ステップS12の処理で決定された
間隔を基に予測タップを選択して、選択した予測タップ
を予測演算部17に出力する。
In step S16, the prediction tap area cutout unit 13 selects a prediction tap based on the interval determined in step S12, and outputs the selected prediction tap to the prediction calculation unit 17.

【0100】ステップS17において、予測演算部17
は、予測タップ領域切り出し部13から供給された予測
タップと、予測係数ROM16から供給された予測係数
との線形1次結合により、補間するフレームである予測
値を算出する。予測演算部17は、画像処理装置に入力
された画像データのフレームに、算出した補間するフレ
ームを加えて、フレーム補間された画像データとして出
力し、手続きは、ステップS11に戻り、予測の処理を
繰り返す。
In step S17, the prediction operation unit 17
Calculates a predicted value, which is a frame to be interpolated, by a linear linear combination of a prediction tap supplied from the prediction tap area cutout unit 13 and a prediction coefficient supplied from the prediction coefficient ROM 16. The prediction calculation unit 17 adds the calculated frame to be interpolated to the frame of the image data input to the image processing apparatus, and outputs the resultant data as frame-interpolated image data. The procedure returns to step S11 to perform the prediction process. repeat.

【0101】このように、クラスタップ領域切り出し部
12は、動きベクトルに対応して、クラスタップの間隔
を設定し、予測タップ領域切り出し部13は、動きベク
トルに対応して予測タップの間隔を設定するので、画像
処理装置は、迅速に、より精度の高いフレームを予測す
ることができる。
As described above, the class tap area cutout unit 12 sets the interval between class taps according to the motion vector, and the prediction tap area cutout unit 13 sets the interval between prediction taps according to the motion vector. Therefore, the image processing apparatus can quickly and accurately predict a frame with higher accuracy.

【0102】次に、図13は、図3の予測係数ROM1
6に記憶されている予測係数を得るための学習を行う画
像処理装置の構成例を示す。
FIG. 13 shows the prediction coefficient ROM1 of FIG.
6 shows a configuration example of an image processing apparatus that performs learning for obtaining a prediction coefficient stored in No. 6.

【0103】フレーム間引きフィルタ51および正規方
程式処理部57には、あらゆる画像に適用可能な予測係
数を得るための画像データ(教師データに対応する)が
提供される。
The frame thinning filter 51 and the normal equation processing unit 57 are provided with image data (corresponding to teacher data) for obtaining a prediction coefficient applicable to any image.

【0104】フレーム間引きフィルタ51は、供給され
る教師データに含まれるフレームを一枚おきに間引い
て、フレームが間引かれた画像データ(学習データに対
応する)を動きベクトル検出部52、クラスタップ領域
切り出し部53、および予測タップ領域切り出し部54
に供給する。
The frame thinning filter 51 thins out every other frame included in the supplied teacher data, and converts the image data (corresponding to the learning data) from which the frames have been thinned out into the motion vector detecting section 52 and the class tap. Area cutout section 53 and predicted tap area cutout section 54
To supply.

【0105】動きベクトル検出部52は、学習データを
基に、動きベクトルを生成して、生成した動きベクトル
をクラスタップ領域切り出し部53および予測タップ領
域切り出し部54に供給する。
The motion vector detection section 52 generates a motion vector based on the learning data, and supplies the generated motion vector to the class tap area cutout section 53 and the prediction tap area cutout section 54.

【0106】クラスタップ領域切り出し部53は、動き
ベクトル検出部52から供給された動きベクトルを基
に、学習データからクラスタップとしての画素を切り出
して、切り出したクラスタップをADRC処理部14に
供給する。クラスタップ領域切り出し部53は、クラス
タップ領域切り出し部12と同様に、動きベクトルに対
応して、クラスタップの間隔を変更する。
The class tap region cutout unit 53 cuts out pixels as class taps from the learning data based on the motion vector supplied from the motion vector detection unit 52, and supplies the cutout class taps to the ADRC processing unit 14. . The class tap area cutout unit 53 changes the interval between class taps according to the motion vector, similarly to the class tap area cutout unit 12.

【0107】ADRC処理部55は、クラスタップ領域
切り出し部53から供給されたクラスタップにADRC
処理を適用して、ダイナミックレンジDRとADRCコ
ードを生成して、生成したダイナミックレンジDRとA
DRCコードをクラスコード発生部56に供給する。
[0107] The ADRC processing section 55 applies the ADRC processing to the class tap supplied from the class tap area cutout section 53.
Applying the processing, a dynamic range DR and an ADRC code are generated, and the generated dynamic range DR and A
The DRC code is supplied to the class code generator 56.

【0108】クラスコード発生部56は、ADRC処理
部55から供給されたダイナミックレンジDR、および
ADRCコードを基に、最終的なクラスコードを生成
し、クラスコードを正規方程式処理部57に供給する。
The class code generator 56 generates a final class code based on the dynamic range DR and the ADRC code supplied from the ADRC processor 55, and supplies the class code to the normal equation processor 57.

【0109】予測タップ領域切り出し部54は、動きベ
クトル検出部52から供給された動きベクトルを基に、
学習データから予測タップとしての画素を切り出して、
切り出した予測タップを正規方程式処理部57に供給す
る。予測タップ領域切り出し部54は、予測タップ領域
切り出し部13と同様に、動きベクトルに対応して、予
測タップの間隔を変更する。
[0109] The prediction tap area cutout unit 54 calculates
Cut out pixels as prediction taps from the training data,
The extracted prediction tap is supplied to the normal equation processing unit 57. The prediction tap area cutout unit 54 changes the interval between prediction taps corresponding to the motion vector, similarly to the prediction tap area cutout unit 13.

【0110】正規方程式処理部57は、予測タップ領域
切り出し部54から供給された予測タップ、および教師
データを受信すると、それらを用いて、最小自乗法によ
り、誤差を最小する予測係数を算出する。
Upon receiving the prediction tap and the teacher data supplied from the prediction tap region cutout unit 54, the normal equation processing unit 57 calculates a prediction coefficient that minimizes the error by using the least tap method.

【0111】即ち、例えば、いま、学習データに含まれ
る予測タップの画素値を、x1,x2,x3,・・・と
し、求めるべき予測係数をw1,w2,w3,・・・とす
るとき、これらの線形1次結合により、教師データの、
ある画素の画素値yを求めるには、予測係数w1,w2
3,・・・は、次式を満たす必要がある。
[0111] That is, for example, now, the pixel values of the prediction taps included in the training data, x 1, x 2, x 3, and ..., and prediction coefficients to be obtained w 1, w 2, w 3 , · ···, and these linear linear combinations allow the teacher data
To determine the pixel value y of a pixel, the prediction coefficients w 1 , w 2 ,
It is necessary that w 3 ,... satisfy the following expression.

【0112】y=w11+w22+w33+・・・Y = w 1 x 1 + w 2 x 2 + w 3 x 3 +...

【0113】そこで、正規方程式処理部57では、同一
クラスの予測タップと、対応する教師データの画素とか
ら、真値yに対する、予測値w11+w22+w33
・・・の自乗誤差を最小とする予測係数w1,w2
3,・・・が、上述した式(7)に示す正規方程式を
たてて解くことにより求められる。従って、この処理を
クラスごとに行うことにより、各クラスごとに、予測係
数が生成される。
Therefore, the normal equation processing unit 57 uses the prediction taps of the same class and the pixels of the corresponding teacher data to predict values w 1 x 1 + w 2 x 2 + w 3 x 3 + for the true value y.
The prediction coefficients w 1 , w 2 ,
w 3, · · · are obtained by solving the normal equation shown in equation (7) described above. Therefore, by performing this process for each class, a prediction coefficient is generated for each class.

【0114】正規方程式処理部57において求められ
た、クラスごとの予測係数は、クラスコードと共に、メ
モリ58に供給される。これにより、メモリ58におい
ては、正規方程式処理部57からの予測係数が、クラス
コードが示すクラスに対応するアドレスに記憶される。
The prediction coefficient for each class obtained by the normal equation processing unit 57 is supplied to the memory 58 together with the class code. As a result, in the memory 58, the prediction coefficient from the normal equation processing unit 57 is stored at the address corresponding to the class indicated by the class code.

【0115】以上のようにして、メモリ58には、各ク
ラスに対応するアドレスに、そのクラスの画素を予測す
るのに最適な予測係数が記憶される。
As described above, in the memory 58, at the address corresponding to each class, the optimum prediction coefficient for predicting the pixel of the class is stored.

【0116】図3の予測係数ROM16には、以上のよ
うにしてメモリ58に記憶されたクラスごとの予測係数
が記憶されている。
The prediction coefficients for each class stored in the memory 58 as described above are stored in the prediction coefficient ROM 16 of FIG.

【0117】次に、図13に示す画像処理装置の予測係
数の記憶の処理について、図14のフローチャートを参
照して説明する。ステップS31において、フレーム間
引きフィルタ51は、入力された画像データから、フレ
ームを間引いて、フレームを間引いた画像データを動き
ベクトル検出部52、クラスタップ領域切り出し部5
3、および予測タップ領域切り出し部54に供給する。
Next, the process of storing the prediction coefficients of the image processing apparatus shown in FIG. 13 will be described with reference to the flowchart of FIG. In step S31, the frame thinning filter 51 thins out frames from the input image data, and outputs the image data obtained by thinning out the frames to the motion vector detecting unit 52 and the class tap area cutting unit 5
3 and the prediction tap area cutout unit 54.

【0118】ステップS32において、動きベクトル検
出部52は、フレーム間引きフィルタ51から供給され
た画像データの動きベクトルを検出する。ステップS3
3において、クラスタップ領域切り出し部53は、動き
ベクトル検出部52から供給された動きベクトルを基
に、クラスタップの間隔を決定する。予測タップ領域切
り出し部54は、動きベクトル検出部52から供給され
た動きベクトルを基に、予測タップの間隔を決定する。
In step S 32, the motion vector detecting section 52 detects a motion vector of the image data supplied from the frame thinning filter 51. Step S3
In 3, the class tap area cutout unit 53 determines the interval between class taps based on the motion vector supplied from the motion vector detection unit 52. The prediction tap area cutout unit 54 determines an interval between prediction taps based on the motion vector supplied from the motion vector detection unit 52.

【0119】ステップS34において、クラスタップ領
域切り出し部53は、決定された間隔を基にクラスタッ
プを選択して、選択したクラスタップをADRC処理部
55に出力する。ステップS35において、ADRC処
理部55は、クラスタップ領域切り出し部53から供給
されたクラスタップにADRC処理を適用して、ダイナ
ミックレンジDRおよびADRCコードを生成して、生
成したダイナミックレンジDRおよびADRCコードを
クラスコード発生部56に供給する。クラスコード発生
部56は、ダイナミックレンジDRおよびADRCコー
ドを基に、クラスコードを生成して、クラスコードを正
規方程式処理部57に主力する。
In step S34, the class tap area cutout unit 53 selects a class tap based on the determined interval, and outputs the selected class tap to the ADRC processing unit 55. In step S35, the ADRC processing section 55 applies the ADRC processing to the class tap supplied from the class tap area cutout section 53, generates a dynamic range DR and an ADRC code, and generates the dynamic range DR and the ADRC code. It is supplied to the class code generator 56. The class code generation unit 56 generates a class code based on the dynamic range DR and the ADRC code, and mainly supplies the class code to the normal equation processing unit 57.

【0120】ステップS36において、予測タップ領域
切り出し部54は、決定された間隔を基に予測タップを
選択して、選択した予測タップを正規方程式処理部57
に出力する。
In step S36, the prediction tap area cutout unit 54 selects a prediction tap based on the determined interval, and divides the selected prediction tap into a normal equation processing unit 57.
Output to

【0121】ステップS37において、正規方程式処理
部57は、予測タップと教師データとを基に、クラスコ
ードに対応するクラスの予測係数を算出して、予測係数
をクラスコードと共にメモリ58に供給する。
In step S37, the normal equation processing unit 57 calculates the prediction coefficient of the class corresponding to the class code based on the prediction tap and the teacher data, and supplies the prediction coefficient to the memory 58 together with the class code.

【0122】ステップS38において、メモリ58は、
正規方程式処理部57から供給された予測係数を、クラ
スコードが示すクラスに対応するアドレスに記憶し、手
続きは、ステップS31に戻り、以上の処理を繰り返
す。
In step S38, the memory 58 stores
The prediction coefficient supplied from the normal equation processing unit 57 is stored in the address corresponding to the class indicated by the class code, and the procedure returns to step S31 and repeats the above processing.

【0123】このように、図13に示す情報処理装置
は、動きベクトルに対応した間隔を有する予測タップお
よびクラスタップを選択するクラス分類適応処理に使用
する予測係数をクラス毎に生成して、記憶することがで
きる。
As described above, the information processing apparatus shown in FIG. 13 generates, for each class, prediction taps having intervals corresponding to motion vectors and prediction coefficients used for class classification adaptive processing for selecting class taps. can do.

【0124】なお、本実施の形態では、クラスコード発
生部15またはクラスコード発生部56において、AD
RC処理部14またはADRC処理部55から出力され
るダイナミックレンジDRおよびADRCコードに基づ
いて、クラス分類処理が行われるが、クラス分類処理
は、その他、例えば、DPCM(予測符号化)や、BT
C(Block Truncation Coding)、VQ(ベクトル量子
化)、DCT(離散コサイン変換)、アダマール変換な
どを施したデータを対象に行うようにすることも可能で
ある。
In the present embodiment, the class code generation unit 15 or the class code generation unit 56
Classification processing is performed based on the dynamic range DR and the ADRC code output from the RC processing unit 14 or the ADRC processing unit 55. The classification processing includes, for example, DPCM (prediction coding), BT
It is also possible to perform processing on data that has been subjected to C (Block Truncation Coding), VQ (Vector Quantization), DCT (Discrete Cosine Transform), Hadamard Transform, or the like.

【0125】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、記録媒体からイ
ンストールされる。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a recording medium into a possible general-purpose personal computer or the like.

【0126】図15は、予測の処理または予測係数の記
憶の処理を実行するパーソナルコンピュータの構成例を
説明する図である。CPU(Central Processing Uni
t)101は、各種アプリケーションプログラムや、O
S(Operating System)を実際に実行する。ROM(Rea
d-only Memory)102は、一般的には、CPU101
が使用するプログラムや演算用のパラメータのうちの基
本的に固定のデータを格納する。RAM(Random-Acces
s Memory)103は、CPU101の実行において使用
するプログラムや、その実行において適宜変化するパラ
メータを格納する。これらはCPUバスなどから構成さ
れるホストバス104により相互に接続されている。
FIG. 15 is a diagram for explaining an example of the configuration of a personal computer which executes the processing of prediction or the processing of storage of prediction coefficients. CPU (Central Processing Uni
t) 101 indicates various application programs and O
Actually execute S (Operating System). ROM (Rea
d-only Memory) 102 is generally a CPU 101
Stores basically fixed data of the program and the calculation parameters used by. RAM (Random-Acces
The s Memory) 103 stores a program used in the execution of the CPU 101 and parameters appropriately changed in the execution. These are interconnected by a host bus 104 composed of a CPU bus and the like.

【0127】ホストバス104は、ブリッジ105を介
して、PCI(Peripheral Component Interconnect/Int
erface)バスなどの外部バス106に接続されている。
The host bus 104 is connected via a bridge 105 to a PCI (Peripheral Component Interconnect / Int).
(Erface) bus and the like.

【0128】キーボード108は、CPU101に各種
の指令を入力するとき、使用者により操作される。ポイ
ンティングデバイス109は、ディスプレイ110の画
面上のポイントの指示や選択を行うとき、使用者により
操作される。ディスプレイ110は、液晶表示装置また
はCRT(Cathode Ray Tube)などから成り、各種情報
をテキストやイメージで表示する。HDD(Hard Disk
Drive)111は、ハードディスクを駆動し、それらに
CPU101によって実行するプログラムや情報を記録
または再生させる。
The keyboard 108 is operated by the user when inputting various commands to the CPU 101. The pointing device 109 is operated by the user when pointing or selecting a point on the screen of the display 110. The display 110 is composed of a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various information as text or images. HDD (Hard Disk
The drive 111 drives a hard disk and records or reproduces a program or information executed by the CPU 101 on the hard disk.

【0129】ドライブ112は、装着されている磁気デ
ィスク121、光ディスク122、光磁気ディスク12
3、または半導体メモリ124に記録されているデータ
またはプログラムを読み出して、そのデータまたはプロ
グラムを、インターフェース107、外部バス106、
ブリッジ105、およびホストバス104を介して接続
されているRAM103に供給する。これらのキーボー
ド108乃至ドライブ112は、インターフェース10
7に接続されており、インターフェース107は、外部
バス106、ブリッジ105、およびホストバス104
を介してCPU101に接続されている。
The drive 112 includes the mounted magnetic disk 121, optical disk 122, and magneto-optical disk 12.
3 or the data or the program recorded in the semiconductor memory 124, and reads the data or the program into the interface 107, the external bus 106,
The data is supplied to the bridge 105 and the RAM 103 connected via the host bus 104. The keyboard 108 to the drive 112 are connected to the interface 10
7, the interface 107 includes an external bus 106, a bridge 105, and a host bus 104.
Is connected to the CPU 101 via the.

【0130】通信ボード113は、例えば、ネットワー
ク等が接続され、CPU101、またはHDD111か
ら供給された画像データを、所定の方式のパケットに格
納して、ネットワークを介して、送信するとともに、ネ
ットワークを介して、受信したパケットに格納されてい
る画像データをCPU101、RAM103、またはH
DD111に出力する。
The communication board 113 is connected to, for example, a network or the like, stores image data supplied from the CPU 101 or the HDD 111 in packets of a predetermined format, transmits the packets via the network, and transmits the packets via the network. Then, the image data stored in the received packet is stored in the CPU 101, the RAM 103, or the H
Output to DD111.

【0131】通信ボード113は、外部バス106、ブ
リッジ105、およびホストバス104を介してCPU
101に接続されている。
The communication board 113 is connected to the CPU via the external bus 106, the bridge 105, and the host bus 104.
It is connected to 101.

【0132】上述した一連の処理を実行させるプログラ
ムが記録されている記録媒体は、図15に示すように、
コンピュータとは別に、ユーザにプログラムを提供する
ために配布される、プログラムが記録されている磁気デ
ィスク121(フロッピディスクを含む)、光ディスク
122(CD-ROM(Compact Disc-Read Only Memory)、D
VD(Digital Versatile Disc)を含む)、光磁気ディス
ク123(MD(Mini-Disc)を含む)、若しくは半導体
メモリ124などよりなるパッケージメディアにより構
成されるだけでなく、コンピュータに予め組み込まれた
状態でユーザに提供される、プログラムが記録されてい
るROM102や、HDD111に内蔵されるハードデ
ィスクなどで構成される。
The recording medium on which the program for executing the above-described series of processing is recorded is, as shown in FIG.
Apart from the computer, a magnetic disk 121 (including a floppy disk) storing the program, an optical disk 122 (CD-ROM (Compact Disc-Read Only Memory),
VD (including Digital Versatile Disc), magneto-optical disk 123 (including MD (Mini-Disc)), or a packaged medium such as semiconductor memory 124, as well as being pre-installed in a computer. It is provided with a ROM 102 provided with the program and provided to the user, a hard disk built in the HDD 111, and the like.

【0133】なお、本明細書において、記録媒体に格納
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In this specification, the steps for describing the program stored in the recording medium are not limited to the processing performed in chronological order according to the described order, but are not necessarily performed in chronological order. This also includes processing executed in parallel or individually.

【0134】[0134]

【発明の効果】請求項1に記載の画像処理装置、請求項
6に記載の画像処理方法、および請求項7に記載の記録
媒体によれば、動きが検出され、検出された動きに対応
する間隔のクラスタップが選択され、選択されたクラス
タップを基に、クラスが算出され、算出したクラスに対
応する予測方式で、予測が実行されるようにしたので、
動きの大きい画像を、より小さな規模の回路で、迅速
に、精度良く、予測できるようになる。
According to the image processing apparatus according to the first aspect, the image processing method according to the sixth aspect, and the recording medium according to the seventh aspect, a motion is detected, and the motion corresponds to the detected motion. Since the class tap at the interval is selected, the class is calculated based on the selected class tap, and the prediction is performed by the prediction method corresponding to the calculated class.
It becomes possible to quickly and accurately predict an image having large motion with a circuit of a smaller scale.

【0135】請求項8に記載の画像処理装置、請求項1
3に記載の画像処理方法、および請求項14に記載の記
録媒体によれば、動きが検出され、クラスタップが選択
され、選択されたクラスタップを基に、クラスが算出さ
れ、検出された動きに対応する間隔の予測タップが選択
され、算出したクラスに対応する予測係数、および選択
された予測タップを基に、予測が実行されるようにした
ので、動きの大きい画像を、より小さな規模の回路で、
迅速に、精度良く、予測できるようになる。
An image processing apparatus according to claim 8, wherein
According to the image processing method of the third aspect and the recording medium of the fourteenth aspect, a motion is detected, a class tap is selected, a class is calculated based on the selected class tap, and the detected motion is determined. The prediction tap at the interval corresponding to is selected, and the prediction is performed based on the prediction coefficient corresponding to the calculated class and the selected prediction tap. In the circuit,
Quick, accurate and predictable.

【0136】請求項15に記載の画像処理装置、および
請求項16に記載の画像処理方法によれば、入力された
教師データから学習データが生成され、学習データの動
きが検出され、学習データから、検出された動きに対応
する間隔のクラスタップが選択され、選択されたクラス
タップを基に、クラスが算出され、教師データから、ク
ラスに対応する予測係数が算出されるようにしたので、
予測の処理において、動きの大きい画像を、より小さな
規模の回路で、迅速に、精度良く、予測できるようにな
る。
According to the image processing apparatus of the present invention, the learning data is generated from the input teacher data, the movement of the learning data is detected, and the learning data is generated. Since a class tap at an interval corresponding to the detected motion is selected, a class is calculated based on the selected class tap, and a prediction coefficient corresponding to the class is calculated from the teacher data.
In the prediction process, an image having a large motion can be quickly and accurately predicted by a circuit of a smaller scale.

【0137】請求項17に記載の画像処理装置、および
請求項18に記載の画像処理方法によれば、入力された
教師データから学習データが生成され、学習データの動
きが検出され、学習データから、クラスタップが選択さ
れ、選択されたクラスタップを基に、クラスが算出さ
れ、学習データから、検出された動きに対応する間隔の
予測タップが選択され、選択された予測タップおよび教
師データから、クラスに対応する予測係数が算出される
ようにしたので、予測の処理において、動きの大きい画
像を、より小さな規模の回路で、迅速に、精度良く、予
測できるようになる。
According to the image processing apparatus of the present invention, the learning data is generated from the input teacher data, the movement of the learning data is detected, and the learning data is generated. , A class tap is selected, a class is calculated based on the selected class tap, a prediction tap at an interval corresponding to the detected motion is selected from the learning data, and from the selected prediction tap and the teacher data, Since the prediction coefficient corresponding to the class is calculated, an image with a large motion can be quickly and accurately predicted by a circuit of a smaller scale in the prediction processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】フレームを補間する処理を説明する図である。FIG. 1 is a diagram illustrating a process of interpolating a frame.

【図2】クラス分類処理について説明する図である。FIG. 2 is a diagram illustrating a class classification process.

【図3】本発明に係る画像処理装置の一実施の形態の構
成を示す図である。
FIG. 3 is a diagram illustrating a configuration of an embodiment of an image processing apparatus according to the present invention.

【図4】画素の動きを説明する図である。FIG. 4 is a diagram illustrating the movement of a pixel.

【図5】移動する物体に対応する画素の位置と、予測タ
ップの位置の対応を説明する図である。
FIG. 5 is a diagram illustrating the correspondence between the position of a pixel corresponding to a moving object and the position of a prediction tap.

【図6】移動する物体に対応する画素の位置と、予測タ
ップの位置の対応を説明する図である。
FIG. 6 is a diagram illustrating the correspondence between the position of a pixel corresponding to a moving object and the position of a prediction tap.

【図7】基準タップ間隔を説明する図である。FIG. 7 is a diagram illustrating a reference tap interval.

【図8】動きに対応する予測タップの間隔を説明する図
である。
FIG. 8 is a diagram illustrating an interval between prediction taps corresponding to a motion.

【図9】動きに対応する予測タップの間隔を説明する図
である。
FIG. 9 is a diagram illustrating intervals of prediction taps corresponding to motion.

【図10】動きに対応する予測タップの間隔を説明する
図である。
FIG. 10 is a diagram illustrating intervals of prediction taps corresponding to motion.

【図11】ADRC処理を説明する図である。FIG. 11 is a diagram illustrating ADRC processing.

【図12】補間するフレームの予測の処理を説明するフ
ローチャートである。
FIG. 12 is a flowchart illustrating a process of predicting a frame to be interpolated.

【図13】予測係数を得るための学習を行う画像処理装
置の構成例を示す図である。
FIG. 13 is a diagram illustrating a configuration example of an image processing apparatus that performs learning for obtaining a prediction coefficient.

【図14】予測係数の記憶の処理を説明するフローチャ
ートである。
FIG. 14 is a flowchart illustrating a process of storing prediction coefficients.

【図15】予測の処理または予測係数の記憶の処理を実
行するパーソナルコンピュータの構成例を説明する図で
ある。
FIG. 15 is a diagram illustrating a configuration example of a personal computer that executes prediction processing or prediction coefficient storage processing.

【符号の説明】[Explanation of symbols]

11 動きベクトル検出部, 12 クラスタップ領域
切り出し部, 13予測タップ領域切り出し部, 14
ADRC処理部, 15 クラスコード発生部, 1
6 予測係数ROM, 17 予測演算部, 51 フ
レーム間引きフィルタ, 52 動きベクトル検出部,
53 クラスタップ領域切り出し部, 54 予測タ
ップ領域切り出し部, 55 ADRC処理部, 56
クラスコード発生部, 57 正規方程式処理部,
58 メモリ, 101 CPU, 102 ROM,
103 RAM, 111 HDD, 121 磁気
ディスク, 122 光ディスク, 123 光磁気デ
ィスク, 124 半導体メモリ
11 motion vector detection unit, 12 class tap region cutout unit, 13 predicted tap region cutout unit, 14
ADRC processing unit, 15 class code generation unit, 1
6 prediction coefficient ROM, 17 prediction operation unit, 51 frame thinning filter, 52 motion vector detection unit,
53 class tap area cutout section, 54 prediction tap area cutout section, 55 ADRC processing section, 56
Class code generator, 57 normal equation processor,
58 memories, 101 CPU, 102 ROM,
103 RAM, 111 HDD, 121 magnetic disk, 122 optical disk, 123 magneto-optical disk, 124 semiconductor memory

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK06 LB07 LB13 MA01 MA22 MA23 MA28 MA29 MC33 MC35 MD04 NN01 SS14 SS20 TA29 TA30 TB08 TC12 TD12 TD13 UA33 5C063 AC01 BA08 BA12 CA05 CA07 CA11 CA40  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK06 LB07 LB13 MA01 MA22 MA23 MA28 MA29 MC33 MC35 MD04 NN01 SS14 SS20 TA29 TA30 TB08 TC12 TD12 TD13 UA33 5C063 AC01 BA08 BA12 CA05 CA07 CA11 CA40

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 動きを検出する動き検出手段と、 検出された動きに対応する間隔のクラスタップを選択す
るクラスタップ選択手段と、 選択された前記クラスタップを基に、クラスを算出する
クラス算出手段と、 算出した前記クラスに対応する予測方式で、予測を実行
する予測実行手段とを含むことを特徴とする画像処理装
置。
1. A motion detecting means for detecting a motion, a class tap selecting means for selecting a class tap at intervals corresponding to the detected motion, and a class calculation for calculating a class based on the selected class tap. An image processing apparatus, comprising: means for performing prediction using a prediction method corresponding to the calculated class.
【請求項2】 前記クラスタップ選択手段は、総数が一
定の前記クラスタップを選択することを特徴とする請求
項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the class tap selecting unit selects the class tap having a constant total number.
【請求項3】 前記検出手段は、前記動きの方向を検出
し、 前記クラスタップ選択手段は、前記動きの方向に対応す
る位置関係を有する前記クラスタップを選択することを
特徴とする請求項1に記載の画像処理装置。
3. The method according to claim 1, wherein the detecting means detects the direction of the movement, and the class tap selecting means selects the class tap having a positional relationship corresponding to the direction of the movement. An image processing apparatus according to claim 1.
【請求項4】 前記検出手段は、前記動きの大きさを検
出し、 前記クラスタップ選択手段は、前記動きの大きさに対応
する距離の前記クラスタップを選択することを特徴とす
る請求項1に記載の画像処理装置。
4. The apparatus according to claim 1, wherein the detecting means detects the magnitude of the movement, and the class tap selecting means selects the class tap at a distance corresponding to the magnitude of the movement. An image processing apparatus according to claim 1.
【請求項5】 前記予測実行手段は、フレームの画素を
予測することを特徴とする請求項1に記載の画像処理装
置。
5. The image processing apparatus according to claim 1, wherein the prediction execution unit predicts a pixel of a frame.
【請求項6】 動きを検出する動き検出ステップと、 検出された動きに対応する間隔のクラスタップを選択す
るクラスタップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 算出した前記クラスに対応する予測方式で、予測を実行
する予測実行ステップとを含むことを特徴とする画像処
理方法。
6. A class detection step for detecting a movement, a class tap selection step for selecting a class tap at intervals corresponding to the detected movement, and a class calculation for calculating a class based on the selected class tap. An image processing method, comprising: a step of performing a prediction using a prediction method corresponding to the calculated class.
【請求項7】 動きを検出する動き検出ステップと、 検出された動きに対応する間隔のクラスタップを選択す
るクラスタップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 算出した前記クラスに対応する予測方式で、予測を実行
する予測実行ステップとを含むことを特徴とするコンピ
ュータが読み取り可能なプログラムが記録されている記
録媒体。
7. A motion detecting step for detecting a motion, a class tap selecting step for selecting a class tap at an interval corresponding to the detected motion, and a class calculation for calculating a class based on the selected class tap. A recording medium in which a computer-readable program is recorded, comprising: a step; and a prediction execution step of performing prediction by a prediction method corresponding to the calculated class.
【請求項8】 動きを検出する動き検出手段と、 クラスタップを選択するクラスタップ選択手段と、 選択された前記クラスタップを基に、クラスを算出する
クラス算出手段と、 検出された動きに対応する間隔の予測タップを選択する
予測タップ選択手段と、 算出した前記クラスに対応する予測係数、および選択さ
れた前記予測タップを基に、予測を実行する予測実行手
段とを含むことを特徴とする画像処理装置。
8. A motion detecting means for detecting a motion, a class tap selecting means for selecting a class tap, a class calculating means for calculating a class based on the selected class tap, and a function corresponding to the detected motion. Prediction tap selection means for selecting a prediction tap at an interval to be calculated, and prediction execution means for executing prediction based on the calculated prediction coefficient corresponding to the class and the selected prediction tap. Image processing device.
【請求項9】 前記予測タップ選択手段は、総数が一定
の前記予測タップを選択することを特徴とする請求項8
に記載の画像処理装置。
9. The prediction tap selection unit according to claim 8, wherein the total number of the prediction taps is constant.
An image processing apparatus according to claim 1.
【請求項10】 前記検出手段は、前記動きの方向を検
出し、 前記予測タップ選択手段は、前記動きの方向に対応する
位置関係を有する前記予測タップを選択することを特徴
とする請求項8に記載の画像処理装置。
10. The apparatus according to claim 8, wherein the detecting means detects the direction of the movement, and the prediction tap selecting means selects the prediction tap having a positional relationship corresponding to the direction of the movement. An image processing apparatus according to claim 1.
【請求項11】 前記検出手段は、前記動きの大きさを
検出し、 前記予測タップ選択手段は、前記動きの大きさに対応す
る距離の前記予測タップを選択することを特徴とする請
求項8に記載の画像処理装置。
11. The apparatus according to claim 8, wherein the detecting means detects the magnitude of the motion, and the predictive tap selecting means selects the predictive tap at a distance corresponding to the magnitude of the motion. An image processing apparatus according to claim 1.
【請求項12】 前記予測実行手段は、フレームの画素
を予測することを特徴とする請求項8に記載の画像処理
装置。
12. The image processing apparatus according to claim 8, wherein the prediction execution unit predicts a pixel of a frame.
【請求項13】 動きを検出する動き検出ステップと、 クラスタップを選択するクラスタップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 検出された動きに対応する間隔の予測タップを選択する
予測タップ選択ステップと、 算出した前記クラスに対応する予測係数、および選択さ
れた前記予測タップを基に、予測を実行する予測実行ス
テップとを含むことを特徴とする画像処理方法。
13. A motion detecting step for detecting a motion, a class tap selecting step for selecting a class tap, a class calculating step for calculating a class based on the selected class tap, and a motion corresponding to the detected motion. A prediction tap selecting step of selecting a prediction tap at an interval to be performed; and a prediction execution step of performing prediction based on the calculated prediction coefficient corresponding to the class and the selected prediction tap. Image processing method.
【請求項14】 動きを検出する動き検出ステップと、 クラスタップを選択するクラスタップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 検出された動きに対応する間隔の予測タップを選択する
予測タップ選択ステップと、 算出した前記クラスに対応する予測係数、および選択さ
れた前記予測タップを基に、予測を実行する予測実行ス
テップとを含むことを特徴とするコンピュータが読み取
り可能なプログラムが記録されている記録媒体。
14. A motion detecting step for detecting a motion, a class tap selecting step for selecting a class tap, a class calculating step for calculating a class based on the selected class tap, and a motion corresponding to the detected motion. A prediction tap selecting step of selecting a prediction tap at an interval to be performed; and a prediction execution step of performing prediction based on the calculated prediction coefficient corresponding to the class and the selected prediction tap. A recording medium on which a computer-readable program is recorded.
【請求項15】 入力された教師データから学習データ
を生成する学習データ生成手段と、 前記学習データの動きを検出する動き検出手段と、 前記学習データから、検出された動きに対応する間隔の
クラスタップを選択するクラスタップ選択手段と、 選択された前記クラスタップを基に、クラスを算出する
クラス算出手段と、 前記教師データから、前記クラスに対応する予測係数を
算出する予測係数算出手段とを含むことを特徴とする画
像処理装置。
15. A learning data generating means for generating learning data from input teacher data, a motion detecting means for detecting a motion of the learning data, and a class having an interval corresponding to the detected motion from the learning data. Class tap selecting means for selecting a tap, class calculating means for calculating a class based on the selected class tap, and prediction coefficient calculating means for calculating a prediction coefficient corresponding to the class from the teacher data. An image processing apparatus comprising:
【請求項16】 入力された教師データから学習データ
を生成する学習データ生成ステップと、 前記学習データの動きを検出する動き検出ステップと、 前記学習データから、検出された動きに対応する間隔の
クラスタップを選択するクラスタップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 前記教師データから、前記クラスに対応する予測係数を
算出する予測係数算出ステップとを含むことを特徴とす
る画像処理方法。
16. A learning data generating step of generating learning data from input teacher data, a motion detecting step of detecting a motion of the learning data, and a class having an interval corresponding to the detected motion from the learning data. A class tap selecting step of selecting a tap, a class calculating step of calculating a class based on the selected class tap, and a predictive coefficient calculating step of calculating a predictive coefficient corresponding to the class from the teacher data. An image processing method comprising:
【請求項17】 入力された教師データから学習データ
を生成する学習データ生成手段と、 前記学習データの動きを検出する動き検出手段と、 前記学習データから、クラスタップを選択するクラスタ
ップ選択手段と、 選択された前記クラスタップを基に、クラスを算出する
クラス算出手段と、 前記学習データから、検出された動きに対応する間隔の
予測タップを選択する予測タップ選択手段と、 選択された前記予測タップおよび前記教師データから、
前記クラスに対応する予測係数を算出する予測係数算出
手段とを含むことを特徴とする画像処理装置。
17. Learning data generating means for generating learning data from input teacher data, motion detecting means for detecting a motion of the learning data, and class tap selecting means for selecting a class tap from the learning data. A class calculation unit that calculates a class based on the selected class tap; a prediction tap selection unit that selects a prediction tap at an interval corresponding to the detected motion from the learning data; and the selected prediction From the taps and the teacher data,
A prediction coefficient calculation unit configured to calculate a prediction coefficient corresponding to the class.
【請求項18】 入力された教師データから学習データ
を生成する学習データ生成ステップと、 前記学習データの動きを検出する動き検出ステップと、 前記学習データから、クラスタップを選択するクラスタ
ップ選択ステップと、 選択された前記クラスタップを基に、クラスを算出する
クラス算出ステップと、 前記学習データから、検出された動きに対応する間隔の
予測タップを選択する予測タップ選択ステップと、 選択された前記予測タップおよび前記教師データから、
前記クラスに対応する予測係数を算出する予測係数算出
ステップとを含むことを特徴とする画像処理方法。
18. A learning data generating step of generating learning data from input teacher data, a motion detecting step of detecting a motion of the learning data, and a class tap selecting step of selecting a class tap from the learning data. A class calculation step of calculating a class based on the selected class tap; a prediction tap selection step of selecting a prediction tap at an interval corresponding to a detected motion from the learning data; From the taps and the teacher data,
A prediction coefficient calculating step of calculating a prediction coefficient corresponding to the class.
JP2000241803A 2000-08-09 2000-08-09 Image processing apparatus and method, and recording medium Expired - Fee Related JP4415229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000241803A JP4415229B2 (en) 2000-08-09 2000-08-09 Image processing apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000241803A JP4415229B2 (en) 2000-08-09 2000-08-09 Image processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2002058034A true JP2002058034A (en) 2002-02-22
JP4415229B2 JP4415229B2 (en) 2010-02-17

Family

ID=18732937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000241803A Expired - Fee Related JP4415229B2 (en) 2000-08-09 2000-08-09 Image processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4415229B2 (en)

Also Published As

Publication number Publication date
JP4415229B2 (en) 2010-02-17

Similar Documents

Publication Publication Date Title
JP5777311B2 (en) How to generate high-resolution video from low-resolution video
US8204124B2 (en) Image processing apparatus, method thereof, and program
KR960033130A (en) Apparatus and method for removing temporal and spatial errors in a video signal processor
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
US20080013835A1 (en) Image processing apparatus and method, program recording medium, and program
JP4915341B2 (en) Learning apparatus and method, image processing apparatus and method, and program
US20100080299A1 (en) Frame frequency conversion apparatus, frame frequency conversion method, program for achieving the method, computer readable recording medium recording the program, motion vector detection apparatus, and prediction coefficient generation apparatus
WO1998051072A1 (en) Image converter and image conversion method
JP2009003598A (en) Image generation device and method, learning device and method, and program
JP4035895B2 (en) Image conversion apparatus and method, and recording medium
JP2001084368A (en) Data processor, data processing method and medium
JP2002058034A (en) Apparatus and method for processing image as well as recording medium
JP4622265B2 (en) Motion vector detection device, motion vector detection method, and program
JP4062771B2 (en) Image conversion apparatus and method, and recording medium
JP2005252360A (en) Motion vector detecting apparatus, motion vector detection method and computer program
JP2000059652A (en) Device and method for removing noise
JPH0983961A (en) Learning method for class prediction coefficient, signal converter using classification adaptive processing and method therefor
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
JP4337186B2 (en) Image information conversion apparatus, image information conversion method, learning apparatus, and learning method
JPH0851598A (en) Image information converter
JP2000078534A (en) Image converter, its method and served medium
JP4062326B2 (en) Coefficient generation apparatus and method
JP2000092456A (en) Device and method for image conversion, device and method for learning, image conversion system, and providing medium
JPH0775066A (en) Picture signal converter
JP3544473B2 (en) Moving image region division method, global motion parameter selection method, their devices, and their program recording media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091029

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees