JP2008225657A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2008225657A
JP2008225657A JP2007060429A JP2007060429A JP2008225657A JP 2008225657 A JP2008225657 A JP 2008225657A JP 2007060429 A JP2007060429 A JP 2007060429A JP 2007060429 A JP2007060429 A JP 2007060429A JP 2008225657 A JP2008225657 A JP 2008225657A
Authority
JP
Japan
Prior art keywords
pixel
image data
value
calculation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007060429A
Other languages
Japanese (ja)
Inventor
Yasuhiro Shudo
泰広 周藤
Tetsujiro Kondo
哲二郎 近藤
Takahiro Nagano
隆浩 永野
Juichi Shiraki
寿一 白木
Naoki Fujiwara
直樹 藤原
Yoshinori Kanamaru
昌憲 金丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007060429A priority Critical patent/JP2008225657A/en
Publication of JP2008225657A publication Critical patent/JP2008225657A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method to much more easily remove movement blur since it is difficult to tune such image processing as movement blur removal by one line. <P>SOLUTION: A variable shift register 51-2 extracts the set of first pixels and second pixels adjacent in a moving direction, that is, a set in which the pixels are isolated only by movement quantity V as a unit from the sets of pixels to be extracted by a variable shift register 51-2. As for the set of i(i is a positive integer)-th set of N(N is a positive integer) pieces of set, an approximation arithmetic part 54-1 subtracts a result acquired by multiplying a value acquired by subtracting a value acquired by subtracting 1/(N-i) from the movement quantity V and a coefficient α by the pixel data of the second pixels from a result acquired by multiplying the pixel data of the first pixels by a coefficient α and the movement quantity V for calculating a value for predicting the pixel values from which movement blur has been removed. The coefficient α is calculated by a formula 25. This invention may be applied to an image processor. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、動きボケを除去できるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program capable of removing motion blur.

CCD(Charge Coupled Device)等の撮像素子を用いたビデオカメラが広く用いられている。   Video cameras using an image sensor such as a CCD (Charge Coupled Device) are widely used.

移動する物体をこのようなビデオカメラで撮像して得られる画像には、物体の移動速度が比較的速い場合、動きボケが生じる。   In an image obtained by imaging a moving object with such a video camera, motion blur occurs when the moving speed of the object is relatively fast.

画像処理による動きボケの除去が各種提案されている。動きボケを除去するための画像処理には、所定の係数を用いた多項式を利用するものが多い。   Various proposals have been made to remove motion blur by image processing. Many image processes for removing motion blur use polynomials using predetermined coefficients.

この係数は、最小自乗法などの計算量の大きな方法で、事前に計算される。   This coefficient is calculated in advance by a method having a large calculation amount such as a least square method.

従来、第1の次元を有する現実世界の信号である第1の信号が、センサに射影され、センサによって検出することで得た第1の次元より少ない第2の次元の第2の信号を取得し、第2の信号に基づく信号処理を行うことにより、射影により埋もれた有意情報を第2の信号から抽出するようにしているものもある(例えば、特許文献1参照)。   Conventionally, a first signal that is a real-world signal having a first dimension is projected onto a sensor, and a second signal having a second dimension that is smaller than the first dimension obtained by detection by the sensor is obtained. In some cases, significant information buried by projection is extracted from the second signal by performing signal processing based on the second signal (see, for example, Patent Document 1).

特開2001−250119号公報JP 2001-250119 A

しかしながら、多項式に用いられる係数の変更は容易ではなく、クラスに分類して、クラス毎に係数を用いる場合には、クラス数と同数の係数セットをROM(Read Only Memory)などに記憶させておく必要がある。   However, it is not easy to change the coefficients used in the polynomial. When classifying into classes and using coefficients for each class, the same number of coefficient sets as the number of classes is stored in ROM (Read Only Memory) or the like. There is a need.

また、このような場合には、オンラインで、動きボケ除去の画像処理をチューニングすることは困難である。   In such a case, it is difficult to tune the image processing for removing motion blur online.

本発明は、このような状況に鑑みてなされたものであり、より簡単に、動きボケを除去することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to remove motion blur more easily.

本発明の一側面の画像処理装置は、時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理装置であって、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出する抽出手段と、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第1の演算手段とを備え、係数αは、

Figure 2008225657
により求められる。 An image processing apparatus according to one aspect of the present invention is an image processing apparatus that processes an image including pixel data for each of a predetermined number of pixels acquired by an imaging element having a time integration effect, and includes: a first pixel; Extraction means for extracting a pair that is a pair of second pixels adjacent to the first pixel in the direction of motion and that is separated from the other pair by a motion amount V in units of pixels; From the result obtained by multiplying the pixel data of the first pixel by the coefficient α and the motion amount V for the i (i is a positive integer) -th set of (positive integer) pairs, from the motion amount V By subtracting the result obtained by multiplying the pixel data of the second pixel by the value obtained by subtracting 1 / (N−i) and the coefficient α, the pixel value from which motion blur is removed is predicted. First calculating means for calculating a value, the coefficient α is
Figure 2008225657
Is required.

N個の組のそれぞれについて、前記第1の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段をさらに設けることができる。   For each of the N sets, a predicted value calculation unit that calculates a predicted value of a pixel value from which motion blur has been removed by adding the values calculated by the first calculation unit can be further provided.

N個の組のうちの、k(kは正の整数)番目の組について、前記第1の画素の画素データに係数βと動き量Vとを乗算した結果から、前記第2の画素の画素データに係数βと動き量Vとを乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第2の演算手段をさらに設け、係数βは、

Figure 2008225657
により求められるようにすることができる。 The pixel of the second pixel is obtained by multiplying the pixel data of the first pixel by the coefficient β and the motion amount V for the k-th group (k is a positive integer) among the N groups. Subtracting the result obtained by multiplying the data by the coefficient β and the motion amount V further includes second calculating means for calculating a value for predicting a pixel value from which motion blur is removed, and the coefficient β
Figure 2008225657
As required.

N個の組のそれぞれについて、前記第1の演算手段または前記第2の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段をさらに設けることができる。   Predicted value calculating means for calculating predicted values of pixel values from which motion blur has been removed by adding the values calculated by the first calculating means or the second calculating means for each of the N sets. Further, it can be provided.

複数の前記第1の演算手段によって演算された値から予測される複数の予測値のうち、複数の予測値の中央値に近い予測値を選択する選択手段をさらに設けることができる。   Selection means for selecting a predicted value close to the median value of the plurality of predicted values among the plurality of predicted values predicted from the values calculated by the plurality of first calculating means may be further provided.

複数の前記第1の演算手段によって演算された値から予測される複数の予測値をソートするソート手段と、ソートされた複数の予測値から、複数の予測値の中央値に近い予測値であって、所定の数の予測値を選択する選択手段と、選択された予測値の平均値を算出する平均値算出手段とをさらに設けることができる。   Sorting means for sorting a plurality of predicted values predicted from values calculated by the plurality of first calculating means, and a predicted value close to the median of the plurality of predicted values from the sorted predicted values. In addition, a selection unit that selects a predetermined number of prediction values and an average value calculation unit that calculates an average value of the selected prediction values can be further provided.

本発明の一側面の画像処理方法は、時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理方法であって、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算するステップを含み、係数αは、

Figure 2008225657
により求められる。 An image processing method according to an aspect of the present invention is an image processing method for processing an image including pixel data for each of a predetermined number of pixels acquired by an image sensor having a time integration effect, the first pixel, A pair with the second pixel that is adjacent to the first pixel in the direction of motion, and is separated from the other pair by a motion amount V in units of pixels, and N (N is a positive integer) ) Out of the sets, the result of multiplying the pixel data of the first pixel by the coefficient α and the amount of motion V for the first group (i is a positive integer) N−i) is subtracted from the result obtained by multiplying the pixel data of the second pixel by the value obtained by subtracting the coefficient α and a value for predicting the pixel value from which motion blur has been removed is calculated. The coefficient α is
Figure 2008225657
Is required.

本発明の一側面のプログラムは、時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理を、コンピュータに行わせるプログラムであって、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算するステップを含む画像処理をコンピュータに行わせ、係数αは、

Figure 2008225657
により求められる。 A program according to one aspect of the present invention is a program for causing a computer to perform image processing for processing an image including pixel data for each of a predetermined number of pixels acquired by an imaging device having a time integration effect. And a second pixel that is adjacent to the first pixel in the direction of movement, and is separated from the other group by a motion amount V in units of pixels, and N (N Is a positive integer) of the i (i is a positive integer) number of sets, the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V is the motion amount V. In order to predict a pixel value from which motion blur has been removed by subtracting a result obtained by multiplying a value obtained by subtracting 1 / (N−i) from the pixel data of the second pixel from the pixel data of the second pixel. The computer performs image processing including a step of calculating the value of
Figure 2008225657
Is required.

本発明の一側面において、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組が抽出され、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、

Figure 2008225657
により求められる係数αと動き量Vとを前記第1の画素の画素データに乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値が演算される。 In one aspect of the present invention, a set of a first pixel and a second pixel adjacent to the first pixel in the direction of movement, the set amount being separated from the other set by a movement amount V in units of pixels. For the i-th (i is a positive integer) -th set of N (N is a positive integer) sets,
Figure 2008225657
The value obtained by subtracting 1 / (N−i) from the motion amount V and the coefficient α from the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V obtained by By subtracting the result obtained by multiplying the pixel data of the second pixel, a value for predicting the pixel value from which motion blur is removed is calculated.

以上のように、本発明の一側面によれば、動きボケを除去することができる。   As described above, according to one aspect of the present invention, motion blur can be removed.

また、本発明の一側面によれば、より簡単に、動きボケを除去することができる。   Also, according to one aspect of the present invention, motion blur can be removed more easily.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の画像処理装置は、時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理装置であって、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出する抽出手段(例えば、図13の可変シフトレジスタ51−1)と、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第1の演算手段(例えば、図13の近似演算部54−1)とを備え、係数αは、

Figure 2008225657
により求められる。 An image processing apparatus according to one aspect of the present invention is an image processing apparatus that processes an image including pixel data for each of a predetermined number of pixels acquired by an imaging element having a time integration effect, and includes: a first pixel; Extraction means (for example, in FIG. 13) that extracts a pair that is a pair with the second pixel that is adjacent to the first pixel in the direction of motion and that is separated from the other pair by a motion amount V in units of pixels. Of the variable shift register 51-1) and the N (N is a positive integer) set, the coefficient α and the motion of the pixel data of the first pixel for the i (i is a positive integer) -th set By subtracting the result obtained by multiplying the pixel data of the second pixel by the value obtained by subtracting 1 / (N−i) from the amount of motion V and the coefficient α from the result of multiplying the amount V. First calculation means for calculating a value for predicting a pixel value from which motion blur is removed (for example, FIG. With 3 the approximate calculation section 54-1) and, the coefficient alpha,
Figure 2008225657
Is required.

N個の組のそれぞれについて、前記第1の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段(例えば、図13の予測値演算部55)をさらに設けることができる。   Prediction value calculation means (for example, the prediction value in FIG. 13) that calculates the predicted value of the pixel value from which motion blur is removed by adding the values calculated by the first calculation means for each of the N sets. A computing unit 55) can be further provided.

N個の組のうちの、k(kは正の整数)番目の組について、前記第1の画素の画素データに係数βと動き量Vとを乗算した結果から、前記第2の画素の画素データに係数βと動き量Vとを乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第2の演算手段(例えば、図13の等価変換演算部53−1)をさらに設け、係数βは、

Figure 2008225657
により求められるようにすることができる。 The pixel of the second pixel is obtained by multiplying the pixel data of the first pixel by the coefficient β and the motion amount V for the k-th group (k is a positive integer) among the N groups. Second calculation means for calculating a value for predicting a pixel value from which motion blur is removed by subtracting the result obtained by multiplying the data by the coefficient β and the motion amount V (for example, the equivalent conversion calculation unit in FIG. 13). 53-1), and the coefficient β is
Figure 2008225657
As required.

N個の組のそれぞれについて、前記第1の演算手段または前記第2の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段(例えば、図13の予測値演算部55)をさらに設けることができる。   For each of the N sets, a predicted value calculation unit that calculates a predicted value of a pixel value from which motion blur has been removed by adding the values calculated by the first calculation unit or the second calculation unit ( For example, the predicted value calculation unit 55) of FIG. 13 can be further provided.

複数の前記第1の演算手段によって演算された値から予測される複数の予測値のうち、複数の予測値の中央値に近い予測値を選択する選択手段(例えば、図14の選択部72)をさらに設けることができる。   Selection means (for example, selection unit 72 in FIG. 14) that selects a predicted value close to the median value of the plurality of predicted values among a plurality of predicted values predicted from the values calculated by the plurality of first calculating means. Can be further provided.

複数の前記第1の演算手段によって演算された値から予測される複数の予測値をソートするソート手段(例えば、図14のソート部71)と、ソートされた複数の予測値から、複数の予測値の中央値に近い予測値であって、所定の数の予測値を選択する選択手段(例えば、図14の選択部72)と、選択された予測値の平均値を算出する平均値算出手段(例えば、図14の平均値演算部73)とをさらに設けることができる。   Sort means (for example, the sorting unit 71 in FIG. 14) for sorting a plurality of predicted values predicted from the values calculated by the plurality of first calculating means, and a plurality of predictions from the sorted plurality of predicted values. A selection unit (for example, the selection unit 72 in FIG. 14) that selects a predetermined number of prediction values that are close to the median value, and an average value calculation unit that calculates an average value of the selected prediction values (For example, an average value calculation unit 73 in FIG. 14) can be further provided.

本発明の一側面の画像処理方法またはプログラムがコンピュータに行わせる画像処理は、第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し(例えば、図16のステップS34)、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する(例えば、図16のステップS37)ステップを含み、係数αは、

Figure 2008225657
により求められる。 Image processing to be performed by a computer according to an image processing method or program of one aspect of the present invention is a set of a first pixel and a second pixel adjacent to the first pixel in the direction of motion, Is extracted from the other set by the motion amount V in units of (for example, step S34 in FIG. 16), and i (i is a positive integer) among N (N is a positive integer) sets. ) For the second set, the value obtained by subtracting 1 / (N−i) from the motion amount V and the coefficient α from the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V. And subtracting the result obtained by multiplying the pixel data of the second pixel by a value to predict a pixel value from which motion blur has been removed (for example, step S37 in FIG. 16), α is
Figure 2008225657
Is required.

図1は、本発明の一実施の形態の画像処理装置の構成の例を示すブロック図である。画像処理装置は、動き検出部11、アフィン変換部12、ボケ除去パラメータ生成部13、ボケ除去演算部14、演算結果比較選択部15、および逆アフィン変換部16から構成される。   FIG. 1 is a block diagram showing an example of the configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus includes a motion detection unit 11, an affine transformation unit 12, a blur removal parameter generation unit 13, a blur removal computation unit 14, a computation result comparison / selection unit 15, and an inverse affine transformation unit 16.

外部からの画像データは、動き検出部11およびアフィン変換部12に供給される。動き検出部11は、画像データによる画像の動きベクトルを検出して、検出した動きベクトルを出力する。   Image data from the outside is supplied to the motion detection unit 11 and the affine transformation unit 12. The motion detection unit 11 detects a motion vector of the image based on the image data, and outputs the detected motion vector.

外部において、画像データの画像の動きベクトルが検出される場合、外部から検出された動きベクトルが供給される。外部から動きベクトルが供給される場合、動き検出部11とボケ除去パラメータ生成部13との間に設けられたスイッチを介して、外部から供給された動きベクトルがボケ除去パラメータ生成部13に供給される。   When a motion vector of an image of image data is detected externally, the motion vector detected from the outside is supplied. When a motion vector is supplied from the outside, the motion vector supplied from the outside is supplied to the blur removal parameter generation unit 13 via a switch provided between the motion detection unit 11 and the blur removal parameter generation unit 13. The

一方、外部から動きベクトルが供給されない場合、動き検出部11とボケ除去パラメータ生成部13との間に設けられたスイッチを介して、動き検出部11において検出された動きベクトルがボケ除去パラメータ生成部13に供給される。   On the other hand, when no motion vector is supplied from the outside, the motion vector detected in the motion detection unit 11 is converted to a blur removal parameter generation unit via a switch provided between the motion detection unit 11 and the blur removal parameter generation unit 13. 13 is supplied.

ボケ除去パラメータ生成部13は、動きベクトルから、動き量と動きの角度を示すボケ除去パラメータを生成する。ボケ除去パラメータ生成部13は、動き量と動きの角度を示すボケ除去パラメータをアフィン変換部12および逆アフィン変換部16に供給する。また、ボケ除去パラメータ生成部13は、動き量を示すボケ除去パラメータをボケ除去演算部14に供給する。   The blur removal parameter generation unit 13 generates a blur removal parameter indicating a motion amount and a motion angle from the motion vector. The blur removal parameter generation unit 13 supplies the blur removal parameter indicating the amount of motion and the angle of motion to the affine transformation unit 12 and the inverse affine transformation unit 16. Also, the blur removal parameter generation unit 13 supplies the blur removal parameter indicating the amount of motion to the blur removal calculation unit 14.

アフィン変換部12は、ボケ除去パラメータ生成部13から供給されたボケ除去パラメータで示される動きの角度を参照して、動きの方向が画像の横方向になるように画像データをアフィン変換する。アフィン変換部12は、アフィン変換された画像データから、画像の横方向に1列の画素の列である画素列を抽出して、抽出した画素列をボケ除去演算部14に供給する。   The affine transformation unit 12 refers to the angle of motion indicated by the blur removal parameter supplied from the blur removal parameter generation unit 13 and affine transforms the image data so that the direction of motion is the horizontal direction of the image. The affine transformation unit 12 extracts a pixel row that is a row of pixels in the horizontal direction of the image from the affine transformed image data, and supplies the extracted pixel row to the blur removal calculation unit 14.

すなわち、アフィン変換部12からボケ除去演算部14に供給される画素列は、動き方向に1列に並ぶ画素で構成される。   In other words, the pixel column supplied from the affine transformation unit 12 to the blur removal calculating unit 14 is composed of pixels arranged in a row in the movement direction.

例えば、アフィン変換部12は、10乃至20などの、予め決められた数の画素からなる画素列をボケ除去演算部14に供給する。   For example, the affine transformation unit 12 supplies a pixel column including a predetermined number of pixels such as 10 to 20 to the blur removal calculation unit 14.

または、アフィン変換部12は、アフィン変換された画像データから、ボケ除去パラメータで示される動き量に応じた長さの画素列であって、画像の横方向に1列の画素の列である画素列を抽出して、抽出した画素列をボケ除去演算部14に供給する。例えば、アフィン変換部12は、動き量の倍数など、動き量に応じた数の画素からなる画素列をボケ除去演算部14に供給する。   Alternatively, the affine transformation unit 12 is a pixel row having a length corresponding to the amount of motion indicated by the blur removal parameter from the image data subjected to affine transformation, and is a row of one pixel in the horizontal direction of the image. The column is extracted, and the extracted pixel column is supplied to the blur removal calculation unit 14. For example, the affine transformation unit 12 supplies a pixel row including a number of pixels corresponding to the motion amount, such as a multiple of the motion amount, to the blur removal calculation unit 14.

ボケ除去演算部14は、アフィン変換部12から供給された画素列に、後述する演算を適用することにより、動きボケを含まない画素値(動きボケを除去した画素値)の予測値を演算する。ボケ除去演算部14は、1つの画素値に対して、1または複数の予測値を演算する。   The blur removal calculation unit 14 calculates a predicted value of a pixel value that does not include motion blur (a pixel value from which motion blur has been removed) by applying a calculation described later to the pixel row supplied from the affine transformation unit 12. . The blur removal calculating unit 14 calculates one or a plurality of predicted values for one pixel value.

ボケ除去演算部14は、演算により求めた予測値を演算結果比較選択部15に供給する。   The blur removal calculation unit 14 supplies the predicted value obtained by the calculation to the calculation result comparison / selection unit 15.

演算結果比較選択部15は、ボケ除去演算部14から供給された予測値から、より確からしい予測値を選択して、選択した予測値から画素値を求める。演算結果比較選択部15は、求めた画素値を逆アフィン変換部16に供給する。   The calculation result comparison / selection unit 15 selects a more likely prediction value from the prediction values supplied from the blur removal calculation unit 14, and obtains a pixel value from the selected prediction value. The calculation result comparison / selection unit 15 supplies the obtained pixel value to the inverse affine transformation unit 16.

逆アフィン変換部16は、演算結果比較選択部15から供給された、動きボケを含まない画素の画素値をその内部に設けられたバッファに格納する。そして、逆アフィン変換部16は、ボケ除去パラメータ生成部13から供給されたボケ除去パラメータで示される動き量と動きの角度を参照して、動きの方向が入力された画像データによる画像と同じになるように、動きボケを含まない画素の画素値からなる画像データをアフィン変換する。   The inverse affine transformation unit 16 stores the pixel values of pixels not including motion blur supplied from the calculation result comparison / selection unit 15 in a buffer provided therein. Then, the inverse affine transformation unit 16 refers to the amount of motion and the angle of motion indicated by the blur removal parameter supplied from the blur removal parameter generation unit 13 to make the same as the image based on the input image data. In this way, image data composed of pixel values of pixels not including motion blur is affine transformed.

逆アフィン変換部16は、動きボケを含まない画像データ、すなわち動きボケを除去した画像の画像データを出力する。   The inverse affine transformation unit 16 outputs image data that does not include motion blur, that is, image data of an image from which motion blur has been removed.

次に、図2乃至図11を参照して、動きボケを含まない画素値の予測値の演算について説明する。   Next, with reference to FIGS. 2 to 11, calculation of a predicted value of a pixel value that does not include motion blur will be described.

以下の説明において、動き量Vは、入力された画像データによる画像の動きの量を示す。画像データD0,・・・,Dnは、それぞれ、入力された画像データの画素の画素値を示す。画像データJ0,・・・,Jmは、それぞれ、現実世界の被写体からの光の強さを示す値である。 In the following description, the motion amount V indicates the amount of motion of an image based on input image data. Image data D 0 ,..., D n indicate pixel values of the pixels of the input image data. Each of the image data J 0 ,..., J m is a value indicating the intensity of light from the subject in the real world.

すなわち、画像データJ0,・・・,Jmは、それぞれ、CCDまたはCMOS(Complementary Metal-Oxide Semiconductor)センサなどの時間積分効果を有する撮像素子(光電変換素子)によって生じる動きボケを含まない画像の画素値を示す。画像データJ0,・・・,Jmは、現実世界の画像を仮想的な画素で表現した場合の、その画素の画素値を示すと言える。 That is, the image data J 0 ,..., J m are images that do not include motion blur caused by an imaging element (photoelectric conversion element) having a time integration effect such as a CCD or CMOS (Complementary Metal-Oxide Semiconductor) sensor, respectively. Indicates the pixel value. It can be said that the image data J 0 ,..., J m indicate pixel values of pixels when a real-world image is represented by virtual pixels.

以下、画像データD0,・・・,Dnを、ボケ画像データD0,・・・,Dnと称する。 Hereinafter, the image data D 0, · · ·, the D n, referred blurred image data D 0, · · ·, and D n.

また、以下、画像データJ0,・・・,Jmを、実世界画像データJ0,・・・,Jmと称する。 In the following, the image data J 0, ..., a J m, real world image data J 0, referred ..., and J m.

図2は、ボケ画像データD0,・・・,Dnと実世界画像データJ0,・・・,Jmとの関係を示す図である。 Figure 2 is a blurred image data D 0, · · ·, D n and the real world image data J 0, · · ·, a diagram showing the relationship between J m.

例えば、CCDまたはCMOSセンサなどの撮像素子は、1秒間に30フレームからなる画像の画像データを出力する。撮像素子の露光時間は、1/30秒とすることができる。露光時間は、撮像素子が入射された光の電荷への変換を開始してから、入射された光の電荷への変換を終了するまでの期間である。以下、露光時間をシャッタ時間とも称する。   For example, an image sensor such as a CCD or CMOS sensor outputs image data of an image composed of 30 frames per second. The exposure time of the image sensor can be 1/30 second. The exposure time is a period from the start of the conversion of the incident light into the electric charge until the end of the conversion of the incident light into the electric charge. Hereinafter, the exposure time is also referred to as shutter time.

例えば、CCDである撮像素子は、シャッタ時間に対応する期間、入射された光を電荷に変換して、変換された電荷を蓄積する。電荷の量は、入射された光の強さと、光が入射されている時間にほぼ比例する。撮像素子は、シャッタ時間に対応する期間において、入射された光から変換された電荷を、既に蓄積されている電荷に加えていく。すなわち、撮像素子は、シャッタ時間に対応する期間、入射される光を積分して、積分された光に対応する量の電荷を蓄積する。このような撮像素子は、時間に対して、積分効果があると言える。   For example, an imaging device that is a CCD converts incident light into electric charges for a period corresponding to a shutter time, and accumulates the converted electric charges. The amount of charge is approximately proportional to the intensity of the incident light and the time during which the light is incident. The imaging element adds the charge converted from the incident light to the already accumulated charge during the period corresponding to the shutter time. That is, the image sensor integrates incident light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that such an image sensor has an integration effect with respect to time.

撮像素子に蓄積された電荷は、電圧値に変換され、電圧値は更にデジタルデータである画像データなどの画素値に変換されて出力される。従って、撮像素子から出力される個々の画素値は、時間的に広がりのある現実世界の被写体からの光を、シャッタ時間について積分した結果であると言える。   The electric charge accumulated in the image sensor is converted into a voltage value, and the voltage value is further converted into a pixel value such as image data that is digital data and output. Therefore, it can be said that each pixel value output from the image sensor is a result of integrating light from a subject in the real world, which is spread over time, with respect to the shutter time.

図2は、動いている被写体を撮像した画像データにおける、被写体の画像の動き方向に隣接して1列に並んでいる画素の画素値を時間方向に展開したモデル図である。   FIG. 2 is a model diagram in which pixel values of pixels arranged in a line adjacent to the moving direction of the subject image in the image data obtained by capturing the moving subject are developed in the time direction.

図2における縦方向は、図中の上から下に向かって、経過する時間を示す。図2中の上側の矩形の上辺の位置は、撮像素子が入射された光の電荷への変換を開始する時刻に対応し、図2中の上側の矩形の下辺の位置は、撮像素子が入力された光の電荷への変換を終了する時刻に対応する。すなわち、図2中の上側の矩形の上辺から下辺までの距離は、シャッタ時間に対応する。   The vertical direction in FIG. 2 indicates the elapsed time from the top to the bottom in the figure. The position of the upper side of the upper rectangle in FIG. 2 corresponds to the time when the image sensor starts to convert the incident light into charges, and the position of the lower side of the upper rectangle in FIG. This corresponds to the time when the conversion of the converted light into electric charge is completed. That is, the distance from the upper side to the lower side of the upper rectangle in FIG. 2 corresponds to the shutter time.

図2における横方向は、空間方向に対応する。より具体的には、図2に示す例において、図2中の上側の矩形は、空間方向に連続している18の画素を示し、太線で囲われたそれぞれの四角は、1つの画素を示す。   The horizontal direction in FIG. 2 corresponds to the spatial direction. More specifically, in the example shown in FIG. 2, the upper rectangle in FIG. 2 indicates 18 pixels that are continuous in the spatial direction, and each square surrounded by a thick line indicates one pixel. .

ここで、シャッタ時間に対応する期間を2つ以上の同じ長さの期間に分割する。このシャッタ時間に対応する期間を分割する数である仮想分割数を、被写体のシャッタ時間内での動き量Vに対応して設定する。   Here, the period corresponding to the shutter time is divided into two or more periods having the same length. A virtual division number, which is a number for dividing the period corresponding to the shutter time, is set corresponding to the amount of movement V of the subject within the shutter time.

例えば、画素を単位とする動き量Vが3である場合、その3である動き量Vに対応して、仮想分割数は、3とされ、シャッタ時間に対応する期間は3つに分割される。   For example, when the motion amount V in units of pixels is 3, the number of virtual divisions is 3 corresponding to the motion amount V being 3, and the period corresponding to the shutter time is divided into 3. .

図2中の上側の矩形の最も上の行は、シャッタが開いて最初の、分割された期間に対応する。図2中の上側の矩形の上から2番目の行は、シャッタが開いて2番目の、分割された期間に対応する。図2中の上側の矩形の上から3番目の行は、シャッタが開いて3番目の、分割された期間に対応する。   The top row of the upper rectangle in FIG. 2 corresponds to the first divided period after the shutter is opened. The second row from the top of the upper rectangle in FIG. 2 corresponds to the second divided period from when the shutter has opened. The third row from the top of the upper rectangle in FIG. 2 corresponds to the third divided period from when the shutter has opened.

1フレームは短い時間なので、被写体が剛体であり、等速で移動していると仮定することができる。   Since one frame is a short time, it can be assumed that the subject is a rigid body and is moving at a constant speed.

被写体の画像の動きの方向が、図2中の左側から右側に向かう方向であり、被写体の画像の動き量Vが3である場合、被写体の画像は、あるフレームを基準として次のフレームにおいて3画素分右側に表示されるように移動する。   When the direction of motion of the subject image is from the left to the right in FIG. 2 and the amount of motion V of the subject image is 3, the subject image is 3 in the next frame with reference to a certain frame. Move so that it is displayed on the right side by the amount of pixels.

被写体の画像の動き量Vが3である場合、1つのフレームに注目すると、被写体の画像は、1つのフレームにおいて3画素にまたがって右側に移動する。すなわち、1つのフレームにおいて、被写体の画像は、動き量Vだけ移動すると言える。   When the amount of motion V of the subject image is 3, when attention is paid to one frame, the subject image moves to the right across three pixels in one frame. That is, it can be said that the image of the subject moves by the movement amount V in one frame.

さて、動きボケについて考えると、静止している被写体の画像に動きボケは生じることがなく、動いている被写体の画像には動きボケが生じる。   Considering motion blur, motion blur does not occur in an image of a stationary subject, and motion blur occurs in an image of a moving subject.

これを被写体からの光と画素との関係について見ると、静止している被写体の一点からの光は、撮像素子の1つの画素に入射するのに対して、動いている被写体の一点からの光は、1つのフレームにおいて、すなわちシャッタ時間において、撮像素子の複数の画素に入射する。   Looking at the relationship between the light from the subject and the pixel, the light from one point of the stationary subject is incident on one pixel of the image sensor, whereas the light from one point of the moving subject. Is incident on a plurality of pixels of the image sensor in one frame, that is, in the shutter time.

被写体の一点からの光が撮像素子の1つの画素の範囲を超えて移動しない画像、換言すれば被写体の一点からの光が1つの画素の範囲の中で移動する被写体の画像には、動きボケは生じない。   An image in which light from one point of the subject does not move beyond the range of one pixel of the image sensor, in other words, an image of a subject in which light from one point of the subject moves within the range of one pixel, Does not occur.

そこで、動いている被写体の一点からの光が、撮像素子の1つの画素に入射する期間における、被写体の画像を得ることができれば、その画像には動きボケは生じていないはずである。   Therefore, if an image of the subject can be obtained in a period in which light from one moving subject is incident on one pixel of the image sensor, motion blur should not occur in the image.

1つのフレームにおいて、被写体の画像は、動き量Vだけ移動するので、仮想分割数を動き量Vと同じとすると、分割された期間において、被写体の一点からの光は1つの画素の範囲の中で移動することになるので、このように分割された期間における被写体の画像は、動きボケを含まない。   Since the image of the subject moves by the amount of movement V in one frame, if the number of virtual divisions is the same as the amount of movement V, light from one point of the subject is within the range of one pixel during the divided period. Therefore, the subject image in the divided period does not include motion blur.

従って、図2に示されるように、仮想分割数を動き量Vと同じとした場合、分割された期間における被写体の画像は、実世界画像データJ0,・・・,Jmにより表すことができる。 Accordingly, as shown in FIG. 2, when the same as the motion amount V virtual division number, the subject of the image in the divided period, the real world image data J 0, · · ·, be represented by J m it can.

これを異なる側面から説明すると、例えば、図2に示されるように、被写体の所定の点からの光であって、実世界画像データJ0で表される光は、シャッタ時間において、画素が1列に並んでいる方向に3画素だけ移動する。 Explaining this from a different aspect, for example, as shown in FIG. 2, light from a predetermined point of the subject and represented by real-world image data J 0 is 1 pixel in the shutter time. Move by 3 pixels in the direction of the line.

シャッタが開いて最初の、分割された期間において、実世界画像データJ0で表される光は、図2中の上側の矩形の最も左側の画素に入射し、シャッタが開いて2番目の、分割された期間において、実世界画像データJ0で表される光は、図2中の上側の矩形の左から2番目の画素に入射する。また、シャッタが開いて3番目の、分割された期間において、実世界画像データJ0で表される光は、図2中の上側の矩形の左から3番目の画素に入射する。 In the first divided period after the shutter is opened, the light represented by the real-world image data J 0 is incident on the leftmost pixel of the upper rectangle in FIG. 2, and the second, In the divided period, the light represented by the real world image data J 0 is incident on the second pixel from the left of the upper rectangle in FIG. Further, in the third divided period after the shutter is opened, the light represented by the real world image data J 0 is incident on the third pixel from the left of the upper rectangle in FIG.

同様に、シャッタが開いて最初の、分割された期間において、実世界画像データJ1で表される光は、図2中の上側の矩形の左から2番目の画素に入射し、シャッタが開いて2番目の、分割された期間において、実世界画像データJ1で表される光は、図2中の上側の矩形の左から3番目の画素に入射する。また、シャッタが開いて3番目の、分割された期間において、実世界画像データJ1で表される光は、図2中の上側の矩形の左から4番目の画素に入射する。 Similarly, in the first divided period after the shutter is opened, the light represented by the real world image data J 1 is incident on the second pixel from the left of the upper rectangle in FIG. 2, and the shutter is opened. in a second, divided period Te, the light represented by the real world image data J 1 is incident on the third pixel from the left of a rectangular upper side in FIG. The shutter is the third open, in divided period, the light represented by the real world image data J 1 is incident on the fourth pixel from the left of the upper rectangle in FIG.

また、シャッタが開いて最初の、分割された期間において、実世界画像データJ2乃至実世界画像データJ17のそれぞれで表される光は、図2中の上側の矩形の左から3番目の画素乃至18番目の画素のそれぞれに入射する。シャッタが開いて2番目の、分割された期間において、実世界画像データJ2乃至実世界画像データJ16のそれぞれで表される光は、図2中の上側の矩形の左から4番目の画素乃至18番目の画素のそれぞれに入射する。さらに、シャッタが開いて3番目の、分割された期間において、実世界画像データJ2乃至実世界画像データJ15のそれぞれで表される光は、図2中の上側の矩形の左から5番目の画素乃至18番目の画素のそれぞれに入射する。 In the first divided period after the shutter is opened, the light represented by each of the real world image data J 2 to the real world image data J 17 is the third from the left of the upper rectangle in FIG. It enters each of the pixel through the 18th pixel. In the second divided period after the shutter is opened, the light represented by each of the real world image data J 2 to the real world image data J 16 is the fourth pixel from the left of the upper rectangle in FIG. It enters each of the 18th to 18th pixels. Further, in the third divided period after the shutter is opened, the light represented by each of the real world image data J 2 to the real world image data J 15 is the fifth from the left of the upper rectangle in FIG. Are incident on each of the first through eighteenth pixels.

上述したように、撮像素子は、時間に対して積分効果があるので、撮像素子のそれぞれの画素は、被写体からの光をシャッタ時間について積分して、積分した結果に相当する画素値を出力する。   As described above, since the image sensor has an integration effect with respect to time, each pixel of the image sensor integrates light from the subject with respect to the shutter time, and outputs a pixel value corresponding to the result of integration. .

例えば、図2に示されるように、ボケ画像データD0は、実世界画像データJ0と実世界画像データJ1とを積分したものになり、ボケ画像データD1は、実世界画像データJ0と実世界画像データJ1と実世界画像データJ2とを積分したものになる。 For example, as shown in FIG. 2, the blurred image data D 0 is obtained by integrating the real world image data J 0 and the real world image data J 1 , and the blurred image data D 1 is the real world image data J 1. 0 , real world image data J 1 and real world image data J 2 are integrated.

同様に、ボケ画像データD2は、実世界画像データJ1と実世界画像データJ2と実世界画像データJ3とを積分したものになり、ボケ画像データD3は、実世界画像データJ2と実世界画像データJ3と実世界画像データJ4とを積分したものになる。 Similarly, the blurred image data D 2 is obtained by integrating the real world image data J 1 , the real world image data J 2, and the real world image data J 3 , and the blurred image data D 3 is the real world image data J 3. 2 and real world image data J 3 and real world image data J 4 are integrated.

図2に示す例において、ボケ画像データD4乃至ボケ画像データD15のそれぞれは、実世界画像データJ3乃至実世界画像データJ16のうちの連続する3つをそれぞれ積分したものになる。 In the example shown in FIG. 2, each of the blurred image data D 4 to the blurred image data D 15 is obtained by integrating three consecutive ones of the real world image data J 3 to the real world image data J 16 .

一般的には、ボケ画像データDと実世界画像データJとの関係は、式(1)で表される。   In general, the relationship between the blurred image data D and the real world image data J is expressed by Expression (1).

Figure 2008225657
Figure 2008225657

以下の説明において、ボケ除去処理結果画像データK0,・・・,Kmは、画像処理装置により、ボケ画像データD0,・・・,Dnから求められる値であって、実世界画像データJ0,・・・,Jmを予測する値である。 In the following description, the blur removal processing result image data K 0, · · ·, the K m, the image processing apparatus, the blurred image data D 0, · · ·, a value obtained from the D n, the real world image Data J 0 ,..., J m are predicted values.

また、予測誤差E0,・・・,Emは、ボケ除去処理結果画像データKと実世界画像データJとの誤差である。すなわち、i=0,・・・,mとした場合、予測誤差Ei=Ki-Jiである。 Further, the prediction errors E 0 ,..., Em are errors between the blur removal processing result image data K and the real world image data J. That is, when i = 0,..., M, the prediction error E i = K i −J i .

さらに、インデックスiおよびインデックスjは、ボケ画像データDなどを特定するのに用いる。   Further, the index i and the index j are used to specify the blurred image data D and the like.

さて、図2のボケ画像データD1とボケ画像データD2とに注目すると、図3に示されるように、ボケ画像データD1は、実世界画像データJ0と実世界画像データJ1と実世界画像データJ2とを積分したものであり、ボケ画像データD2は、実世界画像データJ1と実世界画像データJ2と実世界画像データJ3とを積分したものなので、ボケ画像データD1からボケ画像データD2を減算した結果は、実世界画像データJ0から実世界画像データJ3を減算した結果に等しい。 Now, focusing on the blurred image data D 1 and the blurred image data D 2 in FIG. 2, as shown in FIG. 3, the blurred image data D 1 includes real world image data J 0 and real world image data J 1 . Real world image data J 2 is integrated, and blur image data D 2 is an integration of real world image data J 1 , real world image data J 2, and real world image data J 3. the result of subtracting the blurred image data D 2 from the data D 1 is equal to the result of subtracting the real world image data J 3 from the real world image data J 0.

ボケ画像データの隣接する画素の画素値の差分値は、実世界画像データJにおける、動き量Vだけ離れた画素の画素値の差分値を動き量Vで割り算したものと一致する。これを隣接するボケ画像データDについて一般化すると、式(2)が成り立つ。   The difference value of the pixel values of adjacent pixels in the blurred image data matches the difference value of the pixel values of pixels separated by the motion amount V in the real world image data J divided by the motion amount V. When this is generalized for the adjacent blurred image data D, Expression (2) is established.

Figure 2008225657
Figure 2008225657

また、ボケ画像データDの隣接する画素であるボケ画像データD(n×V)とボケ画像データD(n×V+1)の画素値に、[1,-(i-1)/i]のフィルタをかけた結果、すなわち、D(n×V)-(i-1)/i×D(n×V+1)の演算の結果は、実世界画像データJにおける、動き量Vだけ離れた画素の画素値の差分値を動き量Vで割り算した結果に(i-1)/iを乗じて、さらに1/i×D(n×V)を加算した値になる。 In addition, the pixel values of the blurred image data D (n × V) and the blurred image data D (n × V + 1) , which are adjacent pixels of the blurred image data D, are [1,-(i−1) / i]. That is, the result of the calculation of D (n × V) -(i-1) / i × D (n × V + 1) is separated by the motion amount V in the real world image data J. The result obtained by dividing the difference value of the pixel values of the obtained pixels by the motion amount V is multiplied by (i-1) / i, and 1 / i × D (n × V) is added.

これを、隣接するボケ画像データDについて一般化すると、式(3)が成り立つ。   When this is generalized for the adjacent blurred image data D, Expression (3) is established.

Figure 2008225657
Figure 2008225657

式(3)において、1/i×D(n×V)を予測誤差Eとして考え、例えば、図4に示されるように、ボケ画像データD1から、ボケ画像データD2に1/2を乗じた値を引き算すると、実世界画像データJ0を近似する値として、J0×1/2+(J0-J3)×1/2を求めることができる。 In the formula (3), considered 1 / i × D a (n × V) as the prediction error E, for example, as shown in FIG. 4, the blurred image data D 1, 1/2 to blurred image data D 2 By subtracting the multiplied value, J 0 × 1/2 + (J 0 -J 3 ) × 1/2 can be obtained as a value approximating the real world image data J 0 .

なお、式(3)において、1/i×D(n×V)を左辺に移項させると、式(2)に変形できることがわかる。   It should be noted that, in equation (3), when 1 / i × D (n × V) is moved to the left side, it can be transformed into equation (2).

以下、ax+byの演算を(a,b)(x,y)または(a,b)で表す。   Hereinafter, the operation of ax + by is represented by (a, b) (x, y) or (a, b).

また、式(4)が成り立つ。   Moreover, Formula (4) is materialized.

Figure 2008225657
Figure 2008225657

式(4)から、図5に示されるように、1-(N-1)/N=1/N,(N-1)/N(1-(N-2)/(N-1))=1/N,(N-1)/N(N-2)/(N-1)(1-(N-3)/(N-2))=1/Nを一般化すると、式(5)が成り立つ。   From equation (4), as shown in FIG. 5, 1- (N-1) / N = 1 / N, (N-1) / N (1- (N-2) / (N-1)) = 1 / N, (N-1) / N (N-2) / (N-1) (1- (N-3) / (N-2)) = 1 / N is generalized to formula (5 ) Holds.

Figure 2008225657
1からNまでのインデックスiについて、式(4)のサメンションを取ると、その総和は、必ず1になる。
Figure 2008225657
For the index i from 1 to N, if the summation of equation (4) is taken, the sum is always 1.

ボケ除去演算部14において、2種類の演算器が組み合わされて用いられる。ここで、2種類の演算器をそれぞれ、近似演算器と、等価変換器と称する。   In the blur removal calculation unit 14, two types of calculation units are used in combination. Here, the two types of calculators are referred to as an approximate calculator and an equivalent converter, respectively.

この2種類の演算器は、隣接するボケ画像データDiとボケ画像データD(i+1)とにかける小規模フィルタである。 These two types of computing units are small-scale filters that are applied to adjacent blurred image data D i and blurred image data D (i + 1) .

近似演算器は、式(6)の演算をボケ画像データDiとボケ画像データD(i+1)とに適用する。 The approximation calculator applies the calculation of Expression (6) to the blurred image data D i and the blurred image data D (i + 1) .

Figure 2008225657
Figure 2008225657

すなわち、近似演算器は、そのときの出力しようとするボケ除去処理結果画像データKに対して、右側に位置するボケ画像データDiとボケ画像データD(i+1)とから、ai×V×Di-ai×(V-1/(N-i))×D(i+1)を演算し、そのときの出力しようとするボケ除去処理結果画像データKに対して、左側に位置するボケ画像データDiとボケ画像データD(i+1)とから、-ai×(V-1/(N-i))×Di+ai×V×D(i+1)を演算する。 That is, the approximate arithmetic unit calculates a i ×× from the blur image data D i and the blur image data D (i + 1) located on the right side with respect to the blur removal processing result image data K to be output at that time. V × D i -a i × (V-1 / (Ni)) × D (i + 1) is calculated, and it is located on the left side with respect to the blur removal processing result image data K to be output at that time From the blurred image data D i and the blurred image data D (i + 1) , −a i × (V−1 / (Ni)) × D i + a i × V × D (i + 1) is calculated.

なお、Nは、演算器の総数である。また、係数aiは、後述する式(8)により決定される。 N is the total number of computing units. Further, the coefficient a i is determined by the equation (8) described later.

以下、式(6)で示される演算を近似演算とも称する。   Hereinafter, the calculation represented by Expression (6) is also referred to as an approximate calculation.

等価変換器は、式(7)の演算をボケ画像データDiとボケ画像データD(i+1)とに適用する。 The equivalent converter applies the calculation of Expression (7) to the blurred image data D i and the blurred image data D (i + 1) .

Figure 2008225657
Figure 2008225657

すなわち、等価変換器は、そのときの出力しようとするボケ除去処理結果画像データKに対して、右側に位置するボケ画像データDiとボケ画像データD(i+1)とから、ai×V×Di-ai×V×D(i+1)を演算し、そのときの出力しようとするボケ除去処理結果画像データKに対して、左側に位置するボケ画像データDiとボケ画像データD(i+1)とから、-ai×V×Di+ai×V×D(i+1)を演算する。 That is, the equivalent converter calculates a i ×× from the blur image data D i and the blur image data D (i + 1) located on the right side with respect to the blur removal processing result image data K to be output at that time. V × D i −a i × V × D (i + 1) is calculated, and the blur image processing result image data K to be output at that time is subjected to blur image data D i and a blur image located on the left side. From the data D (i + 1) , -a i × V × D i + a i × V × D (i + 1) is calculated.

以下、式(7)で示される演算を等価変換演算とも称する。   Hereinafter, the operation represented by Expression (7) is also referred to as equivalent conversion operation.

近似演算器のゲインは、ai/(N-i)であり、等価変換器のゲインは、0なので、近似演算器を適宜組み合わせることにより、ボケ除去演算部14における近似演算器と等価変換器とによるトータルのゲインを1にすることができる。 Since the gain of the approximate calculator is a i / (Ni) and the gain of the equivalent converter is 0, the approximate calculator and the equivalent converter in the blur removal calculating unit 14 are appropriately combined by appropriately combining the approximate calculators. The total gain can be unity.

ボケ除去演算部14における近似演算器と等価変換器とによるトータルのゲインを、システマティックに、1にするために、aiは、式(8)により決定される。 In order to systematically set the total gain by the approximate calculator and the equivalent converter in the blur removal calculating unit 14 to 1, a i is determined by Expression (8).

Figure 2008225657
なお、N=1およびi=0である場合、係数aiは、1とする。
Figure 2008225657
When N = 1 and i = 0, the coefficient a i is 1.

式(8)により係数aiを決定すると、式(4)より、式(9)に示されるように、ボケ除去演算部14における近似演算器と等価変換器とによるトータルのゲインは、1になる。 When the coefficient a i is determined by the equation (8), the total gain by the approximate calculator and the equivalent converter in the blur removal calculating unit 14 is 1 as shown in the equation (9) from the equation (4). Become.

Figure 2008225657
Figure 2008225657

ここで、ボケ画像データD0とボケ画像データD1とから、1つの近似演算器でボケ除去処理結果画像データK0を求めるとすると、ボケ除去処理結果画像データK0は、式(10)で示される値になる。 Here, when the blur removal processing result image data K 0 is obtained from the blur image data D 0 and the blur image data D 1 by one approximate arithmetic unit, the blur removal processing result image data K 0 is expressed by the equation (10). The value indicated by.

Figure 2008225657
Figure 2008225657

この場合の予測誤差E0は、D1-J(V/2)である。 In this case, the prediction error E 0 is D 1 −J (V / 2) .

また、ボケ画像データD0とボケ画像データD1とから、1つの近似演算器と1つの等価変換器とでボケ除去処理結果画像データK0を求めるとすると、ボケ除去処理結果画像データK0は、式(11)で示される値になる。 Also, if the blur removal processing result image data K 0 is obtained from the blur image data D 0 and the blur image data D 1 with one approximate calculator and one equivalent converter, the blur removal processing result image data K 0. Is a value represented by equation (11).

Figure 2008225657
Figure 2008225657

この場合の全体の予測誤差Etotalは、-J(V+V/2)+D(V+1)である。 The overall prediction error E total in this case is −J (V + V / 2) + D (V + 1) .

これからわかるように、予測誤差Eは、全て、近似演算器で発生し、近似演算器で発生するそれぞれの予測誤差Eiは、J(i-V/2)-Di+1×(近似演算器のゲイン)である。 As can be seen, all the prediction errors E are generated by the approximation calculator, and each prediction error Ei generated by the approximation calculator is J (iV / 2) −D i + 1 × (gain of the approximation calculator) ).

このように、1または複数の近似演算器と、0以上の等価変換器とが組み合わされて、ボケ除去処理結果画像データKが演算される。   As described above, the blur removal processing result image data K is calculated by combining one or a plurality of approximate calculators and zero or more equivalent converters.

組み合わされる1または複数の近似演算器と0以上の等価変換器とを一般化して表すことを考えると、近似演算器と等価変換器との統合表現は、式(12)で表される。   Considering generalization of one or a plurality of approximate arithmetic units to be combined and zero or more equivalent converters, an integrated expression of the approximate arithmetic unit and the equivalent converter is expressed by Expression (12).

Figure 2008225657
Figure 2008225657

以下において、近似演算器の数をWで表し、等価変換器の数をXで表す。   In the following, the number of approximate arithmetic units is represented by W, and the number of equivalent converters is represented by X.

そして、インデックスS(w)は、近似演算器のインデックスiの集合のw番目(w>=0である)の要素を示す。例えば、統合表現のf(i)における、f(0)が近似演算であり、f(1)が等価変換演算であり、f(2)が近似演算であり、f(3)が等価変換演算であり、f(4)が近似演算である場合、S(0)=0,S(1)=2,S(2)=4が成り立つ。すなわち、インデックスS(w)は、w番目の近似演算器のインデックスiを示す。   The index S (w) indicates the w-th element (w> = 0) of the set of indices i of the approximate arithmetic unit. For example, in the integrated expression f (i), f (0) is an approximation operation, f (1) is an equivalent conversion operation, f (2) is an approximation operation, and f (3) is an equivalent conversion operation. When f (4) is an approximate operation, S (0) = 0, S (1) = 2, S (2) = 4 holds. That is, the index S (w) indicates the index i of the wth approximate arithmetic unit.

求めようとする予測値であるボケ除去処理結果画像データK0は、1または複数の近似演算と0以上の等価変換演算とが組み合わされる式(13)の予測演算式で表される演算で求めることができる。 The blur removal processing result image data K 0 that is the predicted value to be obtained is obtained by an operation represented by a prediction operation equation (13) in which one or a plurality of approximate operations and zero or more equivalent conversion operations are combined. be able to.

Figure 2008225657
Figure 2008225657

この場合、近似演算器のまたは等価変換器である、インデックスiで示されるi番目の演算器において生じる予測誤差Eiは、式(14)で表される。 In this case, the prediction error E i generated in the i-th arithmetic unit indicated by the index i, which is an approximate arithmetic unit or an equivalent converter, is expressed by Expression (14).

Figure 2008225657
Figure 2008225657

式(15)で示されるように、スカラー値biを、f(i)が等価変換演算である場合、0とし、f(i)が近似演算である場合、係数aiとすると、予測誤差Etotalは、式(16)で求められる。 As shown in the equation (15), if the scalar value b i is 0 when f (i) is an equivalent conversion operation, and f (i) is an approximation operation, the coefficient a i is a prediction error. E total is calculated | required by Formula (16).

Figure 2008225657
Figure 2008225657

Figure 2008225657
Figure 2008225657

次に、予測値を求めるための、1または複数の近似演算器と0以上の等価変換器との組み合わせについて説明する。   Next, a combination of one or a plurality of approximate arithmetic units and zero or more equivalent converters for obtaining a predicted value will be described.

予測値を安定的に求めるためには、演算器のゲイン、すなわち、予測値のゲインが1であることが望ましい。   In order to stably obtain the predicted value, it is desirable that the gain of the arithmetic unit, that is, the gain of the predicted value is 1.

上述したように、近似演算器のゲインは、ai/(N-i)であり、等価変換器のゲインは、0である。 As described above, the gain of the approximate calculator is a i / (Ni), and the gain of the equivalent converter is 0.

近似演算器と等価変換器の2種類の演算器を組み合わせて予測値を求める場合、予測値を求めるための、1または複数の近似演算器と0以上の等価変換器との組み合わせにおいて総合的なゲインを1にするためには、近似演算器に注目して組み合わせを決定すればよい。   When a predicted value is obtained by combining two types of arithmetic units, that is, an approximate calculator and an equivalent converter, a combination of one or more approximate calculators and zero or more equivalent converters for calculating the predicted value is comprehensive. In order to set the gain to 1, the combination may be determined by paying attention to the approximate calculator.

ここでは、誤差を均等に分散させながら、総合的な予測値のゲインを1にするためのシステマティックな手法を提案する。演算に用いるボケ画像データDに対して誤差を均等に分散させることにより、安定的な予測値を得ることができるようになる。   Here, we propose a systematic method to make the gain of the overall prediction value 1 while distributing the error evenly. A stable prediction value can be obtained by evenly distributing the error with respect to the blurred image data D used in the calculation.

まず、等価変換器のゲインは0であり、等価変換器は、総合的な予測値のゲインには関与しないので、近似演算器の組み合わせ方、具体的には、各演算器の出力の重み付けを次のように決定する。   First, the gain of the equivalent converter is 0, and the equivalent converter does not contribute to the gain of the overall prediction value. Therefore, how to combine approximate calculators, specifically, the weight of the output of each calculator Determine as follows.

式(4)から、式(17)が成り立ち、式(17)から、式(18)が成り立つ。   From equation (4), equation (17) holds, and from equation (17), equation (18) holds.

Figure 2008225657
Figure 2008225657

Figure 2008225657
Figure 2008225657

式(8)から、式(19)が成り立つ。   From equation (8), equation (19) holds.

Figure 2008225657
Figure 2008225657

式(20)を展開すると、演算器おけるゲインが、必ず1/Nとなることがわかる。このことから、1乃至Nであるインデックスiについてゲインを足し合わせると、1になることがわかる。   When formula (20) is expanded, it can be seen that the gain in the computing unit is always 1 / N. From this, it can be seen that when the gain is added to the index i which is 1 to N, it becomes 1.

Figure 2008225657
Figure 2008225657

なお、式(20)から、上述した式(9)が求められる。   Note that, from the equation (20), the above-described equation (9) is obtained.

従って、各近似演算器のゲインは、1/Nとなり、上述したように、それぞれの近似演算器で発生するそれぞれの誤差Eiは、J(i-V/2)-Di×(近似演算器のゲイン)であるので、それぞれの近似演算器において誤差のゲインは、等しくなる。 Therefore, the gain of each approximate arithmetic unit is 1 / N, and as described above, each error Ei generated in each approximate arithmetic unit is J (iV / 2) -D i × (approximation unit gain) ), The error gains are equal in each approximate computing unit.

すなわち、誤差は、近似演算器が近似演算を適用するボケ画像データDの値に応じて生じ、近似演算が適用されるボケ画像データDに分散して生じると言える。   That is, it can be said that the error is generated according to the value of the blur image data D to which the approximate calculation unit applies the approximate calculation, and is distributed to the blur image data D to which the approximate calculation is applied.

ここで、図6乃至図10を参照して、近似演算器と等価変換器とによる予測値の演算の具体例を説明する。   Here, with reference to FIG. 6 thru | or FIG. 10, the specific example of the calculation of the predicted value by an approximate calculator and an equivalent converter is demonstrated.

図6は、図2と同様に、ボケ画像データD0,・・・,Dnと実世界画像データJ0,・・・,Jmとの関係を示す図である。 Figure 6 is similar to FIG. 2, the unsharp image data D 0, · · ·, D n and the real world image data J 0, · · ·, a diagram showing the relationship between J m.

まず、図6に示されるように、図6中のAで示される実世界画像データJ0を求める場合、ボケ画像データD1とボケ画像データD1に動きの方向に隣接するボケ画像データD2とが抽出される。さらに、ボケ画像データD1から、動きの方向に動き量Vの画素だけ離れたボケ画像データD4とボケ画像データD4に動きの方向に隣接するボケ画像データD5とが抽出され、ボケ画像データD4から、動きの方向に動き量Vの画素だけ離れたボケ画像データD7とボケ画像データD7に動きの方向に隣接するボケ画像データD8が抽出される。 First, as shown in FIG. 6, when the real world image data J 0 indicated by A in FIG. 6 is obtained, the blurred image data D 1 and the blurred image data D adjacent to the blurred image data D 1 in the direction of motion. 2 is extracted. Further, from the blurred image data D 1 , the blurred image data D 4 that is separated by the pixel of the motion amount V in the direction of motion and the blurred image data D 5 that is adjacent to the blurred image data D 4 in the direction of motion are extracted. from the image data D 4, the blurred image data D 8 adjacent in the direction of the motion blurred image data D 7 and the blurred image data D 7 separated by the pixels of the motion amount V in the direction of motion is extracted.

図7に示されるように、ボケ画像データD1からボケ画像データD2を減算した差分は、図6からわかるように、実世界画像データJ1および実世界画像データJ2が相殺されることになるので、実世界画像データJ0から実世界画像データJ3を減算した差分に等しい。 As shown in FIG. 7, the difference obtained by subtracting the blurred image data D 2 from the blurred image data D 1 is that the real world image data J 1 and the real world image data J 2 are offset as can be seen from FIG. Therefore, it is equal to the difference obtained by subtracting the real world image data J 3 from the real world image data J 0 .

また、同様に、ボケ画像データD4からボケ画像データD5を減算した差分は、実世界画像データJ3から実世界画像データJ6を減算した差分に等しく、ボケ画像データD7からボケ画像データD8を減算した差分は、実世界画像データJ6から実世界画像データJ9を減算した差分に等しい。 Similarly, the difference obtained by subtracting the blurred image data D 5 from the blurred image data D 4 is equal to the difference obtained by subtracting the real world image data J 6 from the real world image data J 3, blurred image from the blurred image data D 7 difference obtained by subtracting the data D 8 is equal to the difference obtained by subtracting the real world image data J 9 from the real world image data J 6.

実世界画像データJ0から実世界画像データJ3を減算した差分、実世界画像データJ3から実世界画像データJ6を減算した差分、および実世界画像データJ6から実世界画像データJ9を減算した差分の総和を求めると、実世界画像データJ3および実世界画像データJ6が相殺されることになるので、実世界画像データJ0から実世界画像データJ9を減算した差分が求められることになる。 Real world image data J 0 from the difference obtained by subtracting the real world image data J 3, real-world image data J 3 from the difference obtained by subtracting the real world image data J 6, and real world image data J 6 real world image data from J 9 Since the real world image data J 3 and the real world image data J 6 are offset when the sum of the differences obtained by subtracting is subtracted, the difference obtained by subtracting the real world image data J 9 from the real world image data J 0 It will be required.

すなわち、ボケ画像データD1からボケ画像データD2を減算した差分、ボケ画像データD4からボケ画像データD5を減算した差分、ボケ画像データD7からボケ画像データD8とを減算した差分の総和を求めると、実世界画像データJ0から実世界画像データJ9を減算した差分が求められる。 That is, the difference obtained by subtracting the blurred image data D 2 from the blurred image data D 1, the difference obtained by subtracting the blurred image data D 5 from the blurred image data D 4, the difference obtained by subtracting the blurred image data D 8 from the blurred image data D 7 When obtaining the sum, difference obtained by subtracting the real world image data J 9 from the real world image data J 0 is obtained.

このように、例えば、ボケ画像データD1からボケ画像データD2を減算した差分は、実世界画像データJ0から実世界画像データJ3を減算した差分に等しく、式(7)で示される1つの等価変換演算によって、2つの実世界画像データJの差分に所定の定数を乗じた値が求められることがわかる。 Thus, for example, the difference obtained by subtracting the blurred image data D 2 from the blurred image data D 1 is equal to the difference obtained by subtracting the real world image data J 3 from the real world image data J 0 , and is expressed by Expression (7). It can be seen that a value obtained by multiplying the difference between the two real world image data J by a predetermined constant is obtained by one equivalent conversion operation.

そして、ボケ画像データD1からボケ画像データD2を減算した差分と、ボケ画像データD1からボケ画像データD2を減算した差分、ボケ画像データD4からボケ画像データD5を減算した差分、およびボケ画像データD7からボケ画像データD8を減算した差分の総和とを比較すると、それぞれ、実世界画像データJ0から実世界画像データJ3を減算した差分と、実世界画像データJ0から実世界画像データJ9を減算した差分とが求められることになり、引かれる数は実世界画像データJ0で同じであり、引く数は、実世界画像データJ3から実世界画像データJ9に変わっている。 Then, a difference obtained by subtracting the blurred image data D 2 from the blurred image data D 1, the difference obtained by subtracting the blurred image data D 2 from the blurred image data D 1, the difference obtained by subtracting the blurred image data D 5 from the blurred image data D 4 , And the sum of the differences obtained by subtracting the blurred image data D 8 from the blurred image data D 7 , and the difference obtained by subtracting the real world image data J 3 from the real world image data J 0 and the real world image data J, respectively. The difference obtained by subtracting the real world image data J 9 from 0 is obtained, and the number to be subtracted is the same as the real world image data J 0 , and the subtraction number is the real world image data J 3 to the real world image data It has changed to J 9.

すなわち、動きの方向に隣接するボケ画像データDの差分に、これから動きの方向に動き量Vの画素だけ離れた隣接するボケ画像データDの差分を加算すると、引く数を動き量Vだけ動き方向に移動させて、2つの実世界画像データJの差分を求めることができる。   That is, when the difference between the adjacent blur image data D separated by the pixel of the motion amount V in the motion direction is added to the difference between the blur image data D adjacent in the motion direction, the subtracted number is the motion direction by the motion amount V. And the difference between the two real world image data J can be obtained.

式(7)で示される等価変換演算を複数組み合わせることによって、引く数を動き量Vだけ動き方向に移動させた2つの実世界画像データJの差分に所定の定数を乗じた値が求められることがわかる。   A value obtained by multiplying a difference between two real world image data J obtained by moving the subtraction number in the movement direction by the movement amount V by a predetermined constant is obtained by combining a plurality of equivalent conversion operations represented by Expression (7). I understand.

次に、ボケ画像データD1およびボケ画像データD2と、ボケ画像データD4およびボケ画像データD5と、ボケ画像データD7およびボケ画像データD8とを用いて、近似演算について説明する。 Then, the blurred image data D 1 and blurred image data D 2, and the blurred image data D 4 and the unsharp image data D 5, by using the blurred image data D 7 and the unsharp image data D 8, will be described approximate operation .

図8に示されるように、ボケ画像データD1から、ボケ画像データD2に2/3を乗算した結果を引き算すると、ボケ画像データD1が、実世界画像データJ0と実世界画像データJ1と実世界画像データJ2とを積分したものであり、ボケ画像データD2が、実世界画像データJ1と実世界画像データJ2と実世界画像データJ3とを積分したものなので、実世界画像データJ3に2/3を乗算した結果を実世界画像データJ0から引き算し、実世界画像データJ1と実世界画像データJ2とを加算した和に1/3を乗算した結果をその引き算の結果に加算した値が得られる。 As shown in FIG. 8, the blurred image data D 1, the subtracting the result of multiplying blurred image data D 2 to 2/3, blurred image data D 1 is, the real world image data J 0 the real world image data Since J 1 and real world image data J 2 are integrated, blur image data D 2 is an integration of real world image data J 1 , real world image data J 2, and real world image data J 3 . The result obtained by multiplying the real world image data J 3 by 2/3 is subtracted from the real world image data J 0, and the sum of the real world image data J 1 and the real world image data J 2 is multiplied by 1/3. A value obtained by adding the result obtained to the subtraction result is obtained.

また、ボケ画像データD4から、ボケ画像データD5に1/2を乗算した結果を引き算すると、ボケ画像データD4が、実世界画像データJ3と実世界画像データJ4と実世界画像データJ5とを積分したものであり、ボケ画像データD5が、実世界画像データJ4と実世界画像データJ5と実世界画像データJ6とを積分したものなので、実世界画像データJ6に1/2を乗算した結果を実世界画像データJ3から引き算し、実世界画像データJ4と実世界画像データJ5とを加算した和に1/2を乗算した結果をその引き算の結果に加算した値が得られる。 Moreover, the blurred image data D 4, Subtracting the results obtained by multiplying 1/2 to the blurred image data D 5, blurred image data D 4 is, real world image data J 3 and the real world image data J 4 real world image is obtained by integrating the data J 5, the blurred image data D 5, since the real world image data J 4 the real world image data J 5 such that the integral of the real world image data J 6, the real world image data J 6 result of multiplying 1/2 subtracted from the real world image data J 3, real-world image data J 4 and the real world and the image data J 5 multiplied by 1/2 in the sum addition result of the subtraction A value added to the result is obtained.

さらに、ボケ画像データD7から、ボケ画像データD8に0を乗算した結果を引き算すると、ボケ画像データD7が、実世界画像データJ6と実世界画像データJ7と実世界画像データJ8とを積分したものなので、その実世界画像データJ6と実世界画像データJ7と実世界画像データJ8とを加算した値が得られる。 Moreover, the blurred image data D 7, Subtracting the result of multiplying 0 to blur the image data D 8, blurred image data D 7 is the real world image data J 6 the real world image data J 7 the real world image data J since 8 and such a the integral, the real world image data J 6 and the real world image data J 7 value obtained by adding the real world image data J 8 is obtained.

ボケ画像データD1から、ボケ画像データD2に2/3を乗算した結果を引き算して得られた、実世界画像データJ3に2/3を乗算した結果を実世界画像データJ0から引き算し、実世界画像データJ1と実世界画像データJ2とを加算した和に1/3を乗算した結果をその引き算の結果に加算した値から、実世界画像データJ3の成分を消去することを考えると、ボケ画像データD4から、ボケ画像データD5に1/2を乗算した結果を引き算して得られた、実世界画像データJ6に1/2を乗算した結果を実世界画像データJ3から引き算し、実世界画像データJ4と実世界画像データJ5とを加算した和に1/2を乗算した結果をその引き算の結果に加算した値に含まれる実世界画像データJ3の成分を利用すればよい。 The result obtained by subtracting the result obtained by multiplying the blurred image data D 1 by 2/3 from the blurred image data D 2 is obtained by multiplying the result obtained by multiplying the real world image data J 3 by 2/3 from the real world image data J 0. Subtract the real world image data J 1 and the real world image data J 2 and add the result of 1/3 to the result of the subtraction to remove the components of the real world image data J 3 real Given that, from the blurred image data D 4, obtained by subtracting the result of multiplying 1/2 blurred image data D 5, the result obtained by multiplying 1/2 to the real world image data J 6 subtracted from world image data J 3, real-world images included the results obtained by multiplying 1/2 to the value obtained by adding to the subtraction result to the sum obtained by adding the real world image data J 4 and the real world image data J 5 data for component J 3 may be utilized.

すなわち、ボケ画像データD4から、ボケ画像データD5に1/2を乗算した結果を引き算して得られた結果に2/3を乗算して、その値を、ボケ画像データD1から、ボケ画像データD2に2/3を乗算した結果を引き算して得られた結果から引き算する。 That is, the blurred image data D 4, by multiplying 2/3 to the result obtained by subtracting the result of multiplying 1/2 blurred image data D 5, its value, the blurred image data D 1, subtracting from the result obtained by subtracting the result of multiplying the blurred image data D 2 to 2/3.

これにより、ボケ画像データD1から、ボケ画像データD2に2/3を乗算した結果を引き算して得られた、実世界画像データJ3に2/3を乗算した結果を実世界画像データJ0から引き算し、実世界画像データJ1と実世界画像データJ2とを加算した和に1/3を乗算した結果をその引き算の結果に加算した値から、実世界画像データJ3の成分が消去される。 As a result, the result obtained by subtracting the result obtained by multiplying the blur image data D 2 by 2/3 from the blur image data D 1 is obtained by multiplying the result obtained by multiplying the real world image data J 3 by 2/3. From the value obtained by subtracting the result of subtracting from J 0 and adding 1/3 to the sum of real world image data J 1 and real world image data J 2 to the result of the subtraction, the real world image data J 3 Ingredients are erased.

そして、実世界画像データJ3の成分を消去した結果から、さらに、実世界画像データJ6の成分を消去することを考える。 Then, from the result of erasing the components of the real world image data J 3 , it is considered to further erase the components of the real world image data J 6 .

ボケ画像データD7から、ボケ画像データD8に0を乗算した結果を引き算して得られた結果に1/2を乗算して、その値を、実世界画像データJ3の成分を消去した結果から引き算すると、実世界画像データJ3の成分と実世界画像データJ6の成分とが消去される。 The result obtained by subtracting the result obtained by multiplying the blurred image data D 8 by 0 from the blurred image data D 7 is multiplied by 1/2, and the value is deleted from the component of the real world image data J 3 When subtracting from the result, the component of the real world image data J 3 and the component of the real world image data J 6 are deleted.

このように、不要な実世界画像データJを順に消去して、必要な実世界画像データJを近似することができる。   In this way, unnecessary real world image data J can be deleted in order, and the necessary real world image data J can be approximated.

この近似は、単純には、図9に示されるように、実世界画像データJ0を、実世界画像データJ0と実世界画像データJ1と実世界画像データJ2とを加算した値、すなわちボケ画像データD1に1/3を乗算した結果で近似し、また、実世界画像データJ3を、実世界画像データJ3と実世界画像データJ4と実世界画像データJ5とを加算した値、すなわち、ボケ画像データD4に1/3を乗算した結果で近似し、実世界画像データJ6を、実世界画像データJ6と実世界画像データJ7と実世界画像データJ8とを加算した値、すなわちボケ画像データD7に1/3を乗算した結果で近似することを基本としたものである。 This approximation simply, as shown in FIG. 9, the real world image data J 0, the real world image data J 0 the real world image data J 1 the real world image data J 2 and the added value, That is, the image is approximated by the result obtained by multiplying the blurred image data D 1 by 1/3, and the real world image data J 3 is converted into the real world image data J 3 , the real world image data J 4, and the real world image data J 5 . The approximate value is obtained by multiplying the added image, that is, the blurred image data D 4 by 1/3, and the real world image data J 6 is replaced with the real world image data J 6 , the real world image data J 7, and the real world image data J. The approximation is based on the value obtained by adding 8 and the result obtained by multiplying the blurred image data D 7 by 1/3.

この場合、誤差E0は、ボケ画像データD1に1/3を乗算した結果で実世界画像データJ0を近似した場合の誤差を示す。 In this case, the error E 0 indicates an error when the real world image data J 0 is approximated by the result of multiplying the blurred image data D 1 by 1/3.

また、誤差E3は、ボケ画像データD4に1/3を乗算した結果で実世界画像データJ3を近似した場合の誤差を示し、誤差E6は、ボケ画像データD7に1/3を乗算した結果で実世界画像データJ6を近似した場合の誤差を示す。 The error E 3 indicates an error when the real world image data J 3 is approximated by the result of multiplying the blurred image data D 4 by 1/3, and the error E 6 is 1/3 in the blurred image data D 7 . the indicating an error when approximating the real world image data J 6 with the result of multiplying.

このような、近似演算と等価変換演算とが組み合わされて、予測値が求められる。   Such an approximate calculation and an equivalent conversion calculation are combined to obtain a predicted value.

図10は、ボケ画像データD1とボケ画像データD2に等価変換演算を適用し、ボケ画像データD4とボケ画像データD5に近似演算を適用し、ボケ画像データD7とボケ画像データD8に等価変換演算を適用し、ボケ画像データD10とボケ画像データD11に近似演算を適用し、ボケ画像データD13とボケ画像データD14に等価変換演算を適用し、ボケ画像データD16とボケ画像データD17に近似演算を適用した場合の、近似演算と等価変換演算との組み合わせの例を示す図である。 Figure 10 is an equivalent transform operation is applied to the blurred image data D 1 and the blurred image data D 2, to apply the approximate calculation in the blurred image data D 4 and the blurred image data D 5, blurred image data D 7 and the blurred image data apply the equivalent transformation operation on D 8, to apply the approximate calculation in the blurred image data D 10 and the blurred image data D 11, the equivalent conversion operation applied to the blurred image data D 13 and the blurred image data D 14, the blurred image data in the case of applying the approximate calculation in D 16 and the blurred image data D 17, it is a diagram illustrating an example of a combination of approximation calculation equivalent conversion operation.

図10において、実線の下線は、等価変換演算の項を示し、点線の下線は、近似演算の項を示す。   In FIG. 10, the solid line underline indicates the equivalent conversion calculation term, and the dotted line underline indicates the approximation calculation term.

図10の上側に示される、ボケ画像データDについての演算式の項のそれぞれについて、等価変換演算の項を実世界画像データJに置換して、近似演算の項を近似値に置き換えると、図10の上から2番目に示される図に相当する式に書き換えることができる。   For each of the terms of the arithmetic expression for the blurred image data D shown on the upper side of FIG. 10, if the equivalent conversion arithmetic term is replaced with the real world image data J and the approximate arithmetic term is replaced with the approximate value, FIG. 10 can be rewritten as an expression corresponding to the second figure from the top.

さらに、近似値を、実世界画像データJと誤差Eとに置き換えると、図10の上から3番目に示される図に相当する式に書き換えることができる。なお、一点鎖線の下線は、実世界画像データJと誤差Eとに置き換えられた項を示す。   Furthermore, when the approximate value is replaced with the real world image data J and the error E, it can be rewritten into an expression corresponding to the third figure from the top of FIG. The underline of the alternate long and short dash line indicates a term replaced with real world image data J and error E.

これを展開して、誤差Eに係る係数を整理すると、最終的に、予測値であるボケ除去処理結果画像データK0は、実世界画像データJ3に予測誤差E3と予測誤差E9と予測誤差E15を加算した値に1/3を乗じた結果を加えた値となることがわかる。 When this is expanded and the coefficients related to the error E are arranged, finally, the blur removal processing result image data K 0 that is the predicted value is converted into the real world image data J 3 by the prediction error E 3 and the prediction error E 9 . prediction error E 15 result multiplied by 1/3 to a value obtained by adding understood to be a value obtained by adding.

このように、図11に示されるように、ボケ画像データD0とこれに隣接するボケ画像データD1との組、ボケ画像データD0とボケ画像データD1との組から動きの方向に動き量Vの画素だけ離れたボケ画像データDVとこれに隣接するボケ画像データDV+1との組、ボケ画像データDVとボケ画像データDV+1との組から動きの方向に動き量Vの画素だけ離れたボケ画像データD2Vとこれに隣接するボケ画像データD2V+1との組、ボケ画像データD2Vとボケ画像データD2V+1との組から動きの方向に動き量Vの画素だけ離れたボケ画像データD3Vとこれに隣接するボケ画像データD3V+1との組、ボケ画像データD3Vとボケ画像データD3V+1との組から動きの方向に動き量Vの画素だけ離れたボケ画像データD4Vとこれに隣接するボケ画像データD4V+1との組のそれぞれに、近似演算または等価変換処理のいずれかを適用する。 Thus, as shown in FIG. 11, the set of the blurred image data D 1 adjacent thereto and the blurred image data D 0, the set of the blurred image data D 0 and the blurred image data D 1 in the direction of movement the set of the blurred image data D V separated by the pixels of the motion amount V with blurred image data D V + 1 adjacent thereto, from the set of the blurred image data D V and the blurred image data D V + 1 in the direction of movement the set of the blurred image data D 2V separated by pixels of the motion amount V with blurred image data D 2V + 1 adjacent thereto, from the set of the blurred image data D 2V and the blurred image data D 2V + 1 in the direction of movement the set of the blurred image data D 3V separated by pixels of the motion amount V with blurred image data D 3V + 1 adjacent thereto, from the set of the blurred image data D 3V and the blurred image data D 3V + 1 in the direction of movement Approximate operation for each set of blurred image data D 4V separated by pixels of motion amount V and blurred image data D 4V + 1 adjacent to this Alternatively, either equivalent conversion processing is applied.

例えば、ボケ画像データD0とボケ画像データD1との組に近似演算を適用し、ボケ画像データDVとボケ画像データDV+1との組に等価変換演算を適用し、ボケ画像データD2Vとボケ画像データD2V+1との組に近似演算を適用し、ボケ画像データD3Vとボケ画像データD3V+1との組に近似演算を適用し、ボケ画像データD4Vとボケ画像データD4V+1との組に等価変換演算を適用する。 For example, by applying a set to approximate calculation of the unsharp image data D 0 and the blurred image data D 1, the equivalent conversion operation applied to the set of the blurred image data D V and the blurred image data D V + 1, blurred image data applying the set to approximate calculation of D 2V and the blurred image data D 2V + 1, to apply the set to approximate calculation of the unsharp image data D 3V and the blurred image data D 3V + 1, blurred image data D 4V and blur The equivalent transformation operation is applied to the pair with the image data D 4V + 1 .

それぞれの近似演算およびそれぞれの等価変換演算の結果が加算されることにより、予測値が求められる。   The predicted values are obtained by adding the results of the respective approximation calculations and the equivalent conversion calculations.

図11に示される演算の例において、統合表現のf(i)における、f(0)が近似演算であり、f(1)が等価変換演算であり、f(2)が近似演算であり、f(3)が近似演算であり、f(4)が等価変換演算なので、インデックスS(0)は0となり、インデックスS(1)は2となり、インデックスS(2)は3となる。   In the example of the operation shown in FIG. 11, in the integrated expression f (i), f (0) is an approximate operation, f (1) is an equivalent conversion operation, f (2) is an approximate operation, Since f (3) is an approximate operation and f (4) is an equivalent conversion operation, index S (0) is 0, index S (1) is 2, and index S (2) is 3.

このように、近似演算と等価変換演算との組み合わせに応じて、予測値が求められる。具体的には、予測値の演算の項の数(近似演算および等価変換演算の総数)、近似演算の項の数、等価変換演算の項の数、および予測値の演算の演算式における近似演算の項の位置が変わることにより、近似演算と等価変換演算との異なる組み合わせが得られ、この異なる組み合わせ毎に予測値が得られる。   Thus, the predicted value is obtained according to the combination of the approximate calculation and the equivalent conversion calculation. Specifically, the number of terms in the predicted value operation (total number of approximate operations and equivalent conversion operations), the number of terms in the approximate operation, the number of terms in the equivalent conversion operation, and the approximate operation in the formula for the calculation of the predicted value By changing the position of the term, different combinations of the approximate calculation and the equivalent conversion calculation are obtained, and a predicted value is obtained for each different combination.

すなわち、演算器の総数N、近似演算器の数W、等価変換器の数X、およびインデックスS(w)が異なる組み合わせ毎に予測値が得られる。   That is, a predicted value is obtained for each combination in which the total number N of arithmetic units, the number W of approximate arithmetic units, the number X of equivalent converters, and the index S (w) are different.

以下、ある特定の演算器の総数N、ある特定の近似演算器の数W、ある特定の等価変換器の数X、およびある特定のインデックスS(w)で定まる、ある特定の近似演算器と等価変換器との組み合わせ、すなわち、ある特定の近似演算と等価変換演算との組み合わせを予測パターンとも称する。1つの予測パターンの近似演算器と等価演算器との組み合わせ(近似演算と等価変換演算との組み合わせ)から、1つの予測値が得られる。   Hereinafter, a specific approximate arithmetic unit determined by a total number N of specific arithmetic units, a specific number of approximate arithmetic units W, a specific equivalent converter number X, and a specific index S (w) A combination with an equivalent converter, that is, a combination of a specific approximate operation and an equivalent conversion operation is also referred to as a prediction pattern. One predicted value is obtained from a combination of an approximate calculator and an equivalent calculator of one prediction pattern (a combination of an approximate calculation and an equivalent conversion calculation).

図1のボケ除去演算部14は、近似演算と等価変換演算との異なる組み合わせの全てについて、予測値を演算する。   The blur removal calculation unit 14 in FIG. 1 calculates predicted values for all the different combinations of the approximate calculation and the equivalent conversion calculation.

例えば、演算器の総数Nの最大値が予め決定され、1以上最大値以下の範囲の演算器の総数Nのそれぞれについて、1以上の近似演算器の数Wと、0以上の等価変換器の数Xと、それぞれのインデックスS(w)とから、近似演算と等価変換演算との異なる組み合わせの全てが求められる。   For example, the maximum value of the total number N of arithmetic units is determined in advance, and for each of the total number N of arithmetic units in the range of 1 or more and the maximum value or less, the number W of one or more approximate arithmetic units and the equivalent converter of 0 or more From the number X and the respective indexes S (w), all the different combinations of the approximate calculation and the equivalent conversion calculation are obtained.

ボケ除去演算部14は、このように求められた近似演算と等価変換演算との異なる組み合わせの全てについて、予測値を演算する。   The blur removal calculation unit 14 calculates predicted values for all the different combinations of the approximate calculation and the equivalent conversion calculation obtained in this way.

演算結果比較選択部15は、ボケ除去演算部14から供給された、近似演算と等価変換演算との異なる組み合わせの全てについての、1または複数の予測値から、より確からしい予測値を選択して、選択した予測値から画素値を求める。   The calculation result comparison / selection unit 15 selects a more probable prediction value from one or a plurality of prediction values for all the different combinations of the approximate calculation and the equivalent conversion calculation supplied from the blur removal calculation unit 14. The pixel value is obtained from the selected predicted value.

ここで、演算結果比較選択部15における、予測値の選択について説明する。   Here, selection of a predicted value in the calculation result comparison / selection unit 15 will be described.

近似演算と等価変換演算との組み合わせに応じて得られた、複数の予測値のそれぞれには、上述したように、どれも同じゲインの誤差Eが含まれる。予測値のそれぞれにおける、誤差Eの大小は、予測値の演算の用いたボケ画像データDで表される画像のおける波形の形状に依存する。   Each of the plurality of predicted values obtained according to the combination of the approximate calculation and the equivalent conversion calculation includes the error E with the same gain as described above. The magnitude of the error E in each predicted value depends on the shape of the waveform in the image represented by the blurred image data D used in the calculation of the predicted value.

予測値の演算の用いたボケ画像データDで表される画像のエッジに偏りが無く、複数の近似演算器のそれぞれをどのように配置したかの差だけ(インデックスS(w)の値が異なるだけ)とすると、理想的には予測値の誤差Eは0を中心に対称に散らばる。   There is no bias in the edge of the image represented by the blurred image data D used in the calculation of the predicted value, and only the difference in how each of the approximate computing units is arranged (the value of the index S (w) is different) Only), ideally, the error E of the predicted value is scattered symmetrically around 0.

演算結果比較選択部15は、例えば、ボケ除去演算部14から供給された複数の予測値から、その中央値に近い予測値を画素値として選択する。このようにすることで、ボケ除去処理結果画像データKから、よりロバストにリンギングを除去することができるようになる。   The calculation result comparison / selection unit 15 selects, for example, a prediction value close to the median value as a pixel value from a plurality of prediction values supplied from the blur removal calculation unit 14. By doing so, ringing can be removed more robustly from the blur removal processing result image data K.

以下において、より具体的に、複数の予測値についての最尤値について説明する。   In the following, the maximum likelihood values for a plurality of predicted values will be described more specifically.

式(12)の予測式において、例えば、予測式の項の数を20(演算器の総数Nを20)とし、近似演算の項の数を10とする(近似演算器の数を10)とすると、20C10通りの組み合わせの予測式が有りうる。 In the prediction formula of Formula (12), for example, the number of terms in the prediction formula is 20 (the total number N of computing units is 20), and the number of terms in the approximate computation is 10 (the number of approximate computing units is 10). Then, there are 20 C 10 combinations of prediction formulas.

予測誤差Etotalがガウス分布G(0,σ)に従うとすると、無作為に予測値をR個選んだ場合、何番目の大きさの予測値が実世界画像データJの真値に最も近いかの確率は、式(22)乃至式(24)で求められる。式(22)は、最も大きい予測値が実世界画像データJの真値に最も近い確率を算出する演算を示し、式(23)は、2番目に大きい予測値が実世界画像データJの真値に最も近い確率を算出する演算を示し、式(24)は、K番目に大きい予測値が実世界画像データJの真値に最も近い確率を算出する演算を示す。 Assuming that the prediction error E total follows a Gaussian distribution G (0, σ), what number of predicted values is closest to the true value of real-world image data J when R predictive values are selected at random? Is obtained by the equations (22) to (24). Expression (22) represents an operation for calculating the probability that the largest predicted value is closest to the true value of the real world image data J, and Expression (23) represents that the second largest predicted value is the true value of the real world image data J. The calculation for calculating the probability closest to the value is shown, and Expression (24) indicates the calculation for calculating the probability that the Kth largest predicted value is closest to the true value of the real world image data J.

Figure 2008225657
Figure 2008225657

Figure 2008225657
Figure 2008225657

Figure 2008225657
Figure 2008225657

式(22)乃至式(24)より、実世界画像データJの真値に近い確率は、中央値のものが最大となることがわかる。   From the equations (22) to (24), it can be seen that the median value has the maximum probability close to the true value of the real world image data J.

例えば、予測式の項の数を20(演算器の総数Nを20)とし、近似演算の項の数を10とする(近似演算器の数を10)とした場合、演算結果比較選択部15は、その複数の予測値から、中央値に近い10の予測値を選択し、選択した予測値の平均値を、最終的な、動きボケを除去した画素値として出力する。   For example, when the number of terms in the prediction equation is 20 (the total number N of arithmetic units is 20) and the number of approximate calculation terms is 10 (the number of approximate arithmetic units is 10), the calculation result comparison / selection unit 15 Selects 10 prediction values close to the median value from the plurality of prediction values, and outputs the average value of the selected prediction values as a final pixel value from which motion blur is removed.

次に、図12および図13を参照して、ボケ除去演算部14の構成を説明する。   Next, the configuration of the blur removal calculating unit 14 will be described with reference to FIGS. 12 and 13.

図12は、ボケ除去演算部14の構成を示すブロック図である。ボケ除去演算部14は、演算部31−1乃至演算部31−Zから構成される。   FIG. 12 is a block diagram illustrating a configuration of the blur removal calculating unit 14. The blur removal calculation unit 14 includes calculation units 31-1 to 31-Z.

演算部31−1乃至演算部31−Zの数Zは、近似演算と等価変換演算との異なる組み合わせの全ての数、すなわち、近似演算と等価変換演算との組み合わせである予測パターンの全部の数に等しい。   The number Z of the calculation units 31-1 to 31-Z is the total number of different combinations of approximate calculation and equivalent conversion calculation, that is, the total number of prediction patterns that are combinations of approximate calculation and equivalent conversion calculation. be equivalent to.

演算部31−1は、ボケ除去パラメータ生成部13から供給された動き量Vとアフィン変換部12から供給された画素列から、1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation unit 31-1 is a combination of an approximate calculation according to one prediction pattern and an equivalent conversion calculation based on the motion amount V supplied from the blur removal parameter generation unit 13 and the pixel sequence supplied from the affine transformation unit 12. Calculate the predicted value.

演算部31−2は、ボケ除去パラメータ生成部13から供給された動き量Vとアフィン変換部12から供給された画素列から、演算部31−1における予測パターンと異なる1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation unit 31-2 responds to one prediction pattern different from the prediction pattern in the calculation unit 31-1 from the motion amount V supplied from the blur removal parameter generation unit 13 and the pixel string supplied from the affine transformation unit 12. The predicted value is calculated by a combination of the approximate calculation and the equivalent conversion calculation.

演算部31−3乃至演算部31−Zは、それぞれ、ボケ除去パラメータ生成部13から供給された動き量Vとアフィン変換部12から供給された画素列から、演算部31−1または演算部31−2における予測パターンと異なる予測パターンであって、互いに異なる1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation units 31-3 to 31-Z respectively calculate the calculation unit 31-1 or the calculation unit 31 from the motion amount V supplied from the blur removal parameter generation unit 13 and the pixel sequence supplied from the affine transformation unit 12. -2 is a prediction pattern different from the prediction pattern in -2, and a prediction value is calculated by a combination of an approximation calculation and an equivalent conversion calculation according to one different prediction pattern.

演算部31−1乃至演算部31−Zは、それぞれ、演算した予測値を出力する。すなわち、ボケ除去演算部14から、予測パターンの数Zと同じ数の予測値が出力される。   The calculation units 31-1 to 31-Z each output the calculated predicted value. That is, the same number of predicted values as the number of predicted patterns Z are output from the blur removal calculating unit 14.

以下、演算部31−1乃至演算部31−Zを個々に区別する必要がない場合、単に、演算部31と称する。   Hereinafter, when it is not necessary to individually distinguish the calculation units 31-1 to 31 -Z, they are simply referred to as calculation units 31.

図13は、演算部31の構成を示すブロック図である。   FIG. 13 is a block diagram illustrating a configuration of the calculation unit 31.

演算部31は、可変シフトレジスタ51−1乃至可変シフトレジスタ51−N、スイッチ52、等価変換演算部53−1乃至等価変換演算部53−X、近似演算部54−1乃至近似演算部54−W、および予測値演算部55から構成される。   The calculation unit 31 includes variable shift registers 51-1 to 51-N, a switch 52, an equivalent conversion calculation unit 53-1 to an equivalent conversion calculation unit 53-X, and an approximate calculation unit 54-1 to an approximate calculation unit 54-. W and a predicted value calculation unit 55.

可変シフトレジスタ51−1は、アフィン変換部12から供給された、動きの方向に1列の画素の列である画素列を、動き量Vに応じて、シフトして、シフトされた画素列の左側の2つの隣接する画素をスイッチ52に供給するとともに、シフトされた画素列を可変シフトレジスタ51−2に供給する。   The variable shift register 51-1 shifts the pixel row, which is one row of pixels in the direction of motion, supplied from the affine transformation unit 12, according to the amount of motion V. The two adjacent pixels on the left side are supplied to the switch 52, and the shifted pixel column is supplied to the variable shift register 51-2.

例えば、図2に示される、ボケ画像データD0乃至ボケ画像データD15の画素列がアフィン変換部12から供給された場合、実世界画像データJ0の予測値を求めようとするとき、可変シフトレジスタ51−1は、ボケ画像データD0乃至ボケ画像データD15の画素列を左に1画素だけシフトして、シフトされた画素列の左側の2つの隣接するボケ画像データD1およびボケ画像データD2をスイッチ52に供給する。また、可変シフトレジスタ51−1は、シフトされた画素列の全体を可変シフトレジスタ51−2に供給する。 For example, when the pixel sequence of the blurred image data D 0 to the blurred image data D 15 shown in FIG. 2 is supplied from the affine transformation unit 12, it is variable when trying to obtain the predicted value of the real world image data J 0. The shift register 51-1 shifts the pixel columns of the blurred image data D 0 to the blurred image data D 15 to the left by one pixel, and two adjacent blurred image data D 1 and blurred pixels on the left side of the shifted pixel column. The image data D 2 is supplied to the switch 52. The variable shift register 51-1 supplies the entire shifted pixel column to the variable shift register 51-2.

可変シフトレジスタ51−2は、可変シフトレジスタ51−1から供給された、動きの方向に1列の画素の列である画素列を、動き量Vに応じて、シフトして、シフトされた画素列の左側の2つの隣接する画素をスイッチ52に供給する。また、可変シフトレジスタ51−2は、シフトされた画素列の全体を可変シフトレジスタ51−3(図示せず)に供給する。   The variable shift register 51-2 shifts the pixel row that is supplied from the variable shift register 51-1, which is a row of pixels in the direction of motion, according to the amount of motion V, and is shifted. Two adjacent pixels on the left side of the column are supplied to switch 52. The variable shift register 51-2 supplies the entire shifted pixel column to the variable shift register 51-3 (not shown).

例えば、図2に示される、ボケ画像データD0乃至ボケ画像データD15の画素列がアフィン変換部12から供給された場合、実世界画像データJ0の予測値を求めようとするとき、可変シフトレジスタ51−2は、可変シフトレジスタ51−1においてシフトされたボケ画像データD0乃至ボケ画像データD15の画素列を、さらに、3である動き量Vに応じて、画素列を左に3画素だけシフトして、シフトされた画素列の左側の2つの隣接するボケ画像データD4およびボケ画像データD5をスイッチ52に供給する。可変シフトレジスタ51−2は、シフトされた画素列の全体を可変シフトレジスタ51−3に供給する。 For example, when the pixel sequence of the blurred image data D 0 to the blurred image data D 15 shown in FIG. 2 is supplied from the affine transformation unit 12, it is variable when trying to obtain the predicted value of the real world image data J 0. The shift register 51-2 shifts the pixel columns of the blurred image data D 0 to the blurred image data D 15 shifted in the variable shift register 51-1 further to the left according to the motion amount V of 3. After shifting by 3 pixels, two adjacent blur image data D 4 and blur image data D 5 on the left side of the shifted pixel column are supplied to the switch 52. The variable shift register 51-2 supplies the entire shifted pixel column to the variable shift register 51-3.

同様に、可変シフトレジスタ51−3乃至可変シフトレジスタ51−Nは、それぞれ、動きの方向に1列の画素の列である画素列を、動き量Vに応じて、シフトして、シフトされた画素列の左側の2つの隣接する画素をスイッチ52に供給する。   Similarly, each of the variable shift registers 51-3 to 51-N is shifted by shifting a pixel column that is a column of one pixel in the direction of motion according to the motion amount V. Two adjacent pixels on the left side of the pixel column are supplied to the switch 52.

可変シフトレジスタ51−3乃至可変シフトレジスタ51−(N−1)(図示せず)は、それぞれ、シフトした画素列の全体を可変シフトレジスタ51−4(図示せず)乃至可変シフトレジスタ51−Nのそれぞれに供給する。   The variable shift register 51-3 through variable shift register 51- (N-1) (not shown) are respectively shifted from the entire shifted pixel column to the variable shift register 51-4 (not shown) through variable shift register 51-. To each of N.

例えば、可変シフトレジスタ51−1乃至可変シフトレジスタ51−Nは、それぞれ、図6に示されるように、ボケ画像データD1およびボケ画像データD2、ボケ画像データD4およびボケ画像データD5、ボケ画像データD7およびボケ画像データD8、ボケ画像データD10およびボケ画像データD11、ボケ画像データD13およびボケ画像データD14を抽出して、スイッチ52に供給する。 For example, the variable shift registers 51-1 through variable shift register 51-N, respectively, as shown in FIG. 6, the blurred image data D 1 and blurred image data D 2, the blurred image data D 4 and the unsharp image data D 5 The blurred image data D 7 and the blurred image data D 8 , the blurred image data D 10 and the blurred image data D 11 , the blurred image data D 13 and the blurred image data D 14 are extracted and supplied to the switch 52.

すなわち、可変シフトレジスタ51−1乃至可変シフトレジスタ51−Nは、それぞれ、ボケ画像データDと、そのボケ画像データDに動きの方向に隣接するボケ画像データDとの組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出して、スイッチ52に供給する。   That is, each of the variable shift registers 51-1 to 51-N is a set of the blurred image data D and the blurred image data D adjacent to the blurred image data D in the direction of motion, A set that is separated from other sets by the amount of motion V as a unit is extracted and supplied to the switch 52.

スイッチ52は、可変シフトレジスタ51−1乃至可変シフトレジスタ51−Nのそれぞれから供給された、ボケ画像データDと、そのボケ画像データDに動きの方向に隣接するボケ画像データDとの組を、等価変換演算部53−1乃至等価変換演算部53−Xおよび近似演算部54−1乃至近似演算部54−Wに供給する。   The switch 52 is a combination of the blurred image data D supplied from each of the variable shift registers 51-1 to 51-N and the blurred image data D adjacent to the blurred image data D in the direction of motion. The equivalent conversion calculation unit 53-1 through equivalent conversion calculation unit 53 -X and the approximate calculation unit 54-1 through approximate calculation unit 54 -W are supplied.

例えば、スイッチ52は、隣接するボケ画像データDの組のそれぞれを、等価変換演算部53−1乃至等価変換演算部53−Xおよび近似演算部54−1乃至近似演算部54−Wの全部に供給する。   For example, the switch 52 assigns each set of adjacent blurred image data D to all of the equivalent conversion calculation units 53-1 to 53-X and the approximate calculation units 54-1 to 54-W. Supply.

例えば、スイッチ52は、隣接するボケ画像データDの1組を、等価変換演算部53−1乃至等価変換演算部53−Xおよび近似演算部54−1乃至近似演算部54−Wのうちのいずれか1つに供給する。   For example, the switch 52 converts one set of the adjacent blurred image data D to any one of the equivalent conversion calculation unit 53-1 to the equivalent conversion calculation unit 53-X and the approximate calculation unit 54-1 to the approximate calculation unit 54-W. Supply to one.

等価変換演算部53−1は、1つの等価変換器に相当し、スイッチ52から供給された、隣接するボケ画像データDの1組に、等価変換演算を適用する。   The equivalent conversion calculation unit 53-1 corresponds to one equivalent converter and applies the equivalent conversion calculation to one set of adjacent blurred image data D supplied from the switch 52.

等価変換演算部53−2乃至等価変換演算部53−Xは、それぞれ、1つの等価変換器に相当し、スイッチ52から供給された、隣接するボケ画像データDの1組に、等価変換演算を適用する。   The equivalent conversion calculation unit 53-2 to the equivalent conversion calculation unit 53-X correspond to one equivalent converter, and perform an equivalent conversion calculation on one set of adjacent blurred image data D supplied from the switch 52. Apply.

等価変換演算部53−1乃至等価変換演算部53−Xは、それぞれ、等価変換演算の演算結果を予測値演算部55に供給する。   The equivalent conversion calculation unit 53-1 to the equivalent conversion calculation unit 53-X respectively supply the calculation result of the equivalent conversion calculation to the predicted value calculation unit 55.

近似演算部54−1は、1つの近似演算器に相当し、スイッチ52から供給された、隣接するボケ画像データDの1組に、近似演算を適用する。   The approximate calculation unit 54-1 corresponds to one approximate calculator and applies the approximate calculation to one set of adjacent blurred image data D supplied from the switch 52.

近似演算部54−2乃至近似演算部54−Wは、それぞれ、1つの近似演算器に相当し、スイッチ52から供給された、隣接するボケ画像データDの1組に、近似演算を適用する。   Each of the approximate calculation units 54-2 to 54-W corresponds to one approximate calculation unit, and applies the approximate calculation to one set of adjacent blurred image data D supplied from the switch 52.

近似演算部54−1乃至近似演算部54−Wは、それぞれ、近似演算の演算結果を予測値演算部55に供給する。   The approximate calculation unit 54-1 to the approximate calculation unit 54-W supply the calculation result of the approximate calculation to the predicted value calculation unit 55, respectively.

予測値演算部55は、等価変換演算の演算結果と近似演算の演算結果とを、予測パターンによって決められる演算式のそれぞれの項に用いて、予測値を演算する。例えば、予測値演算部55は、等価変換演算部53−1乃至等価変換演算部53−Xおよび近似演算部54−2乃至近似演算部54−Wから供給された演算結果を加算して、予測値を演算し、求めた予測値を出力する。   The predicted value calculation unit 55 calculates the predicted value by using the calculation result of the equivalent conversion calculation and the calculation result of the approximate calculation for each term of the calculation formula determined by the prediction pattern. For example, the predicted value calculation unit 55 adds the calculation results supplied from the equivalent conversion calculation unit 53-1 to the equivalent conversion calculation unit 53-X and the approximate calculation unit 54-2 to the approximate calculation unit 54-W, and performs prediction. The value is calculated and the calculated predicted value is output.

以下、可変シフトレジスタ51−1乃至可変シフトレジスタ51−Nを個々に区別する必要がないとき、単に、可変シフトレジスタ51と称する。等価変換演算部53−1乃至等価変換演算部53−Xを個々に区別する必要がないとき、単に、等価変換演算部53と称する。また、近似演算部54−1乃至近似演算部54−Wを個々に区別する必要がないとき、単に、近似演算部54と称する。   Hereinafter, when it is not necessary to distinguish the variable shift registers 51-1 to 51-N from each other, they are simply referred to as variable shift registers 51. When it is not necessary to individually distinguish the equivalent conversion calculation unit 53-1 to the equivalent conversion calculation unit 53 -X, they are simply referred to as an equivalent conversion calculation unit 53. Further, when it is not necessary to distinguish the approximate calculation unit 54-1 to the approximate calculation unit 54-W individually, they are simply referred to as the approximate calculation unit 54.

図14は、演算結果比較選択部15の構成を示すブロック図である。演算結果比較選択部15は、ソート部71、選択部72、および平均値演算部73から構成される。   FIG. 14 is a block diagram illustrating a configuration of the calculation result comparison / selection unit 15. The calculation result comparison / selection unit 15 includes a sorting unit 71, a selection unit 72, and an average value calculation unit 73.

ソート部71は、演算部31−1乃至演算部31−Zのそれぞれから供給された、Z個の予測値を、その大きさでソートする。ソート部71は、大きさの順にソートされた予測値を選択部72に供給する。   The sorting unit 71 sorts the Z predicted values supplied from the computing units 31-1 to 31-Z according to their sizes. The sorting unit 71 supplies the predicted values sorted in order of size to the selection unit 72.

選択部72は、ソート部71から供給された、その大きさでソートされた予測値から、ソートされた順において中央に近い所定の数の予測値を選択して、選択した予測値を平均値演算部73に供給する。   The selecting unit 72 selects a predetermined number of predicted values close to the center in the sorted order from the predicted values sorted by the size supplied from the sorting unit 71, and the selected predicted values are averaged. It supplies to the calculating part 73.

または、選択部72は、ソート部71から供給された、その大きさでソートされた予測値から、中央値に近い所定の数の予測値を選択して、選択した予測値を平均値演算部73に供給する。   Alternatively, the selecting unit 72 selects a predetermined number of predicted values close to the median from the predicted values sorted by the size supplied from the sorting unit 71, and the selected predicted values are averaged calculating units. 73.

なお、選択部72は、全部の予測値の平均値、または最大の予測値と最小の予測値との平均値を基準として、予測値を選択するようにしてもよい。   Note that the selection unit 72 may select a predicted value based on the average value of all predicted values or the average value of the maximum predicted value and the minimum predicted value.

また、ソートされた順における中央、メディアン、全部の予測値の平均値、および最大の予測値と最小の予測値との平均値のうち、どれを基準とするかは、それぞれを基準として動きボケを除去した画像を表示させて、使用者に選択させるようにしてもよい。   Also, which of the center, median, average value of all predicted values, and average value of the maximum and minimum predicted values in the sorted order is used as the reference, the motion blur is based on each. An image from which the image is removed may be displayed and selected by the user.

平均値演算部73は、選択部72により選択された予測値の平均値を求めて、その平均値を画素値として出力する。   The average value calculation unit 73 obtains an average value of the predicted values selected by the selection unit 72 and outputs the average value as a pixel value.

次に、フローチャートを参照して、動きボケを除去する処理について説明する。   Next, a process for removing motion blur will be described with reference to a flowchart.

図15は、ボケ除去の処理の例を説明するフローチャートである。ステップS11において、ボケ除去パラメータ生成部13は、動き検出部11または外部から供給された動きベクトルから、入力された画像データの動き量Vを取得する。   FIG. 15 is a flowchart for explaining an example of blur removal processing. In step S11, the blur removal parameter generation unit 13 acquires the motion amount V of the input image data from the motion detection unit 11 or a motion vector supplied from the outside.

ステップS12において、ボケ除去パラメータ生成部13は、動き検出部11または外部から供給された動きベクトルから、入力された画像データの動きの方向の角度を取得する。   In step S <b> 12, the blur removal parameter generation unit 13 acquires the angle of the direction of motion of the input image data from the motion detection unit 11 or a motion vector supplied from the outside.

ステップS13において、アフィン変換部12は、動き量Vおよび動きの方向の角度を参照して、動きの方向が画像の横方向のなるように画像データをアフィン変換する。アフィン変換部12は、アフィン変換された画像データから、画像の横方向に1列の画素の列である画素列を抽出して、抽出した画素列をボケ除去演算部14に供給する。   In step S13, the affine transformation unit 12 refers to the motion amount V and the angle of the motion direction, and affine transforms the image data so that the motion direction is the horizontal direction of the image. The affine transformation unit 12 extracts a pixel row that is a row of pixels in the horizontal direction of the image from the affine transformed image data, and supplies the extracted pixel row to the blur removal calculation unit 14.

ステップS14において、ボケ除去演算部14において、ボケ除去演算の処理が行われる。ボケ除去演算の処理の詳細は、図16または図17のフローチャートを参照して後述する。   In step S14, the blur removal calculation unit 14 performs a blur removal calculation process. Details of the blur removal calculation process will be described later with reference to the flowchart of FIG.

ステップS15において、ボケ除去演算部14は、全ての予測パターンによる予測値を求めたか否かを判定し、全ての予測パターンによる予測値を求めていないと判定された場合、ステップS14に戻り、ボケ除去演算の処理を繰り返す。   In step S15, the blur removal calculating unit 14 determines whether or not the prediction values based on all the prediction patterns have been obtained. If it is determined that the prediction values based on all the prediction patterns have not been obtained, the process returns to step S14. Repeat the removal operation.

ステップS15において、全ての予測パターンによる予測値を求めたと判定された場合、手続きは、ステップS16に進み、ステップS16において、演算結果比較選択部15のソート部71は、ステップS14のボケ除去演算の処理により得られた予測値を、その大きさの順にソートする。   If it is determined in step S15 that the prediction values based on all the prediction patterns have been obtained, the procedure proceeds to step S16. In step S16, the sorting unit 71 of the operation result comparison / selection unit 15 performs the blur removal operation in step S14. The predicted values obtained by the processing are sorted in the order of their sizes.

ステップS17において、演算結果比較選択部15の選択部72は、ソートされた予測値から、所定の予測値を選択する。例えば、選択部72は、ソートされた順において中央に近い、所定の数の予測値を選択する。例えば、選択部72は、中央値に近い、所定の数の予測値を選択する。   In step S <b> 17, the selection unit 72 of the calculation result comparison / selection unit 15 selects a predetermined prediction value from the sorted prediction values. For example, the selection unit 72 selects a predetermined number of predicted values that are close to the center in the sorted order. For example, the selection unit 72 selects a predetermined number of predicted values close to the median value.

ステップS18において、演算結果比較選択部15の平均値演算部73は、選択された予測値の平均値を画素値として計算する。   In step S18, the average value calculation unit 73 of the calculation result comparison / selection unit 15 calculates the average value of the selected prediction values as the pixel value.

ステップS19において、ボケ除去演算部14は、全画面について処理を終了したか否かを判定し、全画面について処理を終了していないと判定された場合、手続きはステップS11に戻り、次の画素について、上述した処理を繰り返す。   In step S19, the blur removal calculating unit 14 determines whether or not the process has been completed for the entire screen. If it is determined that the process has not been completed for the entire screen, the procedure returns to step S11, and the next pixel is determined. The above process is repeated.

ステップS19において、全画面について処理を終了したと判定された場合、ボケ除去の処理は終了する。   If it is determined in step S19 that the process has been completed for all screens, the blur removal process ends.

図16は、図15のステップS14に対応するボケ除去演算の処理の詳細の例を説明するフローチャートである。ステップS31において、可変シフトレジスタ51−1は、アフィン変換部12から供給された画素列の左端の画素と、これに隣接する画素とを抽出する。また、可変シフトレジスタ51−2は、画素列の左端から、画素を単位とする動き量Vと同じ画素の数だけ右側の画素である基準画素と、基準画素の右側に隣接する画素である隣接画素とを抽出する。   FIG. 16 is a flowchart for explaining an example of details of the blur removal calculation process corresponding to step S14 of FIG. In step S31, the variable shift register 51-1 extracts the pixel at the left end of the pixel row supplied from the affine transformation unit 12 and the pixel adjacent thereto. Further, the variable shift register 51-2 includes a reference pixel that is a pixel on the right side by the same number of pixels as the motion amount V in units of pixels from the left end of the pixel row, and an adjacent pixel that is adjacent to the right side of the reference pixel. Extract pixels.

ステップS32において、可変シフトレジスタ51−3は、前回の基準画素から、画素を単位とする動き量Vと同じ画素の数だけ右側の画素を新たな基準画素とする。   In step S <b> 32, the variable shift register 51-3 sets, as a new reference pixel, a pixel on the right side of the previous reference pixel by the same number of pixels as the motion amount V in units of pixels.

ステップS33において、ボケ除去演算部14は、新たな基準画素とその右側に隣接する画素とが、アフィン変換部12から供給された画素列にあるか否かを判定する。   In step S <b> 33, the blur removal calculation unit 14 determines whether the new reference pixel and the pixel adjacent to the right side thereof are in the pixel row supplied from the affine transformation unit 12.

ステップS33において、新たな基準画素とその右側に隣接する画素とが画素列にあると判定された場合、ステップS34に進み、可変シフトレジスタ51−3は、基準画素と、基準画素の右側に隣接する画素である隣接画素とを抽出する。ステップS33の後、手続きは、ステップS32に戻り、上述した処理を繰り返す。   If it is determined in step S33 that the new reference pixel and the pixel adjacent to the right side thereof are in the pixel column, the process proceeds to step S34, and the variable shift register 51-3 is adjacent to the reference pixel and the right side of the reference pixel. The adjacent pixels that are pixels to be extracted are extracted. After step S33, the procedure returns to step S32 and repeats the above-described processing.

これ以降、ステップS32乃至ステップS34の処理が繰り返される場合、ステップS32およびステップS34の処理は、可変シフトレジスタ51−4乃至可変シフトレジスタ51−Nの順に、可変シフトレジスタ51−4乃至可変シフトレジスタ51−Nのそれぞれによって実行される。   Thereafter, when the processes in steps S32 to S34 are repeated, the processes in steps S32 and S34 are performed in the order of the variable shift register 51-4 to the variable shift register 51-N, in the order of the variable shift register 51-4 to the variable shift register. Executed by each of 51-N.

ステップS33において、新たな基準画素とその右側に隣接する画素とが画素列にないと判定された場合、手続きはステップS35に進み、等価変換演算部53−1は、スイッチ52を介して供給された、1組の基準画素と隣接画素とに等価変換演算を適用する。   If it is determined in step S33 that the new reference pixel and the pixel adjacent to the right side thereof are not in the pixel column, the procedure proceeds to step S35, and the equivalent conversion calculation unit 53-1 is supplied via the switch 52. In addition, an equivalent conversion operation is applied to a set of reference pixels and adjacent pixels.

ステップS36において、ボケ除去演算部14は、全ての基準画素と隣接画素とに等価変換演算を適用したか否かを判定し、全ての基準画素と隣接画素とに等価変換演算を適用していないと判定された場合、ステップS35に戻り、等価変換演算を繰り返す。   In step S36, the blur removal calculation unit 14 determines whether or not the equivalent conversion calculation is applied to all the reference pixels and the adjacent pixels, and does not apply the equivalent conversion calculation to all the reference pixels and the adjacent pixels. If it is determined, the process returns to step S35 and the equivalent conversion calculation is repeated.

なお、ステップS35の等価変換演算が繰り返される場合、そのステップS35の等価変換演算は、等価変換演算部53−2乃至等価変換演算部53−Xの順に、等価変換演算部53−2乃至等価変換演算部53−Xのそれぞれによって実行される。   When the equivalent conversion calculation in step S35 is repeated, the equivalent conversion calculation in step S35 is performed in the order of the equivalent conversion calculation unit 53-2 to equivalent conversion calculation unit 53-X, in the order of the equivalent conversion calculation unit 53-2 to equivalent conversion. It is executed by each of the arithmetic units 53-X.

ステップS36において、全ての基準画素と隣接画素とに等価変換演算を適用したと判定された場合、手続きはステップS37に進み、近似演算部54−1は、スイッチ52を介して供給された、1組の基準画素と隣接画素とに近似演算を適用する。   If it is determined in step S36 that the equivalent conversion calculation has been applied to all reference pixels and adjacent pixels, the procedure proceeds to step S37, and the approximate calculation unit 54-1 is supplied with the 1 An approximation operation is applied to a set of reference pixels and adjacent pixels.

ステップS38において、ボケ除去演算部14は、全ての基準画素と隣接画素とに近似演算を適用したか否かを判定し、全ての基準画素と隣接画素とに近似演算を適用していないと判定された場合、ステップS37に戻り、近似演算を繰り返す。   In step S38, the blur removal calculating unit 14 determines whether or not the approximation calculation is applied to all the reference pixels and the adjacent pixels, and determines that the approximation calculation is not applied to all the reference pixels and the adjacent pixels. If so, the process returns to step S37 to repeat the approximate calculation.

なお、ステップS37の近似演算が繰り返される場合、そのステップS37の近似演算は、近似演算部54−2乃至近似演算部54−Wの順に、近似演算部54−2乃至近似演算部54−Wのそれぞれによって実行される。   When the approximate calculation in step S37 is repeated, the approximate calculation in step S37 is performed by the approximate calculation unit 54-2 through the approximate calculation unit 54-W in the order of the approximate calculation unit 54-2 through the approximate calculation unit 54-W. Executed by each.

ステップS38において、全ての基準画素と隣接画素とに近似演算を適用したと判定された場合、手続きはステップS39に進み、ステップS39において、予測値演算部55は、等価変換演算の結果と近似演算の結果とを演算式の予め決めた項に用いて、予測値を演算して、ボケ除去演算の処理は終了する。すなわち、ステップS39において、予測値演算部55は、等価変換演算の結果と近似演算の結果とを、予測パターンによって決められるそれぞれの項に用いて、予測値を演算する。   If it is determined in step S38 that the approximation calculation is applied to all the reference pixels and adjacent pixels, the procedure proceeds to step S39, and in step S39, the predicted value calculation unit 55 calculates the result of the equivalent conversion calculation and the approximation calculation. The predicted value is calculated using the result of the above in a predetermined term of the arithmetic expression, and the process of the blur removal calculation ends. That is, in step S39, the predicted value calculation unit 55 calculates the predicted value using the result of the equivalent conversion calculation and the result of the approximate calculation for each term determined by the prediction pattern.

なお、図16のフローチャートは、左から右に動く場合のボケ除去演算の処理を説明するものであり、右から左に動く場合のボケ除去演算の処理は、ステップS31乃至ステップS34において、’右側’が’左側’となる相違点を除いて、図16のフローチャートに示す場合と同様である。   Note that the flowchart of FIG. 16 illustrates the process of blur removal calculation when moving from left to right. The process of blur removal calculation when moving from right to left is the right side in steps S31 to S34. Except for the difference that “is left”, it is the same as the case shown in the flowchart of FIG.

次に、ボケ除去演算の処理の他の例を説明する。   Next, another example of blur removal calculation processing will be described.

図17は、図15のステップS14に対応するボケ除去演算の処理の詳細の他の例を説明するフローチャートである。ステップS51において、ボケ除去演算部14は、インデックスqに0を設定する。インデックスqは、予測パターンを特定するための変数である。   FIG. 17 is a flowchart illustrating another example of the details of the blur removal calculation process corresponding to step S14 of FIG. In step S51, the blur removal calculating unit 14 sets 0 to the index q. The index q is a variable for specifying the prediction pattern.

ステップS52において、ボケ除去演算部14は、インデックスkおよびインデックスiに、それぞれ0を設定する。インデックスkは、インデックスSの引数を特定するための変数である。   In step S52, the blur removal calculating unit 14 sets 0 to the index k and the index i, respectively. The index k is a variable for specifying the argument of the index S.

ステップS53において、ボケ除去演算部14は、予測パターンPqにおける予測値Kに0を設定する。ステップS54において、可変シフトレジスタ51は、隣接する画素D(i×V)と画素D(i×V+1)とを取得する。すなわち、可変シフトレジスタ51は、隣接するボケ画像データD(i×V)とボケ画像データD(i×V+1)とを取得する。 In step S53, the blur removal calculating unit 14 sets 0 to the predicted value K in the predicted pattern Pq . In step S54, the variable shift register 51 acquires the adjacent pixel D (i × V) and pixel D (i × V + 1) . That is, the variable shift register 51 acquires the adjacent blurred image data D (i × V) and blurred image data D (i × V + 1) .

ステップS55において、ボケ除去演算部14は、インデックスiが、予測パターンPqにおける近似演算器のインデックスs(k)と等しいか否かを判定する。ステップS55において、インデックスiが、予測パターンPqにおける近似演算器のインデックスs(k)と等しいと判定された場合、手続きはステップS56に進み、近似演算部54は、隣接する画素D(i×V)と画素D(i×V+1)とに近似演算r(i×V)を適用する。 In step S55, the blur removal calculating unit 14 determines whether or not the index i is equal to the index s (k) of the approximate calculator in the prediction pattern Pq . If it is determined in step S55 that the index i is equal to the index s (k) of the approximate calculator in the prediction pattern P q , the procedure proceeds to step S56, and the approximate calculation unit 54 determines the adjacent pixel D (i × An approximate operation r (i × V) is applied to V) and the pixel D (i × V + 1) .

ステップS57において、ボケ除去演算部14は、インデックスkを1だけインクリメントして、手続きはステップS59に進む。   In step S57, the blur removal calculating unit 14 increments the index k by 1, and the procedure proceeds to step S59.

一方、ステップS55において、インデックスiが、予測パターンPqにおける近似演算器のインデックスs(k)と等しくないと判定された場合、手続きはステップS58に進み、等価変換演算部53は、隣接する画素D(i×V)と画素D(i×V+1)とに等価変換演算e(i×V)を適用する。ステップS58の後、手続きはステップS59に進む。 On the other hand, if it is determined in step S55 that the index i is not equal to the index s (k) of the approximate calculator in the prediction pattern P q , the procedure proceeds to step S58, and the equivalent transformation calculation unit 53 determines that the adjacent pixel The equivalent transformation operation e (i × V) is applied to D (i × V) and the pixel D (i × V + 1) . After step S58, the procedure proceeds to step S59.

ステップS59において、予測値演算部55は、ステップS56またはステップS58の演算の結果を、予測パターンPqにおける予測値Kに加算する。 In step S59, the predicted value calculation unit 55 adds the result of the calculation in step S56 or step S58 to the predicted value K in the predicted pattern Pq .

ステップS60において、ボケ除去演算部14は、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しいか否かを判定し、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しくないと判定された場合、手続きはステップS61に進み、ボケ除去演算部14は、インデックスiを1だけインクリメントする。ステップS61の後、手続きは、ステップS54に戻り、上述した処理を繰り返す。   In step S60, the blur removal calculating unit 14 determines whether or not the index i is equal to the sum of the number of approximate calculators W and the number of equivalent converters X, and the index i is the number of approximate calculators W. If it is determined that the sum is not equal to the sum of the number of equivalent converters X, the procedure proceeds to step S61, and the blur removal calculating unit 14 increments the index i by one. After step S61, the procedure returns to step S54 and repeats the above-described processing.

ステップS60において、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しいと判定された場合、手続きはステップS62に進み、ボケ除去演算部14は、インデックスqが予測パターンの数に等しいか否かを判定する。   If it is determined in step S60 that the index i is equal to the sum of the number W of approximate arithmetic units and the number X of equivalent converters, the procedure proceeds to step S62, and the blur removal calculating unit 14 predicts that the index q is predicted. It is determined whether or not it is equal to the number of patterns.

ステップS62において、インデックスqが予測パターンの数に等しくないと判定された場合、手続きはステップS63に進み、ボケ除去演算部14は、インデックスqを1だけインクリメントする。ステップS63の後、手続きは、ステップS52に戻り、上述した処理を繰り返す。   If it is determined in step S62 that the index q is not equal to the number of prediction patterns, the procedure proceeds to step S63, and the blur removal calculating unit 14 increments the index q by 1. After step S63, the procedure returns to step S52 and repeats the above-described processing.

ステップS62において、インデックスqが予測パターンの数に等しいと判定された場合、ボケ除去演算の処理は終了する。   If it is determined in step S62 that the index q is equal to the number of prediction patterns, the blur removal calculation process ends.

次に、入力された画像データに応じて予測パターンを選択して、選択した予測パターンで予測値を演算する場合について説明する。   Next, a case where a prediction pattern is selected according to input image data and a prediction value is calculated using the selected prediction pattern will be described.

図18は、本発明の一実施の形態の画像処理装置の構成の他の例を示すブロック図である。図18において、図1に示す場合と同様の部分には、同一の符号を付してあり、その説明は省略する。   FIG. 18 is a block diagram showing another example of the configuration of the image processing apparatus according to the embodiment of the present invention. In FIG. 18, the same parts as those shown in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.

図18の画像処理装置は、動き検出部11、アフィン変換部12、ボケ除去パラメータ生成部13、演算結果比較選択部15、逆アフィン変換部16、ボケ除去演算部101、および予測パターン選択部102から構成される。   The image processing apparatus in FIG. 18 includes a motion detection unit 11, an affine transformation unit 12, a blur removal parameter generation unit 13, a calculation result comparison / selection unit 15, an inverse affine transformation unit 16, a blur removal calculation unit 101, and a prediction pattern selection unit 102. Consists of

アフィン変換部12は、画素列をボケ除去演算部101に供給し、アフィン変換した画像データを予測パターン選択部102に供給する。   The affine transformation unit 12 supplies the pixel sequence to the blur removal calculation unit 101 and supplies the image data subjected to the affine transformation to the prediction pattern selection unit 102.

ボケ除去演算部101は、予測パターン選択部102から供給される、等価変換演算の割り当てを指示するための等価変換演算割り当て指示信号に応じた予測パターンで、アフィン変換部12から供給された画素列から、動きボケを含まない画素値の予測値を演算する。   The blur removal calculation unit 101 is a pixel pattern supplied from the affine transformation unit 12 with a prediction pattern corresponding to an equivalent transformation calculation assignment instruction signal for instructing assignment of equivalent transformation computation supplied from the prediction pattern selection unit 102. Then, the predicted value of the pixel value not including motion blur is calculated.

予測パターン選択部102は、アフィン変換部12から供給される画像データから、等価変換演算割り当て指示信号を生成して、ボケ除去演算部101に供給する。   The prediction pattern selection unit 102 generates an equivalent conversion calculation assignment instruction signal from the image data supplied from the affine conversion unit 12 and supplies the equivalent conversion calculation assignment instruction signal to the blur removal calculation unit 101.

予測パターン選択部102は、エッジ検出部111を含む。エッジ検出部111は、Sobelフィルタ、Prewittフィルタ、またはLaplacianフィルタなどによって構成され、画像データから、画像のエッジを検出する。   The predicted pattern selection unit 102 includes an edge detection unit 111. The edge detection unit 111 is configured by a Sobel filter, a Prewitt filter, a Laplacian filter, or the like, and detects an edge of an image from image data.

予測パターン選択部102は、エッジ検出部111よって検出されたエッジの画素に等価変換演算を割り当てるように、等価変換演算割り当て指示信号を生成する。   The prediction pattern selection unit 102 generates an equivalent conversion calculation assignment instruction signal so as to assign an equivalent conversion calculation to the edge pixels detected by the edge detection unit 111.

図19は、ボケ除去演算部101の構成を示すブロック図である。ボケ除去演算部101は、演算部131−1乃至演算部131−Tから構成される。   FIG. 19 is a block diagram illustrating a configuration of the blur removal calculating unit 101. The blur removal calculation unit 101 includes calculation units 131-1 to 131-T.

演算部131−1乃至演算部131−Tの数Tは、選択される予測パターンの数に等しい。   The number T of the calculation units 131-1 to 131-T is equal to the number of prediction patterns to be selected.

演算部131−1は、予測パターン選択部102から供給された等価変換演算割り当て指示信号、ボケ除去パラメータ生成部13から供給された動き量V、およびアフィン変換部12から供給された画素列から、1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation unit 131-1 is based on the equivalent conversion calculation assignment instruction signal supplied from the prediction pattern selection unit 102, the motion amount V supplied from the blur removal parameter generation unit 13, and the pixel sequence supplied from the affine conversion unit 12. A predicted value is calculated by a combination of an approximate calculation according to one prediction pattern and an equivalent conversion calculation.

演算部131−2は、予測パターン選択部102から供給された等価変換演算割り当て指示信号、ボケ除去パラメータ生成部13から供給された動き量V、およびアフィン変換部12から供給された画素列から、演算部131−1における予測パターンと異なる1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation unit 131-2 includes the equivalent conversion calculation assignment instruction signal supplied from the prediction pattern selection unit 102, the motion amount V supplied from the blur removal parameter generation unit 13, and the pixel sequence supplied from the affine conversion unit 12. A predicted value is calculated by a combination of an approximate calculation according to one prediction pattern different from the prediction pattern in the calculation unit 131-1 and an equivalent conversion calculation.

演算部131−3乃至演算部131−Tは、それぞれ、予測パターン選択部102から供給された等価変換演算割り当て指示信号、ボケ除去パラメータ生成部13から供給された動き量V、およびアフィン変換部12から供給された画素列から、演算部131−1または演算部131−2における予測パターンと異なる予測パターンであって、互いに異なる1つの予測パターンに応じた近似演算と等価変換演算との組み合わせで、予測値を演算する。   The calculation units 131-3 to 131-T respectively include an equivalent conversion calculation assignment instruction signal supplied from the prediction pattern selection unit 102, a motion amount V supplied from the blur removal parameter generation unit 13, and an affine conversion unit 12. Is a prediction pattern different from the prediction pattern in the calculation unit 131-1 or the calculation unit 131-2, and is a combination of an approximation calculation and an equivalent conversion calculation according to one different prediction pattern, Calculate the predicted value.

演算部131−1乃至演算部131−Tは、それぞれ、演算した予測値を出力する。すなわち、ボケ除去演算部101から、選択される予測パターンの数Tと同じ数の予測値が出力される。   The calculation units 131-1 to 131-T each output the calculated predicted value. That is, the same number of prediction values as the number T of prediction patterns to be selected are output from the blur removal calculation unit 101.

以下、演算部131−1乃至演算部131−Tを個々に区別する必要がない場合、単に、演算部131と称する。   Hereinafter, when it is not necessary to individually distinguish the calculation units 131-1 to 131 -T, they are simply referred to as calculation units 131.

図20は、演算部131の構成を示すブロック図である。   FIG. 20 is a block diagram illustrating a configuration of the calculation unit 131.

演算部131は、可変シフトレジスタ151−1乃至可変シフトレジスタ151−N、スイッチ152、等価変換演算部153−1乃至等価変換演算部153−X、近似演算部154−1乃至近似演算部154−W、および予測値演算部155から構成される。   The calculation unit 131 includes a variable shift register 151-1 to variable shift register 151-N, a switch 152, an equivalent conversion calculation unit 153-1 to an equivalent conversion calculation unit 153-X, and an approximate calculation unit 154-1 to an approximate calculation unit 154. W and a predicted value calculation unit 155.

可変シフトレジスタ151−1乃至可変シフトレジスタ151−Nは、それぞれ、可変シフトレジスタ51と同様に、アフィン変換部12から供給された、動きの方向に1列の画素の列である画素列を、動き量Vに応じて、シフトして、シフトされた画素列の左側の2つの隣接する画素をスイッチ152に供給し、シフトした画素列を後段に供給する。   Each of the variable shift registers 151-1 to 151 -N, like the variable shift register 51, is a pixel column that is supplied from the affine transformation unit 12 and that is a column of one pixel in the direction of motion. The shift is performed in accordance with the amount of motion V, and two adjacent pixels on the left side of the shifted pixel column are supplied to the switch 152, and the shifted pixel column is supplied to the subsequent stage.

すなわち、可変シフトレジスタ151−1乃至可変シフトレジスタ151−Nは、それぞれ、ボケ画像データDと、そのボケ画像データDに動きの方向に隣接するボケ画像データDとの組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出して、スイッチ152に供給する。   That is, each of the variable shift registers 151-1 to 151 -N is a set of the blurred image data D and the blurred image data D adjacent to the blurred image data D in the direction of motion, A group separated from the other groups by the amount of motion V as a unit is extracted and supplied to the switch 152.

スイッチ152は、予測パターン選択部102から供給された等価変換演算割り当て指示信号に応じて、可変シフトレジスタ151−1乃至可変シフトレジスタ151−Nのそれぞれから供給された、ボケ画像データDと、そのボケ画像データDに動きの方向に隣接するボケ画像データDとの組を、等価変換演算部153−1乃至等価変換演算部153−Xおよび近似演算部154−1乃至近似演算部154−Wに供給する。   In response to the equivalent conversion calculation assignment instruction signal supplied from the prediction pattern selection unit 102, the switch 152 includes the blurred image data D supplied from each of the variable shift registers 151-1 to 151-N, Pairs of the blur image data D adjacent to the blur image data D in the direction of motion are transferred to the equivalent conversion operation units 153-1 to 153-X and the approximate operation units 154-1 to 154-W. Supply.

例えば、スイッチ152は、隣接するボケ画像データDの1組がエッジの画素であることが等価変換演算割り当て指示信号で示される場合、そのボケ画像データDの1組を、等価変換演算部153−1乃至等価変換演算部153−Xのうちのいずれか1つに供給する。例えば、スイッチ152は、隣接するボケ画像データDの1組がエッジの画素でないことが等価変換演算割り当て指示信号で示される場合、そのボケ画像データDの1組を、等価変換演算部153−1乃至等価変換演算部153−Xおよび近似演算部154−1乃至近似演算部154−Wのうちのいずれか1つに供給する。   For example, when the equivalent conversion calculation assignment instruction signal indicates that one set of adjacent blur image data D is an edge pixel, the switch 152 converts the one set of blur image data D to the equivalent conversion calculation unit 153- 1 to any one of equivalent conversion operation units 153 -X. For example, when the equivalent conversion calculation assignment instruction signal indicates that one set of adjacent blur image data D is not an edge pixel, the switch 152 converts the one set of blur image data D to the equivalent conversion calculation unit 153-1. Thru | or the equivalent conversion calculating part 153-X and the approximate calculating part 154-1 thru | or the approximate calculating part 154-W, it supplies to any one.

等価変換演算部153−1乃至等価変換演算部153−Xは、それぞれ、1つの等価変換器に相当し、等価変換演算部53と同様に構成され、スイッチ152から供給された、隣接するボケ画像データDの1組に、等価変換演算を適用する。   The equivalent conversion calculation unit 153-1 to the equivalent conversion calculation unit 153-X correspond to one equivalent converter, are configured in the same manner as the equivalent conversion calculation unit 53, and are adjacent blur images supplied from the switch 152. The equivalent conversion operation is applied to one set of data D.

等価変換演算部153−1乃至等価変換演算部153−Xは、それぞれ、等価変換演算の演算結果を予測値演算部155に供給する。   The equivalent conversion calculation unit 153-1 to the equivalent conversion calculation unit 153-X supply the calculation result of the equivalent conversion calculation to the predicted value calculation unit 155, respectively.

近似演算部154−1乃至近似演算部154−Wは、それぞれ、1つの近似演算器に相当し、近似演算部54と同様に構成され、スイッチ152から供給された、隣接するボケ画像データDの1組に、近似演算を適用する。   Each of the approximate calculation units 154-1 to 154-W corresponds to one approximate calculation unit, and is configured in the same manner as the approximate calculation unit 54. An approximation operation is applied to one set.

近似演算部154−1乃至近似演算部154−Wは、それぞれ、近似演算の演算結果を予測値演算部155に供給する。   The approximate calculation units 154-1 to 154-W supply the calculation results of the approximate calculation to the predicted value calculation unit 155, respectively.

予測値演算部155は、等価変換演算の演算結果と近似演算の演算結果とを、予測パターン選択部102から供給された等価変換演算割り当て指示信号に応じて、予測パターンによって決められる演算式のそれぞれの項に用いて、予測値を演算する。   The predicted value calculation unit 155 is configured to calculate the calculation result of the equivalent conversion calculation and the calculation result of the approximation calculation according to the equivalent conversion calculation assignment instruction signal supplied from the prediction pattern selection unit 102 according to the prediction pattern. The predicted value is calculated using this term.

以下、可変シフトレジスタ151−1乃至可変シフトレジスタ151−Nを個々に区別する必要がないとき、単に、可変シフトレジスタ151と称する。等価変換演算部153−1乃至等価変換演算部153−Xを個々に区別する必要がないとき、単に、等価変換演算部153と称する。また、近似演算部154−1乃至近似演算部154−Wを個々に区別する必要がないとき、単に、近似演算部154と称する。   Hereinafter, the variable shift registers 151-1 to 151 -N are simply referred to as variable shift registers 151 when it is not necessary to distinguish them individually. When it is not necessary to individually distinguish the equivalent conversion calculation unit 153-1 to the equivalent conversion calculation unit 153-X, they are simply referred to as an equivalent conversion calculation unit 153. Further, when it is not necessary to distinguish the approximate calculation units 154-1 to 154-W from each other, they are simply referred to as approximate calculation units 154.

図21は、ボケ除去の処理の他の例を説明するフローチャートである。ステップS111乃至ステップS113は、それぞれ、図15のステップS11乃至ステップS13のそれぞれと同様なので、その説明は省略する。   FIG. 21 is a flowchart illustrating another example of the blur removal process. Steps S111 to S113 are the same as steps S11 to S13 in FIG.

ステップS114において、予測パターン選択部102は、予測パターンを選択する。例えば、予測パターン選択部102は、画像データから、画像のエッジを検出し、エッジの画素に等価変換演算が割り当てられる予測パターンを選択する。   In step S114, the prediction pattern selection unit 102 selects a prediction pattern. For example, the prediction pattern selection unit 102 detects an edge of the image from the image data, and selects a prediction pattern in which an equivalent conversion operation is assigned to the pixel of the edge.

ステップS115において、ボケ除去演算部101において、ボケ除去演算の処理が行われる。ボケ除去演算の処理の詳細は、図22または図23のフローチャートを参照して後述する。   In step S115, the blur removal calculation unit 101 performs a blur removal calculation process. Details of the blur removal calculation process will be described later with reference to the flowchart of FIG.

ステップS116において、ボケ除去演算部101は、選択された全ての予測パターンによる予測値を求めたか否かを判定し、選択された全ての予測パターンによる予測値を求めていないと判定された場合、ステップS115に戻り、ボケ除去演算の処理を繰り返す。   In step S116, the blur removal calculating unit 101 determines whether or not the prediction values based on all the selected prediction patterns have been obtained, and when it is determined that the prediction values based on all the selected prediction patterns have not been obtained. Returning to step S115, the blur removal calculation process is repeated.

ステップS116において、選択された全ての予測パターンによる予測値を求めたと判定された場合、手続きは、ステップS117に進む。   If it is determined in step S116 that the predicted values for all the selected prediction patterns have been obtained, the procedure proceeds to step S117.

ステップS117乃至ステップS120は、それぞれ、図15のステップS16乃至ステップS19のそれぞれと同様なので、その説明は省略する。   Steps S117 to S120 are the same as steps S16 to S19 in FIG.

図22は、図21のステップS115に対応するボケ除去演算の処理の詳細の例を説明するフローチャートである。ステップS131乃至ステップS134は、それぞれ、可変シフトレジスタ151またはボケ除去演算部101により実行され、図16のステップS31乃至ステップS34のそれぞれと同様なので、その説明は省略する。   FIG. 22 is a flowchart for explaining an example of details of the blur removal calculation process corresponding to step S115 of FIG. Steps S131 to S134 are respectively executed by the variable shift register 151 or the blur removal calculating unit 101 and are the same as steps S31 to S34 in FIG.

ステップS135において、等価変換演算部153−1は、スイッチ152を介して供給された、1組の基準画素と隣接画素とに等価変換演算を適用する。   In step S <b> 135, the equivalent conversion calculation unit 153-1 applies the equivalent conversion calculation to a set of reference pixels and adjacent pixels supplied via the switch 152.

ステップS136において、ボケ除去演算部14は、選択された予測パターンにおいて必要とされる全ての等価変換演算の結果が得られたか否かを判定し、選択された予測パターンにおいて必要とされる全ての等価変換演算の結果が得られていないと判定された場合、ステップS135に戻り、等価変換演算を繰り返す。   In step S136, the blur removal calculation unit 14 determines whether all equivalent conversion calculation results required in the selected prediction pattern have been obtained, and all of the required prediction patterns are selected. If it is determined that the result of the equivalent conversion operation has not been obtained, the process returns to step S135 and the equivalent conversion operation is repeated.

なお、ステップS135の等価変換演算が繰り返される場合、そのステップS135の等価変換演算は、等価変換演算部153−2乃至等価変換演算部153−Xの順に、等価変換演算部153−2乃至等価変換演算部153−Xのそれぞれによって実行される。   When the equivalent conversion calculation in step S135 is repeated, the equivalent conversion calculation in step S135 is performed in the order of equivalent conversion calculation unit 153-2 to equivalent conversion calculation unit 153-X, in order of equivalent conversion calculation unit 153-2 to equivalent conversion. It is executed by each of the calculation units 153 -X.

ステップS136において、選択された予測パターンにおいて必要とされる全ての等価変換演算の結果が得られたと判定された場合、手続きはステップS137に進み、近似演算部154−1は、スイッチ152を介して供給された、1組の基準画素と隣接画素とに近似演算を適用する。   If it is determined in step S136 that all equivalent conversion operations required in the selected prediction pattern have been obtained, the procedure proceeds to step S137, and the approximate calculation unit 154-1 passes the switch 152. An approximation operation is applied to the supplied set of reference pixels and adjacent pixels.

ステップS138において、ボケ除去演算部14は、選択された予測パターンにおいて必要とされる全ての近似演算の結果が得られか否かを判定し、選択された予測パターンにおいて必要とされる全ての近似演算の結果が得られていないと判定された場合、ステップS137に戻り、近似演算を繰り返す。   In step S138, the blur removal calculation unit 14 determines whether or not the results of all the approximate calculations required in the selected prediction pattern are obtained, and all the approximations required in the selected prediction pattern. If it is determined that the result of the calculation is not obtained, the process returns to step S137 and the approximate calculation is repeated.

なお、ステップS137の近似演算が繰り返される場合、そのステップS137の近似演算は、近似演算部154−2乃至近似演算部154−Wの順に、近似演算部154−2乃至近似演算部154−Wのそれぞれによって実行される。   When the approximate calculation in step S137 is repeated, the approximate calculation in step S137 is performed by the approximate calculation unit 154-2 through the approximate calculation unit 154-W in the order of the approximate calculation unit 154-2 through the approximate calculation unit 154-W. Executed by each.

ステップS138において、選択された予測パターンにおいて必要とされる全ての近似演算の結果が得られたと判定された場合、手続きはステップS139に進み、ステップS139において、予測値演算部155は、選択された予測パターンの演算式における予め決めた項に、等価変換演算の結果と近似演算の結果とをそれぞれ用いて、予測値を演算して、ボケ除去演算は終了する。すなわち、ステップS139において、予測値演算部155は、等価変換演算の結果と近似演算の結果とを、選択された予測パターンによって決められるそれぞれの項に用いて、予測値を演算する。   If it is determined in step S138 that the results of all approximate calculations required for the selected prediction pattern have been obtained, the procedure proceeds to step S139, and in step S139, the predicted value calculation unit 155 selects the selected prediction pattern. The predicted value is calculated using the result of the equivalent conversion calculation and the result of the approximation calculation for the predetermined term in the calculation expression of the prediction pattern, and the blur removal calculation ends. That is, in step S139, the predicted value calculation unit 155 calculates a predicted value using the result of the equivalent conversion calculation and the result of the approximate calculation for each term determined by the selected prediction pattern.

なお、図22のフローチャートは、左から右に動く場合のボケ除去演算の処理を説明するものであり、右から左に動く場合のボケ除去演算の処理は、ステップS131乃至ステップS134において、’右側’が’左側’となる相違点を除いて、図22のフローチャートに示す場合と同様である。   Note that the flowchart of FIG. 22 describes the process of blur removal calculation when moving from left to right. The process of blur removal calculation when moving from right to left is the right side in steps S131 to S134. Except for the difference that “is left”, it is the same as the case shown in the flowchart of FIG.

図23は、図21のステップS115に対応するボケ除去演算の詳細の他の例を説明するフローチャートである。ステップS151において、ボケ除去演算部101は、選択された予測パターンのうちの1つに注目する。   FIG. 23 is a flowchart for explaining another example of details of the blur removal calculation corresponding to step S115 of FIG. In step S151, the blur removal calculating unit 101 focuses on one of the selected prediction patterns.

ステップS152において、ボケ除去演算部101は、インデックスkおよびインデックスiに、それぞれ0を設定する。   In step S152, the blur removal calculating unit 101 sets 0 to each of the index k and the index i.

ステップS153において、ボケ除去演算部101は、注目する予測パターンにおける予測値Kに0を設定する。ステップS154において、可変シフトレジスタ151は、隣接する画素D(i×V)と画素D(i×V+1)とを取得する。すなわち、可変シフトレジスタ151は、隣接するボケ画像データD(i×V)とボケ画像データD(i×V+1)とを取得する。 In step S153, the blur removal calculating unit 101 sets 0 to the prediction value K in the prediction pattern of interest. In step S154, the variable shift register 151 acquires the adjacent pixel D (i × V) and pixel D (i × V + 1) . That is, the variable shift register 151 acquires the adjacent blurred image data D (i × V) and the blurred image data D (i × V + 1) .

ステップS155において、ボケ除去演算部101は、インデックスiが、注目する予測パターンにおける近似演算器のインデックスs(k)と等しいか否かを判定する。ステップS155において、インデックスiが、注目する予測パターンにおける近似演算器のインデックスs(k)と等しいと判定された場合、手続きはステップS156に進み、近似演算部154は、隣接する画素D(i×V)と画素D(i×V+1)とに近似演算r(i×V)を適用する。 In step S155, the blur removal calculating unit 101 determines whether the index i is equal to the index s (k) of the approximate calculator in the predicted pattern of interest. If it is determined in step S155 that the index i is equal to the index s (k) of the approximate calculator in the predicted pattern of interest, the procedure proceeds to step S156, and the approximate calculator 154 determines that the adjacent pixel D (i × An approximate operation r (i × V) is applied to V) and the pixel D (i × V + 1) .

ステップS157において、ボケ除去演算部101は、インデックスkを1だけインクリメントして、手続きはステップS159に進む。   In step S157, the blur removal calculating unit 101 increments the index k by 1, and the procedure proceeds to step S159.

一方、ステップS155において、インデックスiが、注目する予測パターンにおける近似演算器のインデックスs(k)と等しくないと判定された場合、手続きはステップS158に進み、等価変換演算部153は、隣接する画素D(i×V)と画素D(i×V+1)とに等価変換演算e(i×V)を適用する。ステップS158の後、手続きはステップS159に進む。 On the other hand, if it is determined in step S155 that the index i is not equal to the index s (k) of the approximate calculator in the predicted pattern of interest, the procedure proceeds to step S158, and the equivalent transformation calculation unit 153 The equivalent transformation operation e (i × V) is applied to D (i × V) and the pixel D (i × V + 1) . After step S158, the procedure proceeds to step S159.

ステップS159において、予測値演算部155は、ステップS156またはステップS158の演算の結果を、予測パターンPqにおける予測値Kに加算する。 In step S159, the predicted value calculation unit 155 adds the result of the calculation in step S156 or step S158 to the predicted value K in the predicted pattern Pq .

ステップS160において、ボケ除去演算部101は、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しいか否かを判定し、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しくないと判定された場合、手続きはステップS161に進み、ボケ除去演算部101は、インデックスiを1だけインクリメントする。ステップS161の後、手続きは、ステップS154に戻り、上述した処理を繰り返す。   In step S160, the blur removal calculating unit 101 determines whether or not the index i is equal to the sum of the number of approximate calculators W and the number of equivalent converters X, and the index i is the number of approximate calculators W. Is determined to be not equal to the sum of the number of equivalent converters X, the procedure proceeds to step S161, and the blur removal calculating unit 101 increments the index i by one. After step S161, the procedure returns to step S154 and repeats the above-described processing.

ステップS160において、インデックスiが、近似演算器の数Wと等価変換器の数Xとの和に等しいと判定された場合、手続きはステップS162に進み、ボケ除去演算部101は、まだ注目していない予測パターンがあるかか否かを判定する。   If it is determined in step S160 that the index i is equal to the sum of the number W of approximate calculators and the number X of equivalent converters, the procedure proceeds to step S162, and the blur removal calculation unit 101 is still paying attention. It is determined whether there is any prediction pattern.

ステップS162において、まだ注目していない予測パターンがあると判定された場合、手続きはステップS163に進み、ボケ除去演算部101は、選択された予測パターンのうちから、次の予測パターンに注目する。ステップS163の後、手続きは、ステップS152に戻り、上述した処理を繰り返す。   If it is determined in step S162 that there is a prediction pattern that has not been noticed yet, the procedure proceeds to step S163, and the blur removal calculation unit 101 pays attention to the next prediction pattern from among the selected prediction patterns. After step S163, the procedure returns to step S152 and repeats the above-described processing.

ステップS162において、注目していない予測パターンがない、すなわち、選択された予測パターンの全てについて、予測値を演算したと判定された場合、ボケ除去演算の処理は終了する。   If it is determined in step S162 that there is no prediction pattern not focused on, that is, it is determined that the prediction values have been calculated for all of the selected prediction patterns, the blur removal calculation process ends.

このように、近似演算と等価変換演算の2つの演算を組み合わせて、ボケを除去することができる。   In this way, blurring can be removed by combining two operations of the approximate calculation and the equivalent conversion calculation.

近似演算と等価変換演算との組み合わせ方を変えることにより、ボケを除去するための演算を、簡易に変更することができる。   By changing the combination of the approximate calculation and the equivalent conversion calculation, the calculation for removing the blur can be easily changed.

複数の演算の組み合わせを用意した場合、それぞれの組み合わせによる予測値の大きさを比較することで、予測の精度を上げることができる。   When a plurality of combinations of operations are prepared, the accuracy of prediction can be increased by comparing the magnitudes of predicted values of the combinations.

複数の演算の組み合わせにより、多くのバリエーションの処理を行うことと等価とすることができる。   A combination of a plurality of operations can be equivalent to performing many variations of processing.

以上のように、最小自乗法およびその係数を用いることがないので、ボケ除去の演算の変更を容易に行うことができる。   As described above, since the least square method and its coefficients are not used, the blur removal calculation can be easily changed.

画像上の大きなエッジにおいて近似演算が適用されることがないので、ボケを除去した画像において、リンギングを減らすことができる。   Since an approximation operation is not applied to a large edge on an image, ringing can be reduced in an image from which blur is removed.

予測値のメディアンを取って画素値を求めるようにした場合には、リンギングを減らすことができる。   Ringing can be reduced when the pixel value is obtained by taking the median of the predicted value.

このように、画像データに所定の演算を適用するようにした場合には、動きボケを除去することができる。また、第1の画素と、第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し、N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算し、係数αは、

Figure 2008225657
により求められるようにした場合には、より簡単に、動きボケを除去することができる。 In this way, when a predetermined calculation is applied to image data, motion blur can be removed. In addition, a set of the first pixel and the second pixel adjacent to the first pixel in the direction of movement is extracted from the other set by a motion amount V in units of pixels, From the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V for the i (i is a positive integer) -th set of N (N is a positive integer) sets, the motion A pixel value from which motion blur has been removed is predicted by subtracting the result obtained by multiplying the value α obtained by subtracting 1 / (N−i) from the amount V and the pixel data of the second pixel. And the coefficient α is
Figure 2008225657
Therefore, motion blur can be removed more easily.

なお、本発明は、動画像を再生、記録、または表示するなど、動画像を取り扱う機器に適用することができ、例えば、テレビジョン受像機、セットトップボックス、チューナ、ビデオレコーダ、ビデオプレーヤ、ビデオカメラ、家庭用ゲーム機、携帯電話機、または携帯型プレーヤなどに適用することができる。   Note that the present invention can be applied to devices that handle moving images, such as playing, recording, or displaying moving images. For example, a television receiver, a set-top box, a tuner, a video recorder, a video player, a video The present invention can be applied to a camera, a home game machine, a mobile phone, or a portable player.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 24 is a block diagram illustrating an example of a hardware configuration of a computer that executes the series of processes described above according to a program.

コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。   In a computer, a central processing unit (CPU) 201, a read only memory (ROM) 202, and a random access memory (RAM) 203 are connected to each other by a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。   An input / output interface 205 is further connected to the bus 204. The input / output interface 205 includes an input unit 206 composed of a keyboard, mouse, microphone, etc., an output unit 207 composed of a display, a speaker, etc., a storage unit 208 composed of a hard disk or nonvolatile memory, and a communication unit 209 composed of a network interface. A drive 210 for driving a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 201 loads, for example, the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes the program. Is performed.

コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 201) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 211 that is a package medium composed of a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208に記憶することで、コンピュータにインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208に記憶することで、コンピュータにインストールすることができる。その他、プログラムは、ROM202や記憶部208にあらかじめ記憶しておくことで、コンピュータにあらかじめインストールしておくことができる。   The program can be installed in the computer by loading the removable medium 211 in the drive 210 and storing it in the storage unit 208 via the input / output interface 205. Further, the program can be installed in a computer by being received by the communication unit 209 via a wired or wireless transmission medium and stored in the storage unit 208. In addition, the program can be installed in the computer in advance by storing the program in the ROM 202 or the storage unit 208 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明の一実施の形態の画像処理装置の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of the image processing apparatus of one embodiment of this invention. ボケ画像データDと実世界画像データJとの関係を示す図である。FIG. 4 is a diagram illustrating a relationship between blurred image data D and real world image data J. ボケ画像データD1からボケ画像データD2を減算した値について説明する図である。Is a diagram illustrating the blurred image data D 1 value obtained by subtracting the blurred image data D 2 from. 近似演算の例を説明する図である。It is a figure explaining the example of an approximation calculation. 式(5)を説明する図である。It is a figure explaining Formula (5). 近似演算器と等価変換器とによる予測値の演算の具体例を説明する図である。It is a figure explaining the specific example of the calculation of the predicted value by an approximate calculator and an equivalent converter. 等価変換演算の具体例を説明する図である。It is a figure explaining the specific example of an equivalent conversion calculation. 近似演算の具体例を説明する図である。It is a figure explaining the specific example of an approximation calculation. 近似演算の考え方を説明する図である。It is a figure explaining the view of approximate calculation. 近似演算器と等価変換器とによる予測値の演算の具体例を説明する図である。It is a figure explaining the specific example of the calculation of the predicted value by an approximate calculator and an equivalent converter. 隣接するボケ画像データDの組への近似演算または等価変換演算の適用の例を説明する図である。FIG. 10 is a diagram for explaining an example of applying an approximation operation or an equivalent conversion operation to a set of adjacent blurred image data D. ボケ除去演算部の構成を示すブロック図である。It is a block diagram which shows the structure of a blur removal calculating part. 演算部の構成を示すブロック図である。It is a block diagram which shows the structure of a calculating part. 演算結果比較選択部の構成を示すブロック図である。It is a block diagram which shows the structure of a calculation result comparison selection part. ボケ除去の処理の例を説明するフローチャートである。10 is a flowchart for explaining an example of a blur removal process. ボケ除去演算の処理の詳細の例を説明するフローチャートである。It is a flowchart explaining the example of the detail of a process of a blurring removal calculation. ボケ除去演算の処理の詳細の他の例を説明するフローチャートである。12 is a flowchart for explaining another example of details of the blur removal calculation process. 本発明の一実施の形態の画像処理装置の構成の他の例を示すブロック図であるIt is a block diagram which shows the other example of a structure of the image processing apparatus of one embodiment of this invention. ボケ除去演算部の構成を示すブロック図である。It is a block diagram which shows the structure of a blur removal calculating part. 演算部の構成を示すブロック図である。It is a block diagram which shows the structure of a calculating part. ボケ除去の処理の他の例を説明するフローチャートである。12 is a flowchart for explaining another example of a blur removal process. ボケ除去演算の処理の詳細のさらに他の例を説明するフローチャートである。14 is a flowchart for explaining still another example of details of processing for blur removal calculation. ボケ除去演算の処理の詳細のさらに他の例を説明するフローチャートである。14 is a flowchart for explaining still another example of details of processing for blur removal calculation. コンピュータのハードウェアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of a computer.

符号の説明Explanation of symbols

11 動き検出部, 12 アフィン変換部, 13 ボケ除去パラメータ生成部, 14 ボケ除去演算部, 15 演算結果比較選択部, 16 逆アフィン変換部, 31−1乃至31−Zまたは31 演算部, 51−1乃至51−Nまたは51 可変シフトレジスタ, 52 スイッチ, 53−1乃至53−Xまたは53 等価変換演算部, 54−1乃至54−Wまたは54 近似演算部, 55 予測値演算部, 71 ソート部, 72 選択部, 73 平均値演算部, 101 ボケ除去演算部, 102 予測パターン選択部, 111 エッジ検出部, 131−1乃至131−Tまたは131 演算部, 151−1乃至151−Nまたは151 可変シフトレジスタ, 152 スイッチ, 153−1乃至153−Xまたは153 等価変換演算部, 154−1乃至154−Wまたは154 近似演算部, 155 予測値演算部, 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 211 リムーバブルメディア   DESCRIPTION OF SYMBOLS 11 Motion detection part, 12 Affine transformation part, 13 Blur removal parameter production | generation part, 14 Blur removal calculation part, 15 Computation result comparison selection part, 16 Reverse affine transformation part, 31-1 thru | or 31-Z or 31 calculation part, 51- 1 to 51-N or 51 variable shift register, 52 switch, 53-1 to 53-X or 53 equivalent conversion calculation unit, 54-1 to 54-W or 54 approximation calculation unit, 55 prediction value calculation unit, 71 sort unit , 72 selection unit, 73 average value calculation unit, 101 blur removal calculation unit, 102 prediction pattern selection unit, 111 edge detection unit, 131-1 to 131-T or 131 calculation unit, 151-1 to 151-N or 151 variable Shift register, 152 switch, 153-1 to 153-X or 153 equivalent Conversion calculation unit, 154-1 to 154-W or 154 approximation calculation unit, 155 prediction value calculation unit, 201 CPU, 202 ROM, 203 RAM, 208 storage unit, 211 a removable media

Claims (8)

時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理装置において、
第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出する抽出手段と、
N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第1の演算手段と
を備え、
係数αは、
Figure 2008225657
により求められる
画像処理装置。
In an image processing apparatus for processing an image composed of pixel data for each of a predetermined number of pixels acquired by an image sensor having a time integration effect,
Extraction means for extracting a set of a first pixel and a second pixel that is adjacent to the first pixel in the direction of motion and that is separated from the other set by a motion amount V in units of pixels. When,
From the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V for the i (i is a positive integer) -th set of N (N is a positive integer) sets, By subtracting the result obtained by subtracting the value α obtained by subtracting 1 / (N−i) from the motion amount V and the pixel data of the second pixel, the pixel value from which motion blur is removed is obtained. First calculating means for calculating a value for prediction, and
The coefficient α is
Figure 2008225657
An image processing apparatus required by
N個の組のそれぞれについて、前記第1の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段をさらに備える
請求項1に記載の画像処理装置。
The prediction value calculation means which calculates the predicted value of the pixel value from which motion blur was removed by adding the value calculated by the first calculation means for each of the N sets. Image processing apparatus.
N個の組のうちの、k(kは正の整数)番目の組について、前記第1の画素の画素データに係数βと動き量Vとを乗算した結果から、前記第2の画素の画素データに係数βと動き量Vとを乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する第2の演算手段をさらに備え、
係数βは、
Figure 2008225657
により求められる
請求項1に記載の画像処理装置。
The pixel of the second pixel is obtained by multiplying the pixel data of the first pixel by the coefficient β and the motion amount V for the k-th group (k is a positive integer) among the N groups. A second computing means for computing a value for predicting a pixel value from which motion blur is removed by subtracting a result obtained by multiplying the data by a coefficient β and a motion amount V;
The coefficient β is
Figure 2008225657
The image processing apparatus according to claim 1, which is obtained by:
N個の組のそれぞれについて、前記第1の演算手段または前記第2の演算手段により演算された値を加算することにより、動きボケを除去した画素値の予測値を算出する予測値算出手段をさらに備える
請求項3に記載の画像処理装置。
Predicted value calculating means for calculating predicted values of pixel values from which motion blur has been removed by adding the values calculated by the first calculating means or the second calculating means for each of the N sets. The image processing apparatus according to claim 3.
複数の前記第1の演算手段によって演算された値から予測される複数の予測値のうち、複数の予測値の中央値に近い予測値を選択する選択手段をさらに備える
請求項1に記載の画像処理装置。
The image according to claim 1, further comprising: a selecting unit that selects a predicted value close to a median value of the plurality of predicted values among a plurality of predicted values predicted from the values calculated by the plurality of first calculating units. Processing equipment.
複数の前記第1の演算手段によって演算された値から予測される複数の予測値をソートするソート手段と、
ソートされた複数の予測値から、複数の予測値の中央値に近い予測値であって、所定の数の予測値を選択する選択手段と、
選択された予測値の平均値を算出する平均値算出手段と
をさらに備える請求項1に記載の画像処理装置。
Sorting means for sorting a plurality of predicted values predicted from values calculated by the plurality of first calculating means;
A selection unit that selects a predetermined number of predicted values that are close to the median of the plurality of predicted values from the plurality of sorted predicted values;
The image processing apparatus according to claim 1, further comprising: an average value calculating unit that calculates an average value of the selected predicted values.
時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理方法において、
第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し、
N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する
ステップを含み、
係数αは、
Figure 2008225657
により求められる
画像処理方法。
In an image processing method for processing an image composed of pixel data for each of a predetermined number of pixels acquired by an image sensor having a time integration effect,
A set of a first pixel and a second pixel that is adjacent to the first pixel in the direction of motion and that is separated from the other set by a motion amount V in units of pixels;
From the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V for the i (i is a positive integer) -th set of N (N is a positive integer) sets, By subtracting the result obtained by subtracting the value α obtained by subtracting 1 / (N−i) from the motion amount V and the pixel data of the second pixel, the pixel value from which motion blur is removed is obtained. Including a step of calculating a value for prediction,
The coefficient α is
Figure 2008225657
Image processing method required by
時間積分効果を有する撮像素子によって取得された所定の数の画素毎の画素データからなる画像を処理する画像処理を、コンピュータに行わせるプログラムにおいて、
第1の画素と、前記第1の画素に動きの方向に隣接する第2の画素との組であって、画素を単位とする動き量Vだけ他の組から離れた組を抽出し、
N(Nは正の整数)個の組のうちの、i(iは正の整数)番目の組について、前記第1の画素の画素データに係数αと動き量Vとを乗算した結果から、動き量Vから1/(N−i)を減算して得られた値と係数αとを前記第2の画素の画素データに乗算した結果を減算することにより、動きボケを除去した画素値を予測するための値を演算する
ステップを含む画像処理をコンピュータに行わせ、
係数αは、
Figure 2008225657
により求められる
プログラム。
In a program for causing a computer to perform image processing for processing an image made up of pixel data for each of a predetermined number of pixels acquired by an image sensor having a time integration effect,
A set of a first pixel and a second pixel that is adjacent to the first pixel in the direction of motion and that is separated from the other set by a motion amount V in units of pixels;
From the result of multiplying the pixel data of the first pixel by the coefficient α and the motion amount V for the i (i is a positive integer) -th set of N (N is a positive integer) sets, By subtracting the result obtained by subtracting the value α obtained by subtracting 1 / (N−i) from the motion amount V and the pixel data of the second pixel, the pixel value from which motion blur is removed is obtained. Causing the computer to perform image processing including a step of calculating a value for prediction;
The coefficient α is
Figure 2008225657
The program required by.
JP2007060429A 2007-03-09 2007-03-09 Image processor, image processing method, and program Withdrawn JP2008225657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060429A JP2008225657A (en) 2007-03-09 2007-03-09 Image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060429A JP2008225657A (en) 2007-03-09 2007-03-09 Image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2008225657A true JP2008225657A (en) 2008-09-25

Family

ID=39844234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060429A Withdrawn JP2008225657A (en) 2007-03-09 2007-03-09 Image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2008225657A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102670251A (en) * 2012-05-29 2012-09-19 飞依诺科技(苏州)有限公司 Numerical sorting weighted average-based ultrasonic image spatial filter method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102670251A (en) * 2012-05-29 2012-09-19 飞依诺科技(苏州)有限公司 Numerical sorting weighted average-based ultrasonic image spatial filter method
CN102670251B (en) * 2012-05-29 2014-04-02 飞依诺科技(苏州)有限公司 Numerical sorting weighted average-based ultrasonic image spatial filter method

Similar Documents

Publication Publication Date Title
JP5909540B2 (en) Image processing display device
Wei et al. Physics-based noise modeling for extreme low-light photography
US9396523B2 (en) Image restoration cascade
KR101830804B1 (en) Digital image stabilization method with adaptive filtering
US9430817B2 (en) Blind image deblurring with cascade architecture
US9344690B2 (en) Image demosaicing
RU2564832C2 (en) Video stabilisation method for multifunctional platforms
CN100425056C (en) Method to stabilize digital video motion
JP4148041B2 (en) Signal processing apparatus, signal processing method, program, and recording medium
CN101601069B (en) System and method for reducing artifacts in images
JP7086235B2 (en) Video processing methods, equipment and computer storage media
JP2011151569A (en) Image processor, imaging apparatus, program, and image processing method
CN104660978B (en) Device and method for being handled image
US7868925B2 (en) Device, method, and program for generating high-resolution image data at a low data transfer rate
US20100061650A1 (en) Method And Apparatus For Providing A Variable Filter Size For Providing Image Effects
US20190205650A1 (en) Image processing apparatus, image processing method, and medium
EP1963970A2 (en) Method for providing data to a digital processing means
KR101982258B1 (en) Method for detecting object and object detecting apparatus
JP2007201572A (en) Learning apparatus and learning method, signal processing apparatus and signal processing method, and program
JP2008225657A (en) Image processor, image processing method, and program
EP4078442A1 (en) System and method of determining a region of interest in media
Kelmelis et al. Practical considerations for real-time turbulence mitigation in long-range imagery
JP5683153B2 (en) Image processing apparatus and image processing method
JP2008141616A (en) Motion vector calculating apparatus, method and program, moving image compressing and recording device, and imaging apparatus
US20170018062A1 (en) Image processing devices and image processing methods

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511