JP4763419B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4763419B2
JP4763419B2 JP2005312529A JP2005312529A JP4763419B2 JP 4763419 B2 JP4763419 B2 JP 4763419B2 JP 2005312529 A JP2005312529 A JP 2005312529A JP 2005312529 A JP2005312529 A JP 2005312529A JP 4763419 B2 JP4763419 B2 JP 4763419B2
Authority
JP
Japan
Prior art keywords
image data
data
img
restored
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005312529A
Other languages
Japanese (ja)
Other versions
JP2007124199A (en
Inventor
史紀 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nitto Optical Co Ltd
Original Assignee
Nitto Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nitto Optical Co Ltd filed Critical Nitto Optical Co Ltd
Priority to JP2005312529A priority Critical patent/JP4763419B2/en
Publication of JP2007124199A publication Critical patent/JP2007124199A/en
Application granted granted Critical
Publication of JP4763419B2 publication Critical patent/JP4763419B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来から、撮像部にCCD(Charge Coupled Devices)などの撮像素子を使用するカメラにより撮影を行った撮影画像は、撮影時の手ぶれ、撮影光学系の各種の収差、あるいは撮影光学系を構成するレンズの歪み等がある場合は、これが要因となり、撮影画像が劣化することが知られている。   Conventionally, a photographed image photographed by a camera using an imaging device such as a CCD (Charge Coupled Devices) in the imaging unit is a camera shake during photographing, various aberrations of the photographing optical system, or a lens constituting the photographing optical system. It is known that when there is a distortion or the like, this is a factor and the captured image deteriorates.

このような撮影画像の劣化を防ぐ手段として、撮影画像の劣化の要因のうち、撮影時の手ぶれに関しては、レンズを動かす方式と撮影した画像を回路処理する方式の2つの方式が知られている。例えば、レンズを動かす方式としては、カメラの手ぶれを検出し、撮影光学系の中の所定のレンズを、検出した手ぶれによるカメラの移動に合わせて動かすことにより、撮像素子上における結像位置の移動を抑制する方式が知られている(特許文献1参照)。   As means for preventing such deterioration of the photographed image, two methods of moving the lens and a method of circuit processing the photographed image are known regarding camera shake during photographing among the causes of deterioration of the photographed image. . For example, as a method of moving the lens, camera shake is detected, and a predetermined lens in the photographing optical system is moved in accordance with the movement of the camera due to the detected camera shake, thereby moving the imaging position on the image sensor. There is known a method for suppressing the above (see Patent Document 1).

また、回路処理する方式としては、カメラの撮影光学系の光軸の変動を角加速度センサ等により検出し、検出した角速度等から撮影時のぼけ状態を表す伝達関数を取得し、撮影画像に対し、取得した伝達関数の逆変換を行い、劣化のない画像を復元する方式が知られている(特許文献2参照)。   As a circuit processing method, a change in the optical axis of the photographing optical system of the camera is detected by an angular acceleration sensor or the like, and a transfer function representing a blurring state at the time of photographing is obtained from the detected angular velocity, etc. A method is known in which an acquired transfer function is inversely transformed to restore an image without deterioration (see Patent Document 2).

特開平6−317824号公報(要約書参照)JP-A-6-317824 (see abstract) 特開平11−24122号公報(要約書参照)Japanese Patent Laid-Open No. 11-24122 (see abstract)

特許文献1記載の手ぶれ補正を採用したカメラは、モータ等のレンズを駆動するハードウェアのスペースが必要となり大型化してしまう。また、そのようなハードウェア自体やそのハードウェアを動かす駆動回路が必要となり、コストアップとなってしまう。   The camera employing the camera shake correction described in Patent Document 1 requires a hardware space for driving a lens such as a motor, and thus becomes large. In addition, such hardware itself and a drive circuit for operating the hardware are necessary, which increases costs.

また、特許文献2記載の手ぶれ補正の場合は、上述した問題点はなくなるものの、次のような問題を有する。   In addition, in the case of camera shake correction described in Patent Document 2, the above-described problems are eliminated, but the following problems occur.

第1に、取得する伝達関数は、角加速度センサ等により検出した角速度等に基づいて求めるものであり、ノイズやブレ情報誤差等に非常に弱く、これらのわずかな変動により、値が大きく変動する。そのため、逆変換で得られる復元画像は、手ぶれがない状態で写した画像とはほど遠いものとなり、実際上は利用できない。   First, the transfer function to be obtained is obtained based on the angular velocity detected by an angular acceleration sensor or the like, and is very vulnerable to noise, blur information error, etc., and the value fluctuates greatly due to these slight fluctuations. . For this reason, the restored image obtained by the inverse transformation is far from an image taken with no camera shake, and cannot be used in practice.

第2に、ノイズ等を考慮した逆変換を行う場合、連立方程式の解の特異値分解等で解を推定する方法も採用できるが、その推定のための計算値が天文学的な大きさになり、現実的には解くことができなくなるリスクが高い。   Second, when performing inverse transformation considering noise, etc., a method of estimating the solution by singular value decomposition etc. of the solution of simultaneous equations can be adopted, but the calculated value for the estimation becomes astronomical size. In reality, there is a high risk that it will be impossible to solve.

そこで、本発明の課題は、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus having a realistic circuit processing method and to shorten the processing time, while preventing an increase in size of the apparatus when restoring an image. It is.

上記課題を解決するために、本発明の画像処理装置は、画像を処理する処理部を有する画像処理装置において、処理部は、周波数空間において、初期画像データに補正画像データを加算することにより復元画像データを求める処理を行うこととした。   In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus having a processing unit for processing an image, and the processing unit is restored by adding corrected image data to initial image data in a frequency space. Processing to obtain image data was performed.

本発明によれば、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることができる。   According to the present invention, it is possible to provide an image processing apparatus having a realistic circuit processing method while reducing the size of the apparatus when restoring an image, and to shorten the processing time. .

また、他の発明は、上述の発明に加え、初期画像データを「I」とし、補正画像データを(A)式で表される画像データとして、復元画像データを求める処理を行うこととした。

Figure 0004763419
ただし、「IMG′」は撮影画像データを表わす。「H」はフィードバック関数を表わす。「G」は変化要因を表わす。「n」は復元画像データが原画像データに近似したものと推定できる任意の数を表わす。 In addition to the above-described invention, another invention performs processing for obtaining restored image data by setting the initial image data as “I 0 ” and the corrected image data as the image data represented by Expression (A). .
Figure 0004763419
However, “IMG ′” represents photographed image data. “H” represents a feedback function. “G” represents a change factor. “N” represents an arbitrary number that can be estimated that the restored image data approximates the original image data.

この構成を採用した場合、復元画像データを、初期画像データ「I」に(A)式で表される補正画像データを加算するという計算により求めるため、処理時間の短縮化をさらに図ることができる。 When this configuration is adopted, the restored image data is obtained by a calculation of adding the corrected image data represented by the expression (A) to the initial image data “I 0 ”, so that the processing time can be further shortened. it can.

また、他の発明は、上述の発明に加え、初期画像データを0とし、補正画像データを(B)式で表される画像データとして、復元画像データを求める処理を行うこととした。

Figure 0004763419
ただし、「IMG′」は撮影画像データを表わす。「H」はフィードバック関数を表わす。「G」は変化要因を表わす。「n」は復元画像データが原画像データに近似したものと推定できる任意の数を表わす。 In addition to the above-described invention, another invention performs the process of obtaining restored image data by setting the initial image data to 0 and the corrected image data as image data represented by equation (B).
Figure 0004763419
However, “IMG ′” represents photographed image data. “H” represents a feedback function. “G” represents a change factor. “N” represents an arbitrary number that can be estimated that the restored image data approximates the original image data.

この構成を採用した場合、初期画像データが0であるため、復元画像データを、(A)式より項数の少ない(B)式により計算により求めるため、処理時間の短縮化をさらに図ることができる。   When this configuration is adopted, since the initial image data is 0, the restored image data is obtained by calculation using the equation (B) having a smaller number of terms than the equation (A), so that the processing time can be further shortened. it can.

本発明によれば、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることができる。   According to the present invention, it is possible to provide an image processing apparatus having a realistic circuit processing method while reducing the size of the apparatus when restoring an image, and to shorten the processing time. .

以下、本発明の第1の実施の形態に係る画像処理装置1について図を参照しながら説明する。なお、この画像処理装置1は、撮像部にCCDを使用した民生用のいわゆるデジタルカメラとしているが、撮像部にCCD等の撮像素子を用いる監視用カメラ、テレビ用カメラ用、内視鏡用カメラ等、他の用途のカメラとしたり、顕微鏡用、双眼鏡用、さらにはNMR撮影用等の画像診断装置等、カメラ以外の機器にも適用できる。   Hereinafter, an image processing apparatus 1 according to a first embodiment of the present invention will be described with reference to the drawings. The image processing apparatus 1 is a so-called consumer digital camera that uses a CCD as an imaging unit. However, the image processing apparatus 1 is a surveillance camera, a television camera, and an endoscope camera that use an imaging element such as a CCD as the imaging unit. The present invention can also be applied to devices other than cameras, such as cameras for other uses, image diagnostic apparatuses for microscopes, binoculars, and NMR imaging.

画像処理装置1は、人物等の被写体を撮影する撮像部2と、その撮像部2を駆動する制御系部3と、撮像部2で撮影された画像を処理する処理部4と、を有している。また、この実施の形態に係る画像処理装置1は、さらに処理部4で処理された画像を記録する記録部5と、角速度センサ等からなり、画像劣化等の変化の要因となる変化要因情報を検知する検出部6と、画像劣化等を生じさせる既知の変化要因情報を保存する要因情報保存部7を有する。   The image processing apparatus 1 includes an imaging unit 2 that captures a subject such as a person, a control system unit 3 that drives the imaging unit 2, and a processing unit 4 that processes an image captured by the imaging unit 2. ing. The image processing apparatus 1 according to this embodiment further includes a recording unit 5 that records an image processed by the processing unit 4, an angular velocity sensor, and the like, and changes factor information that causes changes such as image degradation. It has a detection unit 6 for detecting, and a factor information storage unit 7 for storing known change factor information that causes image degradation and the like.

撮像部2は、レンズを有する撮影光学系やレンズを通過した光を電気信号に変換するCCDやC−MOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える部分である。制御系部3は、撮像部2,処理部4、記録部5、検出部6および要因情報保存部7等、画像処理装置1内の各部を制御するものである。   The imaging unit 2 includes a photographing optical system having a lens and an imaging element such as a CCD or C-MOS (Complementary Metal Oxide Semiconductor) that converts light passing through the lens into an electrical signal. The control system unit 3 controls each unit in the image processing apparatus 1 such as the imaging unit 2, the processing unit 4, the recording unit 5, the detection unit 6, and the factor information storage unit 7.

処理部4は、画像処理プロセッサで構成されており、ASIC(Application Specific Integrated Circuit)のようなハードウェアで構成されている。この処理部4は図示外の記録部を備え、この記録部に後述する処理用画像データにおける複素空間の高周波成分を有する画像データや、比較用画像データを生成する際の元となる任意の画像の画像データが保存されている。処理部4は、ASICのようなハードウェアとして構成されるのではなく、ソフトウェアで処理する構成としても良い。記録部5は、半導体メモリで構成されているが、ハードディスクドライブ等の磁気記録手段や、DVD(Digital Versatile Disk)等を使用する光記録手段等を採用しても良い。   The processing unit 4 is composed of an image processing processor, and is composed of hardware such as ASIC (Application Specific Integrated Circuit). The processing unit 4 includes a recording unit (not shown), and the recording unit has an arbitrary image as a base when generating image data having a high frequency component of complex space in processing image data, which will be described later, or comparison image data. Image data is saved. The processing unit 4 is not configured as hardware such as an ASIC, but may be configured to perform processing by software. The recording unit 5 includes a semiconductor memory. However, a magnetic recording unit such as a hard disk drive, an optical recording unit using a DVD (Digital Versatile Disk), or the like may be employed.

検出部6は、図2に示すように、画像処理装置1の光軸であるZ軸に対して垂直方向となるX軸、Y軸の回りの速度を検出する2つの角速度センサを備えるものである。ところで、カメラで撮影する際の手ぶれは、X方向、Y方向、Z方向の各方向への移動やZ軸回りの回動も生ずるが、各変動により最も大きな影響を受けるのは、Y軸回りの回転とX軸回りの回転である。これら2つの変動は、ほんのわずかに変動しただけで、その撮影された画像は大きくぼける。このため、この実施の形態では、図2のX軸回りとY軸回りの2つの角速度センサのみを配置している。しかし、より完全を期すためZ軸回りの角速度センサをさらに付加したり、X方向やY方向への移動を検出するセンサを付加しても良い。また、使用するセンサとしては、角速度センサではなく、角加速度センサとしても良い。   As shown in FIG. 2, the detection unit 6 includes two angular velocity sensors that detect the speeds around the X axis and the Y axis that are perpendicular to the Z axis that is the optical axis of the image processing apparatus 1. is there. By the way, camera shake at the time of shooting with a camera may cause movement in each direction of the X direction, Y direction, and Z direction, and rotation about the Z axis. Rotation around the X axis. These two variations are only slightly varied, and the captured image is greatly blurred. For this reason, in this embodiment, only two angular velocity sensors around the X axis and the Y axis in FIG. 2 are arranged. However, for the sake of completeness, an angular velocity sensor around the Z axis may be further added, or a sensor for detecting movement in the X direction or the Y direction may be added. The sensor used may be an angular acceleration sensor instead of an angular velocity sensor.

要因情報保存部7は、既知の劣化要因情報などの変化要因情報、例えば撮影光学系の収差等を保存しておく記録部である。なお、この実施の形態では、要因情報保存部7には、撮影光学系の収差やレンズのひずみの情報が保存されているが、後述する手ぶれによる画像の劣化を補正する際にはそれらの情報は、利用していない。   The factor information storage unit 7 is a recording unit that stores change factor information such as known deterioration factor information, such as aberrations of the photographing optical system. In this embodiment, the factor information storage unit 7 stores information on aberrations of the photographing optical system and lens distortion. However, when correcting image degradation due to camera shake, which will be described later, such information is stored. Is not used.

次に、以上のように構成された画像処理装置1の処理部4の処理方法を説明するに先立ち、本発明の考え方の概要を図3および図4に基づいて説明する。   Next, prior to describing the processing method of the processing unit 4 of the image processing apparatus 1 configured as described above, an outline of the concept of the present invention will be described with reference to FIGS. 3 and 4.

図3中、「i」は、任意の初期画像のデータとする。「i′」は、初期画像データ「i」の劣化画像のデータを示し、比較のための比較用画像データである。「g」は、検出部6で検出された変化要因関数(=劣化要因情報(点像関数))である。「img′」は、撮影画像のデータを指す。 In FIG. 3, “i 0 ” is arbitrary initial image data. “I 0 ′” indicates degraded image data of the initial image data “i 0 ”, and is comparison image data for comparison. “G” is a change factor function (= deterioration factor information (point spread function)) detected by the detection unit 6. “Img ′” indicates data of a captured image.

「δ」は、撮影画像データ「img′」と比較用画像データ「i′」とを比較して得た両画像データの差分のデータである。「h」は、変化要因関数「g」に基づくフィードバック関数である。「i0+n」は、初期画像データ「i」に、差分のデータ「δ」を変化要因関数「g」に基づいて配分して新たに生成した復元画像のデータ(復元画像データ)である。「img」は、撮影された劣化画像である撮影画像データ「img′」の元となった原画像のデータである。つまり、この原画像データ「img」は、撮影画像データ「img′」が変化する前の画像、または正しく撮影されたならば得られたはずの本来の画像のことである。具体的には、例えば、撮影操作時に手ぶれ等による画像の劣化がない状態で撮影されたと仮定したときの画像データである。ここで、「img」と「img′」の関係は、次の(E)式で現されるとする。
img′=img*g …(E)
「*」は、重畳積分を表わす演算子である。
なお、差分のデータ「δ」は、対応する画素の単純な差分でも良い場合もあるが、一般的には、変化要因関数「g」により異なり、次の(F)式で現される。
δ=f(img′,img,g)…(F)
“Δ” is difference data between the two image data obtained by comparing the captured image data “img ′” with the comparison image data “i 0 ′”. “H” is a feedback function based on the change factor function “g”. “I 0 + n ” is restored image data (restored image data) newly generated by distributing the difference data “δ” to the initial image data “i 0 ” based on the change factor function “g”. “Img” is data of the original image that is the basis of the captured image data “img ′”, which is a captured degraded image. That is, the original image data “img” is an image before the photographed image data “img ′” is changed, or an original image that should be obtained if the photographed image data is correctly photographed. More specifically, for example, image data when it is assumed that the image is captured in a state in which the image is not deteriorated due to camera shake or the like during the shooting operation. Here, it is assumed that the relationship between “img” and “img ′” is expressed by the following equation (E).
img ′ = img * g (E)
“*” Is an operator representing a superposition integral.
Note that the difference data “δ” may be a simple difference between corresponding pixels, but generally differs depending on the change factor function “g” and is expressed by the following equation (F).
δ = f (img ′, img, g) (F)

図3の処理ルーチンは、まず、任意の初期画像データ「i」を用意する(ステップS101)ことから始まる。この初期画像データ「i」としては、撮影画像データ「img′」を用いても良く、また、黒ベタ、白ベタ、灰色ベタ、市松模様等どのような画像のデータを用いても良い。ステップS102で、(1)式の「img」の代わりに初期画像データ「i」を入れ、変化要因関数「g」により変化(劣化)させられた劣化画像である比較用画像データ「i′」を求める。次に、撮影画像データ「img′」と比較用画像データ「i′」とを比較し、差分のデータ「δ」を算出する(ステップS103)。 The processing routine of FIG. 3 starts by preparing arbitrary initial image data “i 0 ” (step S101). As the initial image data “i 0 ”, photographed image data “img ′” may be used, and any image data such as black solid, white solid, gray solid, or checkered pattern may be used. In step S102, initial image data “i 0 ” is inserted instead of “img” in the expression (1), and comparison image data “i 0 ” that is a deteriorated image changed (deteriorated) by the change factor function “g”. ''. Next, the captured image data “img ′” and the comparison image data “i 0 ′” are compared to calculate difference data “δ” (step S103).

次に、ステップS104で、この差分のデータ「δ」が所定値以上であるか否かを判断し、所定値以上であれば、ステップS105で復元画像のデータ(復元画像データ)を生成する処理を行う。すなわち、差分のデータ「δ」を、変化要因関数「g」に基づくフィードバック関数「h」に従って、初期画像データ「i」に配分し、復元画像データ「i0+n」を生成する。その後、ステップS102において、初期画像データ「i」をステップS105で生成した復元画像データ「i0+n」として比較用画像データ「i0+n′」とを生成し、ステップS103で、撮像画像データ「img′」と比較用画像データ「i0+n′」を比較する。そうして、その比較の結果である差分のデータ「δ」の大きさをS104で判断する。 Next, in step S104, it is determined whether or not the difference data “δ” is equal to or greater than a predetermined value. If the difference data “δ” is equal to or greater than the predetermined value, a process of generating restored image data (restored image data) in step S105. I do. That is, the difference data “δ” is distributed to the initial image data “i 0 ” according to the feedback function “h” based on the change factor function “g” to generate restored image data “i 0 + n ”. Thereafter, in step S102, initial image data “i 0 ” is generated as comparison image data “i 0 + n ′” as restored image data “i 0 + n ” generated in step S105. In step S103, captured image data “img” is generated. ′ ”And the comparison image data“ i 0 + n ′ ”are compared. Then, the size of the difference data “δ” as a result of the comparison is determined in S104.

このように、ステップS104で、差分のデータ「δ」が所定値未満になるまで、スッテプS102,S103、S104,S105の処理を繰り返し、復元画像データ「i0+n」を順次更新していく。なお、フィードバック関数「h」は、ステップS103の差分のデータ「δ」が、前回の処理ルーチンのときよりも小さくなるようにする関数である。 In this way, in step S104, the processing of steps S102, S103, S104, and S105 is repeated until the difference data “δ” becomes less than the predetermined value, and the restored image data “i 0 + n ” is sequentially updated. The feedback function “h” is a function that makes the difference data “δ” in step S103 smaller than in the previous processing routine.

ステップS104において、差分のデータ「δ」が所定値より小さい場合、処理を終了する(ステップS106)。そして、処理を終了した時点での復元画像データ「i0+n」を原画像データ「img」と推定する。 If the difference data “δ” is smaller than the predetermined value in step S104, the process ends (step S106). Then, the restored image data “i 0 + n ” at the time when the processing is completed is estimated as the original image data “img”.

以上の処理方法の考え方をまとめると以下のようになる。すなわち、この処理方法においては、処理の解を逆問題としては解かず、合理的な解を求める最適化問題として解くのである。逆問題として解く場合、特許文献2の記載にもあるように、理論上は可能であるが、現実問題としては困難である。   The concept of the above processing method is summarized as follows. That is, in this processing method, the processing solution is not solved as an inverse problem, but is solved as an optimization problem for obtaining a rational solution. When solving as an inverse problem, it is theoretically possible as described in Patent Document 2, but it is difficult as a real problem.

最適化問題として解くということは、次の条件を前提としている。
すなわち、
(1)入力に対する出力は、一意に決まる。
(2)出力が同じであれば、入力は同じである。
(3)出力が同じになるように、入力を更新しながら反復処理することにより、解を収束させていく。
Solving as an optimization problem assumes the following conditions.
That is,
(1) The output corresponding to the input is uniquely determined.
(2) If the output is the same, the input is the same.
(3) The solution is converged by iteratively processing while updating the input so that the outputs are the same.

このことを換言すれば、図4(A)(B)に示すように、撮影された画像である撮影画像データ「img′」と近似である比較用画像データ「i′(i0+n′)」を生成できれば、その生成の元のデータとなる初期画像データ「i」または復元画像データ「i0+n」は、撮影画像データ「img′」の元となる原画像データ「img」に近似したものとなる。 In other words, as shown in FIGS. 4A and 4B, the image data for comparison “i 0 ′ (i 0 + n ′) that is approximate to the captured image data“ img ′ ”that is the captured image. Can be generated, the initial image data “i 0 ” or the restored image data “i 0 + n ” that is the original data of the generation approximates the original image data “img” that is the source of the captured image data “img ′”. It will be a thing.

ステップS104において、差分のデータ「δ」の判定基準となる値は、例えば、各データを8ビット(0〜255)で現した場合に「6」として、「6」より小さい、つまり「5」以下の時は、処理を終了することとする。   In step S104, the value serving as the determination criterion for the difference data “δ” is, for example, “6” when each data is represented by 8 bits (0 to 255), and is smaller than “6”, that is, “5”. Processing is terminated in the following cases.

さらに、図3および図4に示す考え方の詳細を、図5,図6,図7,図8,図9,図10,図11および図12に基づいて説明する。   Further, details of the concept shown in FIGS. 3 and 4 will be described based on FIGS. 5, 6, 7, 8, 9, 10, 11, and 12.

(手ぶれの復元アルゴリズム)
手ぶれが無いとき、所定の画素に対応する光エネルギーは、露光時間中、その画素に集中する。また、手ぶれがある場合、光エネルギーは、露光時間中にぶれた画素に分散する。さらに、露光時間中のブレがわかれば、露光時間中のエネルギーの分散の仕方がわかるため、ぶれた画像からブレの無い画像を作ることが可能となる。
(Image restoration algorithm)
When there is no camera shake, the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time. In addition, when there is camera shake, light energy is dispersed to pixels that are shaken during the exposure time. Further, if the blur during the exposure time is known, it is possible to know how the energy is dispersed during the exposure time, so that it is possible to create a blur-free image from the blurred image.

以下、簡単のため、横一次元で説明する。画素を左から順に、n−1,n,n+1,n+2,n+3,…,とし、ある画素「n」に注目する。ブレが無いとき、露光時間中のエネルギーは、その画素に集中するため、エネルギーの集中度は「1.0」である。この状態を図5に示す。このときの撮影結果を、図6の表に示す。図6に示すものが、劣化しなかった場合の原画像データ「img」となる。なお、各データは、ここでは、8ビット(0〜255)のデータで現している。   Hereinafter, for the sake of simplicity, the description will be made in one horizontal dimension. The pixels are designated as n-1, n, n + 1, n + 2, n + 3,... In order from the left, and attention is paid to a certain pixel “n”. When there is no blur, the energy during the exposure time is concentrated on the pixel, so the energy concentration is “1.0”. This state is shown in FIG. The imaging results at this time are shown in the table of FIG. What is shown in FIG. 6 is the original image data “img” when there is no deterioration. Here, each data is represented by 8-bit (0 to 255) data.

露光時間中にブレがあり、露光時間中の50%の時間はn番目の画素に、30%の時間はn+1番目の画素に、20%の時間はn+2番目の画素に、それぞれブレていたとする。エネルギーの分散の仕方は、図7に示す表の通りとなる。変化要因関数「g」は、このエネルギーの分散の仕方に対応した内容となっている。   It is assumed that there is blurring during the exposure time, 50% of the exposure time is blurred for the nth pixel, 30% of the time is for the (n + 1) th pixel, and 20% of the time is for the (n + 2) th pixel. . The way of energy dispersion is as shown in the table of FIG. The change factor function “g” has a content corresponding to this energy dispersion method.

ブレは、全ての画素で一様であるので、上ぶれ(縦ぶれ)が無いとすると、ブレの状況は、図8に示す表のとおりとなる。図8中の「撮影結果」として示されるデータが、原画像データ「img」で、「ブレ画像」として示されるデータが、撮影画像データ「img′」となる。具体的には、例えば「n−3」の画素の「120」は、ぶれ情報である変化要因関数「g」に基づき、「0.5」「0.3」「0.2」の配分比で、「n−3」の画素に「60」、「n−2」の画素に「36」、「n−1」の画素に「24」というように分散される。ここでは、「0.5」「0.3」「0.2」の配分比で分配することがフィードバック関数「h」に対応する処理となっている。同様に、「n−2」の画素のデータである「60」は、「n−2」に「30」、「n−1」に「18」、「n」に「12」として分散する。   Since blurring is uniform for all pixels, assuming that there is no upper blur (vertical blurring), the blurring situation is as shown in the table of FIG. In FIG. 8, the data indicated as “imaging result” is the original image data “img”, and the data indicated as “blurred image” is the captured image data “img ′”. Specifically, for example, “120” of the pixel “n−3” is based on the change factor function “g” that is the blur information, and the distribution ratio of “0.5”, “0.3”, and “0.2”. Thus, “60” is distributed to the “n-3” pixel, “36” to the “n-2” pixel, and “24” to the “n−1” pixel. Here, the distribution corresponding to the distribution ratio of “0.5”, “0.3”, and “0.2” is processing corresponding to the feedback function “h”. Similarly, “60” that is the pixel data of “n−2” is distributed as “30” in “n−2”, “18” in “n−1”, and “12” in “n”.

ステップS101に示す初期画像データ「i」としては、どのようなものでも採用できるが、ここでの説明に当たっては、例えば、撮影画像データ「img′」を用いる。すなわち、i=img′として処理を開始する。図9の表中に「入力」とされたものが初期画像データ「i」に相当する。この初期画像データ「i」すなわち「img′」に、ステップS102で変化要因関数「g」を作用させる。すなわち、例えば、初期画像データ「i」の「n−3」の画素の「60」は、「n−3」の画素に「30」が、「n−2」の画素に「18」が、「n−1」の画素に「12」がそれぞれ割り振られる。他の画素についても同様に配分され、出力「i′」として示される比較用画像データ「i′」が生成される。このため、ステップS103の差分のデータ「δ」は、図9の最下欄に示すようになる。 Any data can be adopted as the initial image data “i 0 ” shown in step S 101, but for the explanation here, for example, photographed image data “img ′” is used. That is, the process is started with i 0 = img ′. In the table of FIG. 9, “input” corresponds to initial image data “i 0 ”. The change factor function “g” is applied to the initial image data “i 0 ”, that is, “img ′” in step S102. That is, for example, “60” of the “n-3” pixel of the initial image data “i 0 ” is “30” for the “n-3” pixel and “18” for the “n-2” pixel. , “12” is assigned to each pixel of “n−1”. Allocated similarly for the other pixels, the output "i 0 '" image data "i 0 for comparison shown as'" is generated. Therefore, the difference data “δ” in step S103 is as shown in the bottom column of FIG.

この後、ステップS104にて差分のデータ「δ」の大きさを判断する。具体的には、差分のデータ「δ」が全て絶対値で5以下となった場合に処理を終了するが、図9に示す差分のデータ「δ」は、この条件に合わないため、ステップS105に進む。すなわち、差分のデータ「δ」をフィードバック関数「h」を使用して、初期画像データ「i」に配分して、図10中の「次回入力」として示される復元画像データ「i0+n」を生成する。この場合、第1回目であるため、図10では、i0+1と表している。 Thereafter, the size of the difference data “δ” is determined in step S104. Specifically, the process ends when all the difference data “δ” is 5 or less in absolute value, but the difference data “δ” shown in FIG. Proceed to That is, the difference data “δ” is distributed to the initial image data “i 0 ” using the feedback function “h”, and the restored image data “i 0 + n ” shown as “next input” in FIG. Generate. In this case, since this is the first time, i 0 + 1 is represented in FIG.

差分のデータ「δ」の配分は、例えば「n−3」の画素のデータ「30」に自分の所(=「n−3」の画素)の配分比である「0.5」をかけた「15」を「n−3」の画素に配分し、また「n−2」の画素のデータ「15」にその「n−2」の画素にきているはずの配分比である「0.3」をかけた「4.5」を配分し、さらに、「n−1」の画素のデータ「9.2」に、その「n−1」の画素にきているはずの配分比である「0.2」をかけた「1.84」を配分する。「n−3」の画素に配分された総量は、「21.34」となり、この値を初期画像データ「i」(ここでは撮影画像データ「img′」を使用)にプラスして、復元画像データ「i0+1」を生成している。 For the distribution of the difference data “δ”, for example, the data “30” of the pixel “n−3” is multiplied by “0.5” which is the distribution ratio of one's place (= “n-3” pixel). “15” is distributed to “n-3” pixels, and “0 ..” is a distribution ratio that should have come to the “n-2” pixel in the data “15” of the “n-2” pixel. “4.5” multiplied by “3”, and the distribution ratio that should have come to the pixel “n−1” in the data “9.2” of the pixel “n−1”. Allocate “1.84” multiplied by “0.2”. The total amount allocated to the pixels of “n−3” is “21.34”, and this value is added to the initial image data “i 0 ” (here, the captured image data “img ′” is used) and restored. Image data “i 0 + 1 ” is generated.

図11に示すように、この復元画像データ「i0+1」がステップS102の入力画像のデータ(=初期画像データ「i」)になり、ステップS102が実行され、ステップS103へと移行し、新しい差分のデータ「δ」を得る。その新しい差分のデータ「δ」の大きさをステップS104で判断し、所定値より大きい場合、ステップS105で新しい差分のデータ「δ」を前回の復元画像データ「i0+1」に配分し、新しい復元画像データ「i0+2」を生成する(図12参照)。その後、ステップS102の遂行により、復元画像データ「i0+2」から新しい比較用画像データ「i0+2′」が生成される。このように、ステップS102,S103が実行された後、ステップS104へ行き、そこでの判断によりステップS105へ行ったり、ステップS106へ移行する。このような処理を繰り返す。 As shown in FIG. 11, this restored image data “i 0 + 1 ” becomes the input image data (= initial image data “i 0 ”) in step S102, step S102 is executed, the process proceeds to step S103, and a new The difference data “δ” is obtained. The size of the new difference data “δ” is determined in step S104. If it is larger than the predetermined value, the new difference data “δ” is distributed to the previous restored image data “i 0 + 1 ” in step S105, and a new restoration is performed. Image data “i 0 + 2 ” is generated (see FIG. 12). Thereafter, new comparison image data “i 0 + 2 ′” is generated from the restored image data “i 0 + 2 ” by performing step S102. As described above, after steps S102 and S103 are executed, the process goes to step S104, and the process proceeds to step S105 or shifts to step S106 depending on the determination there. Such a process is repeated.

ここで説明している図3に示す処理ルーチンにおいては、ステップS104において、差分のデータ「δ」の大きさを判断する代わりに、S102からS105の処理ルーチンの処理回数を設定し、設定した回数の処理ルーチンを実行したときの復元画像データ「i0+n」を原画像データ「img」に近似したものとすることもできる。つまり、処理回数を、復元画像データ「i0+n」が原画像データ「img」に近似したと推定できる回数以上に設定することにより、差分のデータ「δ」の大きさの判断を行うことなく復元画像データ「i0+n」を求めることができる。 In the processing routine shown in FIG. 3 described here, instead of determining the size of the difference data “δ” in step S104, the number of processing routines in steps S102 to S105 is set. The restored image data “i 0 + n ” obtained when this processing routine is executed can be approximated to the original image data “img”. In other words, by setting the number of processing times to be greater than or equal to the number of times that the restored image data “i 0 + n ” can be estimated to approximate the original image data “img”, the restoration is performed without determining the size of the difference data “δ”. Image data “i 0 + n ” can be obtained.

そして、このように設定した回数の処理ルーチンを実行したときの復元画像データ「i0+n」を原画像データ「img」に近似したものとする処理の考え方を数式で表現すると次のようになる。なお、図3は、処理部4の処理方法の考え方を簡便に判りやすく説明するものである。そのため、この図3では、1つの画素に着目して説明しているものであるが、撮像部2の全撮像領域における復元画像データを求めるには、撮像領域の全画素について図3の処理ルーチンを実行する必要がある。 Then, the concept of processing in which the restored image data “i 0 + n ” obtained when the processing routine of the set number of times is executed is approximated to the original image data “img” is expressed by the following formula. FIG. 3 explains the concept of the processing method of the processing unit 4 simply and easily. Therefore, in FIG. 3, the description is given focusing on one pixel, but in order to obtain restored image data in all the imaging regions of the imaging unit 2, the processing routine of FIG. 3 is performed on all the pixels in the imaging region. Need to run.

先ず、S101における初期画像データを「i」とすると、S102において、比較用画像データ「i′」は、初期画像データ「i」と変化要因関数「g」の重畳積分として(1)式のように表される。

Figure 0004763419
First, when the initial image data in S101 is “i 0 ”, in S102, the comparison image data “i 0 ′” is (1) as a superposition integral of the initial image data “i 0 ” and the change factor function “g”. It is expressed as an expression.
Figure 0004763419

S103の差分のデータ「δ」は、(2)式のように表される。

Figure 0004763419
The difference data “δ” in S103 is expressed as in equation (2).
Figure 0004763419

S105の復元画像データ「i0+1」は、初期画像データ「i」に差分のデータ「δ」をフィードバック関数「h」に基づいて配分したものとして(3)式のように表される。

Figure 0004763419
The restored image data “i 0 + 1 ” in S105 is expressed as the following equation (3) assuming that the difference data “δ” is distributed to the initial image data “i 0 ” based on the feedback function “h”.
Figure 0004763419

そして次回の処理ルーチンでは、この(3)式の復元画像データ「i0+1」が、S102の「i」の代わりに入り、比較用画像データ「i0+1′」が、(4)式に表される形で生成される。

Figure 0004763419
In the next processing routine, the restored image data “i 0 + 1 ” in equation (3) enters instead of “i 0 ” in S102, and the comparison image data “i 0 + 1 ′” is expressed in equation (4). Generated in the form.

Figure 0004763419

そうして、S103において、差分のデータ「δ」が、(5)式で表される。

Figure 0004763419
Then, in S103, the difference data “δ” is expressed by equation (5).

Figure 0004763419

そうすると、S105の復元画像データ「i0+2」は、(6)式のように表される。

Figure 0004763419
Then, the restored image data “i 0 + 2 ” in S105 is expressed as in equation (6).
Figure 0004763419

以下同様に、「i0+3」,…を計算していくと、復元画像データ「i0+n」は、(7)式のように表される。

Figure 0004763419
Similarly, when “i 0 + 3 ”,... Is calculated, the restored image data “i 0 + n ” is expressed as in equation (7).

Figure 0004763419

つまり、復元画像データ「i0+n」は、初期画像データ「i」に(7)式の「i」より後ろの項である(8)式を補正画像データとして加算したものと見ることができる。

Figure 0004763419
That is, the restored image data “i 0 + n ” can be seen as the initial image data “i 0 ” obtained by adding the expression (8), which is a term after “i 0 ” in the expression (7), as corrected image data. it can.

Figure 0004763419

図3のステップS104の上述の説明において、差分のデータ「δ」の大きさを判断する代わりに、所定の設定回数以上の処理ルーチンを実行したときの復元画像データ「i0+n」を、原画像データ「img」に近似した画像データすることができる旨を説明した。しかしながら、上記(7)式を用いれば、図3の処理ルーチンを実行することなく、所定の設定回数のルーチンを行ったときと同じ復元画像データを計算により求めることができる。例えば、(7)式において、k=20のときの計算値は、図3の処理ルーチンを20回繰り返したときの復元画像データと等しくなる。 In the above description of step S104 in FIG. 3, instead of determining the size of the difference data “δ”, the restored image data “i 0 + n ” when the processing routine is executed a predetermined number of times or more is used as the original image. It has been explained that image data approximate to the data “img” can be obtained. However, if the above equation (7) is used, the same restored image data as when the routine has been performed a predetermined number of times can be obtained by calculation without executing the processing routine of FIG. For example, in equation (7), the calculated value when k = 20 is equal to the restored image data when the processing routine of FIG. 3 is repeated 20 times.

図3の処理ルーチンの回数を多くすれば多くするほど、復元画像データ「i0+n」は、原画像データ「img」に近づくが、処理に時間が長くなる。一方、上記の(7)式においては「k」を大きくすることが、図3の処理ルーチンの回数を多くすることに相当することになる。しかしながら、「k」を大きくしても計算時間は、「k」に相当する回数の処理ルーチンを実行するのに比べて短いものとなる。 As the number of processing routines in FIG. 3 is increased, the restored image data “i 0 + n ” approaches the original image data “img”, but the processing time becomes longer. On the other hand, in the above equation (7), increasing “k” corresponds to increasing the number of processing routines in FIG. However, even if “k” is increased, the calculation time is shorter than when the processing routine corresponding to “k” is executed.

ところで、図3の処理ルーチンにおいて、初期画像データ「i」を黒ベタの画像、つまり、画像データを入力しない状態で開始することは、(7)式において、「i」を「0」にすることに相当する。 By the way, in the processing routine of FIG. 3, starting the initial image data “i 0 ” without a solid black image, that is, without inputting the image data, indicates that “i 0 ” is “0” in the equation (7). Is equivalent to

つまり、(7)式において、「i」=「0」とすると、(7)式は、(9)式のように表される。

Figure 0004763419
That is, in Expression (7), when “i 0 ” = “0”, Expression (7) is expressed as Expression (9).

Figure 0004763419

つまり、復元画像データ「i0+n」は、初期画像データ「i=0」に(9)式を補正画像データとして加算したものと考えることができる。 That is, it can be considered that the restored image data “i 0 + n ” is obtained by adding the equation (9) as the corrected image data to the initial image data “i 0 = 0”.

なお、初期画像データ「i=0」に(9)式を補正画像データとして加算して復元画像データ「i0+n」を算出することと、(9)式についてn回の加算を行ったものを復元画像データ「i0+n」とすることは等価である。つまり、初期画像データについては考えることなく、撮影画像データ「img′」、変化要因関数「g」およびフィードバック関数「h」から、直接、復元画像データ「i0+n」を算出することができる。 The restored image data “i 0 + n ” is calculated by adding the equation (9) as the corrected image data to the initial image data “i 0 = 0”, and the equation (9) is added n times. Is equivalent to restored image data “i 0 + n ”. That is, the restored image data “i 0 + n ” can be calculated directly from the captured image data “img ′”, the change factor function “g”, and the feedback function “h” without considering the initial image data.

ところで、フィードバック関数「h」については、例えば、手ぶれによるカメラの移動軌跡が図13の線L(変化要因関数が「g(x,y)」)で表されるとしたときに、フィードバック関数「h」は、h(−x,−y)=g(x,y)となる関数とすると、効率よく差分のデータ「δ」を小さくすることができる。   By the way, regarding the feedback function “h”, for example, when the camera movement locus due to camera shake is represented by a line L in FIG. 13 (the change factor function is “g (x, y)”), the feedback function “ If “h” is a function such that h (−x, −y) = g (x, y), the difference data “δ” can be efficiently reduced.

また、例えば、復元画像データ「i0+n」を生成するとき、劣化等の変化要因の重心を算出し、その重心のみの差分、またはその差分の変倍を前回の復元画像データ「i0+n−1」に加えることをフィードバック関数「h」の内容としても良い。この考え方を図14および図15に基づいて以下に説明する。 For example, when the restored image data “i 0 + n ” is generated, the center of gravity of a change factor such as deterioration is calculated, and the difference of only the center of gravity or the scaling of the difference is calculated as the previous restored image data “i 0 + n−1”. To the content of the feedback function “h”. This concept will be described below based on FIG. 14 and FIG.

図14に示すように、原画像データ「img」が画素11〜15,21〜25,31〜35,41〜45,51〜55で構成されているとき、図14(A)に示すように、画素33に注目する。手ブレなどにより画素33が画素33,43,53,52の位置へと動いていくと、劣化した画像である撮影画像データ「img′」では、図14(B)に示すように、画素33,43,52,53に初めの画素33の影響が出る。   As shown in FIG. 14, when the original image data “img” is composed of pixels 11 to 15, 21 to 25, 31 to 35, 41 to 45, and 51 to 55, as shown in FIG. Pay attention to the pixel 33. When the pixel 33 moves to the positions of the pixels 33, 43, 53, and 52 due to camera shake or the like, in the captured image data “img ′” that is a deteriorated image, as shown in FIG. , 43, 52, 53 are affected by the first pixel 33.

このような劣化の場合、画素33が移動する際、画素43の位置に最も長時間位置していたとすると、劣化、すなわち変化の要因の重心は、原画像データ「img」中の画素33に関しては撮影画像データ「img′」では画素43の位置にくる。これにより、差分のデータ「δ」は、図15に示すように、撮影画像データ「img′」と比較用画像データ「i′」のそれぞれの画素43の差として計算する。その差分のデータ「δ」を、初期画像データ「i」や復元画像データ「i0+n」の画素33に加える。これが、フィードバック関数「h」の内容になる。 In the case of such deterioration, if the pixel 33 moves and is located at the position of the pixel 43 for the longest time, the center of deterioration, that is, the cause of the change is the pixel 33 in the original image data “img”. In the photographed image data “img ′”, the pixel 43 is located. Thereby, the difference data “δ” is calculated as the difference between the respective pixels 43 of the photographed image data “img ′” and the comparison image data “i 0 ′” as shown in FIG. The difference data “δ” is added to the pixels 33 of the initial image data “i 0 ” and the restored image data “i 0 + n ”. This is the content of the feedback function “h”.

また、先の例で言えば、「0.5」「0.3」「0.2」の3つの重心は、最も値が大きい「0.5」の位置であり、自分の位置となる。よって「0.3」や「0.2」の割り振りを考慮せず、差分のデータ「δ」の「0.5」または「0.5」の変倍分のみを自己の位置に割り振るようにすることになる。このような処理は、ブレのエネルギーが集中している場合に好適となる。つまり、この場合、自己の位置に差分のデータ「δ」の「0.5」または「0.5」の変倍分のみを割り振ることがフィードバック関数「h」の内容になる。   In the above example, the three centroids of “0.5”, “0.3”, and “0.2” are the positions of “0.5” having the largest value, and are their own positions. Therefore, allocation of “0.5” or “0.5” of the difference data “δ” is allocated to its own position without considering the allocation of “0.3” or “0.2”. Will do. Such a process is suitable when the blur energy is concentrated. That is, in this case, the content of the feedback function “h” is to allocate only “0.5” or “0.5” magnification of the difference data “δ” to its own position.

ところで、(7)式と(9)式をフーリエ変換すると、(7)式は、(10)式のように表され、また(9)式は、(11)式のように表される。

Figure 0004763419
ただし、「I0+n」は、復元画像データ「i0+n」をフーリエ変換した周波数空間における復元画像データを表わす。「I」は、初期画像データ「i」をフーリエ変換した周波数空間における初期画像データを表わす。「IMG′」は、撮影画像データ「img′」をフーリエ変換した周波数空間における撮影画像データを表わす。「H」は、フィードバック関数「h」をフーリエ変換した周波数空間におけるフィードバック関数を表わす。「G」は、変化要因「g」をフーリエ変換した周波数空間における変化要因を表わす。 By the way, when Expression (7) and Expression (9) are Fourier transformed, Expression (7) is expressed as Expression (10), and Expression (9) is expressed as Expression (11).

Figure 0004763419
However, “I 0 + n ” represents restored image data in a frequency space obtained by Fourier transforming the restored image data “i 0 + n ”. “I 0 ” represents initial image data in a frequency space obtained by Fourier transforming the initial image data “i 0 ”. “IMG ′” represents photographed image data in a frequency space obtained by Fourier transform of the photographed image data “img ′”. “H” represents a feedback function in a frequency space obtained by Fourier transforming the feedback function “h”. “G” represents a change factor in the frequency space obtained by Fourier transform of the change factor “g”.

このように、(7)式、(9)式についてフーリエ変換を行った(10)式、(11)式を用いて周波数空間において計算をすることにより、(7)式、(9)式のような重畳積分を行うことなく、積算(掛け算)と加減算(加算と減算)により復元画像データ「I0+n」を算出することができる。このため、計算速度を先にしめした重畳積分を行う場合に比べて早くすることができる。 Thus, by calculating in the frequency space using the equations (10) and (11) obtained by performing Fourier transform on the equations (7) and (9), the equations (7) and (9) Without performing such superposition integration, the restored image data “I 0 + n ” can be calculated by integration (multiplication) and addition / subtraction (addition and subtraction). For this reason, it is possible to increase the speed compared to the case of performing the superposition integration with the calculation speed first.

なお、(10)式あるいは(11)式により算出した復元画像データ「I0+n」については逆フーリエ変換により空間領域における画像データを求める。 For restored image data “I 0 + n ” calculated by equation (10) or equation (11), image data in the spatial domain is obtained by inverse Fourier transform.

なお、(10)式と(11)式において、k→∞とすると、(10)式と(11)式はともに、(12)式のように表される。

Figure 0004763419
この(12)式の表すところは、原画像データ「img」の周波数空間における原画像データを「IMG」としたときの、IMG・G=IMG′の逆変換に他ならない。 In Expressions (10) and (11), if k → ∞, both Expressions (10) and (11) are expressed as Expression (12).

Figure 0004763419
Expression (12) represents nothing but the inverse transformation of IMG · G = IMG ′ when the original image data in the frequency space of the original image data “img” is “IMG”.

しかしながら、(12)式のようにした場合、「G」が0または0に近い値のときは、復元画像データ(I∞)が不安定なものとなってしまうことが判る。ところが、(10)式、(11)式のように、n回の加算を繰り返す等比級数にして復元画像データを求めるようにすると「G」が0または0に近い値のときであっても、安定した復元画像データを求めることができる。   However, in the case of the expression (12), it can be seen that the restored image data (I∞) becomes unstable when “G” is 0 or a value close to 0. However, as shown in the equations (10) and (11), when the restored image data is obtained by a geometric series that repeats addition n times, even when “G” is 0 or a value close to 0, Stable restored image data can be obtained.

上記(7)式、(9)式、(10)式、(11)式を用いて復元画像データを用いる処理を次のように応用してもよい。   The processing using the restored image data using the above equations (7), (9), (10), and (11) may be applied as follows.

データを図16に示すように、撮影画像「データimg′」が、画素11〜16,21〜26,31〜36,41〜46,51〜56,61〜66で構成されているとき、1つおきに画素を間引き、画素11,13,15,31,33,35,51,53,55からなる4分の1の大きさの縮小された縮小撮影画像データ「Simg′」を生成する。   As shown in FIG. 16, when the captured image “data img ′” is composed of pixels 11 to 16, 21 to 26, 31 to 36, 41 to 46, 51 to 56, 61 to 66, 1 Every other pixel is thinned out, and reduced-magnified image data “Simg ′” having a size of a quarter composed of the pixels 11, 13, 15, 31, 33, 35, 51, 53, and 55 is generated.

このように、撮影画像データ「img′」を間引き、間引かれたデータである縮小撮影画像データ「Simg′」を生成し、その縮小撮影画像データ「Simg′」について、(7)式あるいは(9)式を用いて縮小撮影画像データ「Simg′」についての復元画像データ「Si0+n」を求める。そして、この復元画像データ「Si0+n」と縮小撮影画像データ「Simg′」についての伝達関数を求め、この伝達関数を拡大し、拡大した間を補間して、この修正した伝達関数を、縮小していない撮像領域全体の撮影画像データ「img′」に対する伝達関数とする。そして、その修正した伝達関数を用いて、周波数空間でデコンボリューション計算(ボケを含む画像群から計算によってボケを除去する計算)を行い、復元画像データ「i0+n」を求めるようにしてもよい。なお、復元画像データ「i0+n」を(7)式の初期画像データ「i」として使用してよい。 In this way, the photographic image data “img ′” is thinned out to generate the reduced photographic image data “Simg ′” which is the decimated data, and the reduced photographic image data “Simg ′” is expressed by Equation (7) or ( 9) The restored image data “Si 0 + n ” for the reduced photographed image data “Simg ′” is obtained using the equation (9). Then, a transfer function is obtained for the restored image data “Si 0 + n ” and the reduced photographed image data “Simg ′”, the transfer function is enlarged, the interpolated portion is interpolated, and the corrected transfer function is reduced. This is a transfer function for the captured image data “img ′” of the entire imaging region that is not. Then, using the modified transfer function, deconvolution calculation (calculation for removing blur by calculation from a group of images including blur) may be performed in the frequency space to obtain restored image data “i 0 + n ”. The restored image data “i 0 + n ” may be used as the initial image data “i 0 ” in the equation (7).

あるいは、縮小された縮小撮影画像データ「Simg′」に対して(10)式あるいは(11)式を用いて、縮小撮影画像データ「Simg′」についての周波数空間における縮小撮影画像データ「SIMG′」と復元画像データ「SI0+n」を求める。そして、この縮小撮影画像データ「SIMG′」と復元画像データ「SI0+n」についての伝達関数を求め、この伝達関数を拡大し、拡大した間を補間して、この修正した伝達関数を、縮小していない撮像領域全体の撮影画像データ「IMG′」に対する伝達関数とする。そうして、この伝達関数を用いて復元画像データ「I0+n」を求める。この復元画像データ「I0+n」を(10)式の初期画像データ「I」として使用してよい。 Alternatively, the reduced photographic image data “SIMG ′” in the frequency space for the reduced photographic image data “Simg ′” is obtained by using the expression (10) or (11) for the reduced photographic image data “Simg ′”. And the restored image data “SI 0 + n ” is obtained. Then, a transfer function for the reduced photographed image data “SIMG ′” and the restored image data “SI 0 + n ” is obtained, the transfer function is enlarged, the interpolated portion is interpolated, and the corrected transfer function is reduced. This is a transfer function for the captured image data “IMG ′” of the entire imaging region that is not. Then, the restored image data “I 0 + n ” is obtained using this transfer function. The restored image data “I 0 + n ” may be used as the initial image data “I 0 ” in the equation (10).

また、縮小撮影画像データ「Simg′」は、図17に示すように、撮影画像データ「img′」が、画素11〜16,21〜26,31〜36,41〜46,51〜56,61〜66で構成されているとき、その中央の領域である、画素32,33,34,42,43,44からなる領域を一部の領域としてもよい。ただし、縮小撮影画像データ「Simg′」をこのように取り出してくる場合は、取り出してくる領域が、変動領域よりも充分大きな領域とする必要がある。図5等に示した先の例では、3画素に渡って変動しているので、3画素以上の領域を取り出してくる必要がある。   Further, as shown in FIG. 17, the reduced image data “Simg ′” includes the pixels 11 to 16, 21 to 26, 31 to 36, 41 to 46, 51 to 56, 61. When it is configured with ˜66, a region made up of the pixels 32, 33, 34, 42, 43, 44, which is the central region, may be a partial region. However, when the reduced photographed image data “Simg ′” is extracted in this way, it is necessary that the extracted area is sufficiently larger than the fluctuation area. In the previous example shown in FIG. 5 and the like, since it fluctuates over 3 pixels, it is necessary to extract an area of 3 pixels or more.

なお、補正画像データとして加算する画像データは、(7)式、(9)式、(10)式、(11)式の計算式により算出したものに限らず、これらの計算式に補正を加えたもの、あるいは、(7)式、(9)式、(10)式、(11)式における補正画像データにさらに補正のための画像データを加減(プラス・マイナス)したものを用いることもできる。   The image data to be added as the corrected image data is not limited to those calculated by the equations (7), (9), (10), and (11). Alternatively, the corrected image data in the equations (7), (9), (10), and (11) can be used by further adding / subtracting (plus / minus) image data for correction. .

また、上述した各処理方法は、プログラム化されても良い。また、プログラム化されたものが記憶媒体、例えばCD(Compact Disc)、DVD、USB(Universal Serial Bus)メモリに入れられ、コンピュータによって読みとり可能とされても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムを読み込む読み込み手段を持つこととなる。さらには、そのプログラム化されたものが画像処理装置1の外部のサーバに入れられ、必要によりダウンロードされ、使用されるようにしても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムをダウンロードする通信手段を持つこととなる。   Moreover, each processing method mentioned above may be programmed. The program may be stored in a storage medium, for example, a CD (Compact Disc), a DVD, or a USB (Universal Serial Bus) memory, and read by a computer. In this case, the image processing apparatus 1 has reading means for reading a program in the storage medium. Further, the program may be stored in an external server of the image processing apparatus 1, downloaded as necessary, and used. In this case, the image processing apparatus 1 has communication means for downloading a program in the storage medium.

以上の説明においては、要因情報保存部7に保存されている情報を利用しなかったが、ここに保存されている既知の劣化要因(変化要因)、例えば、光学収差やレンズのひずみなどのデータを使用するようにしても良い。その場合、例えば、ブレの情報と光学収差の情報を合わせて1つの変化要因関数(劣化要因関数)として捉えて計算を行うのが好ましいが、ブレの情報による変化要因関数での計算を終了した後に光学収差の情報による変化要因関数での計算を行うようにしても良い。また、この要因情報保存部7を設置しないようにして、撮影時の動的要因、例えばブレのみに関する変化要因関数により画像を復元しても良い。   In the above description, the information stored in the factor information storage unit 7 is not used, but known deterioration factors (change factors) stored here, for example, data such as optical aberrations and lens distortions. May be used. In this case, for example, it is preferable to perform the calculation by considering the blur information and the optical aberration information as one change factor function (deterioration factor function), but the calculation with the change factor function based on the blur information is finished. You may make it perform the calculation by the change factor function by the information of optical aberration later. Further, the factor information storage unit 7 may not be installed, and the image may be restored by a dynamic factor at the time of shooting, for example, a change factor function relating only to blurring.

なお、変化要因関数「g」としては、劣化要因の関数のみではなく、単に画像を変化させるものや、劣化とは逆に、画像を良くするものを含むものとする。また、角速度検出センサは、例えば、5μsec毎に角速度を検出する。また、角速度検出センサで検出したブレの生データは、センサ自体の校正が不十分なときは、実際のブレとは対応しない。よって実際のブレに対応させるため、センサが校正されていないときは、センサで検出した生データに所定の倍率をかけたりする補正が必要とされる。   Note that the change factor function “g” includes not only a function of a deterioration factor but also a function that simply changes an image or a function that improves an image contrary to deterioration. Further, the angular velocity detection sensor detects the angular velocity every 5 μsec, for example. In addition, the raw shake data detected by the angular velocity detection sensor does not correspond to the actual shake when the sensor itself is insufficiently calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, correction is required to multiply the raw data detected by the sensor by a predetermined magnification.

本発明の実施の形態に係る画像処理装置の主要構成を示すブロック図である。It is a block diagram which shows the main structures of the image processing apparatus which concerns on embodiment of this invention. 図1に示す画像処理装置の概要を示す外観斜視図で、角速度センサの配置位置を説明するための図である。It is an external appearance perspective view which shows the outline | summary of the image processing apparatus shown in FIG. 1, and is a figure for demonstrating the arrangement position of an angular velocity sensor. 図1に示す画像処理装置の処理部で行う処理方法の考え方の概要を説明するためのフロー図である。It is a flowchart for demonstrating the outline | summary of the view of the processing method performed in the process part of the image processing apparatus shown in FIG. 図3に示す処理方法の考え方の概念を説明するための図である。It is a figure for demonstrating the concept of the view of the processing method shown in FIG. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、手ぶれのないときのエネルギーの集中を示す表である。FIG. 4 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking hand shake as an example, and is a table showing the concentration of energy when there is no hand shake. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、手ぶれのないときの画像データを示す図である。FIG. 4 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking hand shake as an example, and showing image data when there is no hand shake. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、手ぶれが生じたときのエネルギーの分散を示す図である。FIG. 4 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, and is a diagram showing energy dispersion when camera shake occurs. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、任意の画像から比較用画像データを生成する状況を説明するための図である。FIG. 4 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, and is a diagram for explaining a situation in which comparison image data is generated from an arbitrary image. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、比較用画像データと、処理対象となるぶれた原画像とを比較して、差分のデータを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining an outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, comparing comparison image data with a blurred original image to be processed, and calculating difference data It is a figure for demonstrating the condition which produces | generates. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、差分のデータを配分し任意の画像に加えることで復元画像データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, and explains a situation in which restored image data is generated by distributing difference data and adding it to an arbitrary image. FIG. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、生成された復元画像データから新たな比較用画像データを生成し、そのデータと処理対象となるぶれた原画像とを比較して差分のデータを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining an outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, generating new comparison image data from the generated restored image data, It is a figure for demonstrating the condition which compares with the blurred original image and produces | generates the data of a difference. 図3に示す処理方法の考え方の概要を、手ぶれを例にして具体的に説明するための図で、新たに生成された差分のデータを配分し、新たな復元画像データを生成する状況を説明するための図である。FIG. 3 is a diagram for specifically explaining the outline of the concept of the processing method shown in FIG. 3 by taking an example of camera shake, and explains a situation in which newly generated difference data is allocated and new restored image data is generated. It is a figure for doing. 変化要因関数「g」の一例を示す図である。It is a figure which shows an example of change factor function "g". 変化要因関数の重心を利用してフィードバック関数を求める場合を説明するための図で、(A)は原画像のデータ中の1つの画素に注目する状態を示す図で、(B)は撮影画像データを示す図中で、注目した画素のデータが拡がる状態を示す図である。It is a figure for demonstrating the case where a feedback function is calculated | required using the gravity center of a change factor function, (A) is a figure which shows the state which pays attention to one pixel in the data of an original image, (B) is a picked-up image. In the figure which shows data, it is a figure which shows the state which the data of the focused pixel expand. 図14に示す処理方法である変化要因関数の重心を利用してフィードバック関数を求める場合を説明するための図である。It is a figure for demonstrating the case where a feedback function is calculated | required using the gravity center of the change factor function which is the processing method shown in FIG. 実施の形態における変形例を説明するための図で、(A)は処理対象となる撮影画像データを示し、(B)は(A)のデータを間引いたデータを示す図である。It is a figure for demonstrating the modification in embodiment, (A) shows the picked-up image data used as a process target, (B) is a figure which shows the data which thinned out the data of (A). 実施の形態における他の変形例を説明するための図で、(A)は処理対象となる撮影画像データを示し、(B)は(A)のデータの一部を取り出したデータを示す図である。FIG. 6 is a diagram for explaining another modification example of the embodiment, in which (A) shows captured image data to be processed, and (B) shows data obtained by extracting a part of the data of (A). is there.

符号の説明Explanation of symbols

1 画像処理装置
2 撮影部
3 制御系部
4 処理部
5 記録部
6 検出部
7 要因情報保存部
,I 初期画像のデータ(任意の画像のデータ)
′,I′ 比較用画像データ
g,G 変化要因(劣化要因)
img′,IMG′ 撮影画像データ(撮影された画像)
h,H フィードバック関数
0+n,I0+n 復元画像データ
First image processing apparatus 2 imaging unit 3 control system unit 4 processing unit 5 recording unit 6 detector 7 factor information storage unit i 0, I 0 of the initial image data (data of any image)
i 0 ′, I 0 ′ Comparative image data g, G Change factor (deterioration factor)
img ′, IMG ′ Captured image data (captured image)
h, H feedback function i 0 + n , I 0 + n restored image data

Claims (2)

画像を処理する処理部を有する画像処理装置において、
上記処理部は、
周波数空間において、初期画像データに補正画像データを加算することにより復元画像データを求める処理を行い、
上記初期画像データを「I」とし、上記補正画像データを(A)式で表される画像データとして、復元画像データを求める処理を行うことを特徴とする画像処理装置。
Figure 0004763419
ただし、「IMG′」は撮影画像データを表わす。「H」はフィードバック関数を表わす。「G」は変化要因を表わす。「n」は復元画像データが原画像データに近似したものと推定できる任意の数を表わす。
In an image processing apparatus having a processing unit for processing an image,
The processing unit
In the frequency space, a process for obtaining restored image data by adding the corrected image data to the initial image data,
The initial image data is "I 0", as image data represented the corrected image data by formula (A), an image processing apparatus and performs a process for obtaining the restored image data.
Figure 0004763419
However, “IMG ′” represents photographed image data. “H” represents a feedback function. “G” represents a change factor. “N” represents an arbitrary number that can be estimated that the restored image data approximates the original image data.
前記初期画像データを0とし、前記補正画像データを(B)式で表される画像データとして、復元画像データを求める処理を行うことを特徴とする請求項1記載の画像処理装置。
Figure 0004763419
ただし、「IMG′」は撮影画像データを表わす。「H」はフィードバック関数を表わす。「G」は変化要因を表わす。「n」は復元画像データが原画像データに近似したものと推定できる任意の数を表わす。
The image processing apparatus according to claim 1, wherein the initial image data is set to 0, and the corrected image data is processed as image data represented by equation (B) to perform processing for obtaining restored image data.
Figure 0004763419
However, “IMG ′” represents photographed image data. “H” represents a feedback function. “G” represents a change factor. “N” represents an arbitrary number that can be estimated that the restored image data approximates the original image data.
JP2005312529A 2005-10-27 2005-10-27 Image processing device Expired - Fee Related JP4763419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005312529A JP4763419B2 (en) 2005-10-27 2005-10-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005312529A JP4763419B2 (en) 2005-10-27 2005-10-27 Image processing device

Publications (2)

Publication Number Publication Date
JP2007124199A JP2007124199A (en) 2007-05-17
JP4763419B2 true JP4763419B2 (en) 2011-08-31

Family

ID=38147566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005312529A Expired - Fee Related JP4763419B2 (en) 2005-10-27 2005-10-27 Image processing device

Country Status (1)

Country Link
JP (1) JP4763419B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5065099B2 (en) * 2008-03-04 2012-10-31 日東光学株式会社 Method for generating data of change factor information and signal processing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333326A (en) * 2000-05-23 2001-11-30 Mitsubishi Heavy Ind Ltd Digital camera having image processing function
JP2002300459A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device through iteration method, image restoring method and its program, and recording medium

Also Published As

Publication number Publication date
JP2007124199A (en) 2007-05-17

Similar Documents

Publication Publication Date Title
KR101274061B1 (en) Image processing apparatus and image processing method
JP5007241B2 (en) Image processing device
JP3895357B2 (en) Signal processing device
JP4885150B2 (en) Image processing device
JP4965179B2 (en) Image processing device
JP2008021271A (en) Image processing apparatus, image restoration method, and program
JP4763419B2 (en) Image processing device
JP4602860B2 (en) Image processing device
JP5133070B2 (en) Signal processing device
JP4606976B2 (en) Image processing device
JP4598623B2 (en) Image processing device
JP4975644B2 (en) Image processing device
JP5247169B2 (en) Image processing apparatus, image processing method, and image processing program
JP4629537B2 (en) Image processing device
JP5005319B2 (en) Signal processing apparatus and signal processing method
JP5057665B2 (en) Image processing device
JP5007234B2 (en) Image processing device
JP4718618B2 (en) Signal processing device
JP4629622B2 (en) Image processing device
WO2007032148A1 (en) Image processor
JP4869971B2 (en) Image processing apparatus and image processing method
JP2007116332A (en) Image processing apparatus
JP4982484B2 (en) Signal processing device
JP2008167255A (en) Method for measuring point image function, method for creating point image function, point image function measuring device, and image processor
JPWO2008090858A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110609

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4763419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees