JP4763419B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4763419B2 JP4763419B2 JP2005312529A JP2005312529A JP4763419B2 JP 4763419 B2 JP4763419 B2 JP 4763419B2 JP 2005312529 A JP2005312529 A JP 2005312529A JP 2005312529 A JP2005312529 A JP 2005312529A JP 4763419 B2 JP4763419 B2 JP 4763419B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- img
- restored
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.
従来から、撮像部にCCD(Charge Coupled Devices)などの撮像素子を使用するカメラにより撮影を行った撮影画像は、撮影時の手ぶれ、撮影光学系の各種の収差、あるいは撮影光学系を構成するレンズの歪み等がある場合は、これが要因となり、撮影画像が劣化することが知られている。 Conventionally, a photographed image photographed by a camera using an imaging device such as a CCD (Charge Coupled Devices) in the imaging unit is a camera shake during photographing, various aberrations of the photographing optical system, or a lens constituting the photographing optical system. It is known that when there is a distortion or the like, this is a factor and the captured image deteriorates.
このような撮影画像の劣化を防ぐ手段として、撮影画像の劣化の要因のうち、撮影時の手ぶれに関しては、レンズを動かす方式と撮影した画像を回路処理する方式の2つの方式が知られている。例えば、レンズを動かす方式としては、カメラの手ぶれを検出し、撮影光学系の中の所定のレンズを、検出した手ぶれによるカメラの移動に合わせて動かすことにより、撮像素子上における結像位置の移動を抑制する方式が知られている(特許文献1参照)。 As means for preventing such deterioration of the photographed image, two methods of moving the lens and a method of circuit processing the photographed image are known regarding camera shake during photographing among the causes of deterioration of the photographed image. . For example, as a method of moving the lens, camera shake is detected, and a predetermined lens in the photographing optical system is moved in accordance with the movement of the camera due to the detected camera shake, thereby moving the imaging position on the image sensor. There is known a method for suppressing the above (see Patent Document 1).
また、回路処理する方式としては、カメラの撮影光学系の光軸の変動を角加速度センサ等により検出し、検出した角速度等から撮影時のぼけ状態を表す伝達関数を取得し、撮影画像に対し、取得した伝達関数の逆変換を行い、劣化のない画像を復元する方式が知られている(特許文献2参照)。 As a circuit processing method, a change in the optical axis of the photographing optical system of the camera is detected by an angular acceleration sensor or the like, and a transfer function representing a blurring state at the time of photographing is obtained from the detected angular velocity, etc. A method is known in which an acquired transfer function is inversely transformed to restore an image without deterioration (see Patent Document 2).
特許文献1記載の手ぶれ補正を採用したカメラは、モータ等のレンズを駆動するハードウェアのスペースが必要となり大型化してしまう。また、そのようなハードウェア自体やそのハードウェアを動かす駆動回路が必要となり、コストアップとなってしまう。
The camera employing the camera shake correction described in
また、特許文献2記載の手ぶれ補正の場合は、上述した問題点はなくなるものの、次のような問題を有する。
In addition, in the case of camera shake correction described in
第1に、取得する伝達関数は、角加速度センサ等により検出した角速度等に基づいて求めるものであり、ノイズやブレ情報誤差等に非常に弱く、これらのわずかな変動により、値が大きく変動する。そのため、逆変換で得られる復元画像は、手ぶれがない状態で写した画像とはほど遠いものとなり、実際上は利用できない。 First, the transfer function to be obtained is obtained based on the angular velocity detected by an angular acceleration sensor or the like, and is very vulnerable to noise, blur information error, etc., and the value fluctuates greatly due to these slight fluctuations. . For this reason, the restored image obtained by the inverse transformation is far from an image taken with no camera shake, and cannot be used in practice.
第2に、ノイズ等を考慮した逆変換を行う場合、連立方程式の解の特異値分解等で解を推定する方法も採用できるが、その推定のための計算値が天文学的な大きさになり、現実的には解くことができなくなるリスクが高い。 Second, when performing inverse transformation considering noise, etc., a method of estimating the solution by singular value decomposition etc. of the solution of simultaneous equations can be adopted, but the calculated value for the estimation becomes astronomical size. In reality, there is a high risk that it will be impossible to solve.
そこで、本発明の課題は、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることである。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus having a realistic circuit processing method and to shorten the processing time, while preventing an increase in size of the apparatus when restoring an image. It is.
上記課題を解決するために、本発明の画像処理装置は、画像を処理する処理部を有する画像処理装置において、処理部は、周波数空間において、初期画像データに補正画像データを加算することにより復元画像データを求める処理を行うこととした。 In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus having a processing unit for processing an image, and the processing unit is restored by adding corrected image data to initial image data in a frequency space. Processing to obtain image data was performed.
本発明によれば、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることができる。 According to the present invention, it is possible to provide an image processing apparatus having a realistic circuit processing method while reducing the size of the apparatus when restoring an image, and to shorten the processing time. .
また、他の発明は、上述の発明に加え、初期画像データを「I0」とし、補正画像データを(A)式で表される画像データとして、復元画像データを求める処理を行うこととした。
この構成を採用した場合、復元画像データを、初期画像データ「I0」に(A)式で表される補正画像データを加算するという計算により求めるため、処理時間の短縮化をさらに図ることができる。 When this configuration is adopted, the restored image data is obtained by a calculation of adding the corrected image data represented by the expression (A) to the initial image data “I 0 ”, so that the processing time can be further shortened. it can.
また、他の発明は、上述の発明に加え、初期画像データを0とし、補正画像データを(B)式で表される画像データとして、復元画像データを求める処理を行うこととした。
この構成を採用した場合、初期画像データが0であるため、復元画像データを、(A)式より項数の少ない(B)式により計算により求めるため、処理時間の短縮化をさらに図ることができる。 When this configuration is adopted, since the initial image data is 0, the restored image data is obtained by calculation using the equation (B) having a smaller number of terms than the equation (A), so that the processing time can be further shortened. it can.
本発明によれば、画像を復元するに当たり、装置の大型化を防止すると共に、現実性のある回路処理方式を有する画像処理装置を提供し、併せて、処理時間の短縮化を図ることができる。 According to the present invention, it is possible to provide an image processing apparatus having a realistic circuit processing method while reducing the size of the apparatus when restoring an image, and to shorten the processing time. .
以下、本発明の第1の実施の形態に係る画像処理装置1について図を参照しながら説明する。なお、この画像処理装置1は、撮像部にCCDを使用した民生用のいわゆるデジタルカメラとしているが、撮像部にCCD等の撮像素子を用いる監視用カメラ、テレビ用カメラ用、内視鏡用カメラ等、他の用途のカメラとしたり、顕微鏡用、双眼鏡用、さらにはNMR撮影用等の画像診断装置等、カメラ以外の機器にも適用できる。
Hereinafter, an
画像処理装置1は、人物等の被写体を撮影する撮像部2と、その撮像部2を駆動する制御系部3と、撮像部2で撮影された画像を処理する処理部4と、を有している。また、この実施の形態に係る画像処理装置1は、さらに処理部4で処理された画像を記録する記録部5と、角速度センサ等からなり、画像劣化等の変化の要因となる変化要因情報を検知する検出部6と、画像劣化等を生じさせる既知の変化要因情報を保存する要因情報保存部7を有する。
The
撮像部2は、レンズを有する撮影光学系やレンズを通過した光を電気信号に変換するCCDやC−MOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える部分である。制御系部3は、撮像部2,処理部4、記録部5、検出部6および要因情報保存部7等、画像処理装置1内の各部を制御するものである。
The
処理部4は、画像処理プロセッサで構成されており、ASIC(Application Specific Integrated Circuit)のようなハードウェアで構成されている。この処理部4は図示外の記録部を備え、この記録部に後述する処理用画像データにおける複素空間の高周波成分を有する画像データや、比較用画像データを生成する際の元となる任意の画像の画像データが保存されている。処理部4は、ASICのようなハードウェアとして構成されるのではなく、ソフトウェアで処理する構成としても良い。記録部5は、半導体メモリで構成されているが、ハードディスクドライブ等の磁気記録手段や、DVD(Digital Versatile Disk)等を使用する光記録手段等を採用しても良い。
The
検出部6は、図2に示すように、画像処理装置1の光軸であるZ軸に対して垂直方向となるX軸、Y軸の回りの速度を検出する2つの角速度センサを備えるものである。ところで、カメラで撮影する際の手ぶれは、X方向、Y方向、Z方向の各方向への移動やZ軸回りの回動も生ずるが、各変動により最も大きな影響を受けるのは、Y軸回りの回転とX軸回りの回転である。これら2つの変動は、ほんのわずかに変動しただけで、その撮影された画像は大きくぼける。このため、この実施の形態では、図2のX軸回りとY軸回りの2つの角速度センサのみを配置している。しかし、より完全を期すためZ軸回りの角速度センサをさらに付加したり、X方向やY方向への移動を検出するセンサを付加しても良い。また、使用するセンサとしては、角速度センサではなく、角加速度センサとしても良い。
As shown in FIG. 2, the
要因情報保存部7は、既知の劣化要因情報などの変化要因情報、例えば撮影光学系の収差等を保存しておく記録部である。なお、この実施の形態では、要因情報保存部7には、撮影光学系の収差やレンズのひずみの情報が保存されているが、後述する手ぶれによる画像の劣化を補正する際にはそれらの情報は、利用していない。
The factor
次に、以上のように構成された画像処理装置1の処理部4の処理方法を説明するに先立ち、本発明の考え方の概要を図3および図4に基づいて説明する。
Next, prior to describing the processing method of the
図3中、「i0」は、任意の初期画像のデータとする。「i0′」は、初期画像データ「i0」の劣化画像のデータを示し、比較のための比較用画像データである。「g」は、検出部6で検出された変化要因関数(=劣化要因情報(点像関数))である。「img′」は、撮影画像のデータを指す。
In FIG. 3, “i 0 ” is arbitrary initial image data. “I 0 ′” indicates degraded image data of the initial image data “i 0 ”, and is comparison image data for comparison. “G” is a change factor function (= deterioration factor information (point spread function)) detected by the
「δ」は、撮影画像データ「img′」と比較用画像データ「i0′」とを比較して得た両画像データの差分のデータである。「h」は、変化要因関数「g」に基づくフィードバック関数である。「i0+n」は、初期画像データ「i0」に、差分のデータ「δ」を変化要因関数「g」に基づいて配分して新たに生成した復元画像のデータ(復元画像データ)である。「img」は、撮影された劣化画像である撮影画像データ「img′」の元となった原画像のデータである。つまり、この原画像データ「img」は、撮影画像データ「img′」が変化する前の画像、または正しく撮影されたならば得られたはずの本来の画像のことである。具体的には、例えば、撮影操作時に手ぶれ等による画像の劣化がない状態で撮影されたと仮定したときの画像データである。ここで、「img」と「img′」の関係は、次の(E)式で現されるとする。
img′=img*g …(E)
「*」は、重畳積分を表わす演算子である。
なお、差分のデータ「δ」は、対応する画素の単純な差分でも良い場合もあるが、一般的には、変化要因関数「g」により異なり、次の(F)式で現される。
δ=f(img′,img,g)…(F)
“Δ” is difference data between the two image data obtained by comparing the captured image data “img ′” with the comparison image data “i 0 ′”. “H” is a feedback function based on the change factor function “g”. “I 0 + n ” is restored image data (restored image data) newly generated by distributing the difference data “δ” to the initial image data “i 0 ” based on the change factor function “g”. “Img” is data of the original image that is the basis of the captured image data “img ′”, which is a captured degraded image. That is, the original image data “img” is an image before the photographed image data “img ′” is changed, or an original image that should be obtained if the photographed image data is correctly photographed. More specifically, for example, image data when it is assumed that the image is captured in a state in which the image is not deteriorated due to camera shake or the like during the shooting operation. Here, it is assumed that the relationship between “img” and “img ′” is expressed by the following equation (E).
img ′ = img * g (E)
“*” Is an operator representing a superposition integral.
Note that the difference data “δ” may be a simple difference between corresponding pixels, but generally differs depending on the change factor function “g” and is expressed by the following equation (F).
δ = f (img ′, img, g) (F)
図3の処理ルーチンは、まず、任意の初期画像データ「i0」を用意する(ステップS101)ことから始まる。この初期画像データ「i0」としては、撮影画像データ「img′」を用いても良く、また、黒ベタ、白ベタ、灰色ベタ、市松模様等どのような画像のデータを用いても良い。ステップS102で、(1)式の「img」の代わりに初期画像データ「i0」を入れ、変化要因関数「g」により変化(劣化)させられた劣化画像である比較用画像データ「i0′」を求める。次に、撮影画像データ「img′」と比較用画像データ「i0′」とを比較し、差分のデータ「δ」を算出する(ステップS103)。 The processing routine of FIG. 3 starts by preparing arbitrary initial image data “i 0 ” (step S101). As the initial image data “i 0 ”, photographed image data “img ′” may be used, and any image data such as black solid, white solid, gray solid, or checkered pattern may be used. In step S102, initial image data “i 0 ” is inserted instead of “img” in the expression (1), and comparison image data “i 0 ” that is a deteriorated image changed (deteriorated) by the change factor function “g”. ''. Next, the captured image data “img ′” and the comparison image data “i 0 ′” are compared to calculate difference data “δ” (step S103).
次に、ステップS104で、この差分のデータ「δ」が所定値以上であるか否かを判断し、所定値以上であれば、ステップS105で復元画像のデータ(復元画像データ)を生成する処理を行う。すなわち、差分のデータ「δ」を、変化要因関数「g」に基づくフィードバック関数「h」に従って、初期画像データ「i0」に配分し、復元画像データ「i0+n」を生成する。その後、ステップS102において、初期画像データ「i0」をステップS105で生成した復元画像データ「i0+n」として比較用画像データ「i0+n′」とを生成し、ステップS103で、撮像画像データ「img′」と比較用画像データ「i0+n′」を比較する。そうして、その比較の結果である差分のデータ「δ」の大きさをS104で判断する。 Next, in step S104, it is determined whether or not the difference data “δ” is equal to or greater than a predetermined value. If the difference data “δ” is equal to or greater than the predetermined value, a process of generating restored image data (restored image data) in step S105. I do. That is, the difference data “δ” is distributed to the initial image data “i 0 ” according to the feedback function “h” based on the change factor function “g” to generate restored image data “i 0 + n ”. Thereafter, in step S102, initial image data “i 0 ” is generated as comparison image data “i 0 + n ′” as restored image data “i 0 + n ” generated in step S105. In step S103, captured image data “img” is generated. ′ ”And the comparison image data“ i 0 + n ′ ”are compared. Then, the size of the difference data “δ” as a result of the comparison is determined in S104.
このように、ステップS104で、差分のデータ「δ」が所定値未満になるまで、スッテプS102,S103、S104,S105の処理を繰り返し、復元画像データ「i0+n」を順次更新していく。なお、フィードバック関数「h」は、ステップS103の差分のデータ「δ」が、前回の処理ルーチンのときよりも小さくなるようにする関数である。 In this way, in step S104, the processing of steps S102, S103, S104, and S105 is repeated until the difference data “δ” becomes less than the predetermined value, and the restored image data “i 0 + n ” is sequentially updated. The feedback function “h” is a function that makes the difference data “δ” in step S103 smaller than in the previous processing routine.
ステップS104において、差分のデータ「δ」が所定値より小さい場合、処理を終了する(ステップS106)。そして、処理を終了した時点での復元画像データ「i0+n」を原画像データ「img」と推定する。 If the difference data “δ” is smaller than the predetermined value in step S104, the process ends (step S106). Then, the restored image data “i 0 + n ” at the time when the processing is completed is estimated as the original image data “img”.
以上の処理方法の考え方をまとめると以下のようになる。すなわち、この処理方法においては、処理の解を逆問題としては解かず、合理的な解を求める最適化問題として解くのである。逆問題として解く場合、特許文献2の記載にもあるように、理論上は可能であるが、現実問題としては困難である。
The concept of the above processing method is summarized as follows. That is, in this processing method, the processing solution is not solved as an inverse problem, but is solved as an optimization problem for obtaining a rational solution. When solving as an inverse problem, it is theoretically possible as described in
最適化問題として解くということは、次の条件を前提としている。
すなわち、
(1)入力に対する出力は、一意に決まる。
(2)出力が同じであれば、入力は同じである。
(3)出力が同じになるように、入力を更新しながら反復処理することにより、解を収束させていく。
Solving as an optimization problem assumes the following conditions.
That is,
(1) The output corresponding to the input is uniquely determined.
(2) If the output is the same, the input is the same.
(3) The solution is converged by iteratively processing while updating the input so that the outputs are the same.
このことを換言すれば、図4(A)(B)に示すように、撮影された画像である撮影画像データ「img′」と近似である比較用画像データ「i0′(i0+n′)」を生成できれば、その生成の元のデータとなる初期画像データ「i0」または復元画像データ「i0+n」は、撮影画像データ「img′」の元となる原画像データ「img」に近似したものとなる。 In other words, as shown in FIGS. 4A and 4B, the image data for comparison “i 0 ′ (i 0 + n ′) that is approximate to the captured image data“ img ′ ”that is the captured image. Can be generated, the initial image data “i 0 ” or the restored image data “i 0 + n ” that is the original data of the generation approximates the original image data “img” that is the source of the captured image data “img ′”. It will be a thing.
ステップS104において、差分のデータ「δ」の判定基準となる値は、例えば、各データを8ビット(0〜255)で現した場合に「6」として、「6」より小さい、つまり「5」以下の時は、処理を終了することとする。 In step S104, the value serving as the determination criterion for the difference data “δ” is, for example, “6” when each data is represented by 8 bits (0 to 255), and is smaller than “6”, that is, “5”. Processing is terminated in the following cases.
さらに、図3および図4に示す考え方の詳細を、図5,図6,図7,図8,図9,図10,図11および図12に基づいて説明する。 Further, details of the concept shown in FIGS. 3 and 4 will be described based on FIGS. 5, 6, 7, 8, 9, 10, 11, and 12.
(手ぶれの復元アルゴリズム)
手ぶれが無いとき、所定の画素に対応する光エネルギーは、露光時間中、その画素に集中する。また、手ぶれがある場合、光エネルギーは、露光時間中にぶれた画素に分散する。さらに、露光時間中のブレがわかれば、露光時間中のエネルギーの分散の仕方がわかるため、ぶれた画像からブレの無い画像を作ることが可能となる。
(Image restoration algorithm)
When there is no camera shake, the light energy corresponding to a given pixel is concentrated on that pixel during the exposure time. In addition, when there is camera shake, light energy is dispersed to pixels that are shaken during the exposure time. Further, if the blur during the exposure time is known, it is possible to know how the energy is dispersed during the exposure time, so that it is possible to create a blur-free image from the blurred image.
以下、簡単のため、横一次元で説明する。画素を左から順に、n−1,n,n+1,n+2,n+3,…,とし、ある画素「n」に注目する。ブレが無いとき、露光時間中のエネルギーは、その画素に集中するため、エネルギーの集中度は「1.0」である。この状態を図5に示す。このときの撮影結果を、図6の表に示す。図6に示すものが、劣化しなかった場合の原画像データ「img」となる。なお、各データは、ここでは、8ビット(0〜255)のデータで現している。 Hereinafter, for the sake of simplicity, the description will be made in one horizontal dimension. The pixels are designated as n-1, n, n + 1, n + 2, n + 3,... In order from the left, and attention is paid to a certain pixel “n”. When there is no blur, the energy during the exposure time is concentrated on the pixel, so the energy concentration is “1.0”. This state is shown in FIG. The imaging results at this time are shown in the table of FIG. What is shown in FIG. 6 is the original image data “img” when there is no deterioration. Here, each data is represented by 8-bit (0 to 255) data.
露光時間中にブレがあり、露光時間中の50%の時間はn番目の画素に、30%の時間はn+1番目の画素に、20%の時間はn+2番目の画素に、それぞれブレていたとする。エネルギーの分散の仕方は、図7に示す表の通りとなる。変化要因関数「g」は、このエネルギーの分散の仕方に対応した内容となっている。 It is assumed that there is blurring during the exposure time, 50% of the exposure time is blurred for the nth pixel, 30% of the time is for the (n + 1) th pixel, and 20% of the time is for the (n + 2) th pixel. . The way of energy dispersion is as shown in the table of FIG. The change factor function “g” has a content corresponding to this energy dispersion method.
ブレは、全ての画素で一様であるので、上ぶれ(縦ぶれ)が無いとすると、ブレの状況は、図8に示す表のとおりとなる。図8中の「撮影結果」として示されるデータが、原画像データ「img」で、「ブレ画像」として示されるデータが、撮影画像データ「img′」となる。具体的には、例えば「n−3」の画素の「120」は、ぶれ情報である変化要因関数「g」に基づき、「0.5」「0.3」「0.2」の配分比で、「n−3」の画素に「60」、「n−2」の画素に「36」、「n−1」の画素に「24」というように分散される。ここでは、「0.5」「0.3」「0.2」の配分比で分配することがフィードバック関数「h」に対応する処理となっている。同様に、「n−2」の画素のデータである「60」は、「n−2」に「30」、「n−1」に「18」、「n」に「12」として分散する。 Since blurring is uniform for all pixels, assuming that there is no upper blur (vertical blurring), the blurring situation is as shown in the table of FIG. In FIG. 8, the data indicated as “imaging result” is the original image data “img”, and the data indicated as “blurred image” is the captured image data “img ′”. Specifically, for example, “120” of the pixel “n−3” is based on the change factor function “g” that is the blur information, and the distribution ratio of “0.5”, “0.3”, and “0.2”. Thus, “60” is distributed to the “n-3” pixel, “36” to the “n-2” pixel, and “24” to the “n−1” pixel. Here, the distribution corresponding to the distribution ratio of “0.5”, “0.3”, and “0.2” is processing corresponding to the feedback function “h”. Similarly, “60” that is the pixel data of “n−2” is distributed as “30” in “n−2”, “18” in “n−1”, and “12” in “n”.
ステップS101に示す初期画像データ「i0」としては、どのようなものでも採用できるが、ここでの説明に当たっては、例えば、撮影画像データ「img′」を用いる。すなわち、i0=img′として処理を開始する。図9の表中に「入力」とされたものが初期画像データ「i0」に相当する。この初期画像データ「i0」すなわち「img′」に、ステップS102で変化要因関数「g」を作用させる。すなわち、例えば、初期画像データ「i0」の「n−3」の画素の「60」は、「n−3」の画素に「30」が、「n−2」の画素に「18」が、「n−1」の画素に「12」がそれぞれ割り振られる。他の画素についても同様に配分され、出力「i0′」として示される比較用画像データ「i0′」が生成される。このため、ステップS103の差分のデータ「δ」は、図9の最下欄に示すようになる。 Any data can be adopted as the initial image data “i 0 ” shown in step S 101, but for the explanation here, for example, photographed image data “img ′” is used. That is, the process is started with i 0 = img ′. In the table of FIG. 9, “input” corresponds to initial image data “i 0 ”. The change factor function “g” is applied to the initial image data “i 0 ”, that is, “img ′” in step S102. That is, for example, “60” of the “n-3” pixel of the initial image data “i 0 ” is “30” for the “n-3” pixel and “18” for the “n-2” pixel. , “12” is assigned to each pixel of “n−1”. Allocated similarly for the other pixels, the output "i 0 '" image data "i 0 for comparison shown as'" is generated. Therefore, the difference data “δ” in step S103 is as shown in the bottom column of FIG.
この後、ステップS104にて差分のデータ「δ」の大きさを判断する。具体的には、差分のデータ「δ」が全て絶対値で5以下となった場合に処理を終了するが、図9に示す差分のデータ「δ」は、この条件に合わないため、ステップS105に進む。すなわち、差分のデータ「δ」をフィードバック関数「h」を使用して、初期画像データ「i0」に配分して、図10中の「次回入力」として示される復元画像データ「i0+n」を生成する。この場合、第1回目であるため、図10では、i0+1と表している。 Thereafter, the size of the difference data “δ” is determined in step S104. Specifically, the process ends when all the difference data “δ” is 5 or less in absolute value, but the difference data “δ” shown in FIG. Proceed to That is, the difference data “δ” is distributed to the initial image data “i 0 ” using the feedback function “h”, and the restored image data “i 0 + n ” shown as “next input” in FIG. Generate. In this case, since this is the first time, i 0 + 1 is represented in FIG.
差分のデータ「δ」の配分は、例えば「n−3」の画素のデータ「30」に自分の所(=「n−3」の画素)の配分比である「0.5」をかけた「15」を「n−3」の画素に配分し、また「n−2」の画素のデータ「15」にその「n−2」の画素にきているはずの配分比である「0.3」をかけた「4.5」を配分し、さらに、「n−1」の画素のデータ「9.2」に、その「n−1」の画素にきているはずの配分比である「0.2」をかけた「1.84」を配分する。「n−3」の画素に配分された総量は、「21.34」となり、この値を初期画像データ「i0」(ここでは撮影画像データ「img′」を使用)にプラスして、復元画像データ「i0+1」を生成している。 For the distribution of the difference data “δ”, for example, the data “30” of the pixel “n−3” is multiplied by “0.5” which is the distribution ratio of one's place (= “n-3” pixel). “15” is distributed to “n-3” pixels, and “0 ..” is a distribution ratio that should have come to the “n-2” pixel in the data “15” of the “n-2” pixel. “4.5” multiplied by “3”, and the distribution ratio that should have come to the pixel “n−1” in the data “9.2” of the pixel “n−1”. Allocate “1.84” multiplied by “0.2”. The total amount allocated to the pixels of “n−3” is “21.34”, and this value is added to the initial image data “i 0 ” (here, the captured image data “img ′” is used) and restored. Image data “i 0 + 1 ” is generated.
図11に示すように、この復元画像データ「i0+1」がステップS102の入力画像のデータ(=初期画像データ「i0」)になり、ステップS102が実行され、ステップS103へと移行し、新しい差分のデータ「δ」を得る。その新しい差分のデータ「δ」の大きさをステップS104で判断し、所定値より大きい場合、ステップS105で新しい差分のデータ「δ」を前回の復元画像データ「i0+1」に配分し、新しい復元画像データ「i0+2」を生成する(図12参照)。その後、ステップS102の遂行により、復元画像データ「i0+2」から新しい比較用画像データ「i0+2′」が生成される。このように、ステップS102,S103が実行された後、ステップS104へ行き、そこでの判断によりステップS105へ行ったり、ステップS106へ移行する。このような処理を繰り返す。 As shown in FIG. 11, this restored image data “i 0 + 1 ” becomes the input image data (= initial image data “i 0 ”) in step S102, step S102 is executed, the process proceeds to step S103, and a new The difference data “δ” is obtained. The size of the new difference data “δ” is determined in step S104. If it is larger than the predetermined value, the new difference data “δ” is distributed to the previous restored image data “i 0 + 1 ” in step S105, and a new restoration is performed. Image data “i 0 + 2 ” is generated (see FIG. 12). Thereafter, new comparison image data “i 0 + 2 ′” is generated from the restored image data “i 0 + 2 ” by performing step S102. As described above, after steps S102 and S103 are executed, the process goes to step S104, and the process proceeds to step S105 or shifts to step S106 depending on the determination there. Such a process is repeated.
ここで説明している図3に示す処理ルーチンにおいては、ステップS104において、差分のデータ「δ」の大きさを判断する代わりに、S102からS105の処理ルーチンの処理回数を設定し、設定した回数の処理ルーチンを実行したときの復元画像データ「i0+n」を原画像データ「img」に近似したものとすることもできる。つまり、処理回数を、復元画像データ「i0+n」が原画像データ「img」に近似したと推定できる回数以上に設定することにより、差分のデータ「δ」の大きさの判断を行うことなく復元画像データ「i0+n」を求めることができる。 In the processing routine shown in FIG. 3 described here, instead of determining the size of the difference data “δ” in step S104, the number of processing routines in steps S102 to S105 is set. The restored image data “i 0 + n ” obtained when this processing routine is executed can be approximated to the original image data “img”. In other words, by setting the number of processing times to be greater than or equal to the number of times that the restored image data “i 0 + n ” can be estimated to approximate the original image data “img”, the restoration is performed without determining the size of the difference data “δ”. Image data “i 0 + n ” can be obtained.
そして、このように設定した回数の処理ルーチンを実行したときの復元画像データ「i0+n」を原画像データ「img」に近似したものとする処理の考え方を数式で表現すると次のようになる。なお、図3は、処理部4の処理方法の考え方を簡便に判りやすく説明するものである。そのため、この図3では、1つの画素に着目して説明しているものであるが、撮像部2の全撮像領域における復元画像データを求めるには、撮像領域の全画素について図3の処理ルーチンを実行する必要がある。
Then, the concept of processing in which the restored image data “i 0 + n ” obtained when the processing routine of the set number of times is executed is approximated to the original image data “img” is expressed by the following formula. FIG. 3 explains the concept of the processing method of the
先ず、S101における初期画像データを「i0」とすると、S102において、比較用画像データ「i0′」は、初期画像データ「i0」と変化要因関数「g」の重畳積分として(1)式のように表される。
S103の差分のデータ「δ」は、(2)式のように表される。
S105の復元画像データ「i0+1」は、初期画像データ「i0」に差分のデータ「δ」をフィードバック関数「h」に基づいて配分したものとして(3)式のように表される。
そして次回の処理ルーチンでは、この(3)式の復元画像データ「i0+1」が、S102の「i0」の代わりに入り、比較用画像データ「i0+1′」が、(4)式に表される形で生成される。
そうして、S103において、差分のデータ「δ」が、(5)式で表される。
そうすると、S105の復元画像データ「i0+2」は、(6)式のように表される。
以下同様に、「i0+3」,…を計算していくと、復元画像データ「i0+n」は、(7)式のように表される。
つまり、復元画像データ「i0+n」は、初期画像データ「i0」に(7)式の「i0」より後ろの項である(8)式を補正画像データとして加算したものと見ることができる。
図3のステップS104の上述の説明において、差分のデータ「δ」の大きさを判断する代わりに、所定の設定回数以上の処理ルーチンを実行したときの復元画像データ「i0+n」を、原画像データ「img」に近似した画像データすることができる旨を説明した。しかしながら、上記(7)式を用いれば、図3の処理ルーチンを実行することなく、所定の設定回数のルーチンを行ったときと同じ復元画像データを計算により求めることができる。例えば、(7)式において、k=20のときの計算値は、図3の処理ルーチンを20回繰り返したときの復元画像データと等しくなる。 In the above description of step S104 in FIG. 3, instead of determining the size of the difference data “δ”, the restored image data “i 0 + n ” when the processing routine is executed a predetermined number of times or more is used as the original image. It has been explained that image data approximate to the data “img” can be obtained. However, if the above equation (7) is used, the same restored image data as when the routine has been performed a predetermined number of times can be obtained by calculation without executing the processing routine of FIG. For example, in equation (7), the calculated value when k = 20 is equal to the restored image data when the processing routine of FIG. 3 is repeated 20 times.
図3の処理ルーチンの回数を多くすれば多くするほど、復元画像データ「i0+n」は、原画像データ「img」に近づくが、処理に時間が長くなる。一方、上記の(7)式においては「k」を大きくすることが、図3の処理ルーチンの回数を多くすることに相当することになる。しかしながら、「k」を大きくしても計算時間は、「k」に相当する回数の処理ルーチンを実行するのに比べて短いものとなる。 As the number of processing routines in FIG. 3 is increased, the restored image data “i 0 + n ” approaches the original image data “img”, but the processing time becomes longer. On the other hand, in the above equation (7), increasing “k” corresponds to increasing the number of processing routines in FIG. However, even if “k” is increased, the calculation time is shorter than when the processing routine corresponding to “k” is executed.
ところで、図3の処理ルーチンにおいて、初期画像データ「i0」を黒ベタの画像、つまり、画像データを入力しない状態で開始することは、(7)式において、「i0」を「0」にすることに相当する。 By the way, in the processing routine of FIG. 3, starting the initial image data “i 0 ” without a solid black image, that is, without inputting the image data, indicates that “i 0 ” is “0” in the equation (7). Is equivalent to
つまり、(7)式において、「i0」=「0」とすると、(7)式は、(9)式のように表される。
つまり、復元画像データ「i0+n」は、初期画像データ「i0=0」に(9)式を補正画像データとして加算したものと考えることができる。 That is, it can be considered that the restored image data “i 0 + n ” is obtained by adding the equation (9) as the corrected image data to the initial image data “i 0 = 0”.
なお、初期画像データ「i0=0」に(9)式を補正画像データとして加算して復元画像データ「i0+n」を算出することと、(9)式についてn回の加算を行ったものを復元画像データ「i0+n」とすることは等価である。つまり、初期画像データについては考えることなく、撮影画像データ「img′」、変化要因関数「g」およびフィードバック関数「h」から、直接、復元画像データ「i0+n」を算出することができる。 The restored image data “i 0 + n ” is calculated by adding the equation (9) as the corrected image data to the initial image data “i 0 = 0”, and the equation (9) is added n times. Is equivalent to restored image data “i 0 + n ”. That is, the restored image data “i 0 + n ” can be calculated directly from the captured image data “img ′”, the change factor function “g”, and the feedback function “h” without considering the initial image data.
ところで、フィードバック関数「h」については、例えば、手ぶれによるカメラの移動軌跡が図13の線L(変化要因関数が「g(x,y)」)で表されるとしたときに、フィードバック関数「h」は、h(−x,−y)=g(x,y)となる関数とすると、効率よく差分のデータ「δ」を小さくすることができる。 By the way, regarding the feedback function “h”, for example, when the camera movement locus due to camera shake is represented by a line L in FIG. 13 (the change factor function is “g (x, y)”), the feedback function “ If “h” is a function such that h (−x, −y) = g (x, y), the difference data “δ” can be efficiently reduced.
また、例えば、復元画像データ「i0+n」を生成するとき、劣化等の変化要因の重心を算出し、その重心のみの差分、またはその差分の変倍を前回の復元画像データ「i0+n−1」に加えることをフィードバック関数「h」の内容としても良い。この考え方を図14および図15に基づいて以下に説明する。 For example, when the restored image data “i 0 + n ” is generated, the center of gravity of a change factor such as deterioration is calculated, and the difference of only the center of gravity or the scaling of the difference is calculated as the previous restored image data “i 0 + n−1”. To the content of the feedback function “h”. This concept will be described below based on FIG. 14 and FIG.
図14に示すように、原画像データ「img」が画素11〜15,21〜25,31〜35,41〜45,51〜55で構成されているとき、図14(A)に示すように、画素33に注目する。手ブレなどにより画素33が画素33,43,53,52の位置へと動いていくと、劣化した画像である撮影画像データ「img′」では、図14(B)に示すように、画素33,43,52,53に初めの画素33の影響が出る。
As shown in FIG. 14, when the original image data “img” is composed of
このような劣化の場合、画素33が移動する際、画素43の位置に最も長時間位置していたとすると、劣化、すなわち変化の要因の重心は、原画像データ「img」中の画素33に関しては撮影画像データ「img′」では画素43の位置にくる。これにより、差分のデータ「δ」は、図15に示すように、撮影画像データ「img′」と比較用画像データ「i0′」のそれぞれの画素43の差として計算する。その差分のデータ「δ」を、初期画像データ「i0」や復元画像データ「i0+n」の画素33に加える。これが、フィードバック関数「h」の内容になる。
In the case of such deterioration, if the
また、先の例で言えば、「0.5」「0.3」「0.2」の3つの重心は、最も値が大きい「0.5」の位置であり、自分の位置となる。よって「0.3」や「0.2」の割り振りを考慮せず、差分のデータ「δ」の「0.5」または「0.5」の変倍分のみを自己の位置に割り振るようにすることになる。このような処理は、ブレのエネルギーが集中している場合に好適となる。つまり、この場合、自己の位置に差分のデータ「δ」の「0.5」または「0.5」の変倍分のみを割り振ることがフィードバック関数「h」の内容になる。 In the above example, the three centroids of “0.5”, “0.3”, and “0.2” are the positions of “0.5” having the largest value, and are their own positions. Therefore, allocation of “0.5” or “0.5” of the difference data “δ” is allocated to its own position without considering the allocation of “0.3” or “0.2”. Will do. Such a process is suitable when the blur energy is concentrated. That is, in this case, the content of the feedback function “h” is to allocate only “0.5” or “0.5” magnification of the difference data “δ” to its own position.
ところで、(7)式と(9)式をフーリエ変換すると、(7)式は、(10)式のように表され、また(9)式は、(11)式のように表される。
このように、(7)式、(9)式についてフーリエ変換を行った(10)式、(11)式を用いて周波数空間において計算をすることにより、(7)式、(9)式のような重畳積分を行うことなく、積算(掛け算)と加減算(加算と減算)により復元画像データ「I0+n」を算出することができる。このため、計算速度を先にしめした重畳積分を行う場合に比べて早くすることができる。 Thus, by calculating in the frequency space using the equations (10) and (11) obtained by performing Fourier transform on the equations (7) and (9), the equations (7) and (9) Without performing such superposition integration, the restored image data “I 0 + n ” can be calculated by integration (multiplication) and addition / subtraction (addition and subtraction). For this reason, it is possible to increase the speed compared to the case of performing the superposition integration with the calculation speed first.
なお、(10)式あるいは(11)式により算出した復元画像データ「I0+n」については逆フーリエ変換により空間領域における画像データを求める。 For restored image data “I 0 + n ” calculated by equation (10) or equation (11), image data in the spatial domain is obtained by inverse Fourier transform.
なお、(10)式と(11)式において、k→∞とすると、(10)式と(11)式はともに、(12)式のように表される。
しかしながら、(12)式のようにした場合、「G」が0または0に近い値のときは、復元画像データ(I∞)が不安定なものとなってしまうことが判る。ところが、(10)式、(11)式のように、n回の加算を繰り返す等比級数にして復元画像データを求めるようにすると「G」が0または0に近い値のときであっても、安定した復元画像データを求めることができる。 However, in the case of the expression (12), it can be seen that the restored image data (I∞) becomes unstable when “G” is 0 or a value close to 0. However, as shown in the equations (10) and (11), when the restored image data is obtained by a geometric series that repeats addition n times, even when “G” is 0 or a value close to 0, Stable restored image data can be obtained.
上記(7)式、(9)式、(10)式、(11)式を用いて復元画像データを用いる処理を次のように応用してもよい。 The processing using the restored image data using the above equations (7), (9), (10), and (11) may be applied as follows.
データを図16に示すように、撮影画像「データimg′」が、画素11〜16,21〜26,31〜36,41〜46,51〜56,61〜66で構成されているとき、1つおきに画素を間引き、画素11,13,15,31,33,35,51,53,55からなる4分の1の大きさの縮小された縮小撮影画像データ「Simg′」を生成する。
As shown in FIG. 16, when the captured image “data img ′” is composed of
このように、撮影画像データ「img′」を間引き、間引かれたデータである縮小撮影画像データ「Simg′」を生成し、その縮小撮影画像データ「Simg′」について、(7)式あるいは(9)式を用いて縮小撮影画像データ「Simg′」についての復元画像データ「Si0+n」を求める。そして、この復元画像データ「Si0+n」と縮小撮影画像データ「Simg′」についての伝達関数を求め、この伝達関数を拡大し、拡大した間を補間して、この修正した伝達関数を、縮小していない撮像領域全体の撮影画像データ「img′」に対する伝達関数とする。そして、その修正した伝達関数を用いて、周波数空間でデコンボリューション計算(ボケを含む画像群から計算によってボケを除去する計算)を行い、復元画像データ「i0+n」を求めるようにしてもよい。なお、復元画像データ「i0+n」を(7)式の初期画像データ「i0」として使用してよい。 In this way, the photographic image data “img ′” is thinned out to generate the reduced photographic image data “Simg ′” which is the decimated data, and the reduced photographic image data “Simg ′” is expressed by Equation (7) or ( 9) The restored image data “Si 0 + n ” for the reduced photographed image data “Simg ′” is obtained using the equation (9). Then, a transfer function is obtained for the restored image data “Si 0 + n ” and the reduced photographed image data “Simg ′”, the transfer function is enlarged, the interpolated portion is interpolated, and the corrected transfer function is reduced. This is a transfer function for the captured image data “img ′” of the entire imaging region that is not. Then, using the modified transfer function, deconvolution calculation (calculation for removing blur by calculation from a group of images including blur) may be performed in the frequency space to obtain restored image data “i 0 + n ”. The restored image data “i 0 + n ” may be used as the initial image data “i 0 ” in the equation (7).
あるいは、縮小された縮小撮影画像データ「Simg′」に対して(10)式あるいは(11)式を用いて、縮小撮影画像データ「Simg′」についての周波数空間における縮小撮影画像データ「SIMG′」と復元画像データ「SI0+n」を求める。そして、この縮小撮影画像データ「SIMG′」と復元画像データ「SI0+n」についての伝達関数を求め、この伝達関数を拡大し、拡大した間を補間して、この修正した伝達関数を、縮小していない撮像領域全体の撮影画像データ「IMG′」に対する伝達関数とする。そうして、この伝達関数を用いて復元画像データ「I0+n」を求める。この復元画像データ「I0+n」を(10)式の初期画像データ「I0」として使用してよい。 Alternatively, the reduced photographic image data “SIMG ′” in the frequency space for the reduced photographic image data “Simg ′” is obtained by using the expression (10) or (11) for the reduced photographic image data “Simg ′”. And the restored image data “SI 0 + n ” is obtained. Then, a transfer function for the reduced photographed image data “SIMG ′” and the restored image data “SI 0 + n ” is obtained, the transfer function is enlarged, the interpolated portion is interpolated, and the corrected transfer function is reduced. This is a transfer function for the captured image data “IMG ′” of the entire imaging region that is not. Then, the restored image data “I 0 + n ” is obtained using this transfer function. The restored image data “I 0 + n ” may be used as the initial image data “I 0 ” in the equation (10).
また、縮小撮影画像データ「Simg′」は、図17に示すように、撮影画像データ「img′」が、画素11〜16,21〜26,31〜36,41〜46,51〜56,61〜66で構成されているとき、その中央の領域である、画素32,33,34,42,43,44からなる領域を一部の領域としてもよい。ただし、縮小撮影画像データ「Simg′」をこのように取り出してくる場合は、取り出してくる領域が、変動領域よりも充分大きな領域とする必要がある。図5等に示した先の例では、3画素に渡って変動しているので、3画素以上の領域を取り出してくる必要がある。
Further, as shown in FIG. 17, the reduced image data “Simg ′” includes the
なお、補正画像データとして加算する画像データは、(7)式、(9)式、(10)式、(11)式の計算式により算出したものに限らず、これらの計算式に補正を加えたもの、あるいは、(7)式、(9)式、(10)式、(11)式における補正画像データにさらに補正のための画像データを加減(プラス・マイナス)したものを用いることもできる。 The image data to be added as the corrected image data is not limited to those calculated by the equations (7), (9), (10), and (11). Alternatively, the corrected image data in the equations (7), (9), (10), and (11) can be used by further adding / subtracting (plus / minus) image data for correction. .
また、上述した各処理方法は、プログラム化されても良い。また、プログラム化されたものが記憶媒体、例えばCD(Compact Disc)、DVD、USB(Universal Serial Bus)メモリに入れられ、コンピュータによって読みとり可能とされても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムを読み込む読み込み手段を持つこととなる。さらには、そのプログラム化されたものが画像処理装置1の外部のサーバに入れられ、必要によりダウンロードされ、使用されるようにしても良い。この場合、画像処理装置1は、その記憶媒体内のプログラムをダウンロードする通信手段を持つこととなる。
Moreover, each processing method mentioned above may be programmed. The program may be stored in a storage medium, for example, a CD (Compact Disc), a DVD, or a USB (Universal Serial Bus) memory, and read by a computer. In this case, the
以上の説明においては、要因情報保存部7に保存されている情報を利用しなかったが、ここに保存されている既知の劣化要因(変化要因)、例えば、光学収差やレンズのひずみなどのデータを使用するようにしても良い。その場合、例えば、ブレの情報と光学収差の情報を合わせて1つの変化要因関数(劣化要因関数)として捉えて計算を行うのが好ましいが、ブレの情報による変化要因関数での計算を終了した後に光学収差の情報による変化要因関数での計算を行うようにしても良い。また、この要因情報保存部7を設置しないようにして、撮影時の動的要因、例えばブレのみに関する変化要因関数により画像を復元しても良い。
In the above description, the information stored in the factor
なお、変化要因関数「g」としては、劣化要因の関数のみではなく、単に画像を変化させるものや、劣化とは逆に、画像を良くするものを含むものとする。また、角速度検出センサは、例えば、5μsec毎に角速度を検出する。また、角速度検出センサで検出したブレの生データは、センサ自体の校正が不十分なときは、実際のブレとは対応しない。よって実際のブレに対応させるため、センサが校正されていないときは、センサで検出した生データに所定の倍率をかけたりする補正が必要とされる。 Note that the change factor function “g” includes not only a function of a deterioration factor but also a function that simply changes an image or a function that improves an image contrary to deterioration. Further, the angular velocity detection sensor detects the angular velocity every 5 μsec, for example. In addition, the raw shake data detected by the angular velocity detection sensor does not correspond to the actual shake when the sensor itself is insufficiently calibrated. Therefore, in order to cope with actual blurring, when the sensor is not calibrated, correction is required to multiply the raw data detected by the sensor by a predetermined magnification.
1 画像処理装置
2 撮影部
3 制御系部
4 処理部
5 記録部
6 検出部
7 要因情報保存部
i0,I0 初期画像のデータ(任意の画像のデータ)
i0′,I0′ 比較用画像データ
g,G 変化要因(劣化要因)
img′,IMG′ 撮影画像データ(撮影された画像)
h,H フィードバック関数
i0+n,I0+n 復元画像データ
First
i 0 ′, I 0 ′ Comparative image data g, G Change factor (deterioration factor)
img ′, IMG ′ Captured image data (captured image)
h, H feedback function i 0 + n , I 0 + n restored image data
Claims (2)
上記処理部は、
周波数空間において、初期画像データに補正画像データを加算することにより復元画像データを求める処理を行い、
上記初期画像データを「I0」とし、上記補正画像データを(A)式で表される画像データとして、復元画像データを求める処理を行うことを特徴とする画像処理装置。
The processing unit
In the frequency space, a process for obtaining restored image data by adding the corrected image data to the initial image data,
The initial image data is "I 0", as image data represented the corrected image data by formula (A), an image processing apparatus and performs a process for obtaining the restored image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005312529A JP4763419B2 (en) | 2005-10-27 | 2005-10-27 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005312529A JP4763419B2 (en) | 2005-10-27 | 2005-10-27 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007124199A JP2007124199A (en) | 2007-05-17 |
JP4763419B2 true JP4763419B2 (en) | 2011-08-31 |
Family
ID=38147566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005312529A Expired - Fee Related JP4763419B2 (en) | 2005-10-27 | 2005-10-27 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4763419B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5065099B2 (en) * | 2008-03-04 | 2012-10-31 | 日東光学株式会社 | Method for generating data of change factor information and signal processing apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001333326A (en) * | 2000-05-23 | 2001-11-30 | Mitsubishi Heavy Ind Ltd | Digital camera having image processing function |
JP2002300459A (en) * | 2001-03-30 | 2002-10-11 | Minolta Co Ltd | Image restoring device through iteration method, image restoring method and its program, and recording medium |
-
2005
- 2005-10-27 JP JP2005312529A patent/JP4763419B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007124199A (en) | 2007-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101274061B1 (en) | Image processing apparatus and image processing method | |
JP5007241B2 (en) | Image processing device | |
JP3895357B2 (en) | Signal processing device | |
JP4885150B2 (en) | Image processing device | |
JP4965179B2 (en) | Image processing device | |
JP2008021271A (en) | Image processing apparatus, image restoration method, and program | |
JP4763419B2 (en) | Image processing device | |
JP4602860B2 (en) | Image processing device | |
JP5133070B2 (en) | Signal processing device | |
JP4606976B2 (en) | Image processing device | |
JP4598623B2 (en) | Image processing device | |
JP4975644B2 (en) | Image processing device | |
JP5247169B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4629537B2 (en) | Image processing device | |
JP5005319B2 (en) | Signal processing apparatus and signal processing method | |
JP5057665B2 (en) | Image processing device | |
JP5007234B2 (en) | Image processing device | |
JP4718618B2 (en) | Signal processing device | |
JP4629622B2 (en) | Image processing device | |
WO2007032148A1 (en) | Image processor | |
JP4869971B2 (en) | Image processing apparatus and image processing method | |
JP2007116332A (en) | Image processing apparatus | |
JP4982484B2 (en) | Signal processing device | |
JP2008167255A (en) | Method for measuring point image function, method for creating point image function, point image function measuring device, and image processor | |
JPWO2008090858A1 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110524 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110609 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4763419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |