JP2012003454A - Image processing apparatus, imaging device and image processing program - Google Patents
Image processing apparatus, imaging device and image processing program Download PDFInfo
- Publication number
- JP2012003454A JP2012003454A JP2010137033A JP2010137033A JP2012003454A JP 2012003454 A JP2012003454 A JP 2012003454A JP 2010137033 A JP2010137033 A JP 2010137033A JP 2010137033 A JP2010137033 A JP 2010137033A JP 2012003454 A JP2012003454 A JP 2012003454A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- imaging system
- response function
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
Description
本発明は,撮像装置より取得される画像の解像度を向上させる高精細画像生成技術に関する。 The present invention relates to a high-definition image generation technique for improving the resolution of an image acquired from an imaging apparatus.
撮像系によって生成された画像を高精細化するための技術として超解像技術が知られている。再構成型に分類される超解像技術においては、撮像系における劣化過程を観測モデルとしてモデル化し、その逆問題として高精細化を行う。 A super-resolution technique is known as a technique for increasing the definition of an image generated by an imaging system. In the super-resolution technique classified as the reconstruction type, the degradation process in the imaging system is modeled as an observation model, and the resolution is increased as the inverse problem.
逆問題を解く方法として、撮影画像上のエイリアシングを利用した周波数領域法や、事前情報の事後確率を最適化することにより高精細画像を推定するMAP(Maximum a posteriori)法が提案されている。また、POCS(Projection onto Convex Sets)法という様々な事前情報を組み合わせることにより推定を行う手法も提案されている。 As a method for solving the inverse problem, a frequency domain method using aliasing on a captured image and a MAP (Maximum a posteriori) method for estimating a high-definition image by optimizing the posterior probability of prior information have been proposed. In addition, a method of estimating by combining various prior information called POCS (Projection onto Convex Sets) method has been proposed.
観測モデルは、撮像系のモーション、光学系による劣化、CF(Color Filter)およびLPF(Low-Pass Filter)の効果から求まる撮像系の応答関数と、イメージセンサにおけるサンプリングとで構成される。この観測モデルにおける実際の撮像系による劣化過程に対する再現精度が超解像技術による高精細化の精度に大きく依存することが知られており、様々な観測モデルが提案されている。 The observation model is composed of an imaging system response function obtained from the effects of the motion of the imaging system, deterioration due to the optical system, CF (Color Filter) and LPF (Low-Pass Filter), and sampling in the image sensor. It is known that the reproduction accuracy of the degradation process by the actual imaging system in this observation model greatly depends on the accuracy of high definition by the super-resolution technique, and various observation models have been proposed.
特許文献1には、撮像系の応答関数として、光学系による劣化を表す光学系PSF(Point Spread Function、点像分布関数)を利用した観測モデルを使用した超解像処理が開示されている。 Patent Document 1 discloses super-resolution processing using an observation model that uses an optical system PSF (Point Spread Function) that represents degradation due to an optical system as a response function of an imaging system.
しかしながら、特許文献1にて開示された画像の全領域に対して単一の応答関数を使用する超解像処理では、該単一の応答関数と本来の撮像系の応答関数との差が大きくなる領域においては十分な高精細化を行うことができない。 However, in the super-resolution processing using a single response function for the entire area of the image disclosed in Patent Document 1, the difference between the single response function and the response function of the original imaging system is large. In such a region, sufficient high definition cannot be performed.
さらに、絞り値、焦点距離および撮影光の波長(撮像波長)等の撮像条件が変更されたにもかかわらず、同じ応答関数を用いて超解像処理を行っても、良好な高精細画像を得ることができない可能性がある。 In addition, even though the imaging conditions such as aperture value, focal length, and wavelength of imaging light (imaging wavelength) have been changed, a good high-definition image can be obtained even when super-resolution processing is performed using the same response function. You may not be able to get it.
本発明は、様々な撮像条件においても画像の十分な高精細化を行えるようにした画像処理装置および画像処理プログラムを提供する。 The present invention provides an image processing apparatus and an image processing program capable of sufficiently high-definition of an image even under various imaging conditions.
本発明の一側面としての画像処理装置は、撮像系により生成された入力画像を、撮像系の応答関数を用いて得られる評価値に差を持つ複数の領域に分割する領域分割手段と、該各領域に対して、該領域ごとに異なる応答関数を用いた画像精細度を増加させるための画像処理を行う処理手段とを有する。そして、処理手段は、撮像系における該入力画像の生成時の撮像条件に対応する応答関数であって、記憶手段から読み出した、または演算により生成した応答関数を用いて画像処理を行うことを特徴とする。 An image processing apparatus according to an aspect of the present invention includes an area dividing unit that divides an input image generated by an imaging system into a plurality of areas having differences in evaluation values obtained using a response function of the imaging system, Each region has processing means for performing image processing for increasing image definition using a response function that is different for each region. The processing means is a response function corresponding to an imaging condition at the time of generation of the input image in the imaging system, and performs image processing using a response function read from the storage means or generated by calculation. And
なお、撮像系と上記画像処理装置とを有する撮像装置も本発明の他の一側面を構成する。 An imaging apparatus having an imaging system and the image processing apparatus also constitutes another aspect of the present invention.
また、本発明のさらに他の一側面としての画像処理プログラムは、コンピュータに、撮像系により生成された入力画像を、撮像系の応答関数を用いて得られる評価値に差を持つ複数の領域に分割するステップと、該各領域に対して、該領域ごとに異なる応答関数を用いた画像精細度を増加させるための画像処理を行う画像処理ステップとを有する。そして、画像処理ステップにおいて、撮像系における入力画像の生成時の撮像条件に対応する応答関数であって、記憶手段から読み出した、または演算により生成した応答関数を用いて画像処理を行うことを特徴とする。 An image processing program according to still another aspect of the present invention provides a computer with an input image generated by an imaging system in a plurality of regions having differences in evaluation values obtained using the response function of the imaging system. A division step, and an image processing step for performing image processing for increasing the image definition using a response function different for each region. In the image processing step, image processing is performed using a response function corresponding to an imaging condition at the time of generating an input image in the imaging system, which is read from a storage unit or generated by calculation. And
なお、上記画像処理プログラムを格納した記憶媒体も本発明の他の一側面を構成する。 The storage medium storing the image processing program also constitutes another aspect of the present invention.
本発明によれば、入力画像生成時の撮像条件に対応した撮像系の応答関数を用いて該入力画像に対する高精細化処理を行うことができる。これにより、様々な撮像条件にて生成された入力画像からでも、良好な高精細画像を生成することができる。 According to the present invention, it is possible to perform high-definition processing on an input image using a response function of an imaging system corresponding to an imaging condition at the time of generating the input image. Thereby, a good high-definition image can be generated even from an input image generated under various imaging conditions.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1には、本発明の実施例1である撮像装置1の構成を示している。撮像装置1は、結像光学系100と、露光量制御部材101と、撮像素子102と、AD変換部103と、ズーム制御部104と、露光制御部105と、AF制御部106と、振れ検出部107とを有する。また、撮像装置1は、システム制御回路108と、メモリ109と、画像処理装置110と、視覚補正部111と、圧縮部112と、画像出力部113とを有する。fは撮像装置1により撮像される被写体である。 FIG. 1 shows a configuration of an imaging apparatus 1 that is Embodiment 1 of the present invention. The imaging apparatus 1 includes an imaging optical system 100, an exposure amount control member 101, an imaging element 102, an AD conversion unit 103, a zoom control unit 104, an exposure control unit 105, an AF control unit 106, and shake detection. Part 107. In addition, the imaging apparatus 1 includes a system control circuit 108, a memory 109, an image processing apparatus 110, a visual correction unit 111, a compression unit 112, and an image output unit 113. f is a subject imaged by the imaging apparatus 1.
図1において、被写体fからの光は、結像光学系100および露光量制御部材101を通して撮像素子102上に結像する。露光量制御部材101は、絞りやシャッタを含む。 In FIG. 1, light from a subject f forms an image on an image sensor 102 through an imaging optical system 100 and an exposure amount control member 101. The exposure control member 101 includes a diaphragm and a shutter.
撮像素子102は、被写体像を電気信号に変換するCCDセンサやCMOSセンサ等のイメージセンサである。AD変換部103は、撮像素子102から出力されたアナログ電気信号をデジタルデータに変換する。結像光学系100、露光量制御部材101、撮像素子102およびAD変換部103により撮像系が構成される。 The image sensor 102 is an image sensor such as a CCD sensor or a CMOS sensor that converts a subject image into an electrical signal. The AD conversion unit 103 converts the analog electric signal output from the image sensor 102 into digital data. The imaging optical system 100, the exposure amount control member 101, the imaging element 102, and the AD conversion unit 103 constitute an imaging system.
ズーム制御部104は、結像光学系100のズーミングを制御する。露光制御部105は、露光制御部材101の動作を制御する。AF制御部106は、結像光学系100のフォーカシングを制御する。 The zoom control unit 104 controls zooming of the imaging optical system 100. The exposure control unit 105 controls the operation of the exposure control member 101. The AF control unit 106 controls focusing of the imaging optical system 100.
振れ検出部107は、撮像装置1の振れを検出する。システム制御回路108は、撮像装置1全体の動作の制御を司るマイクロコンピュータ等により構成されている。 The shake detection unit 107 detects the shake of the imaging device 1. The system control circuit 108 includes a microcomputer that controls the operation of the entire imaging apparatus 1.
メモリ109は、システム制御回路108での動作制御用のデータや処理プログラム(後述する画像処理プログラムを含む)を記憶する。 The memory 109 stores data for controlling operations in the system control circuit 108 and processing programs (including an image processing program described later).
画像処理装置110は、AD変換部103でデジタルデータ化された撮影画像(入力画像)に対して画像精細度を増加させる、すなわち高精細化のための画像処理(高精細化処理)を行って、高精細画像を生成する。 The image processing apparatus 110 increases the image definition of the captured image (input image) converted into digital data by the AD conversion unit 103, that is, performs image processing (high definition processing) for high definition. Generate high-definition images.
視覚補正部111は、画像処理装置110により生成された高精細画像の画質を向上させるための処理、例えばトーンカーブ(ガンマ)補正、彩度強調、色相補正およびエッジ強調といった画像補正処理を行う。 The visual correction unit 111 performs processing for improving the image quality of the high-definition image generated by the image processing apparatus 110, for example, image correction processing such as tone curve (gamma) correction, saturation enhancement, hue correction, and edge enhancement.
圧縮部112は、視覚補正部111から出力された高精細画像をJPEG等の圧縮方法により画像圧縮を行って記録用の画像サイズを小さくする。 The compression unit 112 compresses the high-definition image output from the visual correction unit 111 by a compression method such as JPEG to reduce the image size for recording.
画像出力部113は、圧縮部112により圧縮された画像を、不図示のモニタに表示したり半導体メモリや光ディスク等の記録媒体に記録したりする。 The image output unit 113 displays the image compressed by the compression unit 112 on a monitor (not shown) or records it on a recording medium such as a semiconductor memory or an optical disk.
次に、画像処理装置110の構成について説明する。1101は撮像条件取得部であり、システム制御部108から、撮像倍率、絞り値、焦点距離等の撮像条件を取得する。 Next, the configuration of the image processing apparatus 110 will be described. An imaging condition acquisition unit 1101 acquires imaging conditions such as an imaging magnification, an aperture value, and a focal length from the system control unit 108.
1002は撮像系応答関数記憶部であり、撮像系の応答関数(以下、撮像系応答関数という)であって、複数の撮像条件に対応した複数の撮像系応答関数(撮像条件ごとの撮像系応答関数)を予め記憶している。 An imaging system response function storage unit 1002 is an imaging system response function (hereinafter referred to as an imaging system response function), and includes a plurality of imaging system response functions corresponding to a plurality of imaging conditions (imaging system responses for each imaging condition). Function) is stored in advance.
1103は撮像系応答関数選択部であり、撮像系応答関数記憶部1102に記憶されている複数の撮像系応答関数から、入力画像としての撮影画像の撮像時(生成時)の撮像条件に対応した撮像系応答関数を選択する。 An imaging system response function selection unit 1103 corresponds to the imaging conditions at the time of imaging (generation) of a captured image as an input image from a plurality of imaging system response functions stored in the imaging system response function storage unit 1102. Select the imaging system response function.
1105は画像領域分割部であり、AD変換部103からの撮影画像を、領域分割用の撮像系応答関数を用いて複数の領域に分割する。領域分割用の撮像系応答関数については後述する。 An image area dividing unit 1105 divides a captured image from the AD conversion unit 103 into a plurality of areas using an imaging system response function for area division. The imaging system response function for area division will be described later.
1104は高精細画像処理部であり、画像領域分割部1105により取得した画像領域分割情報および撮像系応答関数選択部1103から取得した撮影画像の撮像時の撮像条件に対応した撮像系応答関数を用いて、入力画像に対して高精細化処理を行う。 Reference numeral 1104 denotes a high-definition image processing unit that uses the image region division information acquired by the image region dividing unit 1105 and the imaging system response function corresponding to the imaging conditions at the time of imaging of the captured image acquired from the imaging system response function selection unit 1103. Then, high definition processing is performed on the input image.
次に、撮像装置1の動作について、図2のフローチャートを用いて説明する。図2は、撮像装置1により被写体fを撮像し、撮影画像から高精細画像を生成して画像出力部113から出力するまでの処理を示すフローチャートである。この処理は、システム制御回路108が、不図示のメモリに格納されたコンピュータプログラム(画像処理プログラム)に従って実行する。このことは、後述する他の実施例でも同じである。 Next, the operation of the imaging apparatus 1 will be described using the flowchart of FIG. FIG. 2 is a flowchart illustrating a process from capturing an image of the subject f by the image capturing apparatus 1 to generating a high-definition image from the captured image and outputting the image from the image output unit 113. This processing is executed by the system control circuit 108 according to a computer program (image processing program) stored in a memory (not shown). This is the same in other embodiments described later.
ステップS201において、不図示の撮影開始ボタンがユーザにより操作されると、システム制御回路108は、露光制御部105に露光条件(絞り値や露光時間等)を決定させ、またAF制御部106にフォーカシングを行わせる。決定された露光条件、フォーカス位置およびズーム位置等の撮像条件は、メモリ109に記憶される。 In step S201, when a shooting start button (not shown) is operated by the user, the system control circuit 108 causes the exposure control unit 105 to determine an exposure condition (aperture value, exposure time, etc.) and causes the AF control unit 106 to perform focusing. To do. Imaging conditions such as the determined exposure condition, focus position, and zoom position are stored in the memory 109.
また、システム制御回路108は、振れ検出部107を通じて撮像装置1の手振れ等の振動が発生していることを検知した場合には、結像光学系100内の不図示の振れ補正光学系を駆動して像振れ補正を行う。 In addition, when the system control circuit 108 detects that vibration such as camera shake of the imaging apparatus 1 is generated through the shake detection unit 107, the system control circuit 108 drives a shake correction optical system (not shown) in the imaging optical system 100. Then, image blur correction is performed.
そして、システム制御回路108は、撮像素子102に被写体像を光電変換させる。撮像素子102からは、被写体像の輝度に応じたアナログ信号が出力される。該アナログ信号は、AD変換部103によってデジタルデータに変換されることにより撮影画像が生成される。撮影画像は、画像処理装置110に伝送される。 Then, the system control circuit 108 causes the image sensor 102 to photoelectrically convert the subject image. An analog signal corresponding to the brightness of the subject image is output from the image sensor 102. The analog signal is converted into digital data by the AD conversion unit 103 to generate a captured image. The captured image is transmitted to the image processing apparatus 110.
次にステップS202では、システム制御回路108は、撮像条件取得部1101において、高精細化処理の対象となる撮影画像の撮像時における撮像条件を取得する。メモリ109には、ステップS201の段階で撮像時の撮像条件データが格納されており、撮像条件取得部1101からの要求に応じた撮像条件データが撮像条件取得部1101へと伝送される。撮像条件としては、前述したように、絞り値、撮像倍率および焦点距離のうち少なくとも1つであってもよいし、それら以外でも、撮像系応答関数が変化するようなパラメータであればよい。 Next, in step S202, the system control circuit 108 uses the imaging condition acquisition unit 1101 to acquire imaging conditions at the time of imaging a captured image that is a target for high definition processing. The memory 109 stores the imaging condition data at the time of imaging in the step S201, and the imaging condition data according to the request from the imaging condition acquisition unit 1101 is transmitted to the imaging condition acquisition unit 1101. As described above, the imaging condition may be at least one of the aperture value, the imaging magnification, and the focal length, or any other parameter that changes the imaging system response function.
次にステップS203では、システム制御回路108は、画像領域分割部1105に、撮影画像を、それぞれシフトインバリアント領域としての複数の領域に分割する画像領域分割処理を行わせる。ここにいうシフトインバリアント領域とは、高精細化処理について同じ撮像系応答関数を使用する領域を意味する。言い換えれば、複数のシフトインバリアント領域がある場合、該シフトインバリアント領域ごとに異なる撮像系応答関数を用いた高精細化処理が行われる。 Next, in step S203, the system control circuit 108 causes the image area dividing unit 1105 to perform image area dividing processing for dividing the captured image into a plurality of areas as shift invariant areas. Here, the shift invariant region means a region that uses the same imaging system response function for high definition processing. In other words, when there are a plurality of shift invariant areas, high definition processing using a different imaging system response function is performed for each shift invariant area.
画像領域分割処理について、図3(a)に示すフローチャートを用いて説明する。まず、ステップS301では、画像領域分割部1105は、ある注目画像領域の仮領域分割を行う。仮領域分割では、領域分割を試行することで得られた複数の領域(仮分割領域)の評価値を算出するために行われる。該評価値に応じて、仮分割領域をその後に正式な分割領域として使用するか否かが判定される。 The image area dividing process will be described with reference to the flowchart shown in FIG. First, in step S301, the image area dividing unit 1105 performs temporary area division of a certain target image area. The temporary area division is performed in order to calculate evaluation values of a plurality of areas (temporary divided areas) obtained by trying the area division. In accordance with the evaluation value, it is determined whether or not the temporary divided area is subsequently used as a formal divided area.
次にステップS302では、画像領域分割部1105は、領域分割用の撮像系応答関数を、各仮分割領域の代表的な位置(例えば、各仮分割領域の中心画素)について生成する。領域分割用の撮像系応答関数の生成方法はどのような方法でもよく、例えば、撮像系の設計情報を用いて光線追跡により算出する方法や、予め測定して記憶した領域分割用の撮像系応答関数を読み出す方法でもよい。 In step S302, the image region dividing unit 1105 generates an imaging system response function for region division for a representative position of each temporary divided region (for example, a central pixel of each temporary divided region). Any method may be used to generate the imaging system response function for area division, for example, a method of calculating by ray tracing using design information of the imaging system, or an imaging system response for area division that has been measured and stored in advance. A method of reading a function may be used.
次にステップS303では、画像領域分割部1105は、ステップS302で生成した各仮分割領域の領域分割用の撮像系応答関数を用いて、各仮分割領域での評価値(以下、分割評価値という)Iを算出する。 Next, in step S303, the image region dividing unit 1105 uses the imaging system response function for region division of each temporary divided region generated in step S302 to evaluate the evaluation value in each temporary divided region (hereinafter referred to as a divided evaluation value). ) I is calculated.
本実施例では、分割評価値Iは、撮像系応答関数の1つである撮像系MTF(Modulation Transfer Function、変調伝達関数)を用いて、以下の式(1)により算出する。 In this embodiment, the division evaluation value I is calculated by the following equation (1) using an imaging system MTF (Modulation Transfer Function) which is one of imaging system response functions.
ただし、ξは空間周波数であり、MTFは撮像系MTFである。ξ1とξ2はそれぞれ、空間周波数の上限下限を設定する定数である。分割評価値Iは、撮像系MTFを空間周波数で積分したものである。 Here, ξ is a spatial frequency, and MTF is an imaging system MTF. ξ 1 and ξ 2 are constants for setting the upper and lower limits of the spatial frequency. The division evaluation value I is obtained by integrating the imaging system MTF at the spatial frequency.
式(1)で表される分割評価値Iを各仮分割領域について算出し、これら評価値を比較することは、領域分割用の撮像系応答関数の変化(差)を評価することに相当する。このため、次に説明するように、領域分割用の撮像系応答関数の変化に応じた画像領域の分割結果を得ることが可能になる。 The division evaluation value I expressed by the equation (1) is calculated for each temporary division region, and comparing these evaluation values is equivalent to evaluating the change (difference) in the imaging system response function for region division. . For this reason, as will be described below, it is possible to obtain a result of image region division corresponding to a change in the imaging system response function for region division.
次にステップS304では、画像領域分割部1105は、ステップS303により算出された各仮分割領域の分割評価値を比較する。具体的には、仮分割領域の分割評価値の差を求め、該差の絶対値が予め設定した閾値(所定値)α以上になるか否かを判定する。そして、差の絶対値が閾値α以上になる分割評価値を有する仮分割領域の組み合わせが少なくとも1つある場合は、ステップS305に進む。 In step S304, the image area dividing unit 1105 compares the division evaluation values of the temporary divided areas calculated in step S303. Specifically, a difference between the division evaluation values of the temporary divided regions is obtained, and it is determined whether or not the absolute value of the difference is equal to or greater than a preset threshold value (predetermined value) α. When there is at least one provisional divided region combination having a divided evaluation value at which the absolute value of the difference is equal to or greater than the threshold value α, the process proceeds to step S305.
ステップS305では、画像領域分割部1105は、仮分割領域を正式な分割領域に設定する。そして、画像領域分割部1105は、このようにして得られた各分割領域について(つまりは、分割領域ごとに)ステップS301からステップS305の処理を繰り返す。 In step S305, the image area dividing unit 1105 sets the temporary divided area as a formal divided area. Then, the image region dividing unit 1105 repeats the processing from step S301 to step S305 for each divided region obtained in this way (that is, for each divided region).
一方、ステップS304において、差の絶対値が閾値α以上になる分割評価値を有する仮分割領域の組み合わせが1つもない場合には、画像領域分割部1105は、仮分割領域を正式な分割領域として設定しない。この場合、ステップS301にて仮分割領域に分割する前の注目画像領域をシフトインバリアント領域とする。 On the other hand, in step S304, if there is no combination of temporary divided areas having a divided evaluation value at which the absolute value of the difference is greater than or equal to the threshold value α, the image area dividing unit 1105 sets the temporary divided area as a formal divided area. Not set. In this case, the target image area before being divided into temporary divided areas in step S301 is set as a shift invariant area.
画像領域分割部1105は、シフトインバリアント領域となった分割領域については、画像領域分割処理を終了する。さらに、分割された全ての画像領域がシフトインバリアント領域になると、画像領域分割処理を終了する。 The image area dividing unit 1105 ends the image area dividing process for the divided areas that have become the shift invariant areas. Further, when all the divided image areas are shifted invariant areas, the image area dividing process is terminated.
領域分割用の撮像系応答関数の変化が画像全体(全画像領域)の中心では小さく、周辺ほど大きい場合には、最終的な全画像領域701の領域分割結果は図3(b)に示すようになる。図3(b)では、領域分割用の撮像応答関数の変化に合わせて分割領域の大きさを変化させた分割結果が得られている。 When the change of the imaging system response function for region division is small at the center of the entire image (all image regions) and is large toward the periphery, the final region division result of all the image regions 701 is as shown in FIG. become. In FIG. 3B, a division result is obtained in which the size of the divided region is changed in accordance with the change of the imaging response function for dividing the region.
図2に戻り、ステップS204では、システム制御回路108は、撮像系応答関数選択部1103に、撮像系応答関数記憶部1102に記憶されている複数の撮像系応答関数の中から、ステップS202で取得した撮像条件に対応する撮像系応答関数を選択させる。 Returning to FIG. 2, in step S <b> 204, the system control circuit 108 acquires, in step S <b> 202, a plurality of imaging system response functions stored in the imaging system response function storage unit 1102 in the imaging system response function selection unit 1103. The imaging system response function corresponding to the imaging condition thus selected is selected.
ここで、撮像系応答関数記憶部1102への撮像系応答関数の記憶方法と、撮像条件に対応する撮像系応答関数の選択方法について説明する。 Here, a storage method of the imaging system response function in the imaging system response function storage unit 1102 and a selection method of the imaging system response function corresponding to the imaging condition will be described.
撮像系応答関数とは、光学系に入射した光がデジタル画像として表示、記録されるまでに経る撮像系での劣化過程を表したものである。撮像系応答関数の表現方法としては、点像分布関数PSF(Point Spread Function)や光学的伝達関数OTF(Optical Transfer Function)等がある。本実施例では、撮像系応答関数としてPSFを用いる場合について説明するが、その他の場合でも同様の処理を適用することができる。 The imaging system response function represents a deterioration process in the imaging system that occurs until light incident on the optical system is displayed and recorded as a digital image. As a representation method of the imaging system response function, there are a point spread function PSF (Point Spread Function), an optical transfer function OTF (Optical Transfer Function), and the like. In this embodiment, a case where PSF is used as an imaging system response function will be described, but the same processing can be applied in other cases.
PSFは、点光源を撮像系で撮像した場合に、最終的にどのような画像となって見えるかを光の強度と広がりについての3次元形状として表現したものである。そのため、撮像時の撮像条件によっては、PSFの形状は大きく異なったものとなる。例えば、撮像時に絞りのF値を大きくすればPSFは広くなだらかな形状になり、逆にF値を小さくすればPSFは狭く急峻な形状になる。このように、撮像条件が異なるとPSFの形状も変化するため、ある特定の撮像条件におけるPSFや、ガウシアン形状で近似したPSFだけを撮像装置に記憶していたのでは、多様な撮像条件の全てについて良好な高精細画像を生成することはできない。 PSF expresses what kind of image is finally seen when a point light source is imaged by an imaging system as a three-dimensional shape of light intensity and spread. For this reason, the shape of the PSF varies greatly depending on the imaging conditions at the time of imaging. For example, if the F value of the aperture is increased during imaging, the PSF has a wide and gentle shape. Conversely, if the F value is decreased, the PSF has a narrow and steep shape. In this way, since the shape of the PSF changes depending on the imaging conditions, if only the PSF under a specific imaging condition or a PSF approximated by a Gaussian shape is stored in the imaging apparatus, all of the various imaging conditions are stored. A good high definition image cannot be generated.
そこで、本実施例では、撮像系が取り得る範囲の全ての撮像条件におけるPSFを撮像系応答関数記憶部1102に記憶しておくことにより、どのような撮像条件においても良好な高精細画像を生成可能なPSFを用いることができるようにする。つまり、撮像系応答関数記憶部1102は、撮像条件が設定可能な最小単位ごとに、撮影画像の各画素についてのPSFを記憶する。 Therefore, in this embodiment, PSFs in all imaging conditions within the range that the imaging system can take are stored in the imaging system response function storage unit 1102 to generate a good high-definition image under any imaging conditions. Allow possible PSFs to be used. That is, the imaging system response function storage unit 1102 stores the PSF for each pixel of the captured image for each minimum unit for which imaging conditions can be set.
撮像条件ごとのPSFは、例えば撮像装置の工場出荷時に計測したものを記憶させてもよいし、光学設計情報を用いた光線追跡により撮像条件ごとのPSFを算出して記憶させてもよい。また、ユーザがテストパターンを撮像し、そこからPSFを算出したり、撮像装置に対応したPSFのデータをネットワークを介してダウンロードして記憶させたりする等、いかなる記憶方法であってもよい。 The PSF for each imaging condition may be stored, for example, measured at the time of factory shipment of the imaging apparatus, or may be calculated and stored by ray tracing using optical design information. In addition, any storage method may be used, such as a user imaging a test pattern and calculating a PSF therefrom, or downloading and storing PSF data corresponding to the imaging apparatus via a network.
そして、撮像系応答関数選択部1103は、ステップS202において取得した撮像条件に対応したPSFを、撮像系応答関数記憶部1102に記憶されているPSFの中から選択する。ここで、PSFの選択に使用する撮像条件には、前述した絞り値、撮影倍率および焦点距離以外に、被写体fからの光(撮像光)の波長もある。波長ごとのPSFを記憶している場合には、例えば撮像装置が3板式のカラーカメラであれば、撮像系応答関数記憶部1102より、RGBの各波長に対応するPSFを選択する。さらに、白黒カメラにカラーフィルタを装着して撮影する場合等であれば、カラーフィルタの分光特性に対応した波長におけるPSFを選択するようにすればよい。 Then, the imaging system response function selection unit 1103 selects a PSF corresponding to the imaging condition acquired in step S202 from the PSFs stored in the imaging system response function storage unit 1102. Here, the imaging conditions used for selecting the PSF include the wavelength of light (imaging light) from the subject f in addition to the above-described aperture value, imaging magnification, and focal length. When PSFs for each wavelength are stored, for example, if the imaging apparatus is a three-plate color camera, the PSF corresponding to each wavelength of RGB is selected from the imaging system response function storage unit 1102. Further, when shooting with a color filter attached to a black and white camera, a PSF at a wavelength corresponding to the spectral characteristics of the color filter may be selected.
以上のようにして、撮像系応答関数選択部1103によって選択された撮像条件に対応したPSFは、高精細画像処理部1104へと送られる。 As described above, the PSF corresponding to the imaging condition selected by the imaging system response function selection unit 1103 is sent to the high-definition image processing unit 1104.
そして、図2のステップS205において、システム制御回路108は、高精細画像処理部1104に、撮影画像に対する高精細化処理を行わせる。このステップでの処理の詳細を、図4のフローチャートを用いて説明する。ここでは、高精細化処理として、再構成型超解像処理を行う。再構成型の超解像処理は、撮像系の劣化過程をモデル化し、その逆問題を解くことで劣化過程を経る前の高解像画像を再構成するものである。 In step S205 of FIG. 2, the system control circuit 108 causes the high-definition image processing unit 1104 to perform high-definition processing on the captured image. Details of the processing in this step will be described with reference to the flowchart of FIG. Here, reconfigurable super-resolution processing is performed as high definition processing. The reconstruction type super-resolution processing is to reconstruct a high-resolution image before the deterioration process by modeling the deterioration process of the imaging system and solving the inverse problem.
まず、超解像処理を行う画像をリファレンス画像とし、該リファレンス画像と同じ撮影シーンに対して微小に被写体に対する視点位置を変化させた撮像により得られた複数の画像(視点画像)を画像処理演算部1103に入力する。以下の説明において、リファレンス画像と視点位置が異なる複数の画像をいずれも撮影画像といい、さらにこれらをまとめて撮影画像群と称する。また、撮影画像数をNとする。このとき、撮像画像群に含まれる画像数は、撮像系の性能、超解像処理の拡大倍率および超解像処理後の画像(超解像画像)の用途に応じて適宜設定される。 First, the image for which super-resolution processing is performed is used as a reference image, and multiple images (viewpoint images) obtained by imaging in which the viewpoint position with respect to the subject is slightly changed with respect to the same shooting scene as the reference image are subjected to image processing calculation To the unit 1103. In the following description, a plurality of images having different viewpoint positions from the reference image are all referred to as captured images, and these are collectively referred to as a captured image group. The number of captured images is N. At this time, the number of images included in the captured image group is appropriately set according to the performance of the imaging system, the magnification of the super-resolution processing, and the use of the image after super-resolution processing (super-resolution image).
ステップS401では、高精細画像処理部1104は、入力されたリファレンス画像を設定された拡大倍率に応じて拡大処理し、最初の推定高精細画像(以下、初期推定高精細画像という)を生成する。拡大処理としては、単純な線形補間やスプライン補間等、どのような方法を使用してもよい。 In step S401, the high-definition image processing unit 1104 enlarges the input reference image according to the set enlargement magnification, and generates an initial estimated high-definition image (hereinafter referred to as an initial estimated high-definition image). As the enlargement processing, any method such as simple linear interpolation or spline interpolation may be used.
次にステップS402では、高精細画像処理部1104は、ステップS203での画像領域分割処理の結果(画像領域分割情報)、各分割領域に対応する領域分割用の撮像系応答関数および初期推定高精細画像を用いて撮像系による劣化過程を演算する。これにより、低解像画像を生成する。撮像系による劣化過程の演算には、該劣化過程をモデル化した観測モデルを使用する。観測モデルは、撮像系応答関数の1つであるPSF(Point Spread Function、点像分布関数)を用いて以下のように与えられる。 Next, in step S402, the high-definition image processing unit 1104 obtains the result of the image region division processing (image region division information) in step S203, the imaging system response function for region division corresponding to each divided region, and the initial estimated high-definition. The deterioration process by the imaging system is calculated using the image. Thereby, a low resolution image is generated. For the calculation of the deterioration process by the imaging system, an observation model that models the deterioration process is used. The observation model is given as follows using PSF (Point Spread Function) which is one of the imaging system response functions.
ただし、Xは高精細画像であり、Y′kは劣化過程後のk番目の低解像画像である。*は畳み込み演算を示し、nは付加的なノイズを示す。また、PSFkは、撮影画像群のうちk番目の撮影画像に対する撮像系応答関数を表す。劣化過程の演算は、式(2)の右辺の第一項を用いる。なお、観測モデルは上記計算式で表されるものに限られず、撮像系の特性や超解像処理のアルゴリズムに合わせて適宜決定すればよい。 However, X is a high-definition image and Y ′ k is the k-th low-resolution image after the deterioration process. * Indicates a convolution operation, and n indicates additional noise. PSF k represents an imaging system response function for the k-th captured image in the captured image group. For the calculation of the deterioration process, the first term on the right side of Equation (2) is used. Note that the observation model is not limited to the one represented by the above calculation formula, and may be appropriately determined according to the characteristics of the imaging system and the algorithm of the super-resolution processing.
劣化過程を演算する際に、画像領域分割情報を用い、演算する画素が含まれる分割領域に対応する撮像系応答関数を用いて式(2)を演算する。 When calculating the degradation process, Expression (2) is calculated using the image area division information and using the imaging system response function corresponding to the divided area including the pixel to be calculated.
次にステップS403では、高精細画像処理部1104は、劣化過程処理を演算した低解像画像群を用いて評価値(以下、超解像評価値という)Jを、以下の式(3)により算出する。 Next, in step S403, the high-definition image processing unit 1104 calculates an evaluation value (hereinafter referred to as a super-resolution evaluation value) J by using the low-resolution image group obtained by calculating the degradation process processing according to the following equation (3). calculate.
ただし、Ykはk番目の撮影画像を、Y′kはk番目の低解像画像を、αは拘束パラメータをそれぞれ示す。また、cは推定高精細画像に対する事前情報を表す行列を示し、‖‖2はL2ノルムを示す。 Here, Y k represents the k-th captured image, Y ′ k represents the k-th low-resolution image, and α represents the constraint parameter. Further, c is shown a matrix representing prior information for estimated high resolution image, ‖‖ 2 shows the L2 norm.
超解像評価値Jの第一項は、撮影画像と推定高精細画像を劣化させて作成した低解像画像とを比較することで、推定高精細画像の評価を行う項である。超解像評価値Jの第二項は、推定高精細画像の尤もらしさを評価する項であり、推定高精細画像に対する既知の情報や性質を使用して評価を行う。拘束パラメータαは、画像や撮像系に合わせて適宜設定される。行列cは、例えばハイパスフィルタを用いる。 The first term of the super-resolution evaluation value J is a term for evaluating the estimated high-definition image by comparing the captured image with a low-resolution image created by degrading the estimated high-definition image. The second term of the super-resolution evaluation value J is a term for evaluating the likelihood of the estimated high-definition image, and the evaluation is performed using known information and properties of the estimated high-definition image. The constraint parameter α is appropriately set according to the image and the imaging system. For example, a high-pass filter is used for the matrix c.
なお、超解像評価値Jとしては式(3)に示されるもの以外に、Sina Farsiu他による下記の文献Aにて説明されているバイラテラルフィルタを用いて評価したり、色の相関を用いて評価したりしてもよい。
[文献A]“Multiframe Demosaicing and Super-Resolution of ColorImages”(IEEE TRANSACTION ON IMAGE PROCESSING,VOL.15,NO.1,JANUARY 2006)
次にステップS404では、高精細画像処理部1104は、ステップS403で算出した超解像評価値Jが閾値(所定値)βより小さいか否かを判定する。閾値βは、画像の種類、撮像系の性能および高精細化処理の目的に応じて適宜設定される。J≧βである場合には、ステップS405に進み、J<βである場合には、高精細化処理を終了し、推定高精細画像を超解像画像とする。その後、図2のステップS206に進む。
The super-resolution evaluation value J is evaluated using a bilateral filter described in the following document A by Sina Farsiu et. Or may be evaluated.
[Reference A] “Multiframe Demosaicing and Super-Resolution of ColorImages” (IEEE TRANSACTION ON IMAGE PROCESSING, VOL.15, NO.1, JANUARY 2006)
In step S404, the high-definition image processing unit 1104 determines whether the super-resolution evaluation value J calculated in step S403 is smaller than a threshold value (predetermined value) β. The threshold value β is appropriately set according to the type of image, the performance of the imaging system, and the purpose of high definition processing. If J ≧ β, the process proceeds to step S405. If J <β, the high-definition processing ends, and the estimated high-definition image is set as a super-resolution image. Then, it progresses to step S206 of FIG.
ステップS405では、高精細画像処理部1104は、ステップS403で算出した超解像評価値Jを最適化する方向に推定高精細画像を更新する。更新方法としては、どのような方法を用いてもよいが、例えば最急降下法を用いて、 In step S405, the high-definition image processing unit 1104 updates the estimated high-definition image in a direction in which the super-resolution evaluation value J calculated in step S403 is optimized. As the update method, any method can be used. For example, using the steepest descent method,
として更新すればよい。ここで、X′は更新後の高精細画像を示し、γは更新ステップサイズを設定する定数である。以下、X′を推定高精細画像としてステップS402からの処理をJ<βとなるまで繰り返し行い、超解像画像を得る。そして、ステップS206に進む。 You can update as Here, X ′ represents the high-definition image after update, and γ is a constant for setting the update step size. Thereafter, X ′ is assumed to be an estimated high-definition image, and the processing from step S402 is repeated until J <β to obtain a super-resolution image. Then, the process proceeds to step S206.
図2のステップS206では、システム制御回路108は、ステップS205で生成された高精細画像を出力する処理を行う。まず、視覚補正部111に高精細画像に対する前述した画像補正処理を行わせる。次に、圧縮部112に画像補正処理後の高精細画像の圧縮処理を行わせる。そして、圧縮後の高精細画像を画像出力部113から出力させる。 In step S206 of FIG. 2, the system control circuit 108 performs processing for outputting the high-definition image generated in step S205. First, the visual correction unit 111 is caused to perform the above-described image correction processing for a high-definition image. Next, the compression unit 112 performs compression processing of the high-definition image after the image correction processing. Then, the compressed high-definition image is output from the image output unit 113.
以上説明したように、本実施例では、撮影画像を領域分割用の撮像系応答関数を用いて得られる分割評価値に差を持つ複数の領域に分割する。そして、領域ごとの高精細化処理において、予め記憶された撮像条件ごとの撮像系応答関数から、撮影画像の撮像時の撮像条件に対応した撮像系応答関数を選択して用いる。これにより、分割された領域ごとに撮像条件に適した撮像系応答関数を用いて高精細化処理を行うことが可能となり、単一のPSFを用いた場合と比較して良好な高精細画像を生成することができる。 As described above, in this embodiment, the captured image is divided into a plurality of regions having differences in the divided evaluation values obtained using the imaging system response function for region division. In the high-definition processing for each region, an imaging system response function corresponding to the imaging condition at the time of imaging of the captured image is selected and used from the imaging system response function for each imaging condition stored in advance. As a result, it is possible to perform high definition processing using an imaging system response function suitable for the imaging conditions for each divided area, and a high-definition image better than when a single PSF is used. Can be generated.
図5には、本発明の実施例2である撮像装置1′の構成を示している。本実施例では、離散的に記憶してある撮像系応答関数から、実際の撮像条件に対応した撮像系応答関数を生成する。 FIG. 5 shows a configuration of an image pickup apparatus 1 ′ that is Embodiment 2 of the present invention. In this embodiment, an imaging system response function corresponding to an actual imaging condition is generated from the imaging system response functions stored discretely.
図5において、図1に示した構成要素と共通する構成要素については、図1と同符号を付す。本実施例の撮像装置1′は、図1に示した構成に加えて、撮像系応答関数生成部4101を有する。以下、本実施例の撮像装置の動作について、図6に示すフローチャートを用いて説明する。 In FIG. 5, components common to the components shown in FIG. 1 are assigned the same reference numerals as those in FIG. 1. The imaging apparatus 1 ′ according to the present exemplary embodiment includes an imaging system response function generation unit 4101 in addition to the configuration illustrated in FIG. Hereinafter, the operation of the image pickup apparatus of the present embodiment will be described with reference to the flowchart shown in FIG.
ステップS501〜ステップS503はそれぞれ、図2に示したステップS201〜S203と同じである。ここで、本実施例における撮像系応答関数記憶部1102は、撮像系応答関数を予め定められた撮像条件の間隔で離散的に記憶しておくものとする。言い換えれば、撮像系応答関数記憶部1102は、複数の代表的な撮像条件に対応する複数の撮像系応答関数を記憶している。 Steps S501 to S503 are the same as steps S201 to S203 shown in FIG. Here, it is assumed that the imaging system response function storage unit 1102 according to the present embodiment discretely stores the imaging system response function at predetermined imaging condition intervals. In other words, the imaging system response function storage unit 1102 stores a plurality of imaging system response functions corresponding to a plurality of representative imaging conditions.
ステップS504では、システム制御回路108は、撮像系応答関数選択部1103に、ステップS502で取得した撮像時の撮像条件に対応した撮像系応答関数を選択させる。ただし、本実施例では、撮像系応答関数記憶部1102に撮像系応答関数が離散的に記憶されているために、ステップS502で取得した撮像条件に直接該当する撮像系応答関数が存在しない場合がある。この場合、撮像系応答関数選択部1103は、離散的に記憶されている撮像系応答関数の中から撮像時の撮像条件に近い撮像系応答関数を、1つまたは複数選択し、後段の撮像系応答関数生成部4101へと伝送する。 In step S504, the system control circuit 108 causes the imaging system response function selection unit 1103 to select an imaging system response function corresponding to the imaging condition at the time of imaging acquired in step S502. However, in this embodiment, since the imaging system response functions are discretely stored in the imaging system response function storage unit 1102, there may be no imaging system response functions that directly correspond to the imaging conditions acquired in step S502. is there. In this case, the imaging system response function selection unit 1103 selects one or a plurality of imaging system response functions that are close to the imaging conditions at the time of imaging from among the discretely stored imaging system response functions, and the subsequent imaging system It is transmitted to the response function generation unit 4101.
そして、ステップS504では、システム制御回路108は、撮像系応答関数生成部4101に、撮像時の撮像条件に近い撮像系応答関数を用いて、撮像時の撮像条件に対応した撮像系応答関数を生成させる。 In step S504, the system control circuit 108 uses the imaging system response function close to the imaging condition at the time of imaging to the imaging system response function generation unit 4101 to generate an imaging system response function corresponding to the imaging condition at the time of imaging. Let
撮像時の撮像条件に対応した撮像系応答関数の生成方法の1つとして、複数の撮像系応答関数を用いた補間処理が挙げられるが、ここでは、線形補間処理を行う方法について説明する。また、ここでは、撮像系応答関数としてPSFを用いる場合について説明するが、それ以外の場合でも同様の処理を適用することができる。 One method for generating an imaging system response function corresponding to the imaging conditions at the time of imaging is interpolation processing using a plurality of imaging system response functions. Here, a method for performing linear interpolation processing will be described. Although the case where PSF is used as the imaging system response function will be described here, the same processing can be applied to other cases.
線形補間では、撮像条件の変化に応じて線形的にPSFが変化しているとして、2つのPSFの間に存在するPSFを算出する。撮像系応答関数選択部1103によって、撮像条件の1つである絞りのF値aに対応する撮像系応答関数PSF_aと、F値bに対応する撮像系応答関数PSF_bとが選択されたとする。 In linear interpolation, a PSF existing between two PSFs is calculated assuming that the PSF linearly changes in accordance with a change in imaging conditions. It is assumed that the imaging system response function PSF_a corresponding to the aperture F value a, which is one of the imaging conditions, and the imaging system response function PSF_b corresponding to the F value b are selected by the imaging system response function selection unit 1103.
図7(a)にPSF_aの形状を示し、図7(b)にPSF_bの形状を示す。PSF_aはF値が小さい場合のPSFを示しており、急峻な形状を有する。それに対して、PSF_bは、F値が大きい場合のPSFを示しており、PSF_aに比べて広がった形状を有する。これらの図から、F値が異なるとPSFの形状も大きく異なることが分かる。 FIG. 7A shows the shape of PSF_a, and FIG. 7B shows the shape of PSF_b. PSF_a indicates a PSF when the F value is small, and has a steep shape. On the other hand, PSF_b indicates a PSF when the F value is large, and has a wider shape than PSF_a. From these figures, it can be seen that the shape of the PSF varies greatly with different F values.
このため、例えば、F値aに対応するPSF_aを用いて実際のPSF形状がPSF_bであるF値bの画像に対して高精細化処理を行ったとしても、撮像時の撮像条件に正しく対応したPSFではないため、良好な高精細画像を得ることはできない。したがって、高精細化処理を行う際には、撮像条件に対応したPSFを使用する必要があり、撮像系応答関数記憶部1102に対応するPSFがない場合には、補間処理によって対応するPSFを生成する必要がある。 For this reason, for example, even if high-definition processing is performed on an image having an F value b whose actual PSF shape is PSF_b using PSF_a corresponding to the F value a, the imaging conditions at the time of imaging are correctly handled. Since it is not a PSF, a good high-definition image cannot be obtained. Therefore, when performing high definition processing, it is necessary to use a PSF corresponding to the imaging condition. When there is no PSF corresponding to the imaging system response function storage unit 1102, a corresponding PSF is generated by interpolation processing. There is a need to.
線形補間処理の一例として、ステップS502において取得した絞りのF値cがF値aとF値bの間にあるとした場合の該F値cに対応する撮像系応答関数PSF_cを算出するための計算式は以下のようになる。 As an example of linear interpolation processing, an imaging system response function PSF_c corresponding to the F value c when the F value c of the aperture acquired in step S502 is between the F value a and the F value b is calculated. The calculation formula is as follows.
ここで、式(5)のαは、F値aとF値cの差分とF値bとF値cの差分との比率を表したものであり、PSF_aおよびPSF_bに対してF値cからの差分に応じた重み付けを行うことを表している。 Here, α in the equation (5) represents a ratio between the difference between the F value a and the F value c and the difference between the F value b and the F value c, and from the F value c with respect to PSF_a and PSF_b. It represents that the weighting according to the difference is performed.
図8に、F値cがF値aとF値bのちょうど中間にある場合、つまりα=0.5のときに式(5)を適用した結果を示す。図8より、PSF_cは、PSF_aとPSF_bの中間の形状を有しており、線形補間によりF値aとF値bの中間にあるF値cに対応するPSFが生成されていることが確認できる。 FIG. 8 shows the result of applying equation (5) when the F value c is exactly halfway between the F value a and the F value b, that is, when α = 0.5. From FIG. 8, PSF_c has an intermediate shape between PSF_a and PSF_b, and it can be confirmed that a PSF corresponding to the F value c that is intermediate between the F value a and the F value b is generated by linear interpolation. .
以上より、撮像系応答関数選択部1103により選択された2つのPSFに対して線形補間を行うことで、撮像時の撮像条件に対応したPSFを生成することができる。 As described above, by performing linear interpolation on the two PSFs selected by the imaging system response function selection unit 1103, a PSF corresponding to the imaging condition at the time of imaging can be generated.
本実施例においては、補間処理として線形補間処理を行う場合について説明したが、その他にもスプライン補間や放物線補間等の他の補間処理を行ってもよい。 In this embodiment, the case where linear interpolation processing is performed as the interpolation processing has been described, but other interpolation processing such as spline interpolation and parabolic interpolation may be performed.
また、撮像時の撮像条件を反映した撮像系応答関数の生成方法についての他の例として、選択した撮像系応答関数を撮像時の撮像系応答関数に補正するための補正関数を適用する補正処理がある。 Further, as another example of a method for generating an imaging system response function that reflects imaging conditions at the time of imaging, a correction process for applying a correction function for correcting the selected imaging system response function to an imaging system response function at the time of imaging There is.
ここでは、補正関数の例としてガウシアン関数を用いて説明する。2次元のガウシアン関数G(x,y)は以下の式により表すことができる。 Here, a Gaussian function will be described as an example of the correction function. The two-dimensional Gaussian function G (x, y) can be expressed by the following equation.
ここで、G(x,y)は、図9に示すような凸型の形状を有しており、Aはピーク値の大きさ、BxおよびByはそれぞれx方向およびy方向についてのピーク位置の原点からの偏移量である。また、Cは凸形状の広がりを調節する係数である。 Here, G (x, y) has a convex shape as shown in FIG. 9, A is the magnitude of the peak value, and Bx and By are the peak positions in the x and y directions, respectively. This is the amount of deviation from the origin. C is a coefficient for adjusting the spread of the convex shape.
そして、上記のガウシアン関数G(x,y)を用いて、ステップS504で選択したPSFに対して補正処理を行う。ステップS504で取得した撮像系応答関数PSF_IN(x,y)に対して、ガウス関数G(x,y)を適用して、撮像時の撮像系応答関数PSF_OUT(x,y)を生成するときの計算式は次式のようになる。 Then, correction processing is performed on the PSF selected in step S504 using the Gaussian function G (x, y). A Gaussian function G (x, y) is applied to the imaging system response function PSF_IN (x, y) acquired in step S504 to generate an imaging system response function PSF_OUT (x, y) at the time of imaging. The calculation formula is as follows.
ここで、式(7)の右辺はPSF_IN(x,y)とG(x,y)の同一座標位置の値同士で乗算を行うことを表している。これにより、G(x,y)の形状に応じてPSF_IN(x,y)の形状を補正することができる。 Here, the right side of Expression (7) indicates that multiplication is performed between values at the same coordinate position of PSF_IN (x, y) and G (x, y). Thereby, the shape of PSF_IN (x, y) can be corrected according to the shape of G (x, y).
本実施例では、撮像条件として絞りのF値に注目した場合について説明するが、他の撮像条件についても同様である。ここでは、例として図7(b)に示したPSF_bに対して、図9に示したガウシアン関数Gを用いて補正を行うことで、図7(a)のPSF_aと同等のPSFを生成する。 In this embodiment, the case where attention is paid to the F value of the diaphragm as an imaging condition will be described, but the same applies to other imaging conditions. Here, as an example, the PSF_b shown in FIG. 7B is corrected using the Gaussian function G shown in FIG. 9, thereby generating a PSF equivalent to the PSF_a shown in FIG.
図9は、式(6)においてA=1,Bx=By=0,C=0.3とした場合のガウシアン関数Gの形状を示す。そして、図7(b)のPSF_bをPSF_INとして、図9のガウシアン関数Gを用いて式(7)により生成したPSFの形状を、図10にPSF_OUTとして示す。 FIG. 9 shows the shape of the Gaussian function G when A = 1, Bx = By = 0, and C = 0.3 in equation (6). Then, PSF_b in FIG. 7B is PSF_IN, and the shape of the PSF generated by Expression (7) using the Gaussian function G in FIG. 9 is shown as PSF_OUT in FIG.
図10より、ガウシアン関数Gを用いて補正処理を行うことで、図7(a)に示すPSF_aと同等のPSFが生成できていることが確認できる。 From FIG. 10, it can be confirmed that the PSF equivalent to the PSF_a shown in FIG. 7A can be generated by performing the correction process using the Gaussian function G.
ここで、補正処理の際に用いるガウシアン関数の係数A,Bx,By,Cの決定方法としては、例えばステップS504にて選択したPSFに対応する撮像条件と、実際の撮像時の撮像条件との差分から線形的に決定する方法がある。さらに、ガウシアン関数の各係数の決定方法についての他の例としては、どのように係数を設定すると、どのような撮像条件に対応したPSFが生成できるかを事前に算出もしくは計測しておく方法もある。これらの方法により得られた各係数は、ルックアップテーブルとして記憶しておいたり、係数にフィッティングさせた多次元関数として記憶しておいたりすればよい。 Here, as a method of determining the coefficients A, Bx, By, and C of the Gaussian function used in the correction process, for example, an imaging condition corresponding to the PSF selected in step S504 and an imaging condition at the time of actual imaging are used. There is a method of determining linearly from the difference. Furthermore, as another example of a method for determining each coefficient of the Gaussian function, there is a method of calculating or measuring in advance how to set a coefficient and generate a PSF corresponding to what imaging condition. is there. Each coefficient obtained by these methods may be stored as a look-up table or stored as a multidimensional function fitted to the coefficient.
本実施例においては、補正関数としてガウシアン関数を用いた方法について説明したが、その他にもsinc関数等を使用する方法もある。また、式(7)では、補正方法としてPSFと補正関数を画素位置毎に積算する方法を示したが、畳み込み積分を行っても同等の効果を得ることができる。 In the present embodiment, the method using the Gaussian function as the correction function has been described, but there is also a method using a sinc function or the like. Further, in equation (7), a method of integrating the PSF and the correction function for each pixel position is shown as a correction method, but the same effect can be obtained even by performing convolution integration.
さらに、撮像時の撮像条件に対応したPSFの生成方法についての他の例として、選択したPSFに対して、撮影時のPSFへと補正するための補正係数を適用する方法がある。 Furthermore, as another example of a PSF generation method corresponding to an imaging condition at the time of imaging, there is a method of applying a correction coefficient for correcting to a PSF at the time of imaging with respect to a selected PSF.
例えば、PSFの補正対象としては、ピーク値や半値幅等が挙げられるが、このような補正対象についての補正係数を取得するための一例として、事前に計測を行う方法が挙げられる。 For example, the PSF correction target includes a peak value, a half-value width, and the like. As an example for acquiring a correction coefficient for such a correction target, a method of performing measurement in advance is given.
まず、ある撮像条件におけるPSFを一つもしくは複数個選択し、それを基準PSFとする。そして、基準PSF以外の撮像条件におけるPSFと、基準PSFとの相違度を求める。相違度は、例えば前記のピーク値や半値幅の差分や拡大比率等で算出すればよく、その相違度を打ち消すような値が補間係数となる。このときに得られた各係数は、ルックアップテーブルとして記憶しておいたり、係数にフィッティングさせた多次元関数として記憶しておいたりすればよい。これにより、撮像系応答関数記憶部1102には、上記各係数と基準PSFだけを記憶しておけばよいことになる。 First, one or a plurality of PSFs under a certain imaging condition are selected and set as reference PSFs. Then, the degree of difference between the PSF under imaging conditions other than the reference PSF and the reference PSF is obtained. The degree of difference may be calculated by, for example, the difference between the peak value and the full width at half maximum, the enlargement ratio, and the like, and a value that cancels the degree of difference becomes the interpolation coefficient. Each coefficient obtained at this time may be stored as a lookup table or may be stored as a multidimensional function fitted to the coefficient. Thus, only the coefficients and the reference PSF need be stored in the imaging system response function storage unit 1102.
そして、ステップS504において選択された基準PSFに対して、ステップS502において取得した撮像条件に対応した補正係数を用いて補正処理を行うことにより、撮像時の撮像条件に対応したPSFを生成することが可能となる。 Then, correction processing is performed on the reference PSF selected in step S504 using the correction coefficient corresponding to the imaging condition acquired in step S502, thereby generating a PSF corresponding to the imaging condition at the time of imaging. It becomes possible.
以上のように、撮像条件ごとの撮像系応答関数を多数記憶せず、ある一定の間隔を持った離散的な撮像条件に対応する撮像系応答関数を記憶しておき、それらに対して補間処理や補正処理を施すことで、撮像時の撮像条件に対応した撮像系応答関数を生成できる。これにより、撮像系応答関数記憶部1102で必要となる記憶容量を削減しつつ、撮像条件に対応した撮像系応答関数を用いた良好な高精細画像を生成することができる。 As described above, a large number of imaging system response functions for each imaging condition are not stored, but an imaging system response function corresponding to discrete imaging conditions having a certain interval is stored, and interpolation processing is performed on them. By performing the correction processing, an imaging system response function corresponding to the imaging condition at the time of imaging can be generated. As a result, it is possible to generate a good high-definition image using the imaging system response function corresponding to the imaging conditions while reducing the storage capacity required for the imaging system response function storage unit 1102.
図5のステップS506およびステップS507は、図2に示したステップS205およびステップS206と同じである。 Steps S506 and S507 in FIG. 5 are the same as steps S205 and S206 shown in FIG.
上記各実施例では、撮像装置に、画像処理装置110を内蔵した場合について説明したが、本発明の実施例はこれに限らない。 In each of the above embodiments, the case where the image processing apparatus 110 is built in the imaging apparatus has been described. However, the embodiments of the present invention are not limited thereto.
例えば図11に示すように、撮像装置1801で得られた撮影画像を、パーソナルコンピュータ1802に送信する。送信方法は、ケーブル方式、無線方式のいずれでもよく、インターネットやLANを介して送信してもよい。 For example, as shown in FIG. 11, the captured image obtained by the imaging device 1801 is transmitted to the personal computer 1802. The transmission method may be either a cable method or a wireless method, and may be transmitted via the Internet or a LAN.
そして、パーソナルコンピュータ1802において、受信した撮影画像に対して、実施例1,2にて説明した画像領域分割処理や高精細化処理を行ってもよい。この場合、パーソナルコンピュータが、画像処理装置として機能する。 Then, the personal computer 1802 may perform the image region division processing and the high definition processing described in the first and second embodiments on the received captured image. In this case, the personal computer functions as an image processing apparatus.
さらに、上記実施例1,2にて説明した画像処理プログラムは、これを格納した半導体メモリや光ディスク等の記憶媒体やインターネット、LANを介して撮像装置やパーソナルコンピュータにインストールされるようにしてもよい。 Further, the image processing program described in the first and second embodiments may be installed in an imaging apparatus or a personal computer via a storage medium such as a semiconductor memory or an optical disk storing the program, the Internet, or a LAN. .
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.
様々な撮像条件においても撮影画像の十分な高精細化処理が行える画像処理装置を提供できる。 It is possible to provide an image processing apparatus that can perform sufficiently high-definition processing of a captured image under various imaging conditions.
1,1′ 撮像装置
100 結像光学系
102 撮像素子
108 システム制御回路
110 画像処理装置
1102 撮像系応答関数記憶部
1103 撮像系応答関数選択部
1104 高精細画像処理部
1105 画像領域分割部
DESCRIPTION OF SYMBOLS 1,1 'Imaging apparatus 100 Imaging optical system 102 Imaging element 108 System control circuit 110 Image processing apparatus 1102 Imaging system response function memory | storage part 1103 Imaging system response function selection part 1104 High-definition image processing part 1105 Image area division part
Claims (6)
前記各領域に対して、該領域ごとに異なる前記応答関数を用いた画像精細度を増加させるための画像処理を行う処理手段とを有し、
前記処理手段は、前記撮像系における前記入力画像の生成時の撮像条件に対応する前記応答関数であって、記憶手段から読み出した、または演算により生成した応答関数を用いて前記画像処理を行うことを特徴とする画像処理装置。 Area dividing means for dividing the input image generated by the imaging system into a plurality of areas having differences in evaluation values obtained by using the response function of the imaging system;
Processing means for performing image processing for increasing the image definition using the response function that is different for each region for each region;
The processing means performs the image processing using the response function corresponding to an imaging condition at the time of generation of the input image in the imaging system and read out from a storage means or generated by calculation. An image processing apparatus.
前記処理手段は、前記入力画像の生成時の撮像条件が前記複数の撮像条件と異なるときは、該記憶手段に記憶されている前記応答関数を用いた補間処理または補正処理により前記画像処理に用いる前記応答関数を生成することを特徴とする請求項1又は2に記載の画像処理装置。
装置。 The storage means stores the response function corresponding to a plurality of the imaging conditions,
When the imaging condition at the time of generating the input image is different from the plurality of imaging conditions, the processing means is used for the image processing by interpolation processing or correction processing using the response function stored in the storage means. The image processing apparatus according to claim 1, wherein the response function is generated.
apparatus.
請求項1から3のいずれか一項に記載の画像処理装置とを有することを特徴とする撮像装置。 An imaging system;
An image pickup apparatus comprising: the image processing apparatus according to claim 1.
撮像系により生成された入力画像を、前記撮像系の応答関数を用いて得られる評価値に差を持つ複数の領域に分割するステップと、
前記各領域に対して、該領域ごとに異なる前記応答関数を用いた画像精細度を増加させるための画像処理を行う画像処理ステップとを有し、
前記画像処理ステップにおいて、前記撮像系における前記入力画像の生成時の撮像条件に対応する前記応答関数であって、記憶手段から読み出した、または演算により生成した応答関数を用いて前記画像処理を行うことを特徴とする画像処理プログラム。 On the computer,
Dividing an input image generated by the imaging system into a plurality of regions having differences in evaluation values obtained using the response function of the imaging system;
An image processing step for performing image processing for increasing the image definition using the response function that is different for each region for each region,
In the image processing step, the image processing is performed using the response function corresponding to the imaging condition at the time of generating the input image in the imaging system, which is read from a storage unit or generated by calculation. An image processing program characterized by that.
A storage medium storing the image processing program according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010137033A JP2012003454A (en) | 2010-06-16 | 2010-06-16 | Image processing apparatus, imaging device and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010137033A JP2012003454A (en) | 2010-06-16 | 2010-06-16 | Image processing apparatus, imaging device and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012003454A true JP2012003454A (en) | 2012-01-05 |
Family
ID=45535368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010137033A Pending JP2012003454A (en) | 2010-06-16 | 2010-06-16 | Image processing apparatus, imaging device and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012003454A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014155814A1 (en) * | 2013-03-27 | 2014-10-02 | 富士フイルム株式会社 | Image capturing apparatus, calibration method, program, and recording medium |
JP2016062252A (en) * | 2014-09-17 | 2016-04-25 | キヤノン株式会社 | Image processing method, imaging device using the same, image processor, and image processing program |
JP2016081431A (en) * | 2014-10-21 | 2016-05-16 | キヤノン株式会社 | Image processing method, image processor, imaging device and image processing program |
US9390477B2 (en) | 2013-01-28 | 2016-07-12 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for image restoration using blind deconvolution |
US10810714B2 (en) | 2017-08-15 | 2020-10-20 | Canon Kabushiki Kaisha | Image restoration processing utilizing settings for image correction |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005095328A (en) * | 2003-09-24 | 2005-04-14 | Toshiba Corp | Superresolving apparatus and medical diagnostic imaging apparatus |
JP2009008928A (en) * | 2007-06-28 | 2009-01-15 | Olympus Corp | Imaging device and image signal processing program |
-
2010
- 2010-06-16 JP JP2010137033A patent/JP2012003454A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005095328A (en) * | 2003-09-24 | 2005-04-14 | Toshiba Corp | Superresolving apparatus and medical diagnostic imaging apparatus |
JP2009008928A (en) * | 2007-06-28 | 2009-01-15 | Olympus Corp | Imaging device and image signal processing program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9390477B2 (en) | 2013-01-28 | 2016-07-12 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for image restoration using blind deconvolution |
WO2014155814A1 (en) * | 2013-03-27 | 2014-10-02 | 富士フイルム株式会社 | Image capturing apparatus, calibration method, program, and recording medium |
JP5833794B2 (en) * | 2013-03-27 | 2015-12-16 | 富士フイルム株式会社 | Imaging device |
US10171803B2 (en) | 2013-03-27 | 2019-01-01 | Fujifilm Corporation | Image capturing apparatus, calibration method, and non-transitory computer-readable medium for calculating parameter for a point image restoration process |
JP2016062252A (en) * | 2014-09-17 | 2016-04-25 | キヤノン株式会社 | Image processing method, imaging device using the same, image processor, and image processing program |
US9860503B2 (en) | 2014-09-17 | 2018-01-02 | Canon Kabushiki Kaisha | Image processing method, image-pickup apparatus and image processing apparatus using the method, and non-transitory computer-readable storage medium storing image processing program using the method |
JP2016081431A (en) * | 2014-10-21 | 2016-05-16 | キヤノン株式会社 | Image processing method, image processor, imaging device and image processing program |
US9654707B2 (en) | 2014-10-21 | 2017-05-16 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program |
US10810714B2 (en) | 2017-08-15 | 2020-10-20 | Canon Kabushiki Kaisha | Image restoration processing utilizing settings for image correction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7242185B2 (en) | Image processing method, image processing apparatus, image processing program, and storage medium | |
JP5797016B2 (en) | Image processing apparatus, image processing method, and program | |
JP5374217B2 (en) | Image processing apparatus and method | |
KR100940148B1 (en) | Method and system for modifying a digital image taking into account its noise | |
US8036481B2 (en) | Image processing apparatus and image restoration method and program | |
JP6672070B2 (en) | Imaging apparatus using compressed sensing, imaging method, and imaging program | |
US8508618B2 (en) | Image pickup apparatus and restoration gain data generation method | |
JP5535053B2 (en) | Image processing apparatus and image processing method | |
JP6308748B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5615393B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP5765893B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2012003454A (en) | Image processing apparatus, imaging device and image processing program | |
JP2021140663A (en) | Image processing method, image processing device, image processing program, and recording medium | |
JP6682184B2 (en) | Image processing method, image processing program, image processing device, and imaging device | |
JP2016119532A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
US8736722B2 (en) | Enhanced image capture sharpening | |
JP4477517B2 (en) | Color adjustment method and color adjustment apparatus | |
JP2017028583A (en) | Image processor, imaging apparatus, image processing method, image processing program, and storage medium | |
JP6611509B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6555881B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP2020187611A (en) | Image processing method, image processor, image processing system, imaging apparatus, and program | |
JP6818461B2 (en) | Image pickup device, image processing device, image processing method and image processing program | |
US20240087086A1 (en) | Image processing method, image processing apparatus, program, trained machine learning model production method, processing apparatus, and image processing system | |
JP2012156714A (en) | Program, image processing device, image processing method, and imaging device | |
JP6468791B2 (en) | Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140708 |