JP5361582B2 - Image processing apparatus, image processing method, program, and storage medium - Google Patents

Image processing apparatus, image processing method, program, and storage medium Download PDF

Info

Publication number
JP5361582B2
JP5361582B2 JP2009166180A JP2009166180A JP5361582B2 JP 5361582 B2 JP5361582 B2 JP 5361582B2 JP 2009166180 A JP2009166180 A JP 2009166180A JP 2009166180 A JP2009166180 A JP 2009166180A JP 5361582 B2 JP5361582 B2 JP 5361582B2
Authority
JP
Japan
Prior art keywords
image
ratio
photographed
component
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009166180A
Other languages
Japanese (ja)
Other versions
JP2011022729A5 (en
JP2011022729A (en
Inventor
信彦 田村
健司 大部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009166180A priority Critical patent/JP5361582B2/en
Publication of JP2011022729A publication Critical patent/JP2011022729A/en
Publication of JP2011022729A5 publication Critical patent/JP2011022729A5/ja
Application granted granted Critical
Publication of JP5361582B2 publication Critical patent/JP5361582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は補完関係にある複数の撮像光学系により取得した画像の合成技術に関する。   The present invention relates to a technique for synthesizing images acquired by a plurality of imaging optical systems in a complementary relationship.

理想的なレンズは物体上の一点から出た多数の光線を再び一点に結像させる。これに対して実際のレンズでは光線を一点に結像させる事が困難である。このため、物体上の一点から出た光はセンサ面上である程度の広がりをもって分布する。これは画像のぼけを招き、解像度の低下要因となる。理想的な結像状態からのずれは、光線のずれ方あるいはぼけ方の特徴によって分類されており、例えば色収差・非点収差・像面湾曲収差等がある。レンズ設計ではこれらの収差を抑えるように各種の工夫がなされるが、完全に収差をなくすことはできず、ぼけができるだけ小さくなるようにバランスをとってレンズは設計される。特許文献1では広角レンズで撮影した画像の中央部に、望遠レンズで撮影した画像を合成する方法が提案されている。画像中央部は望遠レンズで撮影した画像のほうが高解像度であるため、合成により中央部の解像度が向上する。   An ideal lens re-images many rays from a point on the object. On the other hand, with an actual lens, it is difficult to form a light beam at one point. For this reason, the light emitted from one point on the object is distributed with a certain extent on the sensor surface. This causes blurring of the image and causes a reduction in resolution. Deviations from the ideal imaging state are classified according to the characteristics of how rays are displaced or blurred, such as chromatic aberration, astigmatism, and field curvature. Various designs are made in the lens design so as to suppress these aberrations, but the aberrations cannot be completely eliminated, and the lens is designed in such a balance that blur is minimized. Patent Document 1 proposes a method of synthesizing an image photographed with a telephoto lens at the center of an image photographed with a wide-angle lens. Since the image taken with the telephoto lens has a higher resolution at the center of the image, the resolution at the center is improved by the synthesis.

特開2001−103466号公報JP 2001-103466 A

特許文献1によれば中央部の解像度が向上するが、周辺部の解像度は通常の広角レンズの解像度のままである。通常のレンズと同様に広角レンズも中央部と周辺部で解像度のバランスをとって設計されるため、周辺部の解像度は多少ぼけてしまう。つまり特許文献1では中央部の解像度は良好となる可能性があるが、周辺部の解像度に関しては改善効果が見込めない。また、画像全体について画像を重ね合わせることによって画質を向上させることを意図したものではなく、この方法では中央部と周辺部との境界領域に段差ができてしまい、かえって画質が劣化してしまうことも予想される。また、画像の全体を色収差を抑えるように合成することはこの方法では困難であるし、メリディオナル方向の解像度が高い画像とサジタル方向の解像度が高い画像の全体を合成することも困難である。   According to Patent Document 1, the resolution of the central portion is improved, but the resolution of the peripheral portion remains the same as that of a normal wide-angle lens. Like a normal lens, a wide-angle lens is designed with a balance of resolution at the center and the periphery, so the resolution at the periphery is somewhat blurred. That is, in Patent Document 1, there is a possibility that the resolution in the central part is good, but no improvement effect can be expected with respect to the resolution in the peripheral part. Also, it is not intended to improve the image quality by superimposing the image on the entire image, and this method creates a step in the boundary area between the central part and the peripheral part, which deteriorates the image quality. Is also expected. In addition, it is difficult to synthesize the entire image so as to suppress chromatic aberration, and it is also difficult to synthesize an image having a high resolution in the meridional direction and an image having a high resolution in the sagittal direction.

本発明は、画像の全体について解像度が高く、画像中の段差で画質劣化を来さない画像を生成する画像処理装置及び画像処理方法を提供する。   The present invention provides an image processing apparatus and an image processing method for generating an image that has a high resolution for the entire image and that does not cause image quality deterioration due to a step in the image.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
第1の撮像部で撮影された被写体の第1の撮影画像を取得する手段と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する手段と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得手段と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成手段とを備え
前記所定の画像成分は像高であり、
前記比率取得手段は像高に対する前記比率情報を取得し、
前記合成手段は、前記第1の撮影画像及び前記第2の撮影画像の対応する画素のそれぞれを、当該画素のそれぞれの像高に対する前記比率情報に従って合成することを特徴とする。
In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is,
Means for acquiring a first photographed image of a subject photographed by the first imaging unit;
Means for acquiring a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. Ratio acquisition means for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. Combining means for generating a combined image obtained by combining the image ,
The predetermined image component is an image height;
The ratio acquisition means acquires the ratio information with respect to the image height,
The synthesizing unit synthesizes the corresponding pixels of the first captured image and the second captured image according to the ratio information with respect to the image height of each pixel .

画像の全体について解像度が高く、画像中の段差で画質劣化を来さない画像を生成できる。   It is possible to generate an image that has high resolution for the entire image and that does not deteriorate image quality due to a step in the image.

補完関係にある撮像光学系を用いた撮像装置の一例An example of an imaging device using an imaging optical system in a complementary relationship 第1の実施形態における画像処理のフロー図Flow chart of image processing in the first embodiment 第1の実施形態における撮像光学系のMTFと係数の算出法を示す図The figure which shows the calculation method of MTF and a coefficient of the imaging optical system in 1st Embodiment 第2の実施形態における撮像光学系のMTFの特性を示す図The figure which shows the MTF characteristic of the imaging optical system in 2nd Embodiment 第2の実施形態における画像処理のフロー図Flow chart of image processing in the second embodiment 第2の実施形態において取得した画像の特性と処理領域を示す図The figure which shows the characteristic of the image and processing area which were acquired in 2nd Embodiment 第3の実施形態におけるMTFの特性と合成画像の周波数特性を示す図The figure which shows the characteristic of MTF and the frequency characteristic of a synthesized image in 3rd Embodiment. 第3の実施形態における合成処理のフロー図Flow chart of composition processing in the third embodiment 本件発明の機能を実現する装置構成の一例An example of a device configuration for realizing the functions of the present invention 第4の実施形態における撮像光学系を説明する図The figure explaining the imaging optical system in 4th Embodiment

本発明では伝達特性が補完関係にある撮像光学系をそれぞれ用いて同一の被写体の撮影画像を取得し、撮像光学系の伝達特性に基づいて合成することで、様々な観点において解像度に優れた画像を生成する。なお、本明細書において、撮像光学系と撮像素子を合わせて撮像部と称することとする。直感的に説明すると、補完関係にある撮像光学系のそれぞれはお互いの短所を補い合っている。例えばあるレンズが画像端で解像度が低くなると、他のレンズが画像端で解像度が高くなるようなレンズの組は補完関係にある撮像光学系である。補完関係にある撮像光学系では様々な条件に対してどれか一つの撮像光学系の解像度が高ければよい。画像端で解像度が高く画像中心で解像度が低い画像と、画像中心で解像度が高く画像端で解像度が低い2枚の画像は、どちらも許容できる画質ではない。そこで本発明では補完関係にある撮像光学系で撮影された画像を、個々の撮影光学系の伝達特性に基づいて合成することで、様々な観点において解像度が高い画像を得る。   In the present invention, images having excellent resolution from various viewpoints are obtained by acquiring captured images of the same subject using imaging optical systems having complementary transfer characteristics and combining them based on the transfer characteristics of the imaging optical system. Is generated. In this specification, the imaging optical system and the imaging device are collectively referred to as an imaging unit. To explain intuitively, each of the imaging optical systems in a complementary relationship compensates for each other's disadvantages. For example, a set of lenses in which when a certain lens has a low resolution at the image end and another lens has a high resolution at the image end is an imaging optical system in a complementary relationship. In an imaging optical system in a complementary relationship, it is sufficient that the resolution of any one imaging optical system is high for various conditions. Neither of the images with high resolution at the image edge and low resolution at the image center and the two images with high resolution at the image center and low resolution at the image edge are not acceptable image quality. Therefore, in the present invention, an image taken with the complementary imaging optical system is synthesized based on the transfer characteristics of the individual imaging optical systems to obtain an image with high resolution from various viewpoints.

以下、本発明の画像処理方法を用いた撮像装置の具体的な実施形態を図面を用いて説明する。以下の実施形態においては例として、所定の画像成分(色、像高、空間周波数)についての収差を原因とする解像度の低下を抑える方法を説明する。しかし、本発明の実施形態はこれらに限られるものではなく、例えば複数の収差を抑える構成をとってもよいし、他の画像成分に対する収差を抑えてもよい。   Hereinafter, specific embodiments of an imaging apparatus using the image processing method of the present invention will be described with reference to the drawings. In the following embodiments, as an example, a method for suppressing a reduction in resolution caused by aberrations for a predetermined image component (color, image height, spatial frequency) will be described. However, embodiments of the present invention are not limited to these. For example, a configuration in which a plurality of aberrations are suppressed may be employed, and aberrations with respect to other image components may be suppressed.

第1の実施形態では、色収差に関するトレードオフを扱う。レンズの屈折率は光の波長によって異なる。そのため、光の波長毎に結像状態が異なる。ある波長の光を一点に集めようとすると、他の波長の光が集光せず、ぼけてしまう。このように色収差によって色毎の解像度にはトレードオフの関係が発生する。   The first embodiment deals with a trade-off related to chromatic aberration. The refractive index of the lens varies depending on the wavelength of light. Therefore, the imaging state differs for each wavelength of light. When trying to collect light of a certain wavelength at one point, light of other wavelengths is not condensed and is blurred. As described above, a trade-off relationship occurs in the resolution for each color due to chromatic aberration.

第2の実施形態では、像面湾曲収差に関するトレードオフを扱う。像面湾曲収差とは、結像面の中心と周辺とにおいてピントの差が生じてしまう現象である。ピントが中心に合った場合を考えると、画像の端の領域に結像すべき光はセンサの手前ないし奥で結像してしまう。センサの手前で結像するため、センサ上では光がぼけてしまう。ピントが画像中心に合った場合、像面湾曲収差は画像中心に対して画像端がぼける現象を言うが、仮に画像端での結像点とセンサ面を一致させてぼけを改善すると逆に画像中心がぼけてしまう。このように像面湾曲収差によって画像端と画像中心の解像度にはトレードオフの関係が発生する。   The second embodiment deals with a trade-off related to field curvature aberration. The field curvature aberration is a phenomenon that causes a difference in focus between the center and the periphery of the image plane. Considering the case where the focus is in the center, the light to be imaged on the edge region of the image is imaged in front of or behind the sensor. Since the image is formed in front of the sensor, light is blurred on the sensor. When the focus is in the center of the image, the field curvature aberration is a phenomenon in which the image end is blurred with respect to the image center. The center is blurred. Thus, a trade-off relationship occurs between the resolution of the image edge and the center of the image due to the field curvature aberration.

第3の実施形態では、非点収差に関するトレードオフを扱う。物体上の一点から出た光線はレンズ上のあらゆる点を通過する。これら光線のうち二つの断面を通る光線群を考える。第一の断面は光軸を含む断面、第二の断面は第一の断面に垂直で光軸に平行な断面である。第一の断面はメリディオナル面、第二の断面はサジタル面と呼ばれている。通常、それぞれの断面に含まれる光線群は入射角の相違により別々の位置に結像する。例えばメリディオナル面の光線がセンサ上に結像したとすると、サジタル面の光線はセンサ面の前後にずれて結像する。サジタル面の光線に関する結像位置のずれは、画像中心を円の中心とする同心円上で円周方向のぼけを発生させる。逆にメリディオナル面に含まれる光線の結像位置がセンサ面とずれる場合には、画像中心から放射方向のぼけが発生する。このように非点収差によって円周方向と放射方向の解像度にトレードオフが発生する。   In the third embodiment, a trade-off related to astigmatism is handled. Rays from a point on the object pass through every point on the lens. Consider a group of rays passing through two cross sections of these rays. The first cross section is a cross section including the optical axis, and the second cross section is a cross section perpendicular to the first cross section and parallel to the optical axis. The first section is called the meridional plane, and the second section is called the sagittal plane. Usually, light beams included in each cross-section are imaged at different positions due to the difference in incident angle. For example, if the light beam on the meridional surface forms an image on the sensor, the light beam on the sagittal surface shifts and forms an image before and after the sensor surface. The shift of the imaging position with respect to the rays on the sagittal plane causes a circumferential blur on a concentric circle with the center of the image as the center of the circle. On the other hand, when the image forming position of the light beam included in the meridional plane deviates from the sensor plane, the radial blur occurs from the center of the image. As described above, astigmatism causes a trade-off between the resolution in the circumferential direction and the radial direction.

[第1の実施形態]
第1の実施形態では、補完関係にある撮像光学系を用い、撮像光学系の伝達特性に基づいて色収差の少ない画像を得る方法について説明する。ここで伝達特性とは当業者によってOTF(Optical Transfer Function)と呼ばれているものである。OTFは様々な周波数パターンに対する光学系の応答を表す。OTFは測定可能な量であり、通常は二次元の空間周波数の関数として表される。OTFは解像度の指標として用いられ、OTFの絶対値であるMTFが1に近いほど解像度が高い。MTFが全空間周波数について1であると理想結像となり、画像のぼけは発生しない。通常MTFは収差のため、DC成分を除いては1より小さい値をとる。またMTFは色によっても異なるし、画像の中心・端等画像位置によっても異なる。以上のようにMTFは撮像光学系の解像度に関する特性を表す特性値である。
[First Embodiment]
In the first embodiment, a method for obtaining an image with little chromatic aberration based on the transfer characteristics of an imaging optical system using an imaging optical system in a complementary relationship will be described. Here, the transfer characteristic is what is called OTF (Optical Transfer Function) by those skilled in the art. OTF represents the response of the optical system to various frequency patterns. OTF is a measurable quantity and is usually expressed as a function of two-dimensional spatial frequency. OTF is used as an index of resolution, and the closer the MTF, which is the absolute value of OTF, to 1, the higher the resolution. When the MTF is 1 for all spatial frequencies, ideal image formation occurs and no image blur occurs. Normally, MTF is an aberration and takes a value smaller than 1 except for the DC component. The MTF also differs depending on the color, and also differs depending on the image position such as the center / edge of the image. As described above, the MTF is a characteristic value that represents characteristics relating to the resolution of the imaging optical system.

図1は第1の実施形態に係る補完関係にある撮像光学系を用いた撮像装置の一例である。不図示の被写体からの光線101はハーフミラー102により光路が二つに分かれる。一方の光線は撮像光学系104により撮像素子106に導かれる(第1の撮像部)。もう一方の光線はミラー103により反射され撮像光学系105により撮像素子107に導かれる(第2の撮像部)。ここで撮像光学系104と撮像光学系105とは補完関係にある撮像光学系である。第1の実施形態における撮像光学系104と撮像光学系105とは、それぞれ解像度が高くなる光の波長が異なる。例えば撮像光学系104は短波長側の光に関して解像度が高く、その代わりに長波長側の光に関して解像度が低い。また撮像光学系105は短波長側の光に関して解像度が低く、その代わりに長波長側の光に関して解像度が高い。上記のような撮像光学系104,105の構成は当業者であれば想到可能である。例えばレンズ設計を行う際、2つのレンズの解像度の目標をそれぞれ短波長側、長波長側において高く持って、適切な光学配置を行えばよい。本実施形態では補完関係にある撮像光学系として2つの撮像光学系104と105を挙げた。しかしながら、短波長、中波長、長波長というように波長を3分割して、それぞれの波長で解像度の高い3つの撮像光学系により構成してもよいし、さらには任意の数の撮像光学系により構成してもよい。   FIG. 1 shows an example of an imaging apparatus using an imaging optical system in a complementary relationship according to the first embodiment. A light beam 101 from a subject (not shown) is split into two optical paths by a half mirror 102. One light beam is guided to the image sensor 106 by the imaging optical system 104 (first imaging unit). The other light beam is reflected by the mirror 103 and guided to the image sensor 107 by the imaging optical system 105 (second imaging unit). Here, the imaging optical system 104 and the imaging optical system 105 are imaging optical systems in a complementary relationship. The imaging optical system 104 and the imaging optical system 105 in the first embodiment have different wavelengths of light that increase the resolution. For example, the imaging optical system 104 has a high resolution with respect to light on the short wavelength side, and instead has a low resolution with respect to light on the long wavelength side. Further, the imaging optical system 105 has a low resolution with respect to the light on the short wavelength side, and instead has a high resolution with respect to the light on the long wavelength side. A person skilled in the art can conceive the configuration of the imaging optical systems 104 and 105 as described above. For example, when designing a lens, an appropriate optical arrangement may be performed by setting high resolution targets for the two lenses on the short wavelength side and the long wavelength side, respectively. In the present embodiment, the two imaging optical systems 104 and 105 are cited as the imaging optical systems having a complementary relationship. However, the wavelength may be divided into three, such as short wavelength, medium wavelength, and long wavelength, and may be configured by three imaging optical systems having high resolution at each wavelength, or by an arbitrary number of imaging optical systems. It may be configured.

撮像素子106,107は例えばCCDやCMOS等が好適であり、電気信号として画像情報を形成する。撮像素子106,107から信号を読み出すことで、同一の被写体の撮影画像110(第1の撮影画像),111(第2の撮影画像)がそれぞれ得られる。ここで撮影画像110は短波長側の光である青に関して解像度が高く、長波長側の光である赤に関して解像度が低い。また撮影画像111では短波長側の光である青に関して解像度が低く、長波長側の光である赤に関して解像度が高い。つまり、撮影画像110,111のどちらの画像も一長一短であり、特定の色(所定の画像成分)に関しては解像度は高いが、それ以外の色に関しては解像度が低い。画像合成部112は、係数記憶部133に記憶されている係数に基づいて撮影画像110,111を合成し、合成画像113を生成する。第1の実施形態に係る合成方法については後述する。画像合成部112により合成された合成画像113は短波長・長波長のどちらの色の光に関しても解像度が高い画像である。合成画像113は画像記憶部135に記憶される。   The image sensors 106 and 107 are preferably CCDs, CMOSs, etc., and form image information as electrical signals. By reading signals from the image sensors 106 and 107, captured images 110 (first captured images) and 111 (second captured images) of the same subject are obtained. Here, the captured image 110 has a high resolution for blue, which is light on the short wavelength side, and a low resolution for red, which is the light on the long wavelength side. In the captured image 111, the resolution is low for blue, which is light on the short wavelength side, and the resolution is high for red, which is light on the long wavelength side. That is, both of the captured images 110 and 111 have merits and demerits, and the resolution is high for a specific color (predetermined image component), but the resolution is low for the other colors. The image synthesis unit 112 synthesizes the captured images 110 and 111 based on the coefficients stored in the coefficient storage unit 133 to generate a synthesized image 113. The synthesis method according to the first embodiment will be described later. The synthesized image 113 synthesized by the image synthesizing unit 112 is an image with high resolution with respect to light of both short wavelength and long wavelength. The composite image 113 is stored in the image storage unit 135.

<第1の実施形態に係る画像合成方法>
図2のフローチャートを用いて、第1の実施形態に係る画像合成部112が実行する画像合成方法を説明する。まずステップS201では撮像素子106,107から撮影画像110,111を取得する。次にステップS202で係数記憶部133から合成処理のための係数を読み出す(比率取得手段)。第1の実施形態では係数は撮像光学系104についての係数WaR,WaG,WaB,及び撮像光学系105についての係数WbR,WbG,WbBである。
<Image Composition Method According to First Embodiment>
An image composition method executed by the image composition unit 112 according to the first embodiment will be described with reference to the flowchart of FIG. First, in step S201, the captured images 110 and 111 are acquired from the image sensors 106 and 107. In step S202, the coefficient for the synthesis process is read from the coefficient storage unit 133 (ratio acquisition means). In the first embodiment, the coefficients are coefficients WaR, WaG, WaB for the imaging optical system 104 and coefficients WbR, WbG, WbB for the imaging optical system 105.

合成処理のための係数の算出方法について述べる。図3(a)、図3(b)に撮像光学系104と撮像光学系105の光の波長に対するMTFのグラフをそれぞれ示す。横軸は光の波長、縦軸は代表的な空間周波数に対する各光学系のMTFである。代表的な空間周波数として何を採用してもよいが、例えば10cycle/mmであればよい。本実施形態では、撮像光学系104は短波長で解像度が高く、長波長で解像度が低い。そのため図3(a)において長波長側ほどMTFが低くなっている。また図3(b)に示す通り、撮像光学系105では短波長側ほどMTFが低い。このようなデータは当業者であればレンズ設計値等から計算可能である。図3(a),(b)に示す波長対MTFのデータから次式に基づいて係数WaR,WaG,WaB,WbR,WbG,WbBを計算する。   A method for calculating coefficients for the synthesis process will be described. 3A and 3B show graphs of MTFs with respect to the wavelengths of light of the imaging optical system 104 and the imaging optical system 105, respectively. The horizontal axis represents the wavelength of light, and the vertical axis represents the MTF of each optical system with respect to a typical spatial frequency. Any typical spatial frequency may be adopted, but it may be, for example, 10 cycles / mm. In the present embodiment, the imaging optical system 104 has a high resolution at a short wavelength and a low resolution at a long wavelength. For this reason, in FIG. 3A, the MTF becomes lower on the longer wavelength side. Further, as shown in FIG. 3B, in the imaging optical system 105, the MTF is lower on the shorter wavelength side. Such data can be calculated by those skilled in the art from lens design values and the like. Coefficients WaR, WaG, WaB, WbR, WbG, WbB are calculated based on the following equation from the data of wavelength versus MTF shown in FIGS.

WaR=∫MTFa(λ)×R(λ)dλ
WaG=∫MTFa(λ)×G(λ)dλ
WaB=∫MTFa(λ)×B(λ)dλ
WbR=∫MTFb(λ)×R(λ)dλ
WbG=∫MTFb(λ)×G(λ)dλ
WbB=∫MTFb(λ)×B(λ)dλ
ここでR(λ)、G(λ)、B(λ)は、撮像部のRGBチャネルのそれぞれの、波長λの光に対する感度(分光感度特性)である。積分は波長についてなされる。このような積分によりR、G、Bの各色チャネルに関する、撮像光学系104,105それぞれの係数が算出される。係数が大きいほど対応するチャネルの色に関して解像度が高い。上記計算の概念図を図3(c)に示す。図3(c)より撮像光学系104は短波長側でMTFが高いためWaRは小さく、逆に長波長側でMTFが低いためWaBは大きい。撮像光学系105ではこれとは反対に短波長側でMTFが低いためWaRが大きく、逆にWaBは小さい。
WaR = ∫MTFa (λ) × R (λ) dλ
WaG = ∫MTFa (λ) × G (λ) dλ
WaB = ∫MTFa (λ) × B (λ) dλ
WbR = ∫MTFb (λ) × R (λ) dλ
WbG = ∫MTFb (λ) × G (λ) dλ
WbB = ∫MTFb (λ) × B (λ) dλ
Here, R (λ), G (λ), and B (λ) are sensitivities (spectral sensitivity characteristics) with respect to light of wavelength λ of the RGB channels of the imaging unit. Integration is done over wavelength. By such integration, the coefficients of the imaging optical systems 104 and 105 for the R, G, and B color channels are calculated. The larger the coefficient, the higher the resolution for the corresponding channel color. A conceptual diagram of the above calculation is shown in FIG. As shown in FIG. 3C, the imaging optical system 104 has a low MTF because the MTF is high on the short wavelength side, while WaB is large because the MTF is low on the long wavelength side. On the contrary, in the imaging optical system 105, WaR is large because Wafer is large because MTF is low on the short wavelength side, whereas WaB is small.

ステップS203では係数記憶部133から読み出した上記係数を用いて画像合成を行う。撮影画像110のRGB成分のそれぞれに対応する画像をIaR,IaG,IaBとし、また撮影画像111のRGB成分のそれぞれに対応する画像をIbR,IbG,IbBとする。合成画像のRGBプレーンに対応する画像をIR,IG,IBとすると画像合成は次式に基づき行われる。   In step S203, image synthesis is performed using the coefficients read from the coefficient storage unit 133. Images corresponding to the RGB components of the captured image 110 are IaR, IaG, and IaB, and images corresponding to the RGB components of the captured image 111 are IbR, IbG, and IbB. If the image corresponding to the RGB plane of the composite image is IR, IG, IB, the image synthesis is performed based on the following equation.

IR=(WaR×IaR+WbR×IbR)/(WaR+WbR)
IG=(WaG×IaG+WbG×IbG)/(WaG+WbG)
IB=(WaB×IaB+WbB×IbB)/(WaB+WbB)
すなわち、IaとIbとの加重平均を、係数Wa及びWbを用いて計算する。すなわち、Wa及びWbはIaとIbとの合成比率を示す比率情報である。この計算は、撮像光学系が3つ以上ある場合にも同様に適用可能である。図3(a)及び図3(b)の例によれば、合成画像のRプレーンはRについて解像度の高い撮影画像111により主に構成される。また、合成画像のBプレーンはBについて解像度の高い撮影画像110により主に構成される。Gプレーンについては撮影画像110,111ともに同程度の解像度であり、IaGとIbGとを同程度の比率で合成した画像により構成される。以上述べた処理により、色収差に関して補完関係にある撮像光学系104及び105により取得された撮影画像110及び111から、どの色についても解像度の高い、色収差の少ない合成画像113を得る事ができる。
IR = (WaR × IaR + WbR × IbR) / (WaR + WbR)
IG = (WaG × IaG + WbG × IbG) / (WaG + WbG)
IB = (WaB × IaB + WbB × IbB) / (WaB + WbB)
That is, the weighted average of Ia and Ib is calculated using the coefficients Wa and Wb. That is, Wa and Wb are ratio information indicating the synthesis ratio of Ia and Ib. This calculation can be similarly applied when there are three or more imaging optical systems. According to the example of FIG. 3A and FIG. 3B, the R plane of the composite image is mainly configured by the captured image 111 having a high resolution with respect to R. The B plane of the composite image is mainly composed of the captured image 110 having a high resolution for B. The G plane has the same resolution for both the captured images 110 and 111, and is composed of images obtained by combining IaG and IbG at a similar ratio. Through the processing described above, it is possible to obtain a composite image 113 with high resolution and low chromatic aberration for any color from the captured images 110 and 111 acquired by the imaging optical systems 104 and 105 that have a complementary relationship with respect to chromatic aberration.

<第2の実施形態>
本発明の第2の実施形態として、補完関係にある撮像光学系を用いて様々な像高(所定の画像成分)で解像度の高い画像を得る方法について説明する。なお、像高とは画像中心からの距離の事であり、一般的には像高が低いほど解像度が高くなるようにレンズを設計する。本実施形態に係る画像処理装置は、第1の実施形態と同様に図1の構成をとればよい。第1の実施形態との相違は撮像光学系104,105の光学特性、画像合成部112の処理内容、及び係数記憶部133に記憶される係数である。
<Second Embodiment>
As a second embodiment of the present invention, a method for obtaining images with high resolution at various image heights (predetermined image components) using an imaging optical system in a complementary relationship will be described. The image height is a distance from the center of the image. In general, the lens is designed such that the lower the image height, the higher the resolution. The image processing apparatus according to this embodiment may have the configuration shown in FIG. 1 as in the first embodiment. The differences from the first embodiment are the optical characteristics of the imaging optical systems 104 and 105, the processing contents of the image composition unit 112, and the coefficients stored in the coefficient storage unit 133.

撮像光学系104は低い像高では解像度が高く、高い像高で解像度が低くなるという特性を有する。また撮像光学系105は逆に、低い像高では解像度が低く、高い像高では解像度が高くなるという特性を有する。図4に撮像光学系104,105についての像高に対するMTFのグラフを示す。上記のような特性を有する2つの撮像光学系は当業者であれば光学CAD等により設計する事が可能である。具体的には2つのレンズの解像度の目標をそれぞれ低像高側、高像高側で高く持って設計を行えばよい。一例として、像面湾曲収差により高像高で発生する解像度低下を気にせずに、低像高の光線に関してセンサ面上に結像するように撮像光学系104を設計すればよい。逆に撮像光学系105は、高像高の光線の結像面とセンサ面とを合わせるように設計すればよい。撮像光学系105は、低像高では結像面とセンサ面とが離れてしまい解像度が低くなるが、その分高像高で解像度を高くできる。   The imaging optical system 104 has a characteristic that the resolution is high at a low image height and the resolution is low at a high image height. In contrast, the imaging optical system 105 has a characteristic that the resolution is low at a low image height and the resolution is high at a high image height. FIG. 4 shows a graph of MTF with respect to image height for the imaging optical systems 104 and 105. Those skilled in the art can design two imaging optical systems having the above characteristics by optical CAD or the like. Specifically, the design may be performed with the resolution targets of the two lenses being set high on the low image height side and the high image height side, respectively. As an example, the imaging optical system 104 may be designed so as to form an image on the sensor surface with respect to a light beam having a low image height without worrying about a reduction in resolution that occurs at a high image height due to field curvature aberration. Conversely, the imaging optical system 105 may be designed so that the imaging surface of the light beam having a high image height matches the sensor surface. The imaging optical system 105 is low in resolution because the imaging surface is separated from the sensor surface at low image heights, but the resolution can be increased at high image heights accordingly.

次に第2の実施形態において画像合成部112が実行する画像合成の処理フローを図5を用いて説明する。ステップS501では撮影画像110,111を取得する。ステップS502では、撮影画像110,111中の画素の1つを処理対象として選択する。例えばラスタ順に選択していけばよい。例として、位置(X,Y)を選択している場合を説明する。ステップS503では処理対象の画像位置の像高hを計算する。具体的には画像中心の画素位置を(Xc,Yc)とし、現在の画像位置を(X,Y)とする場合に、像高h=√{(X-Xc)2+(Y-Yc)2}として像高を計算すればよい。 ステップS504では像高hに対応する係数Wa(h),Wb(h)を係数記憶部133から読み出す。第2の実施形態に係る係数Wa(h),Wb(h)は、以下のように算出され、係数記憶部133に記憶されていればよい。すなわち、各像高に対するMTF値によってWa(h),Wb(h)をそれぞれ定義する。図4(a),(b)はそれぞれ撮像光学系104,105について、各像高に対する代表的な空間周波数に対するMTF値Wa(h),Wb(h)を示している。代表的な空間周波数として何を採用してもよいが、例えば10cycle/mmであればよい。図4(a)に示すように、撮像光学系104は低像高においては解像度が高いため低像高でのWaが大きく、また高像高においては解像度が低いため高像高でのWaが小さくなっている。また図4(b)に示すように、撮像光学系105は低像高においては解像度が低いた低像高でのWbが小さく、高像高においては解像度が高いため高像高でのWbが大きくなっている。 Next, an image composition processing flow executed by the image composition unit 112 in the second embodiment will be described with reference to FIG. In step S501, the captured images 110 and 111 are acquired. In step S502, one of the pixels in the captured images 110 and 111 is selected as a processing target. For example, selection may be made in raster order. As an example, a case where the position (X, Y) is selected will be described. In step S503, the image height h at the image position to be processed is calculated. Specifically, when the pixel position at the center of the image is (Xc, Yc) and the current image position is (X, Y), the image height h = √ {(X-Xc) 2 + (Y-Yc) The image height can be calculated as 2 }. In step S504, the coefficients Wa (h) and Wb (h) corresponding to the image height h are read from the coefficient storage unit 133. The coefficients Wa (h) and Wb (h) according to the second embodiment may be calculated as follows and stored in the coefficient storage unit 133. That is, Wa (h) and Wb (h) are respectively defined by the MTF value for each image height. FIGS. 4A and 4B show MTF values Wa (h) and Wb (h) with respect to typical spatial frequencies for the respective image heights for the imaging optical systems 104 and 105, respectively. Any typical spatial frequency may be adopted, but it may be, for example, 10 cycles / mm. As shown in FIG. 4 (a), the imaging optical system 104 has a high resolution at a low image height, so the Wa at a low image height is large, and at a high image height, the resolution is low, so a Wa at a high image height. It is getting smaller. Further, as shown in FIG. 4B, the imaging optical system 105 has a low resolution at a low image height and a low Wb at a low image height, and a high resolution at a high image height results in a high Wb at a high image height. It is getting bigger.

次にステップS505では、位置(X,Y)についての撮影画像110の画素値Ia(X,Y)及び撮影画像111の画素値Ib(X,Y)、及び係数Wa(h),Wb(h)を用いて、第1の実施形態と同様に計算を行う。具体的には、位置(X,Y)に対応する合成画像113の画素値I(X,Y)を次式により計算する。
I(X,Y) = {Wa(h)×Ia(X,Y) + Wb(h)×Ib(X,Y)} / {Wa(h)+Wb(h)}
計算した画素値I(X,Y)は、画像記憶部135に記憶しておけばよい。上記の計算式にもとづけば、合成画像113の低像高部分は、低像高で解像度の高い撮影画像110により主に構成される。また合成画像113の高像高部分は、高像高で解像度の高い撮影画像111により主に構成される。
Next, in step S505, the pixel value Ia (X, Y) of the captured image 110 and the pixel value Ib (X, Y) of the captured image 111 and the coefficients Wa (h) and Wb (h) for the position (X, Y). ) To calculate in the same manner as in the first embodiment. Specifically, the pixel value I (X, Y) of the composite image 113 corresponding to the position (X, Y) is calculated by the following equation.
I (X, Y) = {Wa (h) × Ia (X, Y) + Wb (h) × Ib (X, Y)} / {Wa (h) + Wb (h)}
The calculated pixel value I (X, Y) may be stored in the image storage unit 135. Based on the above calculation formula, the low image height portion of the composite image 113 is mainly composed of the captured image 110 having a low image height and a high resolution. The high image height portion of the composite image 113 is mainly composed of the captured image 111 having a high image height and high resolution.

ステップS506では、まだ選択していない画素があるか否かを判断する。まだ選択していない画素が存在する場合はステップS502に戻り、次の画素を選択する。撮影画像110中の全て画素を選択している場合は、処理を終了する。以上の処理により、様々な像高で解像度の高い、像面湾曲収差の少ない合成画像を得ることができる。   In step S506, it is determined whether there is a pixel that has not yet been selected. If there is a pixel that has not yet been selected, the process returns to step S502 to select the next pixel. If all the pixels in the captured image 110 have been selected, the process ends. Through the above processing, it is possible to obtain a composite image with various image heights, high resolution, and low field curvature aberration.

<第3の実施形態>
本実施形態ではメリディオナル方向に解像度が高い撮像光学系と、サジタル方向に解像度が高い撮像光学系を用いて、両方向に解像度が高い画像を得る方法について述べる。通常、単一の撮像光学系で両方向ともに解像度を高くする事は困難である。本実施形態に係る画像処理装置は、第1の実施形態と同様に図1の構成をとればよい。第1の実施形態との相違は撮像光学系104,105の光学特性、画像合成部112の処理内容、及び係数記憶部133に記憶される係数である。
<Third Embodiment>
In the present embodiment, a method for obtaining an image having a high resolution in both directions by using an imaging optical system having a high resolution in the meridional direction and an imaging optical system having a high resolution in the sagittal direction will be described. Usually, it is difficult to increase the resolution in both directions with a single imaging optical system. The image processing apparatus according to this embodiment may have the configuration shown in FIG. 1 as in the first embodiment. The differences from the first embodiment are the optical characteristics of the imaging optical systems 104 and 105, the processing contents of the image composition unit 112, and the coefficients stored in the coefficient storage unit 133.

本実施形態で撮像光学系104はメリディオナル方向に解像度が高く、サジタル方向に解像度が低い。また本実施形態では撮像光学系105はメリディオナル方向に解像度が低く、サジタル方向に解像度が高い。撮像光学系104,105は補完関係にある撮像光学系である。撮像光学系104,105の特徴を図6を用いて説明する。図6(b)は図6(a)に示すチャートを撮像光学系104を用いて撮影した場合の撮影画像の例である。撮像光学系104はメリディオナル方向に解像度が高いため、画面中心から放射方向に関してはあまりぼけずに、くっきりとしている。従って図6(b)では同心円をなす曲線に関しては鮮明な像が得られる。一方で、撮像光学系105はサジタル方向に解像度が低いため、円周方向に関しては像がぼけてしまう。そのため図6(b)では放射状の線分の像が円周方向にぼけている。一方、図6(c)は撮像光学系105を用いて図6(a)に示すチャートを撮影した場合の撮影画像の例である。図6(c)とは逆に、メリディオナル方向の解像度が低いために同心円をなす曲線が放射方向にぼけている。逆にサジタル方向の解像度が高いため放射状の線分の像は鮮明である。   In this embodiment, the imaging optical system 104 has a high resolution in the meridional direction and a low resolution in the sagittal direction. In this embodiment, the imaging optical system 105 has a low resolution in the meridional direction and a high resolution in the sagittal direction. The imaging optical systems 104 and 105 are imaging optical systems in a complementary relationship. The characteristics of the imaging optical systems 104 and 105 will be described with reference to FIG. FIG. 6B is an example of a captured image when the chart shown in FIG. 6A is captured using the imaging optical system 104. Since the imaging optical system 104 has a high resolution in the meridional direction, the radial direction from the center of the screen is not so blurred and clear. Therefore, in FIG. 6 (b), a clear image is obtained with respect to the curves forming concentric circles. On the other hand, since the imaging optical system 105 has a low resolution in the sagittal direction, the image is blurred in the circumferential direction. Therefore, in FIG. 6B, the radial line segment image is blurred in the circumferential direction. On the other hand, FIG. 6C is an example of a photographed image when the chart shown in FIG. 6A is photographed using the imaging optical system 105. Contrary to FIG. 6 (c), since the resolution in the meridional direction is low, a concentric curve is blurred in the radial direction. On the contrary, since the resolution in the sagittal direction is high, the radial line segment image is clear.

<第3の実施形態・合成方法の例1>
以下で、本実施形態に係る画像合成部112の処理を説明する。撮影画像110,111の合成では、合成画像の各領域について順次画像合成を行う。説明のため例えば図6(d)に示す合成画像801のうち、領域802内の画像合成を行う場合を考える。領域802に対応する、合成のための係数算出方法について述べる。領域802に対応する撮像光学系104のMTFaの例を図7(a)に、撮像光学系105のMTFbの例を図7(b)にそれぞれ示す。図7(a),(b)において縦軸、横軸はそれぞれ縦、横方向の空間周波数(所定の画像成分)を意味する。網点の部分はMTFが高い領域を示す。撮像光学系104はメリディオナル方向、すなわち放射方向に解像度が高い。撮像光学系104を用いて撮影した撮影画像110の放射方向は領域802の左上-右下を結ぶ方向に対応し、この方向を軸にMTFが高い値をとる様子が図7(a)に示されている。逆に撮像光学系105はサジタル方向に解像度が高いため、撮像光学系105を用いて撮影した撮影画像111の領域802内では、左下-右上を結ぶ方向を軸としてMTFが高い値をとる。この様子が、図7(b)には示されている。第3の実施形態・合成方法の例1では、撮像光学系104,105のMTFであるMTFa及びMTFbが合成のための係数に他ならない。なお、撮像光学系のMTFは絞り、物体距離、ズーム位置等に応じて多少変動するため、撮影条件に応じた値を係数記憶部133に格納しておくか、あるいは係数を変更する事が望ましい。撮影条件の取得は例えば図1のシステムコントローラ132によって取得する方法がある。
<Third Embodiment / Synthesis Method Example 1>
Hereinafter, processing of the image composition unit 112 according to the present embodiment will be described. In the synthesis of the captured images 110 and 111, image synthesis is sequentially performed for each area of the synthesized image. For the purpose of explanation, for example, consider a case where image synthesis within the region 802 is performed among the synthesized images 801 shown in FIG. A coefficient calculation method for synthesis corresponding to the region 802 will be described. An example of the MTFa of the imaging optical system 104 corresponding to the region 802 is shown in FIG. 7A, and an example of the MTFb of the imaging optical system 105 is shown in FIG. 7B. 7 (a) and 7 (b), the vertical axis and the horizontal axis mean the vertical and horizontal spatial frequencies (predetermined image components), respectively. A halftone dot portion indicates a region where the MTF is high. The imaging optical system 104 has a high resolution in the meridional direction, that is, in the radial direction. The radiation direction of the photographed image 110 photographed using the imaging optical system 104 corresponds to the direction connecting the upper left and lower right of the region 802, and FIG. 7A shows a state in which the MTF takes a high value around this direction. Has been. Conversely, since the imaging optical system 105 has a high resolution in the sagittal direction, the MTF takes a high value around the direction connecting the lower left and the upper right in the region 802 of the captured image 111 captured using the imaging optical system 105. This is shown in FIG. 7 (b). In Example 1 of the third embodiment / synthesis method, MTFa and MTFb, which are MTFs of the imaging optical systems 104 and 105, are nothing but coefficients for synthesis. Note that since the MTF of the imaging optical system varies slightly depending on the aperture, object distance, zoom position, etc., it is desirable to store a value corresponding to the imaging condition in the coefficient storage unit 133 or to change the coefficient. . For example, there is a method of acquiring the photographing condition by the system controller 132 of FIG.

第3の実施形態・合成方法の例1における合成処理のフローを図8(a)に示す。ステップS1001では撮影画像110及び111を取得する。続いて、撮影画像110,111を同じ方法で複数の領域に分割し、部分画像(第1の部分画像及び第2の部分画像)とする(S1002)(第1の分割手段及び第2の分割手段)。分割方法は任意であるが、例えば、縦方向に均等に5分割、横方向に均等に5分割して、25個の領域に分割すればよい。この後の処理では各分割領域について合成画像の計算が順次行われるものとする。ステップS1003では分割領域の1つを順に選択する。次に、撮影画像110,111の選択領域をフーリエ変換(直交空間周波数変換又は直交変換)する(S1004)。撮影画像110の選択領域のフーリエ変換をFa(u,v)(第1の周波数空間画像)、撮影画像111の同じ領域のフーリエ変換をFb(u,v)(第2の周波数空間画像)とする。ここで、uは横方向の空間周波数を、vは縦方向の空間周波数を示すものとする。ステップS1005では選択した分割領域における合成画像のフーリエ変換FI(第3の周波数空間画像)を、次式に基づいて第1及び第2の周波数空間画像の各成分を合成することで計算する。MTFa(u,v)は撮像光学系104の、選択領域における、横方向の空間周波数がuで縦方向の空間周波数がvである時のMTFを示す。これは、メリディオナル方向とサジタル方向との空間周波数に対するMTFから計算可能である。例えば、それぞれの分割領域について、メリディオナル方向とサジタル方向との座標系を直交座標系に近似してから、縦横方向の座標系となるように座標系を回転させればよい。MTFb(u,v)も同様である。
FI={ MTFa(u,v)×Fa(u,v)+MTFb(u,v)×Fb(u,v) }/{MTFa(u,v)+MTFb(u,v)}
FIG. 8A shows a flow of the synthesis process in Example 1 of the third embodiment / synthesis method. In step S1001, captured images 110 and 111 are acquired. Subsequently, the photographed images 110 and 111 are divided into a plurality of regions by the same method to obtain partial images (first partial image and second partial image) (S1002) (first dividing means and second dividing means). . Any division method may be used. For example, the image may be divided into 25 areas by dividing the area into 5 parts in the vertical direction and 5 parts in the horizontal direction. In the subsequent processing, it is assumed that the composite image is sequentially calculated for each divided region. In step S1003, one of the divided areas is selected in order. Next, Fourier transformation (orthogonal spatial frequency transformation or orthogonal transformation) is performed on the selected region of the captured images 110 and 111 (S1004). The Fourier transform of the selected region of the captured image 110 is Fa (u, v) (first frequency space image), and the Fourier transform of the same region of the captured image 111 is Fb (u, v) (second frequency space image). To do. Here, u represents the spatial frequency in the horizontal direction, and v represents the spatial frequency in the vertical direction. In step S1005, the Fourier transform FI (third frequency space image) of the composite image in the selected divided region is calculated by combining each component of the first and second frequency space images based on the following equation. MTFa (u, v) represents the MTF of the imaging optical system 104 when the horizontal spatial frequency is u and the vertical spatial frequency is v in the selected region. This can be calculated from the MTF for the spatial frequency in the meridional direction and the sagittal direction. For example, for each divided region, the coordinate system of the meridional direction and the sagittal direction may be approximated to an orthogonal coordinate system, and then the coordinate system may be rotated so as to become a vertical and horizontal coordinate system. The same applies to MTFb (u, v).
FI = {MTFa (u, v) × Fa (u, v) + MTFb (u, v) × Fb (u, v)} / {MTFa (u, v) + MTFb (u, v)}

上記の計算式により構成されるFIの概念図を図7(c)に示す。上記の計算式によれば、ある空間周波数におけるFIは、係る周波数においてMTFが高いほうの撮像光学系で得た画像が主に使用される。従って合成画像のフーリエ変換FIの周波数特性は図7(a),(b)のMTFの高い部分を足し合わせたような特性になる。この結果、合成画像はサジタル方向、メリディオナル方向ともにMTFが高く、解像度が高いことが分かる。なお、図7(c)から分かる通り、合成画像のフーリエ変換FIは上下方向と左右方向の値が相対的に低い。これに不満がある場合には、図7(c)において応答が低い周波数を補完するような新たな撮像光学系を追加して、応答が低い周波数を同様の合成手法により補えばよい。ステップS1006では選択領域の合成画像のフーリエ変換FIを逆フーリエ変換し、選択領域の合成画像(第3の部分画像)を得る。各合成部分画像は、合成部分画像群を構成する。得た合成画像は逐次画像記憶部135に格納していけばよい。ステップS1007ではすべての部分領域を選択したか否かを判断し、選択していなければステップS1003に戻って次の部分領域を選択する。選択していれば、画像記憶部135に格納されている合成部分画像を統合し、合成画像を生成する(S1008)。   FIG. 7C shows a conceptual diagram of the FI configured by the above calculation formula. According to the above calculation formula, as the FI at a certain spatial frequency, an image obtained by the imaging optical system having the higher MTF at the frequency is mainly used. Therefore, the frequency characteristic of the Fourier transform FI of the composite image is a characteristic obtained by adding the high MTF portions in FIGS. 7 (a) and 7 (b). As a result, it can be seen that the composite image has a high MTF and high resolution in both the sagittal direction and the meridional direction. As can be seen from FIG. 7C, the Fourier transform FI of the composite image has relatively low values in the vertical direction and the horizontal direction. If this is unsatisfactory, a new imaging optical system that complements the low response frequency in FIG. 7C may be added, and the low response frequency may be compensated by a similar synthesis method. In step S1006, the Fourier transform FI of the composite image of the selected region is inverse Fourier transformed to obtain a composite image (third partial image) of the selected region. Each composite partial image constitutes a composite partial image group. The obtained composite image may be stored in the image storage unit 135 sequentially. In step S1007, it is determined whether or not all partial areas have been selected. If not, the process returns to step S1003 to select the next partial area. If selected, the composite partial images stored in the image storage unit 135 are integrated to generate a composite image (S1008).

<第3の実施形態・合成方法の例2>
第3の実施形態・合成方法の例1と同様に画像の各領域について順次画像合成を行う。第3の実施形態・合成方法の例1では撮影画像にフーリエ変換を施し、周波数空間で加重平均をしていた。しかしながらこの方法は合成の過程が直感的に分かりやすいという利点はあるものの、実装負荷が高い。そこで合成方法の例2では撮影画像をフーリエ変換して周波数空間上で合成するのではなく、実空間上においてフィルタ処理を行い、第3の実施形態・合成方法の例1と等価な結果を得る。
<Third Embodiment / Synthesis Method Example 2>
Similar to the first embodiment and the example 1 of the composition method, image composition is sequentially performed for each region of the image. In the third embodiment / example 1 of the synthesizing method, Fourier transformation is performed on the captured image, and weighted averaging is performed in the frequency space. However, this method has an advantage that the synthesis process is intuitively easy to understand, but has a high mounting load. Therefore, in the synthesis method example 2, the captured image is not Fourier-transformed and synthesized in the frequency space, but is filtered in the real space to obtain a result equivalent to the third embodiment / synthesis method example 1. .

第3の実施形態・合成方法の例1による合成の計算式を改めて記す。
FI={ MTFa(u,v)×Fa(u,v)+MTFb(u,v)×Fb(u,v) }/{MTFa(u,v)+MTFb(u,v)}
上記の式を逆フーリエ変換すると、次式を得る。
I=fa*Ia+fb*Ib
ここでIは合成画像、Ia,Ibはそれぞれ撮影画像110,111である。*はコンボリューション演算を示す。またfa,fbはそれぞれ次式で表される。
fa= ( MTFa(u,v)/{MTFa(u,v)+MTFb(u,v)} の逆フーリエ変換 )
fb= ( MTFb(u,v)/{MTFa(u,v)+MTFb(u,v)} の逆フーリエ変換 )
画像合成に用いるべき係数は上記の2式によって表されるfa(第1の合成比率),fb(第2の合成比率)に他ならなず、fa及びfbはIaとIbとの合成比率を与える。この合成比率の割合でIaとIbとを合成すればよい。このような係数を撮影条件、画像中の位置毎に図1の係数記憶部133に格納し、画像合成部112はこれらの係数を画像合成の際に読み出す。
The calculation formula of the synthesis according to the third embodiment / example 1 of the synthesis method will be described again.
FI = {MTFa (u, v) × Fa (u, v) + MTFb (u, v) × Fb (u, v)} / {MTFa (u, v) + MTFb (u, v)}
When the above equation is inverse Fourier transformed, the following equation is obtained.
I = fa * Ia + fb * Ib
Here, I is a composite image, and Ia and Ib are captured images 110 and 111, respectively. * Indicates convolution calculation. Fa and fb are respectively expressed by the following equations.
fa = (Inverse Fourier transform of MTFa (u, v) / {MTFa (u, v) + MTFb (u, v)})
fb = (MTFb (u, v) / {MTFa (u, v) + MTFb (u, v)} inverse Fourier transform)
The coefficients to be used for image composition are none other than fa (first composition ratio) and fb (second composition ratio) expressed by the above two equations, and fa and fb are the composition ratio of Ia and Ib. give. What is necessary is just to synthesize | combine Ia and Ib in the ratio of this synthetic | combination ratio. Such coefficients are stored in the coefficient storage unit 133 of FIG. 1 for each photographing condition and position in the image, and the image composition unit 112 reads these coefficients at the time of image composition.

第3の実施形態・合成方法の例2に係る画像合成の処理フローを図8(b)に示す。図8(b)の処理は、他に明示されない限り画像合成部112が行う。ステップS1201では撮影画像110,111を取得する。ステップS1202では撮影条件・画素位置に応じて係数記憶部133から前述の係数fa,fbを読み出し、撮影画像110,111のそれぞれにコンボリューションを行う。ステップS1202では撮影画像の各画素についてコンボリューションを行うが、その際には画素位置ごとに対応する係数fa又はfbを用いることに注意する。fa及びfbは、各画素周辺の空間周波数成分と、その空間周波数に対する撮像光学系105,106の解像度に応じて、IaとIbとの合成比率を与える。ステップS1203ではコンボリューション後の画像fa*Iaとfb*Ibとを加算して合成画像113を得る。合成画像113は第3の実施形態・合成方法の例1で得られる画像と数学的に等価であり、従ってメリディオナル方向・サジタル方向ともに解像度が高い。以上第3の実施形態により、補完関係にある撮像光学系104と105を用いて撮影された画像を使って、メリディオナル方向・サジタル方向の両方向に解像度の高い合成画像を得る事ができる。   FIG. 8B shows an image composition processing flow according to the second embodiment / example 2 of the composition method. The process in FIG. 8B is performed by the image composition unit 112 unless otherwise specified. In step S1201, captured images 110 and 111 are acquired. In step S1202, the above-described coefficients fa and fb are read from the coefficient storage unit 133 in accordance with the shooting conditions / pixel positions, and convolution is performed on each of the shot images 110 and 111. In step S1202, convolution is performed for each pixel of the captured image, and attention is paid to using the coefficient fa or fb corresponding to each pixel position. fa and fb give the combined ratio of Ia and Ib according to the spatial frequency component around each pixel and the resolution of the imaging optical systems 105 and 106 with respect to the spatial frequency. In step S1203, the convolved images fa * Ia and fb * Ib are added to obtain a composite image 113. The composite image 113 is mathematically equivalent to the image obtained in the third embodiment / composition method example 1, and therefore has high resolution in both the meridional direction and the sagittal direction. As described above, according to the third embodiment, it is possible to obtain a composite image with high resolution in both the meridional direction and the sagittal direction using images captured using the imaging optical systems 104 and 105 having a complementary relationship.

<第4の実施形態>
本実施形態では、光学特性が可変な単一の撮像光学系を用いて画像合成を行う。単一の撮像光学系であっても、光学特性を可変にすることによって実質的に補完関係にある光学系を構成できる。例として、単一の撮像光学系を用いて像高という観点において補完関係にある撮像光学系を構成する方法を図10を用いて説明する。本実施形態では、像高の高い領域の画像を、手前の結像像面(第2のセンサ位置1404)に可能な限り結像させる。また、像高の低い領域の画像は、奥の結像像面(第1のセンサ位置1403)に可能な限り結像させる。この構成では、画像の撮影画像の全体は結像像面1402のように結像する。上記の特性を有する光学配置は当業者であれば設計可能である。上記の特性を有する撮像光学系でセンサ位置を駆動変更して2回撮影を行うことにより、2枚の画像が得られる。第1のセンサ位置1403(第1の構成)では像高の低い位置で結像像面とセンサ面とが近づくため、低像高で解像度が高い。第2のセンサ位置1404(第2の構成)では像高の高い位置で結像像面とセンサ面とが近づくため、高像高で解像度が高い。つまり、センサ位置を変化させることにより2通りの光学特性が得られ、2通りの光学特性は像高に関する解像度に関して補完関係にある。このような撮像光学系を用いて得られた2枚の画像を合成し、像高という観点において解像度の高い画像を得る処理方法は第2の実施形態と同様である。本実施形態では単一の撮像光学系を用いるため撮像光学系を構成する部品数が少なく、本実施形態に係る画像処理装置を安価に実現できるという利点がある。もちろん、3か所以上のセンサ位置で撮影した画像を合成することも、同様に可能である。
<Fourth Embodiment>
In the present embodiment, image synthesis is performed using a single imaging optical system having variable optical characteristics. Even with a single imaging optical system, an optical system having a substantially complementary relationship can be configured by making optical characteristics variable. As an example, a method of configuring an imaging optical system having a complementary relationship in terms of image height using a single imaging optical system will be described with reference to FIG. In the present embodiment, an image of a region having a high image height is imaged as much as possible on the front imaging image plane (second sensor position 1404). In addition, an image in a region having a low image height is formed as much as possible on the deep imaging image plane (first sensor position 1403). In this configuration, the entire captured image of the image is imaged like an imaging image plane 1402. An optical arrangement having the above characteristics can be designed by those skilled in the art. Two images are obtained by performing imaging twice by changing the driving of the sensor position with the imaging optical system having the above characteristics. At the first sensor position 1403 (first configuration), the image formation surface and the sensor surface approach each other at a low image height, so that the resolution is low and the image height is high. At the second sensor position 1404 (second configuration), the image formation image surface and the sensor surface are close to each other at a position where the image height is high, so that the resolution is high at a high image height. That is, by changing the sensor position, two types of optical characteristics are obtained, and the two types of optical characteristics are complementary with respect to the resolution related to the image height. A processing method for synthesizing two images obtained using such an imaging optical system and obtaining an image with high resolution in terms of image height is the same as in the second embodiment. In this embodiment, since a single image pickup optical system is used, the number of components constituting the image pickup optical system is small, and there is an advantage that the image processing apparatus according to this embodiment can be realized at low cost. Of course, it is also possible to combine images taken at three or more sensor positions.

<その他の実施形態>
上述の第1〜第3の実施形態において、画像合成に用いる係数は、撮像光学系104,105の組み合わせの各々に対してあらかじめ計算されている。すなわち、撮像光学系104,105の複数の組み合わせの各々に対応する係数の組が、係数記憶部133に記憶されている。第4の実施形態においても、第一のセンサ位置1403と第二のセンサ位置1404とで得た撮影画像を合成するために用いる係数は、係数記憶部133にあらかじめ記憶されている。しかしながら、撮像光学系104,105を設定した際、例えば撮像光学系104,105を交換した際等に、撮像光学系104,105の有するメモリ等からMTFデータを画像合成部112等の適切な処理部が取得する。そして、係数を計算して係数記憶部133に格納してもよい。係る構成により、撮像光学系を自由に組み合わせた場合でも、本発明を適用できる。
<Other embodiments>
In the first to third embodiments described above, the coefficients used for image composition are calculated in advance for each combination of the imaging optical systems 104 and 105. That is, a coefficient pair corresponding to each of a plurality of combinations of the imaging optical systems 104 and 105 is stored in the coefficient storage unit 133. Also in the fourth embodiment, the coefficient used for synthesizing the captured images obtained at the first sensor position 1403 and the second sensor position 1404 is stored in the coefficient storage unit 133 in advance. However, when the imaging optical systems 104 and 105 are set, for example, when the imaging optical systems 104 and 105 are replaced, an appropriate processing unit such as the image synthesis unit 112 acquires MTF data from the memory or the like included in the imaging optical systems 104 and 105. Then, the coefficient may be calculated and stored in the coefficient storage unit 133. With this configuration, the present invention can be applied even when the imaging optical system is freely combined.

本発明は、上記第1〜第4の実施形態と同等の処理を、コンピュータプログラムでも実現できる。装置構成の一例を図9に示す。この場合、図1をはじめとする構成要素の各々は関数、若しくはCPU(演算装置1305)が実行するサブルーチンで機能させれば良い。また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体1304に格納されている。そのプログラムを、コンピュータが有する読取り装置(CD−ROMドライブ等)にセットし、システムにコピー若しくはインストールすることで実行可能になる。従って、係るコンピュータ可読記憶媒体も本発明の範疇にあることは明らかである。具体的には補完関係にある撮像光学系により撮影画像を取得し、各撮像光学系の伝達関数から計算された係数は記録媒体1304やネットワーク等を介してコンピュータに提供し、コンピュータの演算装置1305により画像合成処理を行えばよい。   The present invention can also realize processing equivalent to that of the first to fourth embodiments with a computer program. An example of the device configuration is shown in FIG. In this case, each of the components including FIG. 1 may be functioned by a function or a subroutine executed by the CPU (arithmetic unit 1305). In general, the computer program is stored in a computer-readable storage medium 1304 such as a CD-ROM. The program can be executed by being set in a reading device (such as a CD-ROM drive) of the computer and copied or installed in the system. Therefore, it is obvious that such a computer readable storage medium is also within the scope of the present invention. Specifically, a captured image is acquired by an imaging optical system having a complementary relationship, and a coefficient calculated from a transfer function of each imaging optical system is provided to a computer via a recording medium 1304, a network, or the like, and a computing device 1305 of the computer. The image composition process may be performed as described above.

Claims (12)

第1の撮像部で撮影された被写体の第1の撮影画像を取得する手段と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する手段と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得手段と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成手段とを備え、
前記所定の画像成分は像高であり、
前記比率取得手段は像高に対する前記比率情報を取得し、
前記合成手段は、前記第1の撮影画像及び前記第2の撮影画像の対応する画素のそれぞれを、当該画素のそれぞれの像高に対する前記比率情報に従って合成することを特徴とする画像処理装置。
Means for acquiring a first photographed image of a subject photographed by the first imaging unit;
Means for acquiring a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. Ratio acquisition means for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. Combining means for generating a combined image obtained by combining the image,
The predetermined image component is an image height;
The ratio acquisition means acquires the ratio information with respect to the image height,
The image synthesizing unit synthesizes the corresponding pixels of the first captured image and the second captured image in accordance with the ratio information with respect to the image height of the pixels.
前記比率取得手段は、前記第1の撮像部の解像度と前記第2の撮像部の解像度との比を前記合成比率とすることを特徴とする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the ratio acquisition unit sets the ratio of the resolution of the first imaging unit and the resolution of the second imaging unit as the synthesis ratio. 第1の撮像部で撮影された被写体の第1の撮影画像を取得する手段と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する手段と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得手段と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成手段とを備え、
前記所定の画像成分はメリディオナル方向及びサジタル方向の空間周波数であり、
前記比率取得手段はメリディオナル方向及びサジタル方向の空間周波数に対する前記比率情報を取得し、
前記合成手段は、
前記第1の撮影画像を分割し、第1の部分画像とする第1の分割手段と、
前記第2の撮影画像を前記第1の分割手段と同様に分割し、第2の部分画像とする第2の分割手段と、
前記第1の部分画像を直交変換して第1の周波数空間画像を生成する手段と、
前記第2の部分画像を直交変換して第2の周波数空間画像を生成する手段と、
前記メリディオナル方向及びサジタル方向の空間周波数に対する前記比率情報を、前記周波数空間における前記比率情報に変換する手段と、
前記第1の周波数空間画像の成分と、対応する前記第2の周波数空間画像の成分とを、前記周波数空間における前記比率情報に従って合成して第3の周波数空間画像を生成する手段と、
前記第3の周波数空間画像を実空間へと変換し、第3の部分画像を生成する手段と、
前記第3の部分画像を統合して合成画像を生成する手段とを備えることを特徴とする画像処理装置。
Means for acquiring a first photographed image of a subject photographed by the first imaging unit;
Means for acquiring a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. Ratio acquisition means for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. Combining means for generating a combined image obtained by combining the image,
The predetermined image component is a spatial frequency in a meridional direction and a sagittal direction,
The ratio acquisition means acquires the ratio information for the spatial frequency in the meridional direction and the sagittal direction,
The synthesis means includes
First dividing means for dividing the first photographed image into a first partial image;
A second dividing unit that divides the second captured image in the same manner as the first dividing unit, and sets the second captured image as a second partial image;
Means for orthogonally transforming the first partial image to generate a first frequency space image;
Means for orthogonally transforming the second partial image to generate a second frequency space image;
Means for converting the ratio information for spatial frequencies in the meridional direction and sagittal direction into the ratio information in the frequency space;
Means for combining a component of the first frequency space image and a corresponding component of the second frequency space image according to the ratio information in the frequency space to generate a third frequency space image;
Means for converting the third frequency space image into a real space and generating a third partial image;
An image processing apparatus comprising: means for integrating the third partial images to generate a composite image.
第1の撮像部で撮影された被写体の第1の撮影画像を取得する手段と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する手段と、
前記第1の撮影画像の各画素について、該画素についての合成比率を与えるフィルタを取得し、該フィルタを用いたコンボリューション演算により第1の合成比率を計算する手段と、
前記第2の撮影画像の各画素について、該画素についての合成比率を与えるフィルタを取得し、該フィルタを用いたコンボリューション演算により第2の合成比率を計算する手段と、
前記第1の撮影画像と前記第2の撮影画像との対応する画素を、前記第1の合成比率と前記第2の合成比率との割合で合成することで、合成画像を生成する合成手段とを備えることを特徴とし、
前記フィルタのそれぞれは、画素周辺の空間周波数成分と、当該空間周波数に対する前記第1及び第2の撮像部の解像度とに応じて、合成比率を与えることを特徴とする画像処理装置。
Means for acquiring a first photographed image of a subject photographed by the first imaging unit;
Means for acquiring a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
Means for obtaining, for each pixel of the first photographed image, a filter that gives a composition ratio for the pixel, and calculating a first composition ratio by a convolution operation using the filter;
Means for obtaining, for each pixel of the second photographed image, a filter that gives a composition ratio for the pixel, and calculating a second composition ratio by a convolution operation using the filter;
Combining means for generating a combined image by combining corresponding pixels of the first captured image and the second captured image at a ratio of the first combined ratio and the second combined ratio; Characterized by comprising,
Each of the filters provides a synthesis ratio according to a spatial frequency component around a pixel and the resolution of the first and second imaging units with respect to the spatial frequency.
撮像部を駆動して、当該撮像部を第1の構成又は第2の構成とする駆動手段と、
前記第1の構成の撮像部によって撮影された被写体の第1の撮影画像を取得する手段と、
前記第1の構成の撮像部と光軸が重なる前記第2の構成の撮像部によって撮影された、前記被写体の第2の撮影画像を取得する手段と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得手段と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成手段とを備え、
前記所定の画像成分は像高であり、
前記比率取得手段は像高に対する前記比率情報を取得し、
前記合成手段は、前記第1の撮影画像及び前記第2の撮影画像の対応する画素のそれぞれを、当該画素のそれぞれの像高に対する前記比率情報に従って合成することを特徴とする、画像処理装置。
Driving means for driving the imaging unit so that the imaging unit has the first configuration or the second configuration;
Means for acquiring a first photographed image of a subject photographed by the image pickup unit of the first configuration;
Means for acquiring a second photographed image of the subject photographed by the image pickup section of the second configuration in which an optical axis overlaps with the image pickup section of the first configuration;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. Ratio acquisition means for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. Combining means for generating a combined image obtained by combining the image,
The predetermined image component is an image height;
The ratio acquisition means acquires the ratio information with respect to the image height,
The image processing apparatus characterized in that the synthesizing unit synthesizes corresponding pixels of the first captured image and the second captured image in accordance with the ratio information with respect to each image height of the pixel.
前記駆動手段は、前記撮像部の撮像素子と、前記撮像部のレンズとの間の距離を変化させることを特徴とする、請求項に記載の画像処理装置。 The image processing apparatus according to claim 5 , wherein the driving unit changes a distance between an imaging element of the imaging unit and a lens of the imaging unit. 画像処理装置が行う方法であって、
第1の撮像部で撮影された被写体の第1の撮影画像を取得する工程と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する工程と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得工程と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成工程とを備え、
前記所定の画像成分は像高であり、
前記比率取得工程では像高に対する前記比率情報を取得し、
前記合成工程では、前記第1の撮影画像及び前記第2の撮影画像の対応する画素のそれぞれを、当該画素のそれぞれの像高に対する前記比率情報に従って合成することを特徴とする画像処理方法。
A method performed by an image processing apparatus,
Obtaining a first photographed image of a subject photographed by the first imaging unit;
Obtaining a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. A ratio acquisition process for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. And a synthesis step for generating a synthesized image obtained by synthesizing the image,
The predetermined image component is an image height;
In the ratio acquisition step, the ratio information for the image height is acquired,
In the composition step, the corresponding pixels of the first photographed image and the second photographed image are synthesized in accordance with the ratio information with respect to the respective image heights of the pixels.
画像処理装置が行う方法であって、
第1の撮像部で撮影された被写体の第1の撮影画像を取得する工程と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する工程と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得工程と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成工程とを備え、
前記所定の画像成分はメリディオナル方向及びサジタル方向の空間周波数であり、
前記比率取得工程ではメリディオナル方向及びサジタル方向の空間周波数に対する前記比率情報を取得し、
前記合成工程は、
前記第1の撮影画像を分割し、第1の部分画像とする第1の分割工程と、
前記第2の撮影画像を前記第1の分割工程と同様に分割し、第2の部分画像とする第2の分割工程と、
前記第1の部分画像を直交変換して第1の周波数空間画像を生成する工程と、
前記第2の部分画像を直交変換して第2の周波数空間画像を生成する工程と、
前記メリディオナル方向及びサジタル方向の空間周波数に対する前記比率情報を、前記周波数空間における前記比率情報に変換する工程と、
前記第1の周波数空間画像の成分と、対応する前記第2の周波数空間画像の成分とを、前記周波数空間における前記比率情報に従って合成して第3の周波数空間画像を生成する工程と、
前記第3の周波数空間画像を実空間へと変換し、第3の部分画像を生成する工程と、
前記第3の部分画像を統合して合成画像を生成する工程とを備えることを特徴とする画像処理方法。
A method performed by an image processing apparatus,
Obtaining a first photographed image of a subject photographed by the first imaging unit;
Obtaining a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. A ratio acquisition process for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. And a synthesis step for generating a synthesized image obtained by synthesizing the image,
The predetermined image component is a spatial frequency in a meridional direction and a sagittal direction,
In the ratio acquisition step, the ratio information for the spatial frequency in the meridional direction and the sagittal direction is acquired,
The synthesis step includes
A first dividing step of dividing the first photographed image into a first partial image;
A second dividing step of dividing the second photographed image in the same manner as in the first dividing step to form a second partial image;
Generating a first frequency space image by orthogonally transforming the first partial image;
Generating a second frequency space image by orthogonally transforming the second partial image;
Converting the ratio information for the spatial frequency in the meridional direction and sagittal direction into the ratio information in the frequency space;
Combining a component of the first frequency space image and a corresponding component of the second frequency space image according to the ratio information in the frequency space to generate a third frequency space image;
Transforming the third frequency space image into real space to generate a third partial image;
And a step of integrating the third partial images to generate a composite image.
画像処理装置が行う方法であって、
第1の撮像部で撮影された被写体の第1の撮影画像を取得する工程と、
前記第1の撮像部と光軸が重なる第2の撮像部で撮影された、前記被写体の第2の撮影画像を取得する工程と、
前記第1の撮影画像の各画素について、該画素についての合成比率を与えるフィルタを取得し、該フィルタを用いたコンボリューション演算により第1の合成比率を計算する工程と、
前記第2の撮影画像の各画素について、該画素についての合成比率を与えるフィルタを取得し、該フィルタを用いたコンボリューション演算により第2の合成比率を計算する工程と、
前記第1の撮影画像と前記第2の撮影画像との対応する画素を、前記第1の合成比率と前記第2の合成比率との割合で合成することで、合成画像を生成する合成工程とを備えることを特徴とし、
前記フィルタのそれぞれは、画素周辺の空間周波数成分と、当該空間周波数に対する前記第1及び第2の撮像部の解像度とに応じて、合成比率を与えることを特徴とする画像処理方法。
A method performed by an image processing apparatus,
Obtaining a first photographed image of a subject photographed by the first imaging unit;
Obtaining a second photographed image of the subject photographed by a second image sensing unit whose optical axis overlaps with the first image sensing unit;
For each pixel of the first photographed image, obtaining a filter that gives a composition ratio for the pixel, and calculating a first composition ratio by a convolution operation using the filter;
For each pixel of the second captured image, obtaining a filter that gives a composition ratio for the pixel, and calculating a second composition ratio by a convolution operation using the filter;
A synthesizing step of synthesizing corresponding pixels of the first photographed image and the second photographed image at a ratio of the first composition ratio and the second composition ratio to generate a composition image; Characterized by comprising,
Each of the filters provides a synthesis ratio according to a spatial frequency component around a pixel and a resolution of the first and second imaging units with respect to the spatial frequency.
画像処理装置が行う方法であって、
撮像部を駆動して、当該撮像部を第1の構成又は第2の構成とする駆動工程と、
前記第1の構成の撮像部によって撮影された被写体の第1の撮影画像を取得する工程と、
前記第1の構成の撮像部と光軸が重なる前記第2の構成の撮像部によって撮影された、前記被写体の第2の撮影画像を取得する工程と、
所定の画像成分に対する前記第1の撮像部の解像度と前記第2の撮像部の解像度とから求めた、当該画像成分に対する前記第1の撮影画像と前記第2の撮影画像との合成比率を示す比率情報を取得する比率取得工程と、
前記第1の撮影画像の前記所定の画像成分と、前記第2の撮影画像の前記所定の画像成分とを、前記比率情報に従って合成することで、前記第1の撮影画像と前記第2の撮影画像とを合成した合成画像を生成する合成工程とを備え、
前記所定の画像成分は像高であり、
前記比率取得工程では像高に対する前記比率情報を取得し、
前記合成工程では、前記第1の撮影画像及び前記第2の撮影画像の対応する画素のそれぞれを、当該画素のそれぞれの像高に対する前記比率情報に従って合成することを特徴とする画像処理方法。
A method performed by an image processing apparatus,
A driving step of driving the imaging unit to make the imaging unit the first configuration or the second configuration;
Obtaining a first photographed image of a subject photographed by the imaging unit of the first configuration;
Obtaining a second photographed image of the subject photographed by the image pickup unit of the second configuration in which an optical axis overlaps the image pickup unit of the first configuration;
A combination ratio of the first captured image and the second captured image with respect to the image component, obtained from the resolution of the first imaging unit and the resolution of the second imaging unit with respect to a predetermined image component. A ratio acquisition process for acquiring ratio information;
The first captured image and the second captured image are synthesized by combining the predetermined image component of the first captured image and the predetermined image component of the second captured image according to the ratio information. And a synthesis step for generating a synthesized image obtained by synthesizing the image,
The predetermined image component is an image height;
In the ratio acquisition step, the ratio information for the image height is acquired,
In the composition step, the corresponding pixels of the first photographed image and the second photographed image are synthesized in accordance with the ratio information with respect to the respective image heights of the pixels.
コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるための、コンピュータプログラム。 A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6 . 請求項11に記載のコンピュータプログラムを格納した、コンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the computer program according to claim 11 .
JP2009166180A 2009-07-14 2009-07-14 Image processing apparatus, image processing method, program, and storage medium Active JP5361582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009166180A JP5361582B2 (en) 2009-07-14 2009-07-14 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009166180A JP5361582B2 (en) 2009-07-14 2009-07-14 Image processing apparatus, image processing method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2011022729A JP2011022729A (en) 2011-02-03
JP2011022729A5 JP2011022729A5 (en) 2012-08-16
JP5361582B2 true JP5361582B2 (en) 2013-12-04

Family

ID=43632757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009166180A Active JP5361582B2 (en) 2009-07-14 2009-07-14 Image processing apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5361582B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5820650B2 (en) * 2011-07-26 2015-11-24 オリンパス株式会社 Imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085774A (en) * 2006-09-28 2008-04-10 Olympus Corp Aberration correcting imaging apparatus and aberration correcting method
JP2009153074A (en) * 2007-12-21 2009-07-09 Olympus Corp Image photographing apparatus

Also Published As

Publication number Publication date
JP2011022729A (en) 2011-02-03

Similar Documents

Publication Publication Date Title
EP3093818B1 (en) Image processing apparatus that performs image restoration processing, method of controlling the same, and storage medium
JP5188651B2 (en) Image processing apparatus and imaging apparatus using the same
US8754957B2 (en) Image processing apparatus and method
JP5235642B2 (en) Image processing apparatus and method
US8824824B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium storing program
JP5438579B2 (en) Image processing apparatus and control method thereof
JP5991749B2 (en) Image processing apparatus and method
US8724008B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and program for performing image restoration
JP5404376B2 (en) Camera module and image processing apparatus
JP5917048B2 (en) Image processing apparatus, image processing method, and program
JP5528139B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20170155881A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating restored image
JP5730036B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program.
JP2011160255A5 (en)
JP2012156715A (en) Image processing device, imaging device, image processing method, and program
JP5361582B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5963611B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6415108B2 (en) Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium
JP5425136B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2010074826A (en) Imaging apparatus and image processing program
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2018088587A (en) Image processing method and image processing apparatus
JP6238673B2 (en) Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium
EP4250222A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP2012156714A (en) Program, image processing device, image processing method, and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R151 Written notification of patent or utility model registration

Ref document number: 5361582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151