JP2008085774A - Aberration correcting imaging apparatus and aberration correcting method - Google Patents

Aberration correcting imaging apparatus and aberration correcting method Download PDF

Info

Publication number
JP2008085774A
JP2008085774A JP2006264663A JP2006264663A JP2008085774A JP 2008085774 A JP2008085774 A JP 2008085774A JP 2006264663 A JP2006264663 A JP 2006264663A JP 2006264663 A JP2006264663 A JP 2006264663A JP 2008085774 A JP2008085774 A JP 2008085774A
Authority
JP
Japan
Prior art keywords
image information
optical system
image
imaging
imaging optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006264663A
Other languages
Japanese (ja)
Inventor
Hideki Osada
英喜 長田
Minoru Omaki
稔 大牧
Hirobumi Tsuchida
博文 槌田
Toshiyuki Nagaoka
利之 永岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2006264663A priority Critical patent/JP2008085774A/en
Publication of JP2008085774A publication Critical patent/JP2008085774A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an aberration correcting imaging apparatus and an aberration correcting method that can satisfactorily correct aberrations of an imaging optical system while suppressing the manufacturing cost, and that can obtain sharp multicolor image information. <P>SOLUTION: The aberration correcting imaging apparatus comprises the imaging optical system 2; an image sensor 21 (imaging element); a drive unit 5 which varies a relative distance between the imaging optical system 2 and image sensor 21 in the optical axis O direction of the imaging optical system 2; and a data processing circuit 25 (image processor) which performs image processing of the image information acquired by the image sensor 21. The data processing circuit 25 is configured to combine pieces of monochromatic image information obtained as to a plurality of reference areas in the optical axis direction of the imaging optical system 2 to generate piece of multicolor image information corresponding to the respective reference areas, and then combines pieces of partial image information cut out of those pieces of multicolor image information to generate complete image information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、像面歪曲収差や軸上色収差を補正する撮像装置及び収差補正方法に関するものである。   The present invention relates to an imaging apparatus and an aberration correction method that correct image surface distortion and axial chromatic aberration.

撮像光学系を備えた撮像装置において、この撮像光学系が結ぶ像には、以下の理由から、収差による影響が生じる。   In an image pickup apparatus including an image pickup optical system, an image formed by the image pickup optical system is affected by aberrations for the following reason.

撮像装置において、この撮像光学系が結ぶ像には、像面歪曲収差による影響が生じる。
具体的には、撮像光学系が結ぶ像は、像高(画面中心からの距離)によって像位置が光軸方向にずれているので、このままでは平面被写体を撮影した場合でも、湾曲した面上に像が結ばれることになる。
In the image pickup apparatus, the image formed by the image pickup optical system is affected by the field distortion.
Specifically, the image formed by the imaging optical system is shifted in the optical axis direction depending on the image height (distance from the center of the screen), so even if a flat subject is photographed as it is, it remains on the curved surface. The image will be tied.

撮像装置において撮像光学系が結ぶ像を画像情報として取得する撮像素子は、一般的には受光面が平面となっている。このため、上記のように撮像光学系の結像面が湾曲していると、例えば、受光面の周辺部で得られる被写体画像と中心部で得られる被写体画像とのうちのいずれか一方がぼやけてしまい、鮮明な画像情報を取得することが困難である。   In general, an image sensor that acquires an image formed by an imaging optical system as image information in an imaging apparatus has a flat light receiving surface. For this reason, if the imaging surface of the imaging optical system is curved as described above, for example, one of the subject image obtained at the periphery of the light receiving surface and the subject image obtained at the center is blurred. Therefore, it is difficult to acquire clear image information.

また、光は波長によって微妙に屈折率が異なっているので、撮像光学系に入射した光は、撮像光学系を構成するレンズを通過する際に、その波長ごとに異なる角度で屈折させられる。
このため、撮像光学系の光軸方向における撮像光学系の結像面の位置は、入射した光の波長ごとに異なる。
Further, since the refractive index of light slightly differs depending on the wavelength, the light incident on the imaging optical system is refracted at a different angle for each wavelength when passing through a lens constituting the imaging optical system.
For this reason, the position of the imaging plane of the imaging optical system in the optical axis direction of the imaging optical system differs for each wavelength of incident light.

自然光や通常の照明装置など、一般的な照明条件で被写体の撮影を行った場合、被写体から撮像光学系に入射する光には、複数の異なる波長の光が混じっている。この場合には、撮像光学系が、入射した光の波長に対応する像を、それぞれ撮像光学系の光軸方向の異なる位置に結像する(軸上収差)。
一般に、撮像装置において撮像光学系が結ぶ像を画像情報として取得する撮像素子は、受光面が平面となっている。このため、撮像素子は、受光面上に結像された像についてのみ、鮮明な画像情報を取得することができる。
このことから、被写体から撮像光学系に入射する光に複数の異なる波長の光が混じっている場合には、撮像素子が得る画像情報には、受光面とは異なる位置に結像された像がぼやけた状態で写り込むこととなるので、鮮明な画像情報を取得することが困難である。
When a subject is photographed under general illumination conditions such as natural light or a normal illumination device, light incident on the imaging optical system from the subject is mixed with light having a plurality of different wavelengths. In this case, the imaging optical system forms images corresponding to the wavelength of the incident light at different positions in the optical axis direction of the imaging optical system (axial aberration).
In general, an image sensor that acquires an image formed by an imaging optical system as image information in an imaging apparatus has a flat light receiving surface. For this reason, the image sensor can acquire clear image information only for the image formed on the light receiving surface.
Therefore, when light of a plurality of different wavelengths is mixed with light incident on the imaging optical system from the subject, the image information obtained by the imaging element includes an image formed at a position different from the light receiving surface. Since the image appears blurred, it is difficult to acquire clear image information.

これらのような軸上収差を補正する技術としては、例えば特許文献1に記載のズームレンズが知られている。このズームレンズでは、球面レンズの収差を補正するために、高価な非球面レンズを含む複数群のレンズを用いた構成としている。   As a technique for correcting such on-axis aberrations, for example, a zoom lens described in Patent Document 1 is known. This zoom lens is configured to use a plurality of groups of lenses including an expensive aspherical lens in order to correct the aberration of the spherical lens.

特開2004−240222号公報JP 2004-240222 A

しかしながら、このように複数群(枚)のレンズによって構成された撮像光学系は高価であるため、撮像装置のコストが増加してしまう。さらに、このように収差を補正する撮像光学系では、レンズ設計も複雑となるため、撮像装置のコストが増加してしまう。
また、このように複数枚のレンズによって構成された撮像光学系を用いても、収差を完全に補正することは困難であった。
However, since the imaging optical system configured by a plurality of groups (sheets) of lenses is expensive, the cost of the imaging apparatus increases. Furthermore, in the imaging optical system that corrects aberrations in this way, the lens design is also complicated, which increases the cost of the imaging apparatus.
Further, even when an imaging optical system configured by a plurality of lenses is used, it is difficult to completely correct aberrations.

この発明は上述した事情に鑑みてなされたものであって、製造コストを抑えながら、撮像光学系の収差を良好に補正して、鮮明な多色の画像情報を取得することができる収差補正撮像装置及び収差補正方法を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and is capable of correcting aberrations of an imaging optical system satisfactorily while suppressing manufacturing costs, and capable of acquiring clear multicolor image information. An object is to provide an apparatus and an aberration correction method.

上記目的を達成するために、本発明は、以下の手段を提供する。
本発明は、撮像光学系と、該撮像光学系により結ばれた像を画像情報として取得する撮像素子と、前記撮像光学系の光軸方向での該撮像光学系と前記撮像素子との相対距離を変化させる駆動装置と、前記駆動装置の動作を制御して前記撮像光学系と前記撮像素子との前記相対距離を変更するとともに、該相対距離を変えて、前記撮像素子による画像情報の取得を複数回行う制御装置とを有し、前記撮像光学系と前記撮像素子との前記相対距離を変えて前記撮像素子によって取得された複数の画像情報から、それぞれの前記相対距離に応じて設定される領域を切り出した部分画像情報を複数得るとともに、光の所定の波長ごとの画像情報を複数得て、これら部分画像情報と所定の波長ごとの画像情報とを組み合わせて多色の完成画像情報を生成する画像処理装置とを備える収差補正撮像装置を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention relates to an imaging optical system, an imaging element that acquires an image formed by the imaging optical system as image information, and a relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system. And changing the relative distance between the image pickup optical system and the image pickup device, and changing the relative distance to obtain image information by the image pickup device. A plurality of control devices, and set according to each of the relative distances from a plurality of pieces of image information acquired by the imaging device by changing the relative distance between the imaging optical system and the imaging device. Obtain multiple pieces of partial image information from which a region has been cut out, obtain multiple pieces of image information for each predetermined wavelength of light, and generate multicolor completed image information by combining these partial image information and image information for each predetermined wavelength Providing an aberration correction image pickup apparatus and a that image processing apparatus.

このように構成される収差補正撮像装置では、駆動装置によって撮像光学系の光軸方向における撮像光学系と撮像素子との相対距離を変化させることができるようになっている。
この収差補正撮像装置では、被写体の撮影を行うにあたって、画像情報の少なくとも一部でピントが合う範囲内で、撮像光学系の光軸方向における撮像光学系と撮像素子との相対距離を変えて複数の画像情報を取得する。
具体的には、この収差補正撮像装置では、撮像光学系の光軸方向での撮像光学系と撮像素子との相対距離を、撮像光学系の光の波長ごとの結像位置のずれに対応させて、波長ごとに異なる相対距離に順次設定した状態で、撮像素子による画像情報の取得を行う。
In the aberration correction imaging apparatus configured as described above, the driving apparatus can change the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system.
In this aberration-correcting imaging apparatus, when photographing a subject, a plurality of images are obtained by changing the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system within a range in which at least a part of the image information is in focus. Get image information.
Specifically, in this aberration correction imaging apparatus, the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system is made to correspond to the shift of the imaging position for each wavelength of light of the imaging optical system. Thus, the image information is acquired by the imaging element in a state where the relative distances are sequentially set for the respective wavelengths.

例えば、撮像光学系と撮像素子との相対距離を、光の三原色である赤、緑、青のうち、赤色光に対応する撮像光学系の焦点距離に一致させた状態では、撮像素子上には、赤色光での像が結像される。また、この状態では、撮像素子上には、他の色の像(緑色光の像、青色光の像)は、ぼやけて映る。この状態で、赤色光の像についてのみ撮像素子による画像情報の取得を行うことで、赤色光の像にピントがあっている単色の画像情報が得られる。
同様の作業を、光の三原色の残りの色の光についても行うことで、緑色光の像にピントがあっている単色の画像情報、青色光の像にピントがあっている単色の画像情報が得られる。
For example, in a state where the relative distance between the imaging optical system and the imaging element is matched with the focal length of the imaging optical system corresponding to red light among the three primary colors of light, red, green, and blue, An image with red light is formed. In this state, other color images (green light image and blue light image) appear blurred on the image sensor. In this state, by acquiring image information with respect to only the red light image by the imaging element, single-color image information in which the red light image is in focus can be obtained.
By performing the same operation for the light of the remaining three primary colors, the single-color image information in which the green light image is in focus and the single-color image information in which the blue light image is in focus are obtained. can get.

ここで、任意の色の光についてのみ撮像素子により画像情報を取得する方法としては、特定の色の光のみ通過させる光学フィルタを用いて撮像素子に入射する光を全て単色光に限定した状態で撮像素子による画像情報の取得を行うことで、単色の画像情報を取得することができる。
また、撮像素子を、それぞれ検出可能な光の波長が異なる複数種類の受光素子の集合体とし、同じ種類の受光素子の検出信号のみに基づいて画像情報を生成することで、単色の画像情報を取得することができる。
Here, as a method of acquiring image information only with respect to light of an arbitrary color by the image sensor, all light incident on the image sensor is limited to monochromatic light using an optical filter that passes only light of a specific color. Monochromatic image information can be acquired by acquiring image information using an image sensor.
In addition, the imaging element is an aggregate of a plurality of types of light receiving elements having different wavelengths of light that can be detected, and image information is generated based only on detection signals of the same type of light receiving elements, so that monochrome image information can be obtained. Can be acquired.

このように、撮像光学系と撮像素子との相対距離を各波長(色)の光の焦点距離に一致させた状態で、単色の光について個別に画像情報の取得を行うことで、軸上色収差による影響を最小とした、鮮明な単色の画像情報が得られる。
画像処理装置は、このようにして得た単色の画像情報を複数合成することで、軸上色収差による影響を最小とした、多色の画像情報を生成する。
このように、この収差補正撮像装置は、撮像光学系が軸上色収差を有していても、軸上色収差の影響のない鮮明な多色の画像情報を得ることができる。言い換えれば、この色収差補正撮像装置は、撮像光学系を複雑な構成とすることなしに、軸上色収差を補正して、鮮明な多色の画像情報を得ることができる。
In this way, by acquiring image information individually for monochromatic light in a state in which the relative distance between the imaging optical system and the imaging element is matched with the focal length of light of each wavelength (color), axial chromatic aberration is obtained. It is possible to obtain clear single-color image information that minimizes the influence of.
The image processing apparatus generates multicolor image information that minimizes the influence of axial chromatic aberration by combining a plurality of single-color image information obtained in this way.
As described above, this aberration-correcting imaging apparatus can obtain clear multicolor image information that is not affected by the axial chromatic aberration even if the imaging optical system has the axial chromatic aberration. In other words, this chromatic aberration correction imaging apparatus can correct axial chromatic aberration and obtain clear multicolor image information without making the imaging optical system complicated.

このようにして得られた多色の画像情報としては、例えば、被写体の中心部のみピントがあっている第一の多色の画像情報、及び被写体の周縁部のみピントがあっている第二の多色の画像情報が得られる。
画像処理装置は、このようにして得られた複数の多色の画像情報から、それぞれ撮像光学系と撮像素子との光軸方向の相対距離に応じた領域(ピントが合っている領域)のみを切り出して部分画像情報を得る。
As the multicolor image information obtained in this way, for example, the first multicolor image information in which only the center portion of the subject is in focus, and the second color in which only the peripheral portion of the subject is in focus. Multicolor image information is obtained.
The image processing apparatus obtains only a region (a region in focus) according to the relative distance in the optical axis direction between the imaging optical system and the imaging element from the plurality of multicolor image information obtained in this way. Cut out to obtain partial image information.

画像処理装置は、これら部分画像情報を合成することで、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報(完成画像情報)を生成する。
すなわち、この収差補正撮像装置は、撮像光学系が像面歪曲収差を有していても、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報を得ることができる。言い換えれば、この収差補正撮像装置は、撮像光学系を複雑な構成とすることなしに、像面歪曲収差を補正して、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報を得ることができる。
The image processing device generates clear image information (completed image information) that is in focus from the center to the peripheral portion of the subject by combining the partial image information.
That is, this aberration-correcting imaging apparatus can obtain clear image information that is in focus from the center to the peripheral part of the subject even when the imaging optical system has image surface distortion. In other words, this aberration-correcting imaging apparatus corrects image surface distortion aberration without making the imaging optical system complicated, and is a clear image that is in focus from the center to the periphery of the subject. Information can be obtained.

ここで、多色の部分画像情報においてピントが合う領域は、撮像光学系の像面歪曲収差の特性と、撮像光学系と撮像素子との光軸方向の相対距離とによって決定される。
このため、各回の撮影で取得した多色の部分画像情報間でピントが合う領域の重複が最小限となるように、前記撮像光学系の像面歪曲収差の特性に基づいて、前記撮像光学系と前記撮像素子との前記相対距離及び前記画像情報の取得回数(すなわち基準位置の数)を決定することで、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報を、最小限の取得回数で取得することができる。
Here, the focused area in the multicolor partial image information is determined by the characteristics of the image plane distortion of the imaging optical system and the relative distance in the optical axis direction between the imaging optical system and the imaging element.
For this reason, based on the characteristics of the image plane distortion of the imaging optical system, the imaging optical system is configured so that the overlapping of the in-focus areas between the multicolor partial image information acquired in each imaging is minimized. By determining the relative distance between the image sensor and the number of times of acquisition of the image information (i.e., the number of reference positions), clear image information that is in focus from the center to the periphery of the subject is obtained. It can be acquired with the minimum number of acquisitions.

前記制御装置は、前記駆動装置の動作を制御して、前記撮像素子を前記撮像光学系の前記光軸方向の複数の基準領域に順次位置させるとともに、前記撮像素子の動作を制御して、前記基準領域に位置した状態での画像情報を取得させ、前記基準領域での画像情報の取得にあたって、前記駆動装置の動作を制御して、前記撮像光学系と前記撮像素子との前記相対距離を、前記撮像光学系の光の所定の波長ごとの焦点距離に順次設定し、前記撮像光学系と前記撮像素子との前記相対距離を前記撮像光学系の光の所定の波長ごとの各焦点距離に設定した状態で、前記撮像素子による画像情報の取得を行う構成とされていてもよい。   The control device controls the operation of the driving device to sequentially position the imaging device in a plurality of reference regions in the optical axis direction of the imaging optical system, and controls the operation of the imaging device, The image information in a state of being located in the reference area is acquired, and in the acquisition of the image information in the reference area, the operation of the driving device is controlled, and the relative distance between the imaging optical system and the imaging element is determined. The focal length for each predetermined wavelength of light of the imaging optical system is sequentially set, and the relative distance between the imaging optical system and the imaging element is set to each focal length for each predetermined wavelength of light of the imaging optical system. In such a state, the image information may be acquired by the image sensor.

この場合には、制御装置によって、撮像光学系と撮像素子との相対距離の調整作業と、撮像素子による撮影とが自動的に行われるので、使用者は、複雑な操作を行うことなく、容易に完成画像情報を得ることができる。
具体的には、この収差補正撮像装置では、撮像光学系の光軸方向の複数箇所に設定された基準領域について、それぞれ撮像光学系の光軸方向での撮像光学系と撮像素子との相対距離を、撮像光学系の光の波長ごとの結像位置のずれに対応させて、波長ごとに異なる相対距離に順次設定した状態で、撮像素子による画像情報の取得を行う。
なお、各基準領域は、撮像光学系の光軸方向において、撮像素子が取得する画像情報の少なくとも一部でピントが合う範囲内に設定される。
In this case, the control device automatically adjusts the relative distance between the image pickup optical system and the image pickup device and performs shooting using the image pickup device, so that the user can easily perform operations without performing complicated operations. The completed image information can be obtained.
Specifically, in this aberration correction imaging apparatus, relative distances between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system, respectively, with respect to reference regions set at a plurality of locations in the optical axis direction of the imaging optical system. The image information is acquired by the image pickup device in a state where the image pickup position is sequentially set to a different relative distance for each wavelength corresponding to the shift of the imaging position for each wavelength of the light of the image pickup optical system.
Each reference area is set in a range where the image information acquired by the imaging element is in focus in the optical axis direction of the imaging optical system.

このように、撮像光学系と撮像素子との相対距離を各波長(色)の光の焦点距離に一致させた状態で、単色の光について個別に画像情報の取得を行うことで、軸上色収差による影響を最小とした、鮮明な単色の画像情報が得られる。
画像処理装置は、このようにして得た単色の画像情報を複数合成することで、各基準領域について、それぞれ軸上色収差による影響を最小とした、多色の画像情報(完成画像情報)を生成する。
In this way, by acquiring image information individually for monochromatic light in a state in which the relative distance between the imaging optical system and the imaging element is matched with the focal length of light of each wavelength (color), axial chromatic aberration is obtained. It is possible to obtain clear single-color image information that minimizes the influence of.
The image processing device generates multicolor image information (completed image information) that minimizes the influence of axial chromatic aberration for each reference region by combining a plurality of single color image information obtained in this way. To do.

画像処理装置は、このようにして得られた多色の画像情報から、それぞれ撮像光学系と撮像素子との光軸方向の相対距離に応じた領域(ピントが合っている領域)のみを切り出して部分画像情報を得る。
画像処理装置は、これら部分画像情報を合成することで、中心から周縁部まで全体にわたってピントが合っている、鮮明な多色の画像情報(完成画像情報)を生成する。
The image processing apparatus cuts out only the area (the area in focus) corresponding to the relative distance in the optical axis direction between the imaging optical system and the imaging element from the multicolor image information obtained in this way. Get partial image information.
The image processing apparatus combines the partial image information to generate clear multicolor image information (completed image information) that is in focus from the center to the periphery.

前記画像処理装置は、隣接する前記基準領域に対応する前記多色の画像情報を、1つ以上の共通の前記単色の画像情報を用いて生成する構成とされていてもよい。
この場合には、基準領域に対応する多色の画像情報を生成する際に、隣接する基準領域に対応する1つ以上の単色の画像情報が流用される。
これにより、各基準領域についてそれぞれ単色の画像情報の生成及び多色の画像情報の生成を行う場合に比べて、取得する画像情報の数を低減することができる。このため、撮像を開始してから完成画像情報を生成するまでに要する時間を短縮することができる。
The image processing device may be configured to generate the multi-color image information corresponding to the adjacent reference region using one or more common single-color image information.
In this case, when generating multi-color image information corresponding to the reference region, one or more single-color image information corresponding to the adjacent reference region is used.
As a result, the number of pieces of image information to be acquired can be reduced as compared with the case of generating monochrome image information and multicolor image information for each reference region. For this reason, it is possible to reduce the time required from the start of imaging to the generation of completed image information.

また、本発明は、撮像光学系と、該撮像光学系により結ばれた像を画像情報として取得する撮像素子とを有する撮像装置での収差補正方法であって、前記撮像光学系の光軸方向での該撮像光学系と前記撮像素子との相対距離を変化させ、前記撮像光学系と前記撮像素子との前記相対距離を変えて、前記撮像素子による画像情報の取得を複数回行い、前記撮像光学系と前記撮像素子との前記相対距離を変えて取得された複数の画像情報から、前記撮像光学系の前記光軸方向の複数の基準領域についてそれぞれ光の所定の波長の画像情報を得て、これら光の所定の波長の画像情報を組み合わせて前記各基準領域に対応する多色の画像情報を生成するとともに、前記多色の画像情報のそれぞれについて、該多色の画像情報が対応する前記基準領域の、前記相対距離に応じて設定される画像領域を切り出した部分画像情報を得て、これらの部分画像情報を組み合わせて完成画像情報を生成する収差補正方法を提供する。   The present invention is also an aberration correction method in an imaging apparatus having an imaging optical system and an imaging element that acquires an image connected by the imaging optical system as image information, and the optical axis direction of the imaging optical system Changing the relative distance between the image pickup optical system and the image pickup device, changing the relative distance between the image pickup optical system and the image pickup device, and acquiring the image information by the image pickup device a plurality of times. From the plurality of image information acquired by changing the relative distance between the optical system and the imaging element, image information of a predetermined wavelength of light is obtained for each of the plurality of reference regions in the optical axis direction of the imaging optical system. The image information of a predetermined wavelength of the light is combined to generate multicolor image information corresponding to each reference region, and the multicolor image information corresponds to each of the multicolor image information. Reference area To obtain partial image information cut out an image area that is set in accordance with the relative distance, providing aberration correction method for generating a finished image information by combining these partial image information.

この収差補正方法では、被写体の撮影を行うにあたって、撮像光学系の光軸方向における撮像光学系と撮像素子との相対距離を変えて複数の画像情報を撮影する。
具体的には、この収差補正方法では、撮像光学系の光軸方向の複数箇所に設定された基準領域について、それぞれ撮像光学系の光軸方向での撮像光学系と撮像素子との相対距離を、撮像光学系の光の波長ごとの結像位置のずれに対応させて、波長ごとに異なる相対距離に順次設定した状態で、撮像素子による画像情報の取得を行う。
なお、各基準領域は、撮像光学系の光軸方向において、撮像素子が取得する画像情報の少なくとも一部でピントが合う範囲内に設定される。
In this aberration correction method, when photographing a subject, a plurality of pieces of image information are photographed by changing the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system.
Specifically, in this aberration correction method, the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system is determined for each of the reference regions set at a plurality of locations in the optical axis direction of the imaging optical system. Then, image information is acquired by the imaging element in a state where the relative positions are sequentially set differently for each wavelength in correspondence with the shift of the imaging position for each wavelength of the light of the imaging optical system.
Each reference area is set in a range where the image information acquired by the imaging element is in focus in the optical axis direction of the imaging optical system.

このように単色の光について個別にピントのあった画像情報の取得を行うことで、軸上色収差による影響を最小とした、鮮明な単色の画像情報が複数得られる。   By acquiring image information that is individually focused on monochromatic light in this way, a plurality of clear monochromatic image information that minimizes the influence of axial chromatic aberration can be obtained.

このようにして得た単色の画像情報を複数合成することで、各基準領域について、それぞれ軸上色収差による影響を最小とした、多色の画像情報(完成画像情報)を生成する。
すなわち、この収差補正方法では、撮像光学系が軸上色収差を有していても、軸上色収差の影響のない鮮明な多色の画像情報を得ることができる。言い換えれば、この収差補正方法では、撮像光学系を複雑な構成とすることなしに、軸上色収差を補正して、鮮明な多色の画像情報を得ることができる。
By combining a plurality of pieces of single-color image information obtained in this way, multi-color image information (completed image information) is generated for each reference region, which minimizes the influence of axial chromatic aberration.
That is, with this aberration correction method, even if the imaging optical system has axial chromatic aberration, clear multicolor image information that is not affected by axial chromatic aberration can be obtained. In other words, in this aberration correction method, it is possible to correct axial chromatic aberration and obtain clear multicolor image information without making the imaging optical system complicated.

このようにして得られた複数の多色の画像情報は、画像中心(撮像光学系の光軸に対向する位置)からピントの合う領域までの距離がそれぞれ異なっている。例えば、基準領域を二箇所設定した場合、被写体の中心部のみピントがあっている第一の多色の画像情報、及び被写体の周縁部のみピントがあっている第二の多色の画像情報が得られる。
このようにして得られた多色の画像情報から、それぞれ撮像光学系と撮像素子との光軸方向の相対距離に応じた領域(ピントが合っている領域)のみを切り出して部分画像情報を得る。
The plurality of multicolor image information obtained in this way have different distances from the image center (position facing the optical axis of the imaging optical system) to the focused area. For example, when two reference areas are set, the first multicolor image information in which only the center portion of the subject is in focus and the second multicolor image information in which only the peripheral portion of the subject is in focus are can get.
From the multicolor image information obtained in this way, partial image information is obtained by cutting out only the region (the focused region) corresponding to the relative distance in the optical axis direction between the imaging optical system and the imaging device. .

これら部分画像情報を合成することで、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な多色の画像情報(完成画像情報)を生成する。
すなわち、この収差補正方法では、撮像光学系が像面歪曲収差を有していても、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報を得ることができる。言い換えれば、この収差補正方法では、撮像光学系を複雑な構成とすることなしに、像面歪曲収差を補正して、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な画像情報を得ることができる。
By combining these pieces of partial image information, clear multi-color image information (completed image information) that is in focus from the center to the periphery of the subject is generated.
That is, in this aberration correction method, even if the imaging optical system has image surface distortion, clear image information that is in focus from the center to the periphery of the subject can be obtained. In other words, in this aberration correction method, clear image information in which the image plane distortion is corrected and the entire object is in focus from the center of the subject to the periphery without using a complicated configuration of the imaging optical system. Can be obtained.

この収差補正方法において、隣接する前記基準領域に対応する前記多色の画像情報を、1つ以上の共通の前記単色の画像情報を用いて生成してもよい。
この場合には、基準領域に対応する多色の画像情報を生成する際に、隣接する基準領域に対応する1つ以上の単色の画像情報が流用される。
これにより、各基準領域についてそれぞれ単色の画像情報の生成及び多色の画像情報の生成を行う場合に比べて、取得する画像情報の数を低減することができる。このため、撮像を開始してから完成画像情報を生成するまでに要する時間を短縮することができる。
In this aberration correction method, the multi-color image information corresponding to the adjacent reference region may be generated using one or more common single-color image information.
In this case, when generating multi-color image information corresponding to the reference region, one or more single-color image information corresponding to the adjacent reference region is used.
As a result, the number of pieces of image information to be acquired can be reduced as compared with the case of generating monochrome image information and multicolor image information for each reference region. For this reason, it is possible to reduce the time required from the start of imaging to the generation of completed image information.

本発明に係る収差補正撮像装置及び収差補正方法によれば、撮像光学系の構成を簡略化して製造コストを抑えながら、撮像光学系の収差を良好に補正して鮮明な多色の画像情報を取得することができる。   According to the aberration correction imaging apparatus and the aberration correction method according to the present invention, while simplifying the configuration of the imaging optical system and suppressing the manufacturing cost, the aberration of the imaging optical system is corrected well to obtain clear multicolor image information. Can be acquired.

以下、本発明の実施形態について、図面を用いて説明する。
ここでは、本発明を、デジタルスチルカメラに適用した例について説明する。
図1のブロック図に示すように、本実施形態に係るデジタルスチルカメラ1(収差補正撮像装置)は、図示せぬ筐体内に、撮像光学系2と、撮像光学系2が結んだ像を画像情報として取得する撮像機能部3と、撮像機能部3が取得した画像情報等の各種画像情報を表示する画像情報表示パネルとを設けた構成とされている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Here, an example in which the present invention is applied to a digital still camera will be described.
As shown in the block diagram of FIG. 1, the digital still camera 1 (aberration correction imaging apparatus) according to the present embodiment displays an image obtained by connecting the imaging optical system 2 and the imaging optical system 2 in a housing (not shown). The imaging function unit 3 acquired as information and an image information display panel that displays various image information such as image information acquired by the imaging function unit 3 are provided.

ここで、撮像光学系2は、球面の凸レンズ一枚だけによって構成されていてもよく、球面レンズを含む複数枚のレンズからなるレンズユニットによって構成されていてもよい。また、撮像光学系2としては、ズーム光学系を用いてもよく、軸上収差を補正する機能を有するレンズを省略した最小枚数構成のレンズユニットを用いてもよい。
また、画像情報表示パネルとしては、例えばLCD(Liquid Crystal Display)パネルや、有機または無機EL(electroluminescence)ディスプレイパネル等、任意の構成のものを用いることができる。本実施形態では、画像情報表示パネルとして、LCDパネル4が用いられている。
Here, the imaging optical system 2 may be configured by only one spherical convex lens, or may be configured by a lens unit including a plurality of lenses including a spherical lens. As the imaging optical system 2, a zoom optical system may be used, or a lens unit having a minimum number of lenses may be used in which a lens having a function of correcting axial aberration is omitted.
In addition, as the image information display panel, for example, an LCD (Liquid Crystal Display) panel or an organic or inorganic EL (electroluminescence) display panel can be used. In the present embodiment, the LCD panel 4 is used as the image information display panel.

また、撮像機能部3には、撮像光学系2の光軸O方向における後述するイメージセンサ21(撮像素子)と筐体との相対位置を変化させる駆動装置5が設けられている。
駆動装置5は、イメージセンサ21と筐体との相対位置を変化させることにより、光軸O方向における撮像光学系2とイメージセンサ21との相対距離を変化させるものである。駆動装置5は、例えばねじ送り機構やシリンダ機構の他、ピエゾ素子またはMEMS(Micro Electro Mechanical Systems)を用いたアクチュエータ等、任意の機構によって構成することができる。
The imaging function unit 3 is provided with a driving device 5 that changes a relative position between an image sensor 21 (imaging device), which will be described later, and the housing in the optical axis O direction of the imaging optical system 2.
The drive device 5 changes the relative distance between the image pickup optical system 2 and the image sensor 21 in the optical axis O direction by changing the relative position between the image sensor 21 and the housing. The drive device 5 can be configured by an arbitrary mechanism such as an actuator using a piezoelectric element or MEMS (Micro Electro Mechanical Systems) in addition to a screw feed mechanism and a cylinder mechanism.

以下、撮像機能部3の詳細な構成について説明する。
撮像機能部3は、デジタルスチルカメラ1を構成する各装置に電力を供給する電源部PWと、CPU(Central Processing Unit)等から構成されてデジタルスチルカメラ1の各部の制御を行うシステムコントローラ20(制御装置)と、システムコントローラ20の動作を制御する制御用シーケンスのプログラムや制御用の各種パラメータ等が予め格納されたROM20aと、システムコントローラ20による各種シーケンスの遂行に必要なデータを一時的に格納するワークエリアとして用いられるRAM20bとを有している。
Hereinafter, a detailed configuration of the imaging function unit 3 will be described.
The imaging function unit 3 includes a power supply unit PW that supplies power to each device constituting the digital still camera 1, a CPU (Central Processing Unit), and the like, and a system controller 20 that controls each unit of the digital still camera 1 ( Control device), a ROM 20a in which a control sequence program for controlling the operation of the system controller 20, various control parameters, and the like, and data necessary for the execution of the various sequences by the system controller 20 are temporarily stored. And a RAM 20b used as a work area.

システムコントローラ20は、電源部PWの動作を制御して、撮像装置本体2を構成する各装置への電力の供給を制御するものである。
システムコントローラ20は、撮像装置本体2の電源状態がONとなると、ROM20aからプログラム,パラメータ等を読み出して所定の処理を行う。これにより、デジタルスチルカメラ1のシステムが起動し、電気的に撮影可能な状態となる。
The system controller 20 controls the operation of the power supply unit PW to control the supply of power to each device constituting the imaging apparatus main body 2.
When the power state of the imaging apparatus main body 2 is turned on, the system controller 20 reads programs, parameters, and the like from the ROM 20a and performs predetermined processing. As a result, the system of the digital still camera 1 is activated and is in a state where it can be electrically photographed.

撮像光学系3の背後には、平板状のイメージセンサ21(撮像素子)が配置されている。これにより、イメージセンサ21の平板状の受光エリアには、撮像光学系3によって被写体画像が結像されるようになっている。
イメージセンサ21としては、CCD(Charge Coupled Devices)を用いたものや、CMOS(Complementary Metal Oxide Semiconductor)を用いたものなど、任意のものを用いることができる。また、グローバルシャッタ方式の高速CMOSセンサや、シングルスロープ型A/D変換器を各画素列ごとに集積して高速化した高速CMOSセンサ等を用いることができる。本実施形態では、イメージセンサ21として、CCDを用いたイメージセンサを用いている。
A flat image sensor 21 (imaging device) is disposed behind the imaging optical system 3. Thereby, a subject image is formed on the flat light receiving area of the image sensor 21 by the imaging optical system 3.
As the image sensor 21, an arbitrary one such as one using a CCD (Charge Coupled Devices) or one using a CMOS (Complementary Metal Oxide Semiconductor) can be used. In addition, a global shutter type high-speed CMOS sensor, a high-speed CMOS sensor in which single-slope A / D converters are integrated for each pixel column, and the like can be used. In the present embodiment, an image sensor using a CCD is used as the image sensor 21.

撮像装置本体2には、イメージセンサ21を駆動するCCDドライバ22が設けられている。これにより、イメージセンサ21は、撮像光学系3を介して得られた光学的な被写体画像を電気的な撮像信号に変換して出力する。
撮像装置本体2には、イメージセンサ21が出力する撮像信号を増幅するアンプ23と、アンプ23の出力をデジタル変換するA/D変換器24が設けられている。
The imaging apparatus main body 2 is provided with a CCD driver 22 that drives the image sensor 21. Thereby, the image sensor 21 converts the optical subject image obtained via the imaging optical system 3 into an electrical imaging signal and outputs the electrical imaging signal.
The imaging apparatus main body 2 is provided with an amplifier 23 that amplifies an imaging signal output from the image sensor 21 and an A / D converter 24 that digitally converts the output of the amplifier 23.

イメージセンサ21の受光面には微小な受光素子がマトリクス状に配列されている。また、各受光素子には、赤(R),緑(G),青(B)のいずれかの色に対応する微小なマイクロカラーフィルタが設けられている。イメージセンサ21の各受光素子から各マイクロカラーフィルタに対応する色ごとにシリアルに出力される撮影信号は、アンプ23で適切なレベルに増幅された後、A/D変換器24によってデジタル変換されて、赤色,緑色、青色の各画像データとされる。
なお、CCDとしては、上述したマイクロカラーフィルタを用いたカラーCCD方式の色分解方法を利用するCCDの他、周方向に複数の異なるフィルタ部が設けられた円盤状のカラー回転フィルタを有し、カラー回転フィルタを回転させてCCDの受光面を覆うフィルタ部を切り換えることで受光面に入射する光の色分解を行う色フィルタ切換方式のCCDを用いることができる。
Small light receiving elements are arranged in a matrix on the light receiving surface of the image sensor 21. Each light receiving element is provided with a micro micro color filter corresponding to one of red (R), green (G), and blue (B). An imaging signal serially output for each color corresponding to each micro color filter from each light receiving element of the image sensor 21 is amplified to an appropriate level by an amplifier 23 and then digitally converted by an A / D converter 24. , Red, green, and blue image data.
The CCD has a disk-shaped color rotation filter provided with a plurality of different filter portions in the circumferential direction in addition to the CCD using the color separation method of the color CCD method using the above-described micro color filter. It is possible to use a color filter switching type CCD that performs color separation of light incident on the light receiving surface by rotating the color rotation filter and switching a filter portion that covers the light receiving surface of the CCD.

撮像装置本体2には、イメージセンサ21によって得られた画像データに対してホワイトバランス調節、ガンマ補正などの各種データ処理を行うデータ処理回路25(画像処理装置)と、データ処理回路25によって処理された画像データを画像情報としてLCDパネル4に表示するLCDドライバ26とが設けられている。撮像装置本体2が撮影モードとなっている場合には、データ処理回路25にはA/D変換器24からの画像データが入力され、このデータ処理回路25で必要な処理が行われた1画像分の画像データが次々にLCDドライバ26に送られる。これにより、LCDパネル4には撮影中の被写体画像が動画として表示されるようになる。なお、システムコントローラ20は、撮影モード時では、LCDパネル4にイメージセンサ21で撮影中の画像を表示する表示モードと、LCDパネル4に撮影中の画像を表示しない非表示モードとに切り換えることができるようになっている。   The imaging apparatus body 2 is processed by a data processing circuit 25 (image processing apparatus) that performs various data processing such as white balance adjustment and gamma correction on the image data obtained by the image sensor 21, and the data processing circuit 25. And an LCD driver 26 for displaying the image data on the LCD panel 4 as image information. When the imaging apparatus main body 2 is in the photographing mode, the image data from the A / D converter 24 is input to the data processing circuit 25, and one image on which necessary processing has been performed by the data processing circuit 25. Minute image data is sent to the LCD driver 26 one after another. As a result, the subject image being shot is displayed on the LCD panel 4 as a moving image. In the shooting mode, the system controller 20 can switch between a display mode in which an image being shot by the image sensor 21 is displayed on the LCD panel 4 and a non-display mode in which the image being shot is not displayed on the LCD panel 4. It can be done.

また、撮像装置本体2には、撮像時の自動露出制御(AE制御)を行うAE処理回路27が設けられている。データ処理回路25からの画像データは、AE処理回路27にも送られる。このAE処理回路27は、入力される各画像データと、その時点でCCDドライバ22にセットされているイメージセンサ21の電荷蓄積時間、すなわち電子シャッタのシャッタ秒時とに基づいてイメージセンサ21の被写体輝度の測光値を算出する。そして、システムコントローラ20は、この測光値に基づいて新たな電子シャッタのシャッタ秒時を決定し、このシャッタ秒時をCCDドライバ22にフィードバックする、これにより、イメージセンサ21の駆動が調節され、AE制御が行われる。   The imaging apparatus body 2 is provided with an AE processing circuit 27 that performs automatic exposure control (AE control) during imaging. Image data from the data processing circuit 25 is also sent to the AE processing circuit 27. This AE processing circuit 27 is based on each input image data and the charge accumulation time of the image sensor 21 set in the CCD driver 22 at that time, that is, the shutter time of the electronic shutter. A luminance photometric value is calculated. Then, the system controller 20 determines the shutter time of a new electronic shutter based on this photometric value, and feeds back this shutter time to the CCD driver 22, whereby the drive of the image sensor 21 is adjusted, and AE Control is performed.

上記のようにして、このデジタルカメラ1では、イメージセンサ21を受光センサとしてTTL(Through The Lens) 測光方式によって被写体輝度を測定する。なお、電子シャッタのシャッタ秒時とともに絞り値を変化させてもよい。絞り値を変化させる場合には、絞り値を加味して被写体輝度に応じた測光値を算出するのはいうまでもない。   As described above, the digital camera 1 measures subject luminance by a TTL (Through The Lens) photometry method using the image sensor 21 as a light receiving sensor. The aperture value may be changed with the shutter time of the electronic shutter. When changing the aperture value, it goes without saying that the photometric value corresponding to the subject brightness is calculated with the aperture value taken into account.

撮像装置本体2には、データ処理回路25から出力された画像データを記録する外部記憶装置が設けられている。本実施形態では、外部記憶装置として、フラッシュメモリ28が用いられている。このフラッシュメモリ28は、撮像装置本体2に対して着脱を可能にして設けられている。
撮像装置本体2には、システムコントローラ20と他の機器との間でのデータのやり取りを行うためのI/Oポート31が設けられている。I/Oポート31には、使用者の入力を受け付ける入力部32と、外部の機器が接続される外部接続端子群33が接続されている。
The imaging apparatus main body 2 is provided with an external storage device that records the image data output from the data processing circuit 25. In the present embodiment, a flash memory 28 is used as an external storage device. The flash memory 28 is provided so as to be detachable from the imaging apparatus main body 2.
The imaging apparatus main body 2 is provided with an I / O port 31 for exchanging data between the system controller 20 and other devices. Connected to the I / O port 31 are an input unit 32 that accepts user input and an external connection terminal group 33 to which external devices are connected.

入力部32は、例えば、レリーズスイッチ,ズームレバー,キー操作部等からなり、これらの操作に応じた信号は、I/Oポート31を介してシステムコントローラ20に入力される。システムコントローラ20は、この入力信号に応じて、各種の処理、制御を行う。外部接続端子群33は、外部記憶装置であるメモリカードを装着するメモリスロットや外部のコンピュータと接続するためのコネクタ等からなるものである。この外部接続端子群33に外部記憶装置やコンピュータを接続することで、I/Oポート31を介してデータの入出力を行うことができる。   The input unit 32 includes, for example, a release switch, a zoom lever, a key operation unit, and the like, and signals corresponding to these operations are input to the system controller 20 via the I / O port 31. The system controller 20 performs various processes and controls according to the input signal. The external connection terminal group 33 includes a memory slot into which a memory card as an external storage device is mounted, a connector for connecting to an external computer, and the like. Data can be input / output through the I / O port 31 by connecting an external storage device or computer to the external connection terminal group 33.

ここで、再生モード時には、システムコントローラ20は、入力部32に入力された使用者の指示に基づいて、フラッシュメモリ28または外部接続端子群33に接続された外部記憶装置から表示対象となる画像データを読み出して、データ処理回路25に送出する。これにより、表示対象の画像データがLCDドライバ26に送られて、LCDパネル4に画像が表示される。   Here, in the reproduction mode, the system controller 20 displays image data to be displayed from the flash memory 28 or the external storage device connected to the external connection terminal group 33 based on a user instruction input to the input unit 32. Is sent to the data processing circuit 25. As a result, the image data to be displayed is sent to the LCD driver 26 and an image is displayed on the LCD panel 4.

以下、このデジタルスチルカメラ1の撮影動作の詳細について、図2のフローチャートを用いて説明する。
[第一基準領域への移動動作]
システムコントローラ20は、入力部32を介して使用者から撮影指令が入力されると、任意のズームポジションにある撮像光学系2に対して、不図示のレンズ駆動装置を操作して、撮像光学系2とイメージセンサ21との相対距離を調整する(ステップSA1)。具体的には、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を調整して、イメージセンサ21の受光面を、撮像光学系2の光軸O方向に沿って順次設定された複数の基準領域A1,A2,…、ANのうちのいずれかの領域内に位置させる。本実施形態では、システムコントローラ20は、イメージセンサ21の受光面を第一基準領域A1内に位置させる。
The details of the photographing operation of the digital still camera 1 will be described below with reference to the flowchart of FIG.
[Movement to the first reference area]
When a shooting command is input from the user via the input unit 32, the system controller 20 operates a lens driving device (not shown) on the imaging optical system 2 at an arbitrary zoom position, thereby taking the imaging optical system. 2 and the image sensor 21 are adjusted (step SA1). Specifically, the relative distance between the imaging optical system 2 and the image sensor 21 in the optical axis O direction of the imaging optical system 2 is adjusted, and the light receiving surface of the image sensor 21 is set to the optical axis O direction of the imaging optical system 2. Are located in any one of the plurality of reference areas A1, A2,. In the present embodiment, the system controller 20 positions the light receiving surface of the image sensor 21 within the first reference area A1.

ここで、各基準領域は、撮像光学系2の光軸O方向において、イメージセンサ21の受光エリア上の、少なくとも被写体P(図5参照)が含まれる領域の一部でピントが合う範囲内に設定される。
図3に示すように、撮像光学系2の結像面Fは、像面歪曲収差の影響により、曲面となっている。本実施形態では、撮像光学系2の光軸O方向におけるイメージセンサ21の移動範囲のうち、イメージセンサ21が取得する画像情報のうち受光面の中心部に対応する領域でピントが合う範囲を第一基準領域A1とし、イメージセンサ21が取得する画像情報のうちの受光面の周縁部に対応する領域でピントが合う範囲を第二基準領域A2としている。
次に、撮像光学系2のズームポジションの検出が行われる(ステップSA2)。そして検出されたズームポジション及び撮像光学系2のレンズ構成から、予め算出される像面の湾曲状態に合わせて最適な被写体像が得られる撮影回数(2回からn回)が決定されるとともに、イメージセンサ21の移動方向及び作動量が決定される(ステップSA3)。
Here, each reference area is within a range in which at least a part of the area including the subject P (see FIG. 5) on the light receiving area of the image sensor 21 is in focus in the optical axis O direction of the imaging optical system 2. Is set.
As shown in FIG. 3, the imaging plane F of the imaging optical system 2 is a curved surface due to the influence of the image plane distortion. In the present embodiment, out of the movement range of the image sensor 21 in the direction of the optical axis O of the imaging optical system 2, the range in focus in the region corresponding to the center portion of the light receiving surface in the image information acquired by the image sensor 21 is the first. A range that is in focus in a region corresponding to the peripheral portion of the light receiving surface in the image information acquired by the image sensor 21 is defined as a second reference region A2.
Next, the zoom position of the imaging optical system 2 is detected (step SA2). Then, from the detected zoom position and the lens configuration of the imaging optical system 2, the number of times (2 to n times) at which an optimal subject image is obtained in accordance with the curvature state of the image plane calculated in advance is determined, The moving direction and the operation amount of the image sensor 21 are determined (step SA3).

[第一回多色画像情報取得動作]
このようにイメージセンサ21の受光面を第一基準領域A1内に位置させた状態で、システムコントローラ20は、CCDドライバ22に動作指令を出して、後述する所定の撮影動作を行わせて、第一回目の多色画像情報を取得する(ステップSA4)。
この状態では、受光エリア上の被写体Pの少なくとも一部でピントが合った画像情報が得られる。
[First multicolor image information acquisition operation]
With the light receiving surface of the image sensor 21 positioned in the first reference area A1, the system controller 20 issues an operation command to the CCD driver 22 to perform a predetermined photographing operation to be described later. First-time multicolor image information is acquired (step SA4).
In this state, image information focused on at least a part of the subject P on the light receiving area is obtained.

[第二基準領域への移動動作]
システムコントローラ20は、第一回の多色画像情報の取得が終了すると、駆動装置5を操作して、イメージセンサ21の受光エリア上の被写体Pが含まれる領域のうち、以前の多色画像情報取得時に得た画像情報とは異なる領域でピントが合うように、撮像光学系2とイメージセンサ21との相対距離を変更する(ステップSA5)。具体的には、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を調整して、イメージセンサ21の受光面を、第二基準領域A2内に位置させる。
[Movement to the second reference area]
When the acquisition of the first multicolor image information is completed, the system controller 20 operates the driving device 5 to display the previous multicolor image information in the region including the subject P on the light receiving area of the image sensor 21. The relative distance between the imaging optical system 2 and the image sensor 21 is changed so as to focus on an area different from the image information obtained at the time of acquisition (step SA5). Specifically, the relative distance between the image pickup optical system 2 and the image sensor 21 in the direction of the optical axis O of the image pickup optical system 2 is adjusted, and the light receiving surface of the image sensor 21 is positioned in the second reference area A2. .

[第二回多色画像情報取得動作]
この状態で、システムコントローラ20は、CCDドライバ22に動作指令を出して、所定の撮影動作を行わせて、第二回目の多色画像情報を取得する(ステップSA6)。
この状態では、受光エリア上の被写体Pのうち、第一回多色画像情報取得時に得た画像情報とは異なる領域でピントが合った多色の画像情報が得られる。
[Second Multicolor Image Information Acquisition Operation]
In this state, the system controller 20 issues an operation command to the CCD driver 22 to perform a predetermined photographing operation, and acquires second multicolor image information (step SA6).
In this state, multicolor image information in focus in a region different from the image information obtained when the first multicolor image information is acquired among the subjects P on the light receiving area is obtained.

以降は、イメージセンサ21の受光エリア上の被写体Pが含まれる領域全てについてそれぞれピントが合った状態の画像が撮影されるまで、システムコントローラ20が相対位置調整動作と撮影動作とを繰り返す(ステップSAn,SAn+1)。   Thereafter, the system controller 20 repeats the relative position adjustment operation and the image capturing operation until images in focus are captured for all regions including the subject P on the light receiving area of the image sensor 21 (step SAn). , SAn + 1).

本実施形態では、基準領域として、第一基準領域A1と第二基準領域A2との二つの領域を設定している。
この場合には、第一多色画像情報取得動作において、図4に示すように、例えば撮像光学系2とイメージセンサ21との相対距離をD1とすることで、図5に示すように、受光エリア上の被写体Pが含まれる領域の中心部P1のみピントがあっている第一の多色の画像情報GC1が得られる。なお、実際の第一多色画像情報取得動作では、後述するように、複数の単色の画像情報に基づいて、第一基準領域A1に対応する多色の画像情報GC1を得る。
また、第二多色画像情報取得動作において、図6に示すように、例えば撮像光学系2とイメージセンサ21との相対距離をD2とすることで、図7に示すように、受光エリア上の被写体Pが含まれる領域の周縁部P2のみピントがあっている第二の画像情報G2が得られる。なお、実際の第二多色画像情報取得動作では、後述するように、複数の単色の画像情報に基づいて、第二基準領域A2に対応する多色の画像情報GC2を得る。
In the present embodiment, two areas of the first reference area A1 and the second reference area A2 are set as the reference areas.
In this case, in the first multicolor image information acquisition operation, as shown in FIG. 4, for example, by setting the relative distance between the imaging optical system 2 and the image sensor 21 to D1, as shown in FIG. First multi-color image information GC1 is obtained in which only the central portion P1 of the area including the subject P on the area is in focus. In the actual first multicolor image information acquisition operation, multicolor image information GC1 corresponding to the first reference area A1 is obtained based on a plurality of single-color image information, as will be described later.
Further, in the second multicolor image information acquisition operation, as shown in FIG. 6, for example, by setting the relative distance between the imaging optical system 2 and the image sensor 21 to D2, as shown in FIG. Second image information G2 is obtained in which only the peripheral edge P2 of the region including the subject P is in focus. In the actual second multicolor image information acquisition operation, as described later, multicolor image information GC2 corresponding to the second reference region A2 is obtained based on a plurality of single color image information.

次に、システムコントローラ20は、データ処理回路25の動作を制御して、各多色画像情報取得工程で得た多色の画像情報から、撮像光学系2とイメージセンサ21との光軸O方向の相対距離に応じた領域(ピントの合っている領域)のみを切り出して部分画像情報を得る(ステップSAn+2)。具体的には、データ処理回路25は、第一の多色の画像情報GC1からは中心部P1のみを切り出し、第二の多色の画像情報GC2からは周縁部P2のみを切り出して、それぞれ部分画像情報とする。   Next, the system controller 20 controls the operation of the data processing circuit 25, and from the multicolor image information obtained in each multicolor image information acquisition step, the optical axis O direction between the imaging optical system 2 and the image sensor 21. Only a region corresponding to the relative distance (region in focus) is cut out to obtain partial image information (step SAn + 2). Specifically, the data processing circuit 25 cuts out only the central portion P1 from the first multicolor image information GC1, and cuts out only the peripheral portion P2 from the second multicolor image information GC2, respectively. Let it be image information.

ここで、撮像光学系2とイメージセンサ21との光軸O方向の相対距離と、得られる画像情報においてピントの合っている領域との関係は、撮像光学系2の光学特性(撮像光学系2のレンズデータ等から算出される像面湾曲特性)、ズーム光学系における撮影時のズームポジションにおける光学特性、被写体の画角等に応じて、予め求めることができる。また、一度の多色画像情報取得動作で得られる画像情報のうち、ピントの合っている領域は、撮像光学系2の像面歪曲の状況により、画面中心から画面周縁部にかけて同心状に区画される領域のうちの一つである場合もあるが、画面中心から画面周縁部にかけて同心状に区画される領域のうちの複数領域でピントが合う場合もある。このように複数領域でピントが合う場合には、ピントの合っている領域のそれぞれについて画像情報中から切り出して、それぞれを部分画像情報とすることができる。
システムコントローラ20は、この情報に基づいて、各回の多色画像情報取得工程で得た多色の画像情報のうち、ピントの合っている領域を特定して、データ処理回路25に部分画像情報を生成させる。
Here, the relationship between the relative distance between the imaging optical system 2 and the image sensor 21 in the direction of the optical axis O and the focused area in the obtained image information is the optical characteristic of the imaging optical system 2 (imaging optical system 2). (Field curvature characteristic calculated from the lens data), the optical characteristic at the zoom position at the time of shooting in the zoom optical system, the angle of view of the subject, and the like. Of the image information obtained by one multicolor image information acquisition operation, the focused area is concentrically divided from the center of the screen to the peripheral edge of the screen depending on the image plane distortion of the imaging optical system 2. In some cases, it may be one of the regions, but there may be a case where a plurality of regions out of the regions concentrically divided from the center of the screen to the periphery of the screen are in focus. In this way, when a plurality of areas are in focus, each of the in-focus areas can be cut out from the image information, and each can be used as partial image information.
Based on this information, the system controller 20 identifies the in-focus area of the multicolor image information obtained in each multicolor image information acquisition step, and sends the partial image information to the data processing circuit 25. Generate.

その後、システムコントローラ20は、データ処理回路25の動作を制御して、得られた部分画像情報を合成して、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な多色の画像情報(完成画像情報)を生成する。具体的には、データ処理回路25は、図7に示すように、第一の多色の画像情報GC1の中心部P1と、第二の多色の画像情報GC2の周縁部P2とを合成して、中心部が第一の多色の画像情報GC1の領域P1、周縁部が第二の多色の画像情報GC2の領域P2によって構成される多色の画像情報GC3を生成する。
なお、各部分画像情報は、合成処理の都合上、隣接する領域の部分画像情報と、領域の境界部分の情報が一部重複させられる。そして、各部分画像情報を合成するにあたっては、隣接する領域の部分画像情報において、重複する部分同士が混合される。具体的には、各部分画像情報において、隣接する領域との境界近傍では、隣接する領域に近い部分ほど当該部分画像情報の使用比率が低くなり、境界上では各部分画像の使用比率は半々となるように設定される。これにより、隣接する領域の境界部分における画像情報の継ぎ目が目立たなくなる。
Thereafter, the system controller 20 controls the operation of the data processing circuit 25 to synthesize the obtained partial image information, and a clear multicolor image in which the entire focus is achieved from the center to the peripheral portion of the subject. Information (completed image information) is generated. Specifically, as shown in FIG. 7, the data processing circuit 25 synthesizes the central portion P1 of the first multicolor image information GC1 and the peripheral portion P2 of the second multicolor image information GC2. Thus, multi-color image information GC3 is generated in which the central portion is the region P1 of the first multi-color image information GC1 and the peripheral portion is the region P2 of the second multi-color image information GC2.
In addition, in each partial image information, the partial image information of the adjacent region and the information of the boundary portion of the region are partially overlapped for convenience of the synthesis process. And when combining each partial image information, the overlapping parts are mixed in the partial image information of an adjacent area | region. Specifically, in each partial image information, in the vicinity of the boundary with the adjacent region, the usage ratio of the partial image information is lower as the portion is closer to the adjacent region, and the usage ratio of each partial image is half on the boundary. Is set to be As a result, the seam of the image information at the boundary portion between adjacent regions becomes inconspicuous.

すなわち、このデジタルスチルカメラ1では、撮像光学系2が像面歪曲収差を有していても、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な多色の画像情報を得ることができる。言い換えれば、このデジタルスチルカメラ1は、撮像光学系2を複雑な構成とすることなしに、像面歪曲収差を補正して、被写体の中心から周縁部まで全体にわたってピントが合っている、鮮明な多色の画像情報を得ることができる。
これにより、このデジタルスチルカメラ1によれば、撮像光学系2の構成を簡略化して製造コストを抑えながら、撮像光学系2の像面歪曲収差を良好に補正して、被写体の中心から周縁部まで、全体にわたって鮮明な画像情報を取得することができる。
That is, in the digital still camera 1, even if the image pickup optical system 2 has image surface distortion, it is possible to obtain clear multicolor image information that is in focus from the center to the periphery of the subject. Can do. In other words, the digital still camera 1 corrects the image plane distortion without making the imaging optical system 2 complicated, and is in sharp focus from the center to the periphery of the subject. Multicolor image information can be obtained.
Thus, according to the digital still camera 1, the configuration of the imaging optical system 2 is simplified to reduce the manufacturing cost, and the image surface distortion of the imaging optical system 2 is corrected well, and the peripheral portion from the center of the subject is corrected. Until then, clear image information can be obtained.

以下、本実施形態に係るデジタルスチルカメラ1の、各基準領域での撮影動作(各多色画像情報取得工程での多色の画像情報を取得する際の動作)について説明する。
[第一回相対位置調整]
システムコントローラ20は、各基準領域における画像情報の取得にあたって、駆動装置5を操作して、撮像光学系2とイメージセンサ21との相対距離を微調整する(ステップSB1)。具体的には、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を、デジタルスチルカメラ1によって取得する画像情報に含めたい光の波長域のうちの一部の波長域に対する撮像光学系2の焦点距離に一致させる。
Hereinafter, the photographing operation in each reference region (operation when acquiring multicolor image information in each multicolor image information acquisition step) of the digital still camera 1 according to the present embodiment will be described.
[First relative position adjustment]
The system controller 20 operates the driving device 5 to finely adjust the relative distance between the imaging optical system 2 and the image sensor 21 when acquiring image information in each reference region (step SB1). Specifically, the relative distance between the image pickup optical system 2 and the image sensor 21 in the direction of the optical axis O of the image pickup optical system 2 is one of the wavelength ranges of light to be included in the image information acquired by the digital still camera 1. The focal length of the imaging optical system 2 with respect to the wavelength range of the part is matched.

[第一回撮影]
この状態で、システムコントローラ20は、CCDドライバ22に動作指令を出して、第一回目の撮影を行う(ステップSB2)。
本実施形態では、イメージセンサ21の各受光素子から各マイクロフィルタに対応する色ごとにシリアルに出力される撮影信号に基づいて例えば赤色、緑色、青色のうちの一色について画像データが取得される。
この状態では、デジタルスチルカメラ1によって取得する画像情報に含めたい光の波長域のうちの一部の波長域に対応する単色の画像情報が得られる。
[First shot]
In this state, the system controller 20 issues an operation command to the CCD driver 22 and performs first shooting (step SB2).
In the present embodiment, image data for one color of, for example, red, green, and blue is acquired based on a photographing signal serially output for each color corresponding to each microfilter from each light receiving element of the image sensor 21.
In this state, monochromatic image information corresponding to a part of the wavelength range of light desired to be included in the image information acquired by the digital still camera 1 is obtained.

[第二回相対位置調整]
システムコントローラ20は、第一回撮影が終了すると、駆動装置5を操作して、撮像光学系2とイメージセンサ21との相対距離を変更する(ステップSB3)。具体的には、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を、デジタルスチルカメラ1によって取得する画像情報に含めたい光の波長域のうち、第一回相対位置調整時とは異なる別のRGBの中の一色に対応する波長域の光に対する撮像光学系2の焦点距離に一致させる。
[Second relative position adjustment]
When the first shooting is completed, the system controller 20 operates the driving device 5 to change the relative distance between the imaging optical system 2 and the image sensor 21 (step SB3). Specifically, the relative distance between the image pickup optical system 2 and the image sensor 21 in the direction of the optical axis O of the image pickup optical system 2 is the first of the wavelength ranges of light to be included in the image information acquired by the digital still camera 1. The focal length of the imaging optical system 2 is made to correspond to light in a wavelength region corresponding to one color in another RGB different from that at the time of the relative position adjustment.

[第二回撮影]
この状態で、システムコントローラ20は、CCDドライバ22に動作指令を出して、第二回目の撮影を行う(ステップSB4)。
この状態では、デジタルスチルカメラ1によって取得する画像情報に含めたい光の波長域のうち、第一回撮影時に得た画像情報とは異なる一部の波長域に対応する単色の画像情報が得られる。
[Second shot]
In this state, the system controller 20 issues an operation command to the CCD driver 22 and performs the second shooting (step SB4).
In this state, monochromatic image information corresponding to a part of the wavelength range different from the image information obtained at the time of the first imaging among the wavelength range of light to be included in the image information acquired by the digital still camera 1 is obtained. .

以降は、デジタルスチルカメラ1によって取得する画像情報に含めたい光の波長域全体について対応する画像情報が取得されるまで、システムコントローラ20が相対位置調整動作と撮影動作とを繰り返す(ステップSBn,SBn+1)。
このように単色の光について個別に画像情報の取得を行うことで、軸上色収差による影響を最小とした、鮮明な単色の画像情報が得られる。
Thereafter, the system controller 20 repeats the relative position adjustment operation and the photographing operation until image information corresponding to the entire wavelength range of light desired to be included in the image information acquired by the digital still camera 1 is acquired (steps SBn, SBn + 1). ).
Thus, by acquiring image information individually for monochromatic light, clear monochromatic image information that minimizes the influence of axial chromatic aberration can be obtained.

RGBの中の別の色(イメージセンサ21の検出可能な色調がRGB以上の色調に分解されている場合には、分解された残りの色)に対応してデータの取得を繰り返す。
ここで、撮像光学系2による各波長の光の結像位置は、撮像光学系2のレンズ構成や、ズームポジションによって変わる。これら各波長の光の結像位置は、撮像光学系2のレンズ構成等の特性データから予め算出することができる。
撮影動作に要する時間を最小限にするために、撮影に当たっては、撮影時におけるイメージセンサ21の移動量が最小となるように、各波長の光の画像取得順序を決定することが好ましい。
図10に、画像取得順序の一例を示す。ここで、図10に示す例では、撮像光学系2の光軸O上に、物体側からB,G,Rの順に各色ごとの像が結像している。図10において、Bの像が結像される位置からGの像が結像される位置までの距離をD1、Gの像が結像される位置からRの像が結像される位置までの距離をD2とし、イメージセンサ21の受光面からGの像が結像される位置までの距離をαとする。また、D2>D1であり、α<D2であり、D2−D1>2αである。
この条件下では、イメージセンサ21の受光面を、第一回目の撮像の際にはGの像が結像される位置に移動させ、第二回目の撮像の際にはBの像が結像される位置に移動させ、第三回目の撮像の際にはRの像が結像される位置に移動させることで、撮影時におけるイメージセンサ21の移動量が最小となる。
Data acquisition is repeated corresponding to another color in RGB (if the color tone that can be detected by the image sensor 21 is decomposed into RGB or higher color tone, the remaining color is decomposed).
Here, the imaging position of light of each wavelength by the imaging optical system 2 varies depending on the lens configuration of the imaging optical system 2 and the zoom position. The imaging positions of light of these wavelengths can be calculated in advance from characteristic data such as the lens configuration of the imaging optical system 2.
In order to minimize the time required for the shooting operation, it is preferable to determine the order of acquiring the light of each wavelength so that the amount of movement of the image sensor 21 during shooting is minimized.
FIG. 10 shows an example of the image acquisition order. Here, in the example shown in FIG. 10, an image for each color is formed on the optical axis O of the imaging optical system 2 in the order of B, G, and R from the object side. In FIG. 10, the distance from the position where the B image is formed to the position where the G image is formed is D1, and the distance from the position where the G image is formed to the position where the R image is formed. The distance is D2, and the distance from the light receiving surface of the image sensor 21 to the position where the G image is formed is α. Further, D2> D1, α <D2, and D2-D1> 2α.
Under this condition, the light receiving surface of the image sensor 21 is moved to the position where the G image is formed during the first imaging, and the B image is formed during the second imaging. By moving to the position where the image sensor 21 is moved and moving to the position where the R image is formed at the time of the third imaging, the amount of movement of the image sensor 21 at the time of shooting is minimized.

本実施形態では、デジタルスチルカメラ1は、可視光域の光全体について画像情報を取得する構成とされている。
具体的には、第一回相対位置調整では、図11に示すように、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を、赤色光に対する撮像光学系2の焦点距離DRに一致させる。この状態では、イメージセンサ21の受光面と撮像光学系2による赤色光の結像面が一致するので、受光面には、赤色光のみによる像が鮮明に結像される。
第一回撮影では、システムコントローラ20は、データ処理回路25の動作を制御して、A/D変換器24からデータ処理回路25に出力される画像データのうち、赤色の画像データのみ抽出させる。これにより、赤色光に対応する単色の画像情報が得られる。
In this embodiment, the digital still camera 1 is configured to acquire image information for the entire light in the visible light range.
Specifically, in the first relative position adjustment, as shown in FIG. 11, the relative distance between the imaging optical system 2 and the image sensor 21 in the optical axis O direction of the imaging optical system 2 is set to the imaging optical for red light. It is made to coincide with the focal length DR of the system 2. In this state, since the light receiving surface of the image sensor 21 and the imaging surface of red light by the imaging optical system 2 coincide with each other, an image of only red light is clearly formed on the light receiving surface.
In the first shooting, the system controller 20 controls the operation of the data processing circuit 25 to extract only red image data from the image data output from the A / D converter 24 to the data processing circuit 25. Thereby, monochromatic image information corresponding to red light is obtained.

第二回相対位置調整では、図12に示すように、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を、緑色光に対する撮像光学系2の焦点距離DGに一致させる。この状態では、イメージセンサ21の受光面と撮像光学系2による緑色光の結像面が一致するので、受光面には、緑色光のみによる像が鮮明に結像される。
第二回撮影では、システムコントローラ20は、データ処理回路25の動作を制御して、A/D変換器24からデータ処理回路25に出力される画像データのうち、緑色の画像データのみ抽出させる。これにより、緑色光に対応する単色の画像情報が得られる。
In the second relative position adjustment, as shown in FIG. 12, the relative distance between the imaging optical system 2 and the image sensor 21 in the direction of the optical axis O of the imaging optical system 2 is set to the focal length of the imaging optical system 2 with respect to green light. Match DG. In this state, the light receiving surface of the image sensor 21 and the green light image forming surface by the image pickup optical system 2 coincide with each other, so that an image of only the green light is clearly formed on the light receiving surface.
In the second shooting, the system controller 20 controls the operation of the data processing circuit 25 to extract only green image data from the image data output from the A / D converter 24 to the data processing circuit 25. Thereby, monochromatic image information corresponding to green light is obtained.

第三回相対位置調整では、図13に示すように、撮像光学系2の光軸O方向での撮像光学系2とイメージセンサ21との相対距離を、青色光に対する撮像光学系2の焦点距離DBに一致させる。この状態では、イメージセンサ21の受光面と撮像光学系2による青色光の結像面が一致するので、受光面には、青色光のみによる像が鮮明に結像される。
第三回撮影では、システムコントローラ20は、データ処理回路25の動作を制御して、A/D変換器24からデータ処理回路25に出力される画像データのうち、青色の画像データのみ抽出させる。これにより、青色光に対応する単色の画像情報が得られる。
In the third relative position adjustment, as shown in FIG. 13, the relative distance between the imaging optical system 2 and the image sensor 21 in the direction of the optical axis O of the imaging optical system 2 is set as the focal length of the imaging optical system 2 with respect to blue light. Match to DB. In this state, the light receiving surface of the image sensor 21 and the blue light image formation surface by the imaging optical system 2 coincide with each other, so that an image of only blue light is clearly formed on the light reception surface.
In the third shooting, the system controller 20 controls the operation of the data processing circuit 25 to extract only blue image data from the image data output from the A / D converter 24 to the data processing circuit 25. Thereby, monochromatic image information corresponding to blue light is obtained.

ここで、撮像光学系2とイメージセンサ21との光軸O方向の相対距離と、得られる画像情報においてピントの合っている領域との関係は、撮像光学系2の光学特性に基づいて予め求めることができる。システムコントローラ20は、この情報に基づいて、各回の相対位置調整において、撮像光学系2の光軸O方向における撮像光学系2とイメージセンサ21との相対距離を決定する。   Here, the relationship between the relative distance in the optical axis O direction between the imaging optical system 2 and the image sensor 21 and the focused area in the obtained image information is obtained in advance based on the optical characteristics of the imaging optical system 2. be able to. Based on this information, the system controller 20 determines the relative distance between the imaging optical system 2 and the image sensor 21 in the optical axis O direction of the imaging optical system 2 in each relative position adjustment.

次に、システムコントローラ20は、データ処理回路25の動作を制御して、得られた単色の画像情報を合成して、多色の画像情報(完成画像情報)を生成する(ステップSBn+2)。
上記のように、各回の撮影では、軸上色収差による影響を最小とした、鮮明な画像情報が得られる。このような鮮明な単色の画像情報を合成することで、軸上色収差による影響を最小とした、鮮明な多色の画像情報が得られる。
Next, the system controller 20 controls the operation of the data processing circuit 25 and combines the obtained single color image information to generate multicolor image information (completed image information) (step SBn + 2).
As described above, in each shooting, clear image information can be obtained in which the influence of axial chromatic aberration is minimized. By synthesizing such clear single-color image information, clear multicolor image information can be obtained in which the influence of axial chromatic aberration is minimized.

すなわち、このデジタルスチルカメラ1では、撮像光学系2が軸上色収差を有していても、この軸上色収差を良好に補正して、各基準領域に対応する鮮明な多色の画像情報を得ることができる。言い換えれば、このデジタルスチルカメラ1は、撮像光学系2を複雑な構成とすることなしに、軸上色収差を補正して、各基準領域に対応する鮮明な多色の画像情報を得ることができる。   That is, in the digital still camera 1, even if the imaging optical system 2 has axial chromatic aberration, the axial chromatic aberration is corrected well to obtain clear multicolor image information corresponding to each reference region. be able to. In other words, the digital still camera 1 can correct axial chromatic aberration and obtain clear multicolor image information corresponding to each reference region without making the imaging optical system 2 complicated. .

このデジタルスチルカメラ1では、上記のように、軸上色収差が良好に補正された、各基準領域に対応する鮮明な多色の画像情報に基づいて、完成画像情報を生成する。
これにより、このデジタルスチルカメラ1によれば、撮像光学系2の構成を簡略化して製造コストを抑えながら、撮像光学系2の像面歪曲収差及び軸上色収差を良好に補正して、鮮明な完成画像情報(多色の画像情報)を取得することができる。
In the digital still camera 1, as described above, completed image information is generated based on clear multicolor image information corresponding to each reference region in which the axial chromatic aberration is well corrected.
As a result, according to the digital still camera 1, while simplifying the configuration of the imaging optical system 2 and reducing the manufacturing cost, the image surface distortion aberration and the axial chromatic aberration of the imaging optical system 2 are corrected satisfactorily. Completed image information (multicolor image information) can be acquired.

また、このデジタルスチルカメラ1では、システムコントローラ20によって、撮像光学系2とイメージセンサ21との相対距離の調整作業と、イメージセンサ21による撮影とが自動的に行われるので、使用者は、複雑な操作を行うことなく、容易に完成画像情報を得ることができる。   In the digital still camera 1, the system controller 20 automatically adjusts the relative distance between the imaging optical system 2 and the image sensor 21, and photographing with the image sensor 21. The completed image information can be easily obtained without performing any operation.

以下、これまでに説明した像面歪曲収差の補正と、軸上色収差の補正とを合わせて補正する動作について、図14を用いて説明する。ここで、図14(a)は、撮像光学系2の光軸O方向における基準領域の位置関係を示す図であり、図14(b)は各基準領域にて得られる像のイメージセンサ上での位置を示す図である。   Hereinafter, an operation of correcting the correction of the image plane distortion and the correction of the axial chromatic aberration described so far will be described with reference to FIG. Here, FIG. 14A is a diagram showing the positional relationship of the reference regions in the optical axis O direction of the imaging optical system 2, and FIG. 14B is an image sensor of an image obtained in each reference region. FIG.

図14(a)に示すように、撮像光学系2の結像面Fは、像面歪曲収差の影響により、物体側(図14(a)では紙面左側)に凹となる曲面をなしている。本実施形態では、撮像光学系2の光軸O方向において、イメージセンサ21の受光面のうち被写体が含まれる領域の中心部P1’でピントが合う範囲を第一基準領域A1’とし、受光面のうち被写体が含まれる領域の中間部P2’でピントが合う範囲を第二基準領域A2’とし、受光面のうち被写体が含まれる領域の周縁部P3’でピントが合う範囲を第三基準領域A3’としている。   As shown in FIG. 14A, the imaging surface F of the imaging optical system 2 has a curved surface that is concave on the object side (left side of the paper in FIG. 14A) due to the influence of the image surface distortion. . In the present embodiment, in the optical axis O direction of the imaging optical system 2, the range in focus at the center P1 ′ of the region including the subject in the light receiving surface of the image sensor 21 is defined as the first reference region A1 ′, and the light receiving surface. The second reference area A2 ′ is a range in focus at the middle portion P2 ′ of the area including the subject, and the third reference area is a range in focus at the peripheral edge portion P3 ′ of the area including the subject on the light receiving surface. A3 '.

また、本実施形態に示す撮像光学系2では、図14(a)に示すように、軸上色収差の影響により、撮像光学系2の光軸O上に、物体側からB,G,Rの順に各色ごとの像が結像される。すなわち、本実施形態に示す撮像光学系2では、光軸O方向に沿って、物体側から順に、Bに対応する結像面FB、Gに対応する結像面FG、Rに対応する結像面FRが位置している。   Further, in the imaging optical system 2 shown in the present embodiment, as shown in FIG. 14A, due to the influence of axial chromatic aberration, B, G, and R from the object side on the optical axis O of the imaging optical system 2 are obtained. An image for each color is formed in order. That is, in the imaging optical system 2 shown in the present embodiment, the image formation corresponding to the image formation planes FG and R corresponding to B in order from the object side along the optical axis O direction. The surface FR is located.

この条件下では、イメージセンサ21の受光面を、第一基準領域A1’内のBの像が結像される位置B1に移動させることにより、Bの波長について、被写体が含まれる領域の中心部P1’にピントが合った画像情報が得られる。
次に、イメージセンサ21の受光面を、第一基準領域A1’内のGの像が結像される位置G1に移動させることにより、Gの波長について、被写体が含まれる領域の中心部P1’にピントが合った画像情報が得られる。
次に、イメージセンサ21の受光面を、第一基準領域A1’内のRの像が結像される位置R1に移動させることにより、Rの波長について、被写体が含まれる領域の中心部P1’にピントが合った画像情報が得られる。
Under this condition, by moving the light receiving surface of the image sensor 21 to the position B1 where the B image in the first reference area A1 ′ is formed, the central portion of the area including the subject with respect to the B wavelength is obtained. Image information focused on P1 ′ is obtained.
Next, by moving the light receiving surface of the image sensor 21 to the position G1 where the G image in the first reference area A1 ′ is formed, the central portion P1 ′ of the area including the subject with respect to the G wavelength. Image information in focus is obtained.
Next, by moving the light receiving surface of the image sensor 21 to a position R1 where an R image is formed in the first reference area A1 ′, the center P1 ′ of the area including the subject with respect to the R wavelength is formed. Image information in focus is obtained.

次いで、イメージセンサ21の受光面を、光軸O上の第二基準領域A2’内のBの像が結像される位置B2に移動させることにより、Bの波長について、被写体が含まれる領域の中間部P2’にピントが合った画像情報が得られる。
次に、イメージセンサ21の受光面を、光軸O上の第二基準領域A2’内のGの像が結像される位置G2に移動させることにより、Gの波長について、被写体が含まれる領域の中間部P2’にピントが合った画像情報が得られる。
次に、イメージセンサ21の受光面を、光軸O上の第二基準領域A2’内のRの像が結像される位置R2に移動させることにより、Rの波長について、被写体が含まれる領域の中間部P2’にピントが合った画像情報が得られる。
Next, by moving the light receiving surface of the image sensor 21 to the position B2 where the B image in the second reference area A2 ′ on the optical axis O is formed, the area of the object including the subject with respect to the B wavelength is obtained. Image information focused on the intermediate portion P2 ′ is obtained.
Next, by moving the light receiving surface of the image sensor 21 to the position G2 where the G image in the second reference region A2 ′ on the optical axis O is formed, the region including the subject with respect to the G wavelength. Image information focused on the intermediate portion P2 ′ is obtained.
Next, by moving the light receiving surface of the image sensor 21 to a position R2 where the R image in the second reference area A2 ′ on the optical axis O is formed, an area including the subject with respect to the R wavelength. Image information focused on the intermediate portion P2 ′ is obtained.

さらに、上述の手順と同様にして、イメージセンサ21の受光面を、光軸O上の第三基準領域A3’内のBの像が結像される位置B3、Gの像が結像される位置G3、Rの像が結像される位置R3に移動させることにより、第三基準領域A3’における、R,G,Bの各波長について、それぞれ被写体が含まれる領域の周縁部P3’にピントが合った画像情報が得られる。   Further, in the same manner as described above, the images of the positions B3 and G where the image of B in the third reference area A3 ′ on the optical axis O is formed are formed on the light receiving surface of the image sensor 21. By moving to the position R3 where the images of the positions G3 and R are formed, the respective wavelengths of R, G and B in the third reference area A3 ′ are focused on the peripheral part P3 ′ of the area including the subject. Can be obtained.

次いで、このようにイメージセンサ21を合計9箇所に移動させて得られた、中心部P1’、中間部P2’、周縁部P3’の各領域に分割された、それぞれのB,G,Rの各波長に関する結像画像の画像データを適宜合成することにより、像面歪曲収差及び軸上色収差が良好に補正された良好な多色の全体画像を得ることが可能となる。   Next, the image sensor 21 is moved to a total of nine places as described above, and each of B, G, R divided into the respective regions of the central portion P1 ′, the intermediate portion P2 ′, and the peripheral portion P3 ′ is obtained. By appropriately combining the image data of the image formed with respect to each wavelength, it becomes possible to obtain a good multicolor entire image in which the image surface distortion and the axial chromatic aberration are well corrected.

なお、上述の説明では、中心部P1’、中間部P2’、及び周辺部P3’の各領域について画像情報を取得するために、イメージセンサ21を合計9箇所に移動させて画像データの取得を行う例を示した。
本発明は、これに限られることなく、撮像光学系2とイメージセンサ21との相対距離を変えてイメージセンサ21によって取得された複数の画像情報から、それぞれの相対距離に応じて設定される領域を切り出した部分画像情報を複数得るとともに、少なくとも一の部分画像情報を取得する相対距離に撮像光学系2とイメージセンサ21とを位置させた状態で、複数の波長の画像情報を得て、これら部分画像情報を組み合わせて多色の完成画像情報を生成することができる。
具体的には、図14において、イメージセンサ21の受光面を光軸O上のB1点に位置させることにより、中心部P1’のB波長の画像と、中間部P2’のR波長の画像データとを一括して取得することが可能である。
このように構成することにより、イメージセンサ21の移動量を最小限として、高速で多色の完成画像を得ることが可能となる。
In the above description, the image data is acquired by moving the image sensor 21 to a total of nine locations in order to acquire image information for each region of the central portion P1 ′, the intermediate portion P2 ′, and the peripheral portion P3 ′. An example to do is shown.
The present invention is not limited to this, but is a region set according to each relative distance from a plurality of pieces of image information acquired by the image sensor 21 by changing the relative distance between the imaging optical system 2 and the image sensor 21. A plurality of partial image information obtained by cutting out image information of a plurality of wavelengths in a state where the imaging optical system 2 and the image sensor 21 are positioned at a relative distance at which at least one partial image information is acquired. Multi-color completed image information can be generated by combining partial image information.
Specifically, in FIG. 14, by positioning the light receiving surface of the image sensor 21 at the point B1 on the optical axis O, an image of B wavelength at the central portion P1 ′ and image data of R wavelength at the intermediate portion P2 ′. Can be acquired in a batch.
With this configuration, it is possible to obtain a multicolored completed image at a high speed while minimizing the amount of movement of the image sensor 21.

ここで、上記実施形態では、各基準領域についてそれぞれ複数の単色の画像情報を取得し、データ処理回路25が、これら単色の画像情報に基づいて、各基準領域に対応する多色の画像情報を生成する構成とされた例について説明した。
本発明は、これに限られることなく、隣接する基準領域のうちの一方の基準領域については一部の単色の画像情報の取得を行わず、データ処理回路25が、この一方の基準領域に対応する多色の画像情報の生成にあたって、取得されていない色の画像情報の代わりに、隣接する基準領域で取得された単色の画像情報のうち、一方の基準領域で取得されていない色に対応する単色の画像情報を用いる構成とされていてもよい。
このように、基準領域に対応する多色の画像情報を生成する際に、隣接する基準領域に対応する1つ以上の単色の画像情報を流用することで、各基準領域についてそれぞれ単色の画像情報の生成及び多色の画像情報の生成を行う場合に比べて、取得する画像情報の数を低減することができる。このため、撮像を開始してから完成画像情報を生成するまでに要する時間を短縮することができる。
Here, in the above embodiment, a plurality of single-color image information is acquired for each reference region, and the data processing circuit 25 obtains multicolor image information corresponding to each reference region based on the single-color image information. An example in which the configuration is generated has been described.
The present invention is not limited to this, and some monochromatic image information is not acquired for one of the adjacent reference areas, and the data processing circuit 25 corresponds to the one reference area. When generating multi-color image information, instead of image information of a color that has not been acquired, it corresponds to a color that has not been acquired in one reference region, out of single-color image information acquired in an adjacent reference region. It may be configured to use monochromatic image information.
As described above, when generating multi-color image information corresponding to the reference region, by using one or more single-color image information corresponding to the adjacent reference region, it is possible to obtain single-color image information for each reference region. The number of pieces of image information to be acquired can be reduced as compared with the case of generating and generating multicolor image information. For this reason, it is possible to reduce the time required from the start of imaging to the generation of completed image information.

上記実施形態では、撮像光学系2とイメージセンサ21との相対距離を変化させる駆動装置として、筐体に対してイメージセンサ21の相対位置を変化させる駆動装置5を用いた例を示した。しかし、これに限られることなく、駆動装置として、筐体に対して撮像光学系2の相対位置を変化させることで撮像光学系2とイメージセンサ21との相対距離を変化させる構成のものを用いてもよい。
また、上記実施形態では、本発明を、デジタルスチルカメラに適用した例について説明した。しかし、これに限られることなく、本発明は、ビデオカメラ等、画像データを電子的に扱う各種のカメラに適用してもよい。
また、本発明による軸上色収差の補正処理は、R、G,Bの三色に限られるものではなく、二色以上(例えば四色や六色)について補正処理が行われてもよい。また、撮像光学系2の倍率色収差を、倍率色収差補正用のレンズによって補正した上で、本発明による軸上色収差の補正処理を行ってもよい。
In the above embodiment, an example in which the driving device 5 that changes the relative position of the image sensor 21 with respect to the housing is used as the driving device that changes the relative distance between the imaging optical system 2 and the image sensor 21. However, the present invention is not limited to this, and a driving device having a configuration in which the relative distance between the imaging optical system 2 and the image sensor 21 is changed by changing the relative position of the imaging optical system 2 with respect to the housing is used. May be.
In the above embodiment, the example in which the present invention is applied to a digital still camera has been described. However, the present invention is not limited to this, and the present invention may be applied to various cameras that handle image data electronically, such as a video camera.
In addition, the correction processing of the longitudinal chromatic aberration according to the present invention is not limited to three colors of R, G, and B, and correction processing may be performed for two or more colors (for example, four colors or six colors). Further, the axial chromatic aberration correction processing according to the present invention may be performed after correcting the lateral chromatic aberration of the imaging optical system 2 with a lens for correcting lateral chromatic aberration.

本発明の一実施形態に係るデジタルスチルカメラ(収差補正撮像装置)の構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera (aberration correction imaging device) which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデジタルスチルカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the digital still camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデジタルスチルカメラにおいて撮像光学系の光軸上に設定される基準領域の具体例を示す図である。It is a figure which shows the specific example of the reference | standard area | region set on the optical axis of an imaging optical system in the digital still camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデジタルスチルカメラの動作を概略的に示す図であって、中心部のみピントがあっている画像情報が撮影される状態を示す図である。It is a figure which shows schematically the operation | movement of the digital still camera which concerns on one Embodiment of this invention, Comprising: It is a figure which shows the state which image | photographs the image information in which only the center part is focused. 図4に示す状態で撮影される画像情報を示す図である。It is a figure which shows the image information image | photographed in the state shown in FIG. 本発明の一実施形態に係るデジタルスチルカメラの動作を概略的に示す図であって、中心部のみピントがあっている画像情報が撮影される状態を示す図である。It is a figure which shows schematically the operation | movement of the digital still camera which concerns on one Embodiment of this invention, Comprising: It is a figure which shows the state which image | photographs the image information in which only the center part is focused. 図6に示す状態で撮影される画像情報を示す図である。It is a figure which shows the image information image | photographed in the state shown in FIG. 図5に示す画像情報の部分画像情報と図7に示す画像情報の部分画像情報とを合成して得られる完成画像情報を示す図である。It is a figure which shows the completion image information obtained by synthesize | combining the partial image information of the image information shown in FIG. 5, and the partial image information of the image information shown in FIG. 本発明の一実施形態に係るデジタルスチルカメラの各基準領域における撮影動作を説明するフローチャートである。It is a flowchart explaining the imaging | photography operation | movement in each reference | standard area | region of the digital still camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデジタルスチルカメラの動作を説明する図である。It is a figure explaining operation | movement of the digital still camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデジタルスチルカメラの各基準領域における撮影動作の具体例を示す図であって、赤色光の画像情報の取得時の様子を示す図である。It is a figure which shows the example of the imaging | photography operation | movement in each reference | standard area | region of the digital still camera which concerns on one Embodiment of this invention, Comprising: It is a figure which shows the mode at the time of acquisition of the image information of red light. 本発明の一実施形態に係るデジタルスチルカメラの各基準領域における撮影動作の具体例を示す図であって、緑色光の画像情報の取得時の様子を示す図である。It is a figure which shows the specific example of imaging | photography operation | movement in each reference | standard area | region of the digital still camera which concerns on one Embodiment of this invention, Comprising: It is a figure which shows the mode at the time of the acquisition of the image information of green light. 本発明の一実施形態に係るデジタルスチルカメラの各基準領域における撮影動作の具体例を示す図であって、青色光の画像情報の取得時の様子を示す図である。It is a figure which shows the specific example of imaging | photography operation | movement in each reference | standard area | region of the digital still camera concerning one Embodiment of this invention, Comprising: It is a figure which shows the mode at the time of the acquisition of the image information of blue light. 本発明の一実施形態に係るデジタルスチルカメラの撮影動作の具体例を示す図であって、(a)は光軸方向における基準領域の位置関係を示す図であり、(b)は各基準領域にて得られる像のイメージセンサ上での位置を示す図である。It is a figure which shows the specific example of imaging | photography operation | movement of the digital still camera concerning one Embodiment of this invention, Comprising: (a) is a figure which shows the positional relationship of the reference area in an optical axis direction, (b) is each reference area. It is a figure which shows the position on the image sensor of the image obtained in (2).

符号の説明Explanation of symbols

1 デジタルスチルカメラ(収差補正撮像装置)
3 撮像光学系
5 駆動装置
20 システムコントローラ(制御装置)
21 イメージセンサ(撮像素子)
25 データ処理回路(画像処理装置)
1 Digital still camera (aberration correction imaging device)
3 Imaging Optical System 5 Drive Device 20 System Controller (Control Device)
21 Image sensor
25 Data processing circuit (image processing device)

Claims (6)

撮像光学系と、
該撮像光学系により結ばれた像を画像情報として取得する撮像素子と、
前記撮像光学系の光軸方向での該撮像光学系と前記撮像素子との相対距離を変化させる駆動装置と、
前記駆動装置の動作を制御して前記撮像光学系と前記撮像素子との前記相対距離を変更するとともに、
該相対距離を変えて、前記撮像素子による画像情報の取得を複数回行う制御装置とを有し、
前記撮像光学系と前記撮像素子との前記相対距離を変えて前記撮像素子によって取得された複数の画像情報から、それぞれの前記相対距離に応じて設定される領域を切り出した部分画像情報を複数得るとともに、光の所定の波長ごとの画像情報を複数得て、これら部分画像情報と所定の波長ごとの画像情報とを組み合わせて多色の完成画像情報を生成する画像処理装置とを備える収差補正撮像装置。
An imaging optical system;
An image sensor for acquiring an image formed by the imaging optical system as image information;
A driving device that changes a relative distance between the imaging optical system and the imaging element in an optical axis direction of the imaging optical system;
While controlling the operation of the driving device to change the relative distance between the imaging optical system and the imaging element,
A control device that changes the relative distance and performs acquisition of image information by the imaging device a plurality of times;
A plurality of pieces of partial image information obtained by cutting out regions set in accordance with the relative distances are obtained from a plurality of pieces of image information acquired by the imaging element by changing the relative distance between the imaging optical system and the imaging element. And an image processing apparatus that obtains a plurality of pieces of image information for each predetermined wavelength of light and combines the partial image information and the image information for each predetermined wavelength to generate multicolor completed image information. apparatus.
前記制御装置が、前記撮像光学系と前記撮像素子との前記相対距離及び前記画像情報の取得回数を、前記撮像光学系の像面歪曲収差の特性に基づいて決定する請求項1記載の収差補正撮像装置。   2. The aberration correction according to claim 1, wherein the control device determines the relative distance between the imaging optical system and the imaging element and the number of acquisition times of the image information based on characteristics of image surface distortion of the imaging optical system. Imaging device. 前記制御装置は、前記駆動装置の動作を制御して、前記撮像素子を前記撮像光学系の前記光軸方向の複数の基準領域に順次位置させるとともに、
前記撮像素子の動作を制御して、前記基準領域に位置した状態での画像情報を取得させ、
前記基準領域での画像情報の取得にあたって、前記駆動装置の動作を制御して、前記撮像光学系と前記撮像素子との前記相対距離を、前記撮像光学系の光の所定の波長ごとの焦点距離に順次設定し、
前記撮像光学系と前記撮像素子との前記相対距離を前記撮像光学系の光の所定の波長ごとの各焦点距離に設定した状態で、前記撮像素子による画像情報の取得を行う構成とされている請求項1または2に記載の収差補正撮像装置。
The control device controls the operation of the driving device to sequentially position the imaging element in a plurality of reference regions in the optical axis direction of the imaging optical system,
Controlling the operation of the image sensor to obtain image information in a state located in the reference region;
In acquiring the image information in the reference area, the operation of the driving device is controlled, and the relative distance between the imaging optical system and the imaging element is determined as the focal length for each predetermined wavelength of light of the imaging optical system. In order,
Image information is acquired by the imaging element in a state where the relative distance between the imaging optical system and the imaging element is set to each focal length for each predetermined wavelength of light of the imaging optical system. The aberration correction imaging apparatus according to claim 1 or 2.
前記画像処理装置は、隣接する前記基準領域に対応する前記多色の画像情報を、1つ以上の共通の前記光の所定の波長ごとの画像情報を用いて生成する構成とされている請求項3記載の収差補正撮像装置。   The image processing apparatus is configured to generate the multi-color image information corresponding to the adjacent reference region using image information for each predetermined wavelength of the one or more common lights. 3. The aberration correction imaging apparatus according to 3. 撮像光学系と、該撮像光学系により結ばれた像を画像情報として取得する撮像素子とを有する撮像装置での収差補正方法であって、
前記撮像光学系の光軸方向での該撮像光学系と前記撮像素子との相対距離を変化させ、
前記撮像光学系と前記撮像素子との前記相対距離を変えて、前記撮像素子による画像情報の取得を複数回行い、
前記撮像光学系と前記撮像素子との前記相対距離を変えて取得された複数の画像情報から、前記撮像光学系の前記光軸方向の複数の基準領域についてそれぞれ光の所定の波長の画像情報を得て、これら光の所定の波長の画像情報を組み合わせて前記各基準領域に対応する多色の画像情報を生成するとともに、
前記多色の画像情報のそれぞれについて、該多色の画像情報が対応する前記基準領域の、前記相対距離に応じて設定される画像領域を切り出した部分画像情報を得て、これらの部分画像情報を組み合わせて完成画像情報を生成する収差補正方法。
An aberration correction method in an imaging apparatus having an imaging optical system and an imaging element that acquires an image connected by the imaging optical system as image information,
Changing the relative distance between the imaging optical system and the imaging element in the optical axis direction of the imaging optical system;
Changing the relative distance between the imaging optical system and the image sensor, performing image information acquisition by the image sensor multiple times,
From a plurality of pieces of image information acquired by changing the relative distance between the image pickup optical system and the image pickup element, image information of a predetermined wavelength of light is respectively obtained for a plurality of reference regions in the optical axis direction of the image pickup optical system. To obtain multi-color image information corresponding to each of the reference regions by combining the image information of a predetermined wavelength of the light,
For each of the multicolor image information, partial image information obtained by cutting out an image area set in accordance with the relative distance of the reference area to which the multicolor image information corresponds is obtained, and the partial image information Aberration correction method for generating completed image information by combining.
隣接する前記基準領域に対応する前記光の所定の波長の画像情報を、1つ以上の共通の前記光の所定の波長の画像情報を用いて生成する請求項5記載の収差補正方法。   The aberration correction method according to claim 5, wherein image information of a predetermined wavelength of the light corresponding to the adjacent reference region is generated using image information of a predetermined wavelength of the one or more common light.
JP2006264663A 2006-09-28 2006-09-28 Aberration correcting imaging apparatus and aberration correcting method Withdrawn JP2008085774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006264663A JP2008085774A (en) 2006-09-28 2006-09-28 Aberration correcting imaging apparatus and aberration correcting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006264663A JP2008085774A (en) 2006-09-28 2006-09-28 Aberration correcting imaging apparatus and aberration correcting method

Publications (1)

Publication Number Publication Date
JP2008085774A true JP2008085774A (en) 2008-04-10

Family

ID=39356148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006264663A Withdrawn JP2008085774A (en) 2006-09-28 2006-09-28 Aberration correcting imaging apparatus and aberration correcting method

Country Status (1)

Country Link
JP (1) JP2008085774A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141814A (en) * 2008-12-15 2010-06-24 Nikon Corp Image processing apparatus, imaging apparatus, program, and method of image processing
JP2011022729A (en) * 2009-07-14 2011-02-03 Canon Inc Image processing apparatus, image processing method, program and storage media
JP2013003288A (en) * 2011-06-15 2013-01-07 Olympus Imaging Corp Zoom lens and imaging apparatus including the same
CN105991910A (en) * 2015-03-23 2016-10-05 佳能株式会社 Imaging apparatus and method for controlling the same
JP2016178610A (en) * 2015-03-23 2016-10-06 キヤノン株式会社 Imaging device, control method and program therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141814A (en) * 2008-12-15 2010-06-24 Nikon Corp Image processing apparatus, imaging apparatus, program, and method of image processing
JP2011022729A (en) * 2009-07-14 2011-02-03 Canon Inc Image processing apparatus, image processing method, program and storage media
JP2013003288A (en) * 2011-06-15 2013-01-07 Olympus Imaging Corp Zoom lens and imaging apparatus including the same
CN105991910A (en) * 2015-03-23 2016-10-05 佳能株式会社 Imaging apparatus and method for controlling the same
JP2016177242A (en) * 2015-03-23 2016-10-06 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2016178610A (en) * 2015-03-23 2016-10-06 キヤノン株式会社 Imaging device, control method and program therefor
CN105991910B (en) * 2015-03-23 2020-07-24 佳能株式会社 Image pickup apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP4717363B2 (en) Multispectral imaging device and adapter lens
TWI383672B (en) Image capturing apparatus and image processing method
JP5300414B2 (en) Camera and camera system
US9386228B2 (en) Image processing device, imaging device, image processing method, and non-transitory computer-readable medium
US8908068B2 (en) Image pickup device and image pickup unit to form composite image
US20110157404A1 (en) Digital camera and method for manufacturing same
JP2008040087A (en) Imaging device, imaging apparatus and focus detecting device
JP2008085774A (en) Aberration correcting imaging apparatus and aberration correcting method
JP2010193277A (en) Information processing apparatus, imaging device, and method of controlling information processing apparatus
JP2008085773A (en) Chromatic aberration correcting imaging apparatus and chromatic aberration correcting method
JP2007251927A (en) Camera with red-eye correction function
JP2007292997A (en) Optical lens barrel, image-forming optical system and photographing device
US20090091640A1 (en) Digital camera with special effect viewfinder, image displaying method on the viewfinder, and photographing method with the digital camera
US20070188629A1 (en) Imaging device
JP2010026011A (en) Imaging apparatus
JP2007158700A (en) Color fidelity camera
JP2007122340A (en) Image display system
JP4838681B2 (en) Image surface distortion correction imaging apparatus and image surface distortion correction method
JP2003283922A (en) Electronic camera
JP2011191340A (en) Imaging apparatus
JP2006197346A (en) Photographing device
CN107077043A (en) Projection-type image display device
JP2007158701A (en) Color fidelity camera
JP4335648B2 (en) Digital camera and imaging method of digital camera
JP2006324760A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091201