JP5272699B2 - Image processing apparatus, imaging apparatus, program, and image processing method - Google Patents

Image processing apparatus, imaging apparatus, program, and image processing method Download PDF

Info

Publication number
JP5272699B2
JP5272699B2 JP2008318544A JP2008318544A JP5272699B2 JP 5272699 B2 JP5272699 B2 JP 5272699B2 JP 2008318544 A JP2008318544 A JP 2008318544A JP 2008318544 A JP2008318544 A JP 2008318544A JP 5272699 B2 JP5272699 B2 JP 5272699B2
Authority
JP
Japan
Prior art keywords
image
captured images
lens
captured
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008318544A
Other languages
Japanese (ja)
Other versions
JP2010141814A (en
Inventor
えりか 小石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008318544A priority Critical patent/JP5272699B2/en
Publication of JP2010141814A publication Critical patent/JP2010141814A/en
Application granted granted Critical
Publication of JP5272699B2 publication Critical patent/JP5272699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means for correcting aberrations such as axial chromatic aberration and field curvature aberration. <P>SOLUTION: An image processing apparatus includes an image reading part and a corrected image generation part. The image reading part receives a plurality of shot images respectively shot by changing at least one of the parameters such as a focal point distance of shooting lens, a shooting distance, and a lens location of shooting lens. The corrected image generation part receives image information from each of shot images and combines a plurality of pieces of image information to generate a corrected image with shooting lens aberrations corrected. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、画像処理装置、撮像装置、プログラムおよび画像処理方法に関する。   The present invention relates to an image processing device, an imaging device, a program, and an image processing method.

レンズには、単色光により発生する収差(サイデルの5収差)や、色の波長の違いによる色収差といった収差があることが知られている。そして、電子カメラで撮像された画像につき、従来から上記の収差の影響を抑制する技術が種々提案されている。一例として、特許文献1には、レンズと撮像素子との光軸方向での相対距離を変化させて取得した複数の画像を用いて、像面湾曲収差(像高に応じて合焦位置が変化することで像面が湾曲する収差)および軸上色収差(光軸上の結像位置が色の波長ごとに異なることで生じる収差)を補正する技術が開示されている。
特開2008−85774公報
It is known that the lens has aberrations such as aberrations caused by monochromatic light (Sydel's five aberrations) and chromatic aberrations due to differences in color wavelengths. Various techniques for suppressing the influence of the above-described aberration have been proposed for images captured by an electronic camera. As an example, in Patent Document 1, a plurality of images obtained by changing the relative distance between the lens and the image sensor in the optical axis direction are used, and the field curvature aberration (the focus position changes according to the image height). Thus, there is disclosed a technique for correcting aberrations in which the image surface is curved) and axial chromatic aberration (aberration caused by the fact that the imaging position on the optical axis differs for each color wavelength).
JP 2008-85774 A

ところで、上記の従来技術では、レンズと撮像素子との光軸方向での相対距離を調整することで収差補正を行うが、他の方法によって軸上色収差や像面湾曲を補正する手段がなお要望されている。   By the way, in the above prior art, aberration correction is performed by adjusting the relative distance between the lens and the image sensor in the optical axis direction. However, there is still a demand for means for correcting axial chromatic aberration and curvature of field by other methods. Has been.

そこで、本発明の目的は、軸上色収差や像面湾曲収差などの収差補正を行う手段を提供することにある。   Therefore, an object of the present invention is to provide means for correcting aberrations such as longitudinal chromatic aberration and curvature of field aberration.

一の態様の画像処理装置は、画像読込部と、画像処理部と、補正画像生成部とを備える。画像読込部は、撮影レンズの焦点距離、撮影距離、撮影レンズの一部のレンズ群の配置の少なくとも1つのパラメータを変化させてそれぞれ撮像された複数の撮像画像を取得する。画像処理部は、撮像画像の画像処理を実行する。補正画像生成部は、各々の撮像画像からそれぞれ画像情報を取得するとともに、複数の画像情報を組み合わせて、撮影レンズの収差が補正された補正画像を生成する。複数の撮像画像における撮影条件の変化量は、撮影レンズの種類、撮影レンズの焦点距離、撮影距離に基づいて決定される。撮像画像は複数の色成分の情報を含み、複数の撮像画像は、各々の色成分に対応する波長の光における撮影レンズの結像位置のずれに応じてパラメータを変化させて撮像された画像である。画像処理部は、撮像画像間の撮影倍率の差を調整する倍率調整処理と、撮像画像間の歪曲収差の差を調整する歪曲収差調整処理と、撮像画像間での被写体のぶれを補正するぶれ補正処理と、撮像画像間での画像の明るさの差を調整する明度調整処理との少なくとも1つの処理を実行する。補正画像生成部は、各々の撮像画像からそれぞれ異なる色成分に対応する画像情報を取得して、軸上色収差が補正された補正画像を生成する。 An image processing apparatus according to one aspect includes an image reading unit, an image processing unit, and a corrected image generation unit. The image reading unit obtains a plurality of captured images respectively captured by changing at least one parameter of the focal length of the photographing lens, the photographing distance, and the arrangement of a part of the lens group of the photographing lens. The image processing unit executes image processing of the captured image. The corrected image generation unit acquires image information from each captured image, and generates a corrected image in which the aberration of the photographing lens is corrected by combining a plurality of pieces of image information. The amount of change in shooting conditions in a plurality of captured images is determined based on the type of shooting lens, the focal length of the shooting lens, and the shooting distance. The captured image includes information on a plurality of color components, and the plurality of captured images are images that are captured by changing parameters according to the shift of the imaging position of the photographing lens in the light of the wavelength corresponding to each color component. is there. The image processing unit includes a magnification adjustment process that adjusts a difference in photographing magnification between captured images, a distortion aberration adjustment process that adjusts a difference in distortion aberration between captured images, and a shake that corrects subject blur between the captured images. At least one of a correction process and a brightness adjustment process for adjusting a difference in image brightness between captured images is executed. The corrected image generation unit acquires image information corresponding to different color components from each captured image, and generates a corrected image in which the longitudinal chromatic aberration is corrected.

一の態様の画像処理装置は、画像読込部と、画像処理部と、補正画像生成部とを備える。画像読込部は、撮影レンズの焦点距離、撮影距離、撮影レンズの一部のレンズ群の配置の少なくとも1つのパラメータを変化させてそれぞれ撮像された複数の撮像画像を取得する。画像処理部は、撮像画像の画像処理を実行する。補正画像生成部は、各々の撮像画像からそれぞれ画像情報を取得するとともに、複数の画像情報を組み合わせて、撮影レンズの収差が補正された補正画像を生成する。複数の撮像画像における撮影条件の変化量は、撮影レンズの種類、撮影レンズの焦点距離、撮影距離、撮影レンズの絞り値に基づいて決定される。画像処理部は、撮像画像間の撮影倍率の差を調整する倍率調整処理と、撮像画像間の歪曲収差の差を調整する歪曲収差調整処理と、撮像画像間での被写体のぶれを補正するぶれ補正処理と、撮像画像間での画像の明るさの差を調整する明度調整処理との少なくとも1つの処理を実行する。補正画像生成部は、撮像画像間でそれぞれの像高が異なる位置から画像情報を取得して、像面湾曲収差が補正された補正画像を生成する。An image processing apparatus according to one aspect includes an image reading unit, an image processing unit, and a corrected image generation unit. The image reading unit obtains a plurality of captured images respectively captured by changing at least one parameter of the focal length of the photographing lens, the photographing distance, and the arrangement of a part of the lens group of the photographing lens. The image processing unit executes image processing of the captured image. The corrected image generation unit acquires image information from each captured image, and generates a corrected image in which the aberration of the photographing lens is corrected by combining a plurality of pieces of image information. The amount of change in shooting conditions in a plurality of captured images is determined based on the type of shooting lens, the focal length of the shooting lens, the shooting distance, and the aperture value of the shooting lens. The image processing unit includes a magnification adjustment process that adjusts a difference in photographing magnification between captured images, a distortion aberration adjustment process that adjusts a difference in distortion aberration between captured images, and a blur that corrects blurring of a subject between the captured images. At least one of a correction process and a brightness adjustment process for adjusting a difference in image brightness between captured images is executed. The corrected image generation unit acquires image information from positions where the image heights differ between the captured images, and generates a corrected image in which the field curvature aberration is corrected.

一の態様の画像処理装置は、画像読込部と、画像処理部と、補正画像生成部とを備える。画像読込部は、撮影レンズの焦点距離を変化させてブラケティング撮影された複数の撮像画像を取得する。画像処理部は、撮像画像間で明るさが相違する場合、撮像画像間での画像の明るさの差を調整する明度調整処理を実行する。補正画像生成部は、各々の撮像画像からそれぞれ画像情報を取得するとともに、複数の画像情報を組み合わせて、撮影レンズの収差が補正された補正画像を生成する。画像処理部は、R画素の主波長で撮像面に結像する第1の撮像画像、G画素の主波長で撮像面に結像する第2の撮像画像、B画素の主波長で撮像面に結像する第3の撮像画像間での画像の明るさの差を調整する。An image processing apparatus according to one aspect includes an image reading unit, an image processing unit, and a corrected image generation unit. The image reading unit acquires a plurality of captured images that are bracketed and photographed by changing a focal length of the photographing lens. When the brightness differs between the captured images, the image processing unit executes a brightness adjustment process for adjusting a difference in image brightness between the captured images. The corrected image generation unit acquires image information from each captured image, and generates a corrected image in which the aberration of the photographing lens is corrected by combining a plurality of pieces of image information. The image processing unit includes a first captured image formed on the imaging surface with the main wavelength of the R pixel, a second captured image formed on the imaging surface with the main wavelength of the G pixel, and an imaging surface with the main wavelength of the B pixel. The difference in image brightness between the third captured images to be formed is adjusted.

ここで、上記の一の態様の画像処理装置を含む撮像装置や、コンピュータを上記の一の態様の画像処理装置として機能させるプログラムや、上記の画像処理装置や撮像装置の動作を方法のカテゴリで表現したものも本発明の具体的態様として有効である。   Here, an imaging apparatus including the image processing apparatus according to the one aspect, a program that causes a computer to function as the image processing apparatus according to the first aspect, and operations of the image processing apparatus and the imaging apparatus according to a method category. What is expressed is also effective as a specific embodiment of the present invention.

本発明では撮影レンズの収差を補正した補正画像を生成できる。 In the present invention, a corrected image in which the aberration of the photographing lens is corrected can be generated.

<一の実施形態の説明>
図1は、一の実施形態である電子カメラシステムの構成例を示す概要図である。一の実施形態の電子カメラシステムは、レンズユニット1と、画像処理装置としてのカメラ本体2とを有している。レンズユニット1は、電気接点を備えたマウント(不図示)を介してカメラ本体2に交換可能に装着される。そして、レンズユニット1とカメラ本体2との接続時には、上記の電気接点による電気的な接続が確立する。
<Description of One Embodiment>
FIG. 1 is a schematic diagram illustrating a configuration example of an electronic camera system according to an embodiment. An electronic camera system according to one embodiment includes a lens unit 1 and a camera body 2 as an image processing apparatus. The lens unit 1 is replaceably mounted on the camera body 2 via a mount (not shown) having electrical contacts. Then, when the lens unit 1 and the camera body 2 are connected, the electrical connection by the electrical contact is established.

まず、レンズユニット1の構成を説明する。レンズユニット1には、撮影レンズ11と、レンズ駆動部12と、絞り13と、絞り駆動部14と、レンズメモリ15と、レンズマイコン16とが収容されている。なお、レンズ駆動部12、絞り駆動部14、レンズメモリ15は、それぞれレンズマイコン16と接続されている。   First, the configuration of the lens unit 1 will be described. The lens unit 1 accommodates a photographing lens 11, a lens driving unit 12, a diaphragm 13, a diaphragm driving unit 14, a lens memory 15, and a lens microcomputer 16. The lens driving unit 12, the aperture driving unit 14, and the lens memory 15 are each connected to a lens microcomputer 16.

撮影レンズ11は、ズームレンズおよびフォーカシングレンズを含む複数のレンズで構成されている。撮影レンズ11のレンズ位置は、レンズ駆動部12によってそれぞれ光軸方向に調整される。また、レンズ駆動部12はレンズ位置を検出するエンコーダを内蔵している。   The photographing lens 11 includes a plurality of lenses including a zoom lens and a focusing lens. The lens position of the taking lens 11 is adjusted by the lens driving unit 12 in the optical axis direction. The lens driving unit 12 has a built-in encoder for detecting the lens position.

また、図1では、簡単のため撮影レンズ11を1枚のレンズとして図示するが、実際の撮影レンズ11は複数のレンズ群を有しており、レンズ駆動部12はそのうちの1群を任意に移動させることが可能である。   In FIG. 1, the photographic lens 11 is illustrated as a single lens for simplicity, but the actual photographic lens 11 has a plurality of lens groups, and the lens driving unit 12 arbitrarily selects one of them. It is possible to move.

絞り13は、カメラ本体2に入射する単位時間当たりの光量を調節する。この絞り13の開口量(絞り値)は絞り駆動部14によって調整される。   The diaphragm 13 adjusts the amount of light per unit time incident on the camera body 2. The aperture amount (aperture value) of the diaphragm 13 is adjusted by the diaphragm driver 14.

レンズメモリ15は不揮発性の記憶媒体である。このレンズメモリ15には、レンズの位置と、撮影レンズ11の焦点距離および撮影距離との対応関係を示すテーブルデータが記憶されている。   The lens memory 15 is a non-volatile storage medium. The lens memory 15 stores table data indicating the correspondence between the lens position, the focal length of the photographing lens 11 and the photographing distance.

レンズマイコン16は、レンズ駆動部12のエンコーダによって撮影レンズ11のレンズ位置を取得する。また、レンズマイコン16は、レンズメモリ15のテーブルデータを参照して、撮影レンズ11の焦点距離や撮影時の撮影距離を上記のレンズ位置から求める。そして、レンズマイコン16は、上記の電気接点を介してカメラ本体2との間で通信を行い、撮影レンズ11の種類、撮影レンズ11の焦点距離、撮影距離、絞り値などの情報をカメラ本体2に出力する。   The lens microcomputer 16 acquires the lens position of the taking lens 11 by the encoder of the lens driving unit 12. Further, the lens microcomputer 16 refers to the table data in the lens memory 15 to obtain the focal length of the photographing lens 11 and the photographing distance at the time of photographing from the above lens position. Then, the lens microcomputer 16 communicates with the camera body 2 through the electrical contacts described above, and information such as the type of the photographing lens 11, the focal length of the photographing lens 11, the photographing distance, the aperture value, and the like. Output to.

次に、カメラ本体2の構成を説明する。カメラ本体2は、撮像素子21と、AFE22と、CPU23と、第1メモリ24と、第2メモリ25と、メディアI/F26と、レリーズ釦27とを有している。なお、AFE22、第1メモリ24、第2メモリ25、メディアI/F26およびレリーズ釦27は、それぞれCPU23と接続されている。   Next, the configuration of the camera body 2 will be described. The camera body 2 includes an image sensor 21, an AFE 22, a CPU 23, a first memory 24, a second memory 25, a media I / F 26, and a release button 27. Note that the AFE 22, the first memory 24, the second memory 25, the media I / F 26, and the release button 27 are connected to the CPU 23, respectively.

撮像素子21は、撮影レンズ11を通過した光束による結像を撮像して撮像画像の画像信号を生成する。この撮像素子21の撮像面には、複数の受光素子がマトリックス状に配列されている。また、撮像素子21の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子21の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。なお、撮像素子21の出力はAFE22に接続されている。   The imaging element 21 captures an image formed by the light flux that has passed through the photographing lens 11 and generates an image signal of the captured image. A plurality of light receiving elements are arranged in a matrix on the imaging surface of the imaging element 21. In addition, red (R), green (G), and blue (B) color filters are arranged in each light receiving element of the imaging element 21 in accordance with a known Bayer array. Therefore, each light receiving element of the imaging element 21 outputs an image signal corresponding to each color by color separation in the color filter. Note that the output of the image sensor 21 is connected to the AFE 22.

また、撮影モードでの撮像素子21は、レリーズ釦27の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子21は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、CPU23による各種の演算処理に使用される。   Further, the image sensor 21 in the shooting mode captures a still image for recording (main image) in response to a full pressing operation of the release button 27. Further, the imaging element 21 in the imaging mode continuously captures images for observation (through images) at predetermined intervals even during imaging standby. Here, the data of the through image acquired in time series is used for various arithmetic processes by the CPU 23.

AFE22は、撮像素子21の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE22は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。   The AFE 22 is an analog front end circuit that performs analog signal processing on the output of the image sensor 21. The AFE 22 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion.

CPU23は、カメラ本体2の統括的な制御を行うプロセッサである。例えば、CPU23は、スルー画像のデータを用いて、それぞれ公知のAF(オートフォーカス)演算処理やAE(自動露出)演算処理を実行する。また、CPU23は、プログラムの実行により、画像処理部28および補正画像生成部29として機能する。   The CPU 23 is a processor that performs overall control of the camera body 2. For example, the CPU 23 executes known AF (autofocus) calculation processing and AE (automatic exposure) calculation processing using the through image data, respectively. The CPU 23 functions as the image processing unit 28 and the corrected image generation unit 29 by executing the program.

画像処理部28は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部28は、撮影モードの1つである収差補正モードにおいて、倍率調整処理、歪曲収差調整処理、ぶれ補正処理、明度調整処理を実行する(倍率調整処理、歪曲収差調整処理、ぶれ補正処理、明度調整処理の各内容は後述する)。   The image processing unit 28 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. Further, the image processing unit 28 performs magnification adjustment processing, distortion aberration adjustment processing, blur correction processing, and brightness adjustment processing in the aberration correction mode that is one of the photographing modes (magnification adjustment processing, distortion aberration adjustment processing, blurring). The details of the correction process and the brightness adjustment process will be described later).

補正画像生成部29は、収差補正モードにおいて、撮影条件が異なる複数の撮像画像からそれぞれ画像情報を取得するとともに、複数の画像情報を組み合わせて撮影レンズ11の収差を補正した補正画像を生成する。なお、一の実施形態での収差補正モードには、軸上色収差の補正を行う第1モードと、像面湾曲収差の補正を行う第2モードとの2種類のサブモードが存在する。   In the aberration correction mode, the corrected image generation unit 29 acquires image information from a plurality of captured images with different shooting conditions, and generates a corrected image in which the aberration of the photographing lens 11 is corrected by combining the plurality of image information. Note that, in the aberration correction mode in one embodiment, there are two types of submodes: a first mode for correcting axial chromatic aberration and a second mode for correcting field curvature aberration.

第1メモリ24は、CPU23による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。例えば、第1メモリ24は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 24 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the CPU 23. For example, the first memory 24 is configured by an SDRAM that is a volatile storage medium.

第2メモリ25は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ25には、CPU23によって実行されるプログラムが記憶される。このプログラムによる収差補正モードでの動作例については後述する。   The second memory 25 is composed of a nonvolatile storage medium such as a flash memory. The second memory 25 stores a program executed by the CPU 23. An operation example in the aberration correction mode by this program will be described later.

また、第2メモリ25には、カメラ本体2に装着可能なレンズユニット1の軸上色収差データおよび像面湾曲収差データが記憶されている。勿論、複数のレンズユニット1について、レンズユニット1の種類ごとにそれぞれ軸上色収差データおよび像面湾曲収差データを第2メモリ25に記憶させておくことも可能である。   The second memory 25 stores axial chromatic aberration data and field curvature aberration data of the lens unit 1 that can be attached to the camera body 2. Of course, the axial chromatic aberration data and the field curvature aberration data can be stored in the second memory 25 for each of the plurality of lens units 1 for each type of lens unit 1.

ここで、上記の軸上色収差データは、上記の第1モードで実行されるブラケティング撮影で、各画像を撮影するときの撮影レンズ11の焦点距離(fr,fg,fb)を求めるためのデータである。また、上記の像面湾曲収差データは、上記の第2モードで実行されるブラケティング撮影で、各画像を撮影するときの撮影レンズ11の焦点距離を求めるためのデータである(軸上色収差データおよび像面湾曲収差データの具体的内容は後述する)。   Here, the axial chromatic aberration data is data for obtaining the focal length (fr, fg, fb) of the photographing lens 11 when photographing each image in the bracketing photographing executed in the first mode. It is. The field curvature aberration data is data for determining the focal length of the photographing lens 11 when photographing each image in the bracketing photographing performed in the second mode (axial chromatic aberration data). The specific contents of the field curvature aberration data will be described later).

なお、軸上色収差データおよび像面湾曲収差データのパラメータは、撮影レンズ11の光学設計によって決定されるとともに、撮影レンズ11の種類毎にそれぞれ相違する。そして、軸上色収差データおよび像面湾曲収差データは、レンズユニット1の製造者によって予め用意される。   The parameters of the longitudinal chromatic aberration data and the field curvature aberration data are determined by the optical design of the photographing lens 11 and are different for each type of the photographing lens 11. The axial chromatic aberration data and the field curvature aberration data are prepared in advance by the manufacturer of the lens unit 1.

メディアI/F26は、記憶媒体3を着脱自在に装着できるコネクタを有している。そして、メディアI/F26は、コネクタに装着された記憶媒体3に対してデータの書き込み/読み込みを実行する。上記の記憶媒体3は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体3の一例としてメモリカードを図示する。   The media I / F 26 has a connector to which the storage medium 3 can be detachably attached. The media I / F 26 writes / reads data to / from the storage medium 3 attached to the connector. The storage medium 3 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 3.

レリーズ釦27は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。   The release button 27 receives from the user an instruction input for starting an AF operation before shooting by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

<収差補正モードの動作例1>
次に、図2の流れ図を参照しつつ、一の実施形態における収差補正モード(第1モード)の動作例を説明する。
<Operation example 1 of aberration correction mode>
Next, an operation example of the aberration correction mode (first mode) in one embodiment will be described with reference to the flowchart of FIG.

電子カメラのR,G,Bの各画素での合焦位置は、撮影レンズ11の軸上色収差に応じてそれぞれ異なるものとなる。例えば、カメラ本体2が主要被写体に焦点を合わせたときには、基準波長(例えばd線)による主要被写体の像が撮像素子21の撮像面に結像する。このとき、R,G,B各画素の主波長(λr,λg,λb)の像は、軸上色収差の影響により撮像面(撮影レンズ11の焦点位置)では結像せず、それぞれdfr,dfg,dfbだけ撮像面から離れて結像する(図3参照)。   The in-focus positions of the R, G, and B pixels of the electronic camera are different depending on the axial chromatic aberration of the photographing lens 11. For example, when the camera body 2 focuses on the main subject, an image of the main subject with a reference wavelength (for example, d line) is formed on the imaging surface of the image sensor 21. At this time, the main wavelength (λr, λg, λb) images of the R, G, B pixels are not formed on the imaging surface (focal position of the photographing lens 11) due to the influence of axial chromatic aberration, and dfr, dfg, respectively. , Dfb away from the imaging surface (see FIG. 3).

そのため、撮影時に任意の波長でピントが合うように焦点を合わせても、1つの撮影条件で撮影される画像では、軸上色収差によって赤や青などの色にじみが生じうる。軸上色収差をなるべく小さくなるように撮影レンズ11を設計しても、現実には、全ての収差を0に抑えることは困難である。そして、撮影レンズ11の種類や撮影条件によっては、撮影された画像で軸上色収差が目立つという問題があった。   For this reason, even when focusing is performed so that an arbitrary wavelength is in focus at the time of shooting, an image shot under one shooting condition may cause color blur such as red or blue due to axial chromatic aberration. Even if the photographic lens 11 is designed so that the axial chromatic aberration is as small as possible, in reality, it is difficult to suppress all aberrations to zero. Depending on the type of shooting lens 11 and shooting conditions, there is a problem that axial chromatic aberration is conspicuous in the shot image.

そこで、図2の動作例では、撮影レンズ11のパワー(焦点距離の逆数)を変化させてブラケティング撮影された複数の撮像画像を用いて、軸上色収差が補正された補正画像をCPU23が生成する。なお、図2に示す一連の処理は、レリーズ釦27の半押し操作に応じてCPU23がプログラムを実行することで開始される。   Therefore, in the operation example of FIG. 2, the CPU 23 generates a corrected image in which the axial chromatic aberration is corrected using a plurality of picked-up images captured by changing the power of the photographing lens 11 (reciprocal of the focal length). To do. The series of processes shown in FIG. 2 is started when the CPU 23 executes a program in response to a half-press operation of the release button 27.

ステップS101:CPU23は、AF演算処理およびAE演算処理を実行する。このとき、CPU23は、レンズマイコン16と通信を行って撮影条件の情報を取得する。このS101での撮影条件の情報には、撮影レンズ11の種類、撮影レンズ11の焦点距離、撮影距離の情報が含まれる。なお、S101でのカメラ本体2は、基準波長での主要被写体の像が撮像素子21の撮像面に結像する状態にあるものとする。   Step S101: The CPU 23 executes AF calculation processing and AE calculation processing. At this time, the CPU 23 communicates with the lens microcomputer 16 to acquire information on the shooting conditions. The information on the photographing conditions in S101 includes information on the type of the photographing lens 11, the focal length of the photographing lens 11, and the photographing distance. Note that the camera body 2 in S101 is in a state where an image of the main subject at the reference wavelength is formed on the imaging surface of the imaging device 21.

ステップS102:CPU23は、第2メモリ25の軸上色収差データを用いて、ブラケティング撮影での各画像の撮影条件を求める。   Step S102: The CPU 23 uses the axial chromatic aberration data in the second memory 25 to determine the shooting conditions for each image in bracketing shooting.

上記のように、CPU23は、焦点距離fを変化させてブラケティング撮影を行うことで、R,G,B各画素の主波長(λr,λg,λb)の像がそれぞれ撮像面に結像した画像を取得する必要がある。よって、S102でのCPU23は、ブラケティング撮影の撮影条件として、上記の主波長(λr,λg,λb)が撮像面に結像するときの撮影レンズ11の焦点距離(fr,fg,fb)を求める。なお、S102でのCPU23は、撮影レンズ11の種類の情報(S101)を用いて、カメラ本体2に装着されている撮影レンズ11に対応した軸上色収差データを適用する。また、R,G,B各画素の主波長(λr,λg,λb)としては、各画素の分光感度のピーク波長や、各画素の分光感度の中心波長や、各画素の分光感度の形に合わせた重心波長などを用いることができる。   As described above, the CPU 23 changes the focal length f and performs bracketing shooting, so that images of the main wavelengths (λr, λg, λb) of the R, G, and B pixels are formed on the imaging surface. Need to get an image. Therefore, the CPU 23 in S102 uses the focal length (fr, fg, fb) of the photographing lens 11 when the above-mentioned main wavelengths (λr, λg, λb) are imaged on the imaging surface as photographing conditions for bracketing photographing. Ask. Note that the CPU 23 in S102 applies the axial chromatic aberration data corresponding to the photographing lens 11 attached to the camera body 2 by using the type information (S101) of the photographing lens 11. In addition, the main wavelengths (λr, λg, λb) of the R, G, and B pixels are the peak wavelength of the spectral sensitivity of each pixel, the central wavelength of the spectral sensitivity of each pixel, and the spectral sensitivity of each pixel. A combined centroid wavelength or the like can be used.

ここで、軸上色収差データは、撮影レンズ11の焦点距離と撮影距離との関数の形式(関数の係数値など)で、fr,fg,fbを示すものでもよい。この場合、CPU23は、S101で取得した焦点距離および撮影距離の値を上記の関数に代入することで、ブラケティング撮影での撮影条件であるfr,fg,fbの値を求めることができる。   Here, the axial chromatic aberration data may indicate fr, fg, and fb in the form of a function (such as a coefficient value of the function) of the focal length of the photographing lens 11 and the photographing distance. In this case, the CPU 23 can obtain the values of fr, fg, and fb, which are shooting conditions for bracketing shooting, by substituting the focal length and shooting distance values acquired in S101 into the above functions.

また、軸上色収差データは、撮影レンズ11の焦点距離と撮影距離との組み合わせに対して、fr,fg,fbの値をテーブル形式で記憶するものでもよい。この場合、CPU23は、S101で取得した焦点距離と撮影距離との組み合わせに対応するfr,fg,fbの値を軸上色収差データから読み出せばよい。なお、S101の焦点距離および撮影距離に対応するfr,fg,fbの値が軸上色収差データになければ、CPU23は、S101の焦点距離および撮影距離に近い条件のデータをサンプルとして複数選択する。そして、CPU23は、これらのサンプルから補間によりfr,fg,fbの値を求めればよい。   Further, the axial chromatic aberration data may be stored in a table format with values of fr, fg, and fb with respect to the combination of the focal length and the photographing distance of the photographing lens 11. In this case, the CPU 23 may read the values of fr, fg, and fb corresponding to the combination of the focal length and the shooting distance acquired in S101 from the axial chromatic aberration data. If the values of fr, fg, and fb corresponding to the focal length and shooting distance in S101 are not in the axial chromatic aberration data, the CPU 23 selects a plurality of data with conditions close to the focal length and shooting distance in S101 as samples. And CPU23 should just obtain | require the value of fr, fg, fb by interpolation from these samples.

ステップS103:CPU23は、レリーズ釦27が全押しされたか否かを判定する。上記要件を満たす場合(YES側)、CPU23はS104に処理を移行させる。一方、上記要件を満たさない場合(NO側)、CPU23はレリーズ釦27の全押し操作を待機する。   Step S103: The CPU 23 determines whether or not the release button 27 has been fully pressed. If the above requirement is satisfied (YES side), the CPU 23 shifts the process to S104. On the other hand, when the above requirement is not satisfied (NO side), the CPU 23 waits for a full pressing operation of the release button 27.

ステップS104:CPU23は、撮影レンズ11の焦点距離をfr,fg,fbに順次設定するとともに、撮像素子21を駆動させてブラケティング撮影を実行する。ブラケティング撮影によって撮像素子21から出力される各々の撮像画像のデータは、AFE22を介して画像処理部28で所定の画像処理を施された後に、それぞれ色補間される前の状態で第1メモリ24にバッファリングされる。   Step S104: The CPU 23 sequentially sets the focal length of the taking lens 11 to fr, fg, and fb, and drives the image sensor 21 to execute bracketing shooting. The data of each captured image output from the image sensor 21 by the bracketing shooting is subjected to predetermined image processing by the image processing unit 28 via the AFE 22, and then is in a state before being subjected to color interpolation. 24 is buffered.

また、CPU23は、このブラケティング撮影のときに各画像の露出条件を一致させて撮影を行う。また、被写体ブレや照明変化の影響を抑制するために、CPU23は高速で連続撮影(連写)を行うことが好ましい。   Further, the CPU 23 performs shooting by matching the exposure conditions of the respective images during the bracketing shooting. Moreover, in order to suppress the influence of subject blurring and illumination change, the CPU 23 preferably performs continuous shooting (continuous shooting) at high speed.

なお、S104のブラケティング撮影で取得した画像のうち、焦点距離frで撮影された画像(R画素の主波長λrで撮像面に結像する画像)をIrと表記する。また、焦点距離fgで撮影された画像(G画素の主波長λgで撮像面に結像する画像)をIgと表記する。また、焦点距離fbで撮影された画像(B画素の主波長λbで撮像面に結像する画像)をIbと表記する。   Of the images acquired by the bracketing shooting in S104, an image shot at the focal length fr (an image formed on the imaging surface at the main wavelength λr of the R pixel) is denoted as Ir. Also, an image photographed at the focal length fg (image formed on the imaging surface at the main wavelength λg of the G pixel) is denoted as Ig. In addition, an image photographed at the focal length fb (image formed on the imaging surface at the main wavelength λb of the B pixel) is denoted as Ib.

ステップS105:画像処理部28は、画像Ir,Ig,Ib間の撮影倍率の差を調整する倍率調整処理を実行する。   Step S105: The image processing unit 28 executes a magnification adjustment process for adjusting a difference in photographing magnification among the images Ir, Ig, and Ib.

撮影レンズ11の焦点距離を変化させてブラケティング撮影を行った場合、撮影条件の相違と倍率色収差の影響とにより、画像Irでの倍率βrと、画像Igでの倍率βgと、画像Ibでの倍率βbとはそれぞれ異なるものとなる。そこで、S105での画像処理部28は、画像Irをβg/βrに変倍するとともに、画像Ibをβg/βbに変倍する。これにより、画像Ir,Ig,Ibの倍率差による絵柄のズレが抑制される。   When bracketing photographing is performed by changing the focal length of the photographing lens 11, the magnification βr in the image Ir, the magnification βg in the image Ig, and the magnification in the image Ib due to the difference in photographing conditions and the influence of lateral chromatic aberration. The magnification βb is different from each other. Therefore, the image processing unit 28 in S105 scales the image Ir to βg / βr and scales the image Ib to βg / βb. Thereby, the shift | offset | difference of the pattern by the magnification difference of image Ir, Ig, Ib is suppressed.

ここで、上記のβg/βr,βg/βbの取得は、以下のようにして行われる。例えば、βg/βr,βg/βbの各値と、撮影レンズ11の種類、撮影レンズ11の焦点距離、撮影距離との対応関係を示すテーブルを予め第2メモリ25に記憶しておき、画像処理部28は、S101の撮影条件の情報を用いて、上記のテーブルからβg/βr,βg/βbの値を取得すればよい。なお、S101の撮影条件に対応する値が上記のテーブルになければ、画像処理部28は、S101の撮影条件に近い条件のデータをサンプルとして複数選択する。そして、画像処理部28は、これらのサンプルから補間によりβg/βr,βg/βbの値を求めればよい。なお、図4は、波長の違いによる撮影倍率の差を示す模式図である。   Here, the acquisition of βg / βr and βg / βb is performed as follows. For example, a table showing the correspondence between each value of βg / βr, βg / βb, the type of the photographing lens 11, the focal length of the photographing lens 11, and the photographing distance is stored in the second memory 25 in advance, and image processing is performed. The unit 28 may acquire the values of βg / βr and βg / βb from the above table using the information on the photographing conditions in S101. If there is no value corresponding to the shooting condition in S101 in the above table, the image processing unit 28 selects a plurality of data having conditions close to the shooting condition in S101 as samples. Then, the image processing unit 28 may obtain the values of βg / βr and βg / βb from these samples by interpolation. FIG. 4 is a schematic diagram showing a difference in photographing magnification due to a difference in wavelength.

あるいは、第2メモリ25には、撮影レンズ11の焦点距離と撮影距離との関数の形式(関数の係数値など)で、βg/βr,βg/βbの値を記憶させておいてもよい。この場合、CPU23は、S101の撮影条件を上記の関数に代入することで、βg/βr,βg/βbの値を求めることができる。   Alternatively, the values of βg / βr and βg / βb may be stored in the second memory 25 in the form of a function (such as a coefficient value of the function) of the focal length of the photographing lens 11 and the photographing distance. In this case, the CPU 23 can obtain the values of βg / βr and βg / βb by substituting the photographing condition of S101 into the above function.

なお、画像間での撮影倍率の差が十分に小さい場合(例えば、撮影倍率による絵柄のズレが1画素分未満となる場合)には、画像処理部28はS105の処理を省略してもよい。   Note that if the difference in shooting magnification between images is sufficiently small (for example, if the pattern shift due to the shooting magnification is less than one pixel), the image processing unit 28 may omit the process of S105. .

ステップS106:画像処理部28は、画像Ir,Ig,Ib間の歪曲収差の差を調整する歪曲収差調整処理を実行する。   Step S106: The image processing unit 28 performs a distortion aberration adjustment process for adjusting the distortion aberration difference among the images Ir, Ig, and Ib.

撮影レンズ11の焦点距離を変化させてブラケティング撮影を行った場合、撮影条件の相違と色による歪曲収差の違いとに応じて、画像Irでの歪曲収差drと、画像Igでの歪曲収差dgと、画像Ibでの歪曲収差dbとはそれぞれ異なるものとなる。そこで、S106での画像処理部28は、例えば、画像Irの歪曲収差および画像Ibの歪曲収差が、それぞれ画像Igの歪曲収差と等しくなるように補正する。これにより、画像Ir,Ig,Ibの歪曲収差の違いによる絵柄のズレが抑制される。   When bracketing photographing is performed by changing the focal length of the photographing lens 11, the distortion aberration dr in the image Ir and the distortion aberration dg in the image Ig according to the difference in photographing conditions and the difference in distortion due to color. And the distortion aberration db in the image Ib are different from each other. Therefore, the image processing unit 28 in S106 corrects, for example, the distortion aberration of the image Ir and the distortion aberration of the image Ib to be equal to the distortion aberration of the image Ig, respectively. Thereby, the shift | offset | difference of the pattern by the difference in the distortion aberration of image Ir, Ig, Ib is suppressed.

なお、画像間での歪曲収差の差が十分に小さい場合(例えば、歪曲収差による絵柄のズレが1画素分未満となる場合)には、画像処理部28はS106の処理を省略してもよい。   Note that when the difference in distortion between images is sufficiently small (for example, when the picture shift due to distortion is less than one pixel), the image processing unit 28 may omit the process of S106. .

ステップS107:画像処理部28は、画像Ir,Ig,Ib間の被写体のぶれを補正するぶれ補正処理を実行する。   Step S107: The image processing unit 28 executes a shake correction process for correcting the shake of the subject between the images Ir, Ig, and Ib.

上記のブラケティング撮影を高速連写で行った場合においても、撮影ぶれなどによって画像間で絵柄がずれてしまう場合がある。そこで、S107での画像処理部28は、ぶれ補正処理により画像Ir,Ig,Ib間の位置合わせを行う。   Even when the above bracketing shooting is performed by high-speed continuous shooting, there is a case where the pattern is shifted between images due to shooting blurring or the like. Therefore, the image processing unit 28 in S107 performs alignment between the images Ir, Ig, and Ib by blur correction processing.

例えば、画像処理部28は、画像Ir,Ig,Ibにそれぞれエッジ抽出処理を施す。そして、画像処理部28は、各画像のエッジまたはコーナーを用いて画像間で公知のマッチングを行って各画像を位置合わせする。   For example, the image processing unit 28 performs edge extraction processing on each of the images Ir, Ig, and Ib. Then, the image processing unit 28 aligns the images by performing known matching between the images using the edges or corners of the images.

ステップS108:画像処理部28は、画像Ir,Ig,Ib間での画像の明るさの差を調整する明度調整処理を実行する。   Step S108: The image processing unit 28 executes brightness adjustment processing for adjusting the difference in image brightness between the images Ir, Ig, and Ib.

上記のブラケティング撮影では、撮影条件の相違による周辺減光の変化や、画像間で照明の状態が変化することにより、画像間で明るさが相違する場合がある。そこで、S108での画像処理部28は、画像Ir,Ig,Ib間でそれぞれ対応位置にある被写体の明るさを比較する。そして、画像間の対応位置で明るさが異なる場合、画像処理部28は、例えば画像Igの明るさを基準として画像IrまたはIbのゲインを補正する。これにより、画像Ir,Ig,Ibで同一箇所の明るさを合わせることができる。   In the above bracketing shooting, the brightness may be different between images due to a change in peripheral dimming due to a difference in shooting conditions or a change in illumination state between images. Therefore, the image processing unit 28 in S108 compares the brightness of the subject at the corresponding position between the images Ir, Ig, and Ib. When the brightness differs at corresponding positions between the images, the image processing unit 28 corrects the gain of the image Ir or Ib based on the brightness of the image Ig, for example. Thereby, the brightness of the same part can be match | combined with image Ir, Ig, and Ib.

ステップS109:補正画像生成部29は、画像Ir,Ig,Ibからそれぞれカラーフィルタの各色に対応する画像情報を取得する。   Step S109: The corrected image generation unit 29 acquires image information corresponding to each color of the color filter from the images Ir, Ig, and Ib.

具体的には、補正画像生成部29は、画像IrからはR画素の画像情報のみを抽出する。また、補正画像生成部29は、画像IgからはG画素の画像情報のみを抽出する。また、補正画像生成部29は、画像IbからはB画素の画像情報のみを抽出する(図5参照)。よって、各色画素の画像情報は、それぞれが異なる画素位置の情報をベイヤ配列に準拠したモザイク状のパターンで有することとなる。   Specifically, the corrected image generation unit 29 extracts only image information of R pixels from the image Ir. In addition, the corrected image generation unit 29 extracts only image information of G pixels from the image Ig. Further, the corrected image generation unit 29 extracts only the image information of the B pixel from the image Ib (see FIG. 5). Therefore, the image information of each color pixel has information on pixel positions different from each other in a mosaic pattern conforming to the Bayer arrangement.

ステップS110:補正画像生成部29は、S109で取得した各色の画像情報を組み合わせて補正画像のデータを生成する(図5参照)。   Step S110: The corrected image generation unit 29 generates corrected image data by combining the image information of each color acquired in S109 (see FIG. 5).

ここで、上記のR,G,B画素の画像情報は、各色の主波長が撮像面に結像する条件で取得された画像からそれぞれ生成されている。よって、補正画像生成部29は、これらの画像情報を組み合わせることで、軸上色収差の補正された1フレーム分の補正画像を得ることができる。   Here, the image information of the R, G, and B pixels is generated from an image acquired under the condition that the dominant wavelength of each color forms an image on the imaging surface. Therefore, the corrected image generation unit 29 can obtain a corrected image for one frame in which the axial chromatic aberration is corrected by combining these pieces of image information.

そして、画像処理部28は、補正画像のデータに色補間を含む各種の画像処理を施す。その後、補正画像のデータは、CPU23の制御によって、メディアI/F26に装着された記憶媒体3に最終的に記録される。なお、CPU23は、不図示のモニタに補正画像を再生表示するようにしてもよい。以上で、図2の流れ図の説明を終了する。   Then, the image processing unit 28 performs various types of image processing including color interpolation on the corrected image data. Thereafter, the corrected image data is finally recorded on the storage medium 3 mounted on the media I / F 26 under the control of the CPU 23. The CPU 23 may reproduce and display the corrected image on a monitor (not shown). This is the end of the description of the flowchart of FIG.

このように、一の実施形態の電子カメラシステムは、撮影レンズ11の焦点距離を調整してブラケティング撮影された複数の撮像画像を用いて、軸上色収差が補正された補正画像を取得できる。   As described above, the electronic camera system according to the embodiment can acquire a corrected image in which the axial chromatic aberration is corrected by using a plurality of captured images obtained by bracketing imaging with the focal length of the imaging lens 11 adjusted.

<収差補正処理の例2>
次に、図6の流れ図を参照しつつ、一の実施形態における収差補正モード(第2モード)の動作例を説明する。
<Example 2 of aberration correction processing>
Next, an operation example of the aberration correction mode (second mode) in one embodiment will be described with reference to the flowchart of FIG.

撮影レンズ11の像面湾曲収差により、光軸中心で合焦させる撮影条件で撮影した場合には、画像の周辺部ではピントがぼけてしまう(図7参照)。一方、画像の周辺部で合焦させる撮影条件で撮影した場合には、画像の中心部でピントがぼけてしまう。像面湾曲収差をなるべく小さくなるように撮影レンズ11を設計しても、全ての収差を0に抑えることは困難である。そして、撮影レンズ11の種類や撮影条件によっては、撮影された画像で像面湾曲収差が目立つという問題があった。   Due to the field curvature aberration of the photographing lens 11, when photographing is performed under photographing conditions in which focusing is performed at the center of the optical axis, the peripheral portion of the image is out of focus (see FIG. 7). On the other hand, when shooting is performed under shooting conditions that focus on the periphery of the image, the image is out of focus at the center of the image. Even if the photographic lens 11 is designed so as to reduce the field curvature aberration as much as possible, it is difficult to suppress all aberrations to zero. Then, depending on the type of shooting lens 11 and shooting conditions, there has been a problem that field curvature aberration is conspicuous in the shot image.

そのため、図6の動作例では、撮影レンズ11のパワー(焦点距離の逆数)を変化させてブラケティング撮影された複数の撮像画像を用いて、像面湾曲収差が補正された補正画像をCPU23が生成する。なお、図6に示す一連の処理は、レリーズ釦27の半押し操作に応じてCPU23がプログラムを実行することで開始される。   Therefore, in the operation example of FIG. 6, the CPU 23 uses the plurality of captured images obtained by bracketing imaging while changing the power (reciprocal of the focal length) of the imaging lens 11 to correct the corrected image in which the field curvature aberration is corrected. Generate. The series of processing shown in FIG. 6 is started when the CPU 23 executes a program in response to a half-press operation of the release button 27.

ステップS201:CPU23は、AF演算処理およびAE演算処理を実行する。このとき、CPU23は、レンズマイコン16と通信を行って撮影条件の情報を取得する。このS101での撮影条件の情報には、撮影レンズ11の種類、撮影レンズ11の焦点距離、撮影距離、絞り値の情報が含まれる。   Step S201: The CPU 23 executes AF calculation processing and AE calculation processing. At this time, the CPU 23 communicates with the lens microcomputer 16 to acquire information on the shooting conditions. The information on the photographing conditions in S101 includes information on the type of the photographing lens 11, the focal length of the photographing lens 11, the photographing distance, and the aperture value.

ステップS202:CPU23は、第2メモリ25の像面湾曲収差データを用いて、ブラケティング撮影での各画像の撮影条件を求める。   Step S202: The CPU 23 uses the curvature of field data of the second memory 25 to determine the shooting conditions for each image in bracketing shooting.

この第2モードでのCPU23は、焦点距離fを変化させてブラケティング撮影を行うことで、撮像面に結像する像高(光軸中心に対応する点からの距離)がそれぞれ異なる複数の画像を取得する必要がある。よって、S202でのCPU23は、撮影レンズ11の像面湾曲を考慮して、撮像面に結像する像高がそれぞれ異なるように、ブラケティング撮影における撮影レンズ11の焦点距離をそれぞれ求める。また、図8に、焦点距離fの調整により所定の像高での像面湾曲を補正する例を模式的に示す。   In this second mode, the CPU 23 performs bracketing shooting by changing the focal length f, whereby a plurality of images having different image heights (distances from points corresponding to the optical axis center) formed on the imaging surface are different. Need to get. Therefore, the CPU 23 in S202 obtains the focal length of the photographing lens 11 in bracketing photographing so that the image heights formed on the imaging surface are different in consideration of the curvature of field of the photographing lens 11. FIG. 8 schematically shows an example in which the curvature of field at a predetermined image height is corrected by adjusting the focal length f.

なお、S202でのCPU23は、撮影レンズ11の種類の情報(S201)を用いて、カメラ本体2に装着されている撮影レンズ11に対応した像面湾曲収差データを適用する。   The CPU 23 in S202 applies field curvature aberration data corresponding to the photographic lens 11 attached to the camera body 2 by using the type information (S201) of the photographic lens 11.

ここで、像面湾曲収差データは、撮影レンズ11の焦点距離、撮影距離、絞り値との関数の形式(関数の係数値など)で、撮像面に結像する像高との対応関係を記憶するものであってもよい。この場合、CPU23は、S201で取得した焦点距離、撮影距離、絞り値を上記の関数にそれぞれ代入することで、撮像面に結像する像高の位置を求めることができる。また、CPU23は、撮像面に結像させる像高を指定すれば、上記の関数から任意の像高に対応する焦点距離の値を求めることもできる。   Here, the field curvature aberration data is stored in the form of a function (such as a coefficient value of the function) of the focal length, the photographing distance, and the aperture value of the photographing lens 11 and a correspondence relationship with the image height formed on the imaging surface. You may do. In this case, the CPU 23 can obtain the position of the image height that forms an image on the imaging surface by substituting the focal length, the shooting distance, and the aperture value acquired in S201 into the above functions. Further, if the image height to be imaged on the imaging surface is designated, the CPU 23 can also obtain a focal length value corresponding to an arbitrary image height from the above function.

よって、S202でのCPU23は、ブラケティング撮影の撮影回数に応じて任意の間隔で像高を指定し、各々の像高に対応する焦点距離の値を求めればよい。   Therefore, the CPU 23 in S202 may specify image heights at arbitrary intervals according to the number of times of bracketing shooting, and obtain a focal length value corresponding to each image height.

なお、像面湾曲収差データは、撮影レンズ11の焦点距離、撮影距離、絞り値との組み合わせに対して、撮像面に結像する像高の値をテーブル形式で記憶するものであってもよい。この場合においても、上記の関数の場合と同様に、CPU23はブラケティング撮影で適用する焦点距離の値を求めることができる。   Note that the field curvature aberration data may be a table in which the image height value formed on the imaging surface is stored in a table format with respect to the combination of the focal length, the imaging distance, and the aperture value of the imaging lens 11. . In this case as well, as in the case of the above function, the CPU 23 can obtain the value of the focal length applied in bracketing shooting.

ステップS203:CPU23は、レリーズ釦27が全押しされたか否かを判定する。上記要件を満たす場合(YES側)、CPU23はS204に処理を移行させる。一方、上記要件を満たさない場合(NO側)、CPU23はレリーズ釦27の全押し操作を待機する。   Step S203: The CPU 23 determines whether or not the release button 27 has been fully pressed. When the above requirement is satisfied (YES side), the CPU 23 shifts the process to S204. On the other hand, when the above requirement is not satisfied (NO side), the CPU 23 waits for a full pressing operation of the release button 27.

ステップS204:CPU23は、撮影レンズ11の焦点距離をS202で求めた値に順次設定するとともに、撮像素子21を駆動させて所定回数のブラケティング撮影を実行する。ブラケティング撮影によって撮像素子21から出力される各々の撮像画像のデータは、AFE22を介して画像処理部28で所定の画像処理を施された後に、それぞれ第1メモリ24にバッファリングされる。   Step S204: The CPU 23 sequentially sets the focal length of the photographing lens 11 to the value obtained in S202, and drives the image sensor 21 to execute a predetermined number of bracketing photographings. Data of each captured image output from the image sensor 21 by bracketing shooting is subjected to predetermined image processing by the image processing unit 28 via the AFE 22 and then buffered in the first memory 24.

また、CPU23は、このブラケティング撮影のときに各画像の露出条件を一致させて撮影を行う。また、被写体ブレや照明変化の影響を抑制するために、CPU23は高速で連写を行うことが好ましい。なお、簡単のため、S204のブラケティング撮影で取得した各画像は、画像I1〜Inと表記する。   Further, the CPU 23 performs shooting by matching the exposure conditions of the respective images during the bracketing shooting. Further, it is preferable that the CPU 23 performs continuous shooting at high speed in order to suppress the influence of subject blurring and illumination change. For simplicity, the images acquired by the bracketing shooting in S204 are denoted as images I1 to In.

ステップS205:画像処理部28は、画像I1〜In間の撮影倍率の差を調整する倍率調整処理を実行する。このS205での倍率調整処理の内容は、上記の第1モードのS105の処理とほぼ共通するので重複説明は省略する。   Step S205: The image processing unit 28 executes a magnification adjustment process for adjusting a difference in photographing magnification between the images I1 to In. The contents of the magnification adjustment processing in S205 are almost the same as the processing in S105 in the first mode, and therefore a duplicate description is omitted.

ステップS206:画像処理部28は、画像I1〜In間の歪曲収差の差を調整する歪曲収差調整処理を実行する。このS206での歪曲収差調整処理の内容は、上記の第1モードのS106の処理とほぼ共通するので重複説明は省略する。   Step S206: The image processing unit 28 executes a distortion aberration adjustment process for adjusting the difference in distortion between the images I1 to In. Since the content of the distortion aberration adjustment process in S206 is almost the same as the process in S106 of the first mode, a duplicate description is omitted.

ステップS207:画像処理部28は、画像I1〜In間の被写体のぶれを補正するぶれ補正処理を実行する。このS207でのぶれ補正処理の内容は、上記の第1モードのS107の処理とほぼ共通するので重複説明は省略する。   Step S207: The image processing unit 28 executes a shake correction process for correcting the shake of the subject between the images I1 to In. The details of the blur correction process in S207 are almost the same as the process in S107 in the first mode, and a duplicate description is omitted.

ステップS208:画像処理部28は、画像I1〜In間での画像の明るさの差を調整する明度調整処理を実行する。このS208での明度調整処理の内容は、上記の第1モードのS108の処理とほぼ共通するので重複説明は省略する。   Step S208: The image processing unit 28 executes brightness adjustment processing for adjusting the difference in image brightness between the images I1 to In. Since the content of the brightness adjustment process in S208 is almost the same as the process in S108 of the first mode, a duplicate description is omitted.

ステップS209:補正画像生成部29は、画像I1〜Inから画像情報を生成する。具体的には、補正画像生成部29は、画像I1〜Inのそれぞれにおいて、像面湾曲収差が0とみなせる像高の範囲を、円形状または環状に切り出して画像情報を生成する。   Step S209: The corrected image generation unit 29 generates image information from the images I1 to In. Specifically, the corrected image generation unit 29 generates image information by cutting out the range of the image height where the field curvature aberration can be regarded as 0 in each of the images I1 to In into a circular shape or an annular shape.

ステップS210:補正画像生成部29は、S209で取得した画像情報を組み合わせて補正画像のデータを生成する。このとき、補正画像生成部29は、各像高での像面湾曲収差が0とみなせる撮影条件の画像情報から、補正画像の各位置での画素値を抽出して画像合成を行う。なお、像面湾曲収差が0とみなせる撮影条件の画像情報がない箇所については、補正画像生成部29は、近い撮影条件で撮影された複数の画像情報を用いてその箇所での画素値を推定すればよい。   Step S210: The corrected image generation unit 29 generates corrected image data by combining the image information acquired in S209. At this time, the corrected image generation unit 29 performs image composition by extracting pixel values at each position of the corrected image from the image information of the photographing condition in which the field curvature aberration at each image height can be regarded as zero. Note that, for a portion where there is no image information of a photographing condition in which the field curvature aberration can be regarded as 0, the corrected image generation unit 29 estimates a pixel value at the portion using a plurality of pieces of image information photographed under a close photographing condition. do it.

ここで、S209で取得された画像情報は、それぞれ像面湾曲収差が0とみなせる像高の範囲の画像で構成されている。よって、補正画像生成部29は、これらの画像情報を組み合わせることで、像面湾曲収差の補正された1フレーム分の補正画像を得ることができる。   Here, the image information acquired in S209 is composed of images in a range of image height where the field curvature aberration can be regarded as zero. Therefore, the corrected image generation unit 29 can obtain a corrected image for one frame in which the field curvature aberration is corrected by combining these pieces of image information.

そして、画像処理部28は、補正画像のデータに各種の画像処理を施す。その後、補正画像のデータは、CPU23の制御によって、メディアI/F26に装着された記憶媒体3に最終的に記録される。なお、CPU23は、不図示のモニタに補正画像を再生表示するようにしてもよい。以上で、図6の流れ図の説明を終了する。   Then, the image processing unit 28 performs various types of image processing on the corrected image data. Thereafter, the corrected image data is finally recorded on the storage medium 3 mounted on the media I / F 26 under the control of the CPU 23. The CPU 23 may reproduce and display the corrected image on a monitor (not shown). Above, description of the flowchart of FIG. 6 is complete | finished.

このように、一の実施形態の電子カメラシステムは、撮影レンズ11の焦点距離を調整してブラケティング撮影された複数の撮像画像を用いて、像面湾曲収差が補正された補正画像を取得できる。   As described above, the electronic camera system according to the embodiment can acquire a corrected image in which the field curvature aberration is corrected by using a plurality of captured images that are bracketed by adjusting the focal length of the photographic lens 11. .

<一の実施形態の変形例>
上記の図2および図6の収差補正モードの動作例では、ブラケティング撮影のときに撮影レンズの焦点距離のみを変化させる例を説明した。しかし、CPU23は、収差補正モードでのブラケティング撮影のときに、撮影レンズ11を構成するレンズ群のうちの1つを移動させることで、撮影レンズ11の位置あるいは撮影距離のパラメータを変更してもよい。このように、撮影レンズ11の位置あるいは撮影距離のパラメータを変化させる場合にも、図2または図6に示す動作例のケースとほぼ同様の効果を得ることができる。
<Modification of one embodiment>
In the aberration correction mode operation example in FIGS. 2 and 6 described above, the example in which only the focal length of the photographing lens is changed during bracketing photographing has been described. However, the CPU 23 changes the position of the photographic lens 11 or the photographic distance parameter by moving one of the lens groups constituting the photographic lens 11 during bracketing photographing in the aberration correction mode. Also good. As described above, even when the position of the photographing lens 11 or the parameter of the photographing distance is changed, substantially the same effect as in the case of the operation example shown in FIG. 2 or FIG. 6 can be obtained.

例えば、収差補正モードの第1モードにおいて、撮影レンズ11の位置あるいは撮影距離のパラメータを変化させてブラケティング撮影を行う場合、まず、CPU23は、各色画素の軸上色収差の量(dfr,dfg,dfb)を求める。次に、CPU23は、軸上色収差の量に対応する撮影レンズ11の移動量をそれぞれ求め、これらのレンズの移動量を用いてブラケティング撮影を行えばよい。   For example, in the first mode of the aberration correction mode, when bracketing shooting is performed by changing the position of the shooting lens 11 or the parameter of the shooting distance, the CPU 23 first sets the amount of axial chromatic aberration (dfr, dfg, dfb) is obtained. Next, the CPU 23 may determine the movement amounts of the photographing lens 11 corresponding to the amount of axial chromatic aberration, and perform bracketing photographing using the movement amounts of these lenses.

同様に、収差補正モードの第2モードにおいて、撮影レンズ11の位置あるいは撮影距離のパラメータを変化させてブラケティング撮影を行う場合、CPU23は、像面湾曲収差データを用いて、任意の像高に対応する撮影距離や焦点レンズの位置を求めればよい。   Similarly, in the second mode of the aberration correction mode, when bracketing photographing is performed by changing the position of the photographing lens 11 or the parameter of the photographing distance, the CPU 23 uses the field curvature aberration data to set an arbitrary image height. What is necessary is just to obtain | require the corresponding imaging distance and the position of a focus lens.

ここで、撮影レンズ11のうちの任意のレンズ群を駆動させて撮影距離やレンズ位置を調整する場合、駆動させるレンズ群が内側のレンズであれば、撮影条件の異なる複数の画像を撮影するときに、電子カメラシステムはレンズユニット1に装着されたフードやフィルタの回転を抑制することができる。   Here, when adjusting an imaging distance or a lens position by driving an arbitrary lens group of the imaging lens 11, if the lens group to be driven is an inner lens, when shooting a plurality of images with different imaging conditions In addition, the electronic camera system can suppress the rotation of the hood and filter attached to the lens unit 1.

また、撮影距離等を調整するときに複数のレンズからなるレンズ群を移動させる場合には、1枚のレンズを移動させる場合と比べて、収差の補正が光学設計上一層容易となる。   In addition, when the lens group composed of a plurality of lenses is moved when adjusting the shooting distance or the like, the correction of aberrations becomes easier in terms of optical design than when a single lens is moved.

さらに、一の実施形態の電子カメラシステムは、撮像素子21の位置を光軸方向にシフトさせて、ブラケティング撮影の撮影条件を調整する構成であってもよい。   Furthermore, the electronic camera system of one embodiment may be configured to shift the position of the image sensor 21 in the optical axis direction and adjust the shooting conditions for bracketing shooting.

また、CPU23は、上記のブラケティング撮影のときに、撮影レンズ11の焦点距離の変更と撮影レンズ11の位置あるいは撮影距離の変更とを組み合わせて実行してもよい。この場合には、1つのパラメータでは収差の補正が困難なケースにおいても、CPU23はより適切な撮影条件で各々の撮像画像を取得することができる。   Further, the CPU 23 may execute a combination of the change of the focal length of the photographing lens 11 and the change of the position of the photographing lens 11 or the photographing distance at the time of the bracketing photographing. In this case, even in a case where it is difficult to correct aberrations with one parameter, the CPU 23 can acquire each captured image under more appropriate shooting conditions.

<他の実施形態の説明>
図9は、他の実施形態に係る画像処理装置の構成例を示すブロック図である。他の実施形態では、コンピュータに画像処理プログラムを実行させることで画像処理装置の機能を実現する。よって、他の実施形態の構成においても、上述の一の実施形態の電子カメラシステムとほぼ同様の効果を奏することができる。
<Description of other embodiments>
FIG. 9 is a block diagram illustrating a configuration example of an image processing apparatus according to another embodiment. In another embodiment, the function of the image processing apparatus is realized by causing a computer to execute an image processing program. Therefore, in the configuration of the other embodiment, substantially the same effect as the electronic camera system of the above-described one embodiment can be obtained.

画像処理装置を構成するコンピュータ31は、データ読込部32、記憶装置33、CPU34、メモリ35および入出力I/F36、バス37を有している。データ読込部32、記憶装置33、CPU34、メモリ35および入出力I/F36は、バス37を介して相互に接続されている。さらに、コンピュータ31には、入出力I/F36を介して、入力デバイス38(キーボード、ポインティングデバイスなど)とモニタ39とがそれぞれ接続されている。なお、入出力I/F36は、入力デバイス38からの各種入力を受け付けるとともに、モニタ39に対して表示用のデータを出力する。   A computer 31 constituting the image processing apparatus includes a data reading unit 32, a storage device 33, a CPU 34, a memory 35, an input / output I / F 36, and a bus 37. The data reading unit 32, the storage device 33, the CPU 34, the memory 35, and the input / output I / F 36 are connected to each other via a bus 37. Furthermore, an input device 38 (keyboard, pointing device, etc.) and a monitor 39 are connected to the computer 31 via an input / output I / F 36. The input / output I / F 36 accepts various inputs from the input device 38 and outputs display data to the monitor 39.

データ読込部32は、撮像画像のデータや、画像処理プログラムを外部から読み込むときに用いられる。例えば、データ読込部32は、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置(カメラ本体2など)と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)で構成される。   The data reading unit 32 is used when reading captured image data and an image processing program from the outside. For example, the data reading unit 32 is a reading device (such as a reading device for an optical disk, a magnetic disk, or a magneto-optical disk) that acquires data from a removable storage medium, or an external device (camera body) according to a known communication standard. 2) and other communication devices (USB interface, LAN module, wireless LAN module, etc.).

記憶装置33は、上記の画像処理プログラムと、プログラムの実行に必要となる各種のデータ(軸上色収差データや像面湾曲収差データなど)とを記憶する。また、記憶装置33には、データ読込部32から取得した撮像画像のデータを記録することもできる。なお、他の実施形態での記憶装置33は、ハードディスクや、不揮発性の半導体メモリなどで構成される。   The storage device 33 stores the above-described image processing program and various data (such as axial chromatic aberration data and field curvature aberration data) necessary for executing the program. The storage device 33 can also record captured image data acquired from the data reading unit 32. Note that the storage device 33 in another embodiment is configured by a hard disk, a nonvolatile semiconductor memory, or the like.

CPU34は、コンピュータ31の各部動作を統括的に制御するプロセッサである。他の実施形態では、CPU34が画像処理プログラムを実行することで、一の実施形態でのCPU23、画像処理部28、補正画像生成部29の各動作がソフトウェア的に実現される。また、メモリ35は、画像処理プログラムの演算結果などを一時的に記憶する。このメモリ35は、例えば揮発性のSDRAMなどで構成される。   The CPU 34 is a processor that comprehensively controls the operation of each part of the computer 31. In another embodiment, the CPU 34 executes the image processing program, so that the operations of the CPU 23, the image processing unit 28, and the corrected image generation unit 29 in one embodiment are realized in software. The memory 35 temporarily stores the calculation result of the image processing program. The memory 35 is composed of, for example, a volatile SDRAM.

ここで、一の実施形態で説明した収差補正モードの動作を、他の実施形態のコンピュータ31で実現する場合、軸上色収差が補正された条件で撮影された複数の画像や、それぞれが異なる像高で像面湾曲収差を0にした複数の画像を、予め電子カメラで撮影しておく必要がある。そして、コンピュータ31は、上記の撮像画像の各データと、その撮影条件の情報とを対応付けした画像ファイルをデータ読込部32から読み込むことで、一の実施形態と同様の処理を行うことが可能となる。   Here, when the operation of the aberration correction mode described in one embodiment is realized by the computer 31 according to another embodiment, a plurality of images photographed under a condition in which the axial chromatic aberration is corrected, or images that are different from each other. A plurality of images having a high field curvature aberration of 0 must be taken in advance with an electronic camera. Then, the computer 31 can perform the same processing as that of the first embodiment by reading an image file in which each data of the captured image described above is associated with information on the shooting condition from the data reading unit 32. It becomes.

<実施形態の補足事項>
(1)上記の一の実施形態では、レンズ交換可能な電子カメラシステムの例を説明したが、本発明は、いわゆるレンズ一体型の電子カメラにも当然に適用できる。
<Supplementary items of the embodiment>
(1) In the above embodiment, an example of an electronic camera system with interchangeable lenses has been described. However, the present invention can naturally be applied to a so-called lens-integrated electronic camera.

(2)電子カメラの撮像素子21がアドレス指定読み出し可能な構成(CMOSなど)であれば、上記の第1モードでの画像Ir,Ig,Ibの撮影時に、撮像素子21は画像情報の生成に必要となる色の信号のみを出力するようにしてもよい。   (2) If the image pickup device 21 of the electronic camera is configured to be addressable and readable (such as CMOS), the image pickup device 21 generates image information when shooting the images Ir, Ig, and Ib in the first mode. Only a signal of a necessary color may be output.

(3)上記の一の実施形態において、基準波長はいずれかの画素の主波長であってもよい。   (3) In the one embodiment described above, the reference wavelength may be the main wavelength of any pixel.

(4)上記実施形態で説明した画像処理装置はあくまで一例であり、本発明を実施するときには、上記実施形態および変形例に示す構成やその処理の順序についてあらゆる組み合わせをとることができる。例えば、画像処理装置は、収差補正モードにおける倍率調整処理、歪曲収差調整処理、ぶれ補正処理、明度調整処理の実行順を適宜変更してもよい。また、画像処理装置は、図2に示す第1モードの処理と、図6に示す第2モードの処理とを組み合わせて、軸上色収差および像面湾曲収差が両方とも補正された補正画像を生成してもよい。   (4) The image processing apparatus described in the above embodiment is merely an example, and when implementing the present invention, all combinations of the configurations and the processing order shown in the above embodiment and the modification can be taken. For example, the image processing apparatus may appropriately change the execution order of the magnification adjustment process, the distortion aberration adjustment process, the shake correction process, and the brightness adjustment process in the aberration correction mode. In addition, the image processing apparatus generates a corrected image in which both the axial chromatic aberration and the field curvature aberration are corrected by combining the processing in the first mode shown in FIG. 2 and the processing in the second mode shown in FIG. May be.

(5)本発明のプログラムを実行する画像処理装置は、上記実施形態のカメラ本体2やコンピュータ31の例に限定されることなく、カメラ付携帯電話や画像のビューアなどの電子機器にも広く適用できる。   (5) The image processing apparatus that executes the program of the present invention is not limited to the examples of the camera body 2 and the computer 31 of the above-described embodiment, and is widely applicable to electronic devices such as a mobile phone with a camera and an image viewer. it can.

(6)上記の各実施形態では、画像処理部28、補正画像生成部29の機能をプログラムでソフトウェア的に実現する例を説明したが、これらの処理をASICによってハードウエア的に実現しても勿論かまわない。   (6) In each of the above-described embodiments, the example in which the functions of the image processing unit 28 and the corrected image generation unit 29 are implemented by software has been described. However, these processing may be implemented by hardware using an ASIC. Of course it doesn't matter.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

一の実施形態における電子カメラシステムの構成例を示す概要図1 is a schematic diagram illustrating a configuration example of an electronic camera system according to an embodiment. 一の実施形態における収差補正モード(第1モード)の動作例を示す流れ図6 is a flowchart showing an operation example of an aberration correction mode (first mode) in one embodiment. 軸上色収差の一例を示す説明図Explanatory drawing showing an example of axial chromatic aberration 波長の違いによる撮影倍率の差を示す模式図Schematic diagram showing the difference in shooting magnification due to the difference in wavelength 第1モードでの補正画像の生成方法を示す概要図Schematic diagram showing a method of generating a corrected image in the first mode 一の実施形態における収差補正モード(第2モード)の動作例を示す流れ図6 is a flowchart showing an operation example of an aberration correction mode (second mode) in one embodiment. 像面湾曲収差の例を示す説明図Explanatory drawing showing an example of field curvature aberration 焦点距離fの調整で所定の像高での像面湾曲を補正する例を示す模式図Schematic diagram showing an example of correcting field curvature at a predetermined image height by adjusting the focal length f 他の実施形態の画像処理装置の構成例を示す概要図Schematic diagram showing a configuration example of an image processing apparatus according to another embodiment

符号の説明Explanation of symbols

1…レンズユニット、2…カメラ本体、11…撮影レンズ、12…レンズ駆動部、13…絞り、16…レンズマイコン、21…撮像素子、23…CPU、25…第2メモリ、28…画像処理部、29…補正画像生成部、31…コンピュータ DESCRIPTION OF SYMBOLS 1 ... Lens unit, 2 ... Camera body, 11 ... Shooting lens, 12 ... Lens drive part, 13 ... Aperture, 16 ... Lens microcomputer, 21 ... Image sensor, 23 ... CPU, 25 ... 2nd memory, 28 ... Image processing part , 29 ... corrected image generation unit, 31 ... computer

Claims (10)

撮影レンズの焦点距離、撮影距離、前記撮影レンズの一部のレンズ群の配置の少なくとも1つのパラメータを変化させてそれぞれ撮像された複数の撮像画像を取得する画像読込部と、
前記撮像画像の画像処理を実行する画像処理部と、
各々の前記撮像画像からそれぞれ画像情報を取得するとともに、複数の前記画像情報を組み合わせて、前記撮影レンズの収差が補正された補正画像を生成する補正画像生成部と、を備え
複数の前記撮像画像における撮影条件の変化量は、前記撮影レンズの種類、前記撮影レンズの焦点距離、前記撮影距離に基づいて決定され
前記撮像画像は複数の色成分の情報を含み、
複数の前記撮像画像は、各々の前記色成分に対応する波長の光における前記撮影レンズの結像位置のずれに応じて前記パラメータを変化させて撮像された画像であって、
前記画像処理部は、前記撮像画像間の撮影倍率の差を調整する倍率調整処理と、前記撮像画像間の歪曲収差の差を調整する歪曲収差調整処理と、前記撮像画像間での被写体のぶれを補正するぶれ補正処理と、前記撮像画像間での画像の明るさの差を調整する明度調整処理との少なくとも1つの処理を実行し、
前記補正画像生成部は、各々の撮像画像からそれぞれ異なる前記色成分に対応する前記画像情報を取得して、軸上色収差が補正された前記補正画像を生成することを特徴とする画像処理装置。
An image reading unit that obtains a plurality of captured images each captured by changing at least one parameter of a focal length of the photographing lens, a photographing distance, and an arrangement of a part of the lens group of the photographing lens;
An image processing unit for performing image processing of the captured image;
A correction image generation unit that obtains image information from each of the captured images, and generates a correction image in which the aberration of the photographing lens is corrected by combining a plurality of the image information ,
The amount of change in shooting conditions in the plurality of captured images is determined based on the type of the shooting lens, the focal length of the shooting lens, and the shooting distance .
The captured image includes information on a plurality of color components,
The plurality of captured images are images captured by changing the parameter according to a shift in an imaging position of the photographing lens in light having a wavelength corresponding to each of the color components,
The image processing unit includes a magnification adjustment process that adjusts a difference in photographing magnification between the captured images, a distortion aberration adjustment process that adjusts a difference in distortion aberration between the captured images, and a subject blur between the captured images. At least one of a shake correction process for correcting the brightness and a brightness adjustment process for adjusting a difference in image brightness between the captured images,
The image processing apparatus, wherein the correction image generation unit acquires the image information corresponding to the different color components from each captured image, and generates the correction image in which axial chromatic aberration is corrected .
撮影レンズの焦点距離、撮影距離、前記撮影レンズの一部のレンズ群の配置の少なくとも1つのパラメータを変化させてそれぞれ撮像された複数の撮像画像を取得する画像読込部と、
前記撮像画像の画像処理を実行する画像処理部と、
各々の前記撮像画像からそれぞれ画像情報を取得するとともに、複数の前記画像情報を組み合わせて、前記撮影レンズの収差が補正された補正画像を生成する補正画像生成部と、を備え
複数の前記撮像画像における撮影条件の変化量は、前記撮影レンズの種類、前記撮影レンズの焦点距離、前記撮影距離、前記撮影レンズの絞り値に基づいて決定され
前記画像処理部は、前記撮像画像間の撮影倍率の差を調整する倍率調整処理と、前記撮像画像間の歪曲収差の差を調整する歪曲収差調整処理と、前記撮像画像間での被写体のぶれを補正するぶれ補正処理と、前記撮像画像間での画像の明るさの差を調整する明度調整処理との少なくとも1つの処理を実行し、
前記補正画像生成部は、前記撮像画像間でそれぞれの像高が異なる位置から前記画像情報を取得して、像面湾曲収差が補正された前記補正画像を生成することを特徴とする画像処理装置。
An image reading unit that obtains a plurality of captured images each captured by changing at least one parameter of a focal length of the photographing lens, a photographing distance, and an arrangement of a part of the lens group of the photographing lens;
An image processing unit for performing image processing of the captured image;
A correction image generation unit that obtains image information from each of the captured images, and generates a correction image in which the aberration of the photographing lens is corrected by combining a plurality of the image information ,
The amount of change in shooting conditions in the plurality of captured images is determined based on the type of the shooting lens, the focal length of the shooting lens, the shooting distance, and the aperture value of the shooting lens ,
The image processing unit includes a magnification adjustment process that adjusts a difference in photographing magnification between the captured images, a distortion aberration adjustment process that adjusts a difference in distortion aberration between the captured images, and a subject blur between the captured images. At least one of a shake correction process for correcting the brightness and a brightness adjustment process for adjusting a difference in image brightness between the captured images,
The correction image generation unit acquires the image information from a position where the image heights differ between the captured images, and generates the correction image in which the field curvature aberration is corrected. .
撮影レンズの焦点距離を変化させてブラケティング撮影された複数の撮像画像を取得する画像読込部と、
前記撮像画像間で明るさが相違する場合、前記撮像画像間での画像の明るさの差を調整する明度調整処理を実行する画像処理部と、
各々の前記撮像画像からそれぞれ画像情報を取得するとともに、複数の前記画像情報を組み合わせて、前記撮影レンズの収差が補正された補正画像を生成する補正画像生成部と、を備え、
前記画像処理部は、R画素の主波長で撮像面に結像する第1の撮像画像、G画素の主波長で撮像面に結像する第2の撮像画像、B画素の主波長で撮像面に結像する第3の撮像画像間での画像の明るさの差を調整することを特徴とする画像処理装置。
An image reading unit that acquires a plurality of captured images taken by bracketing by changing the focal length of the photographing lens;
An image processing unit that executes a brightness adjustment process for adjusting a difference in image brightness between the captured images when the brightness differs between the captured images;
A correction image generation unit that obtains image information from each of the captured images, and generates a correction image in which the aberration of the photographing lens is corrected by combining a plurality of the image information,
The image processing unit includes: a first captured image that forms an image on the imaging surface with the main wavelength of the R pixel; a second captured image that forms an image on the imaging surface with the main wavelength of the G pixel; an imaging surface with the main wavelength of the B pixel An image processing apparatus that adjusts a difference in image brightness between third captured images formed on the image.
請求項に記載の画像処理装置において、
複数の前記撮像画像における撮影条件の変化量は、前記撮影レンズの種類、前記撮影レンズの焦点距離、撮影距離、前記撮影レンズの絞り値の少なくとも1以上に基づいて決定されることを特徴とする画像処理装置。
The image processing apparatus according to claim 3 .
The amount of change in shooting condition in the plurality of captured images is determined based on at least one of the type of the shooting lens, the focal length of the shooting lens, the shooting distance, and the aperture value of the shooting lens. Image processing device.
請求項3または請求項4記載の画像処理装置において、
前記撮像画像は複数の色成分の情報を含み、
複数の前記撮像画像は、各々の前記色成分に対応する波長の光における前記撮影レンズの結像位置のずれに応じて前記焦点距離を変化させて撮像された画像であって、
前記補正画像生成部は、各々の撮像画像からそれぞれ異なる前記色成分に対応する前記画像情報を取得して、軸上色収差が補正された前記補正画像を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4,
The captured image includes information on a plurality of color components,
The plurality of captured images are images captured by changing the focal length according to a shift in the imaging position of the photographing lens in light having a wavelength corresponding to each of the color components,
The image processing apparatus, wherein the correction image generation unit acquires the image information corresponding to the different color components from each captured image, and generates the correction image in which axial chromatic aberration is corrected .
請求項3または請求項4に記載の画像処理装置において、The image processing apparatus according to claim 3 or 4,
前記補正画像生成部は、前記撮像画像間でそれぞれの像高が異なる位置から前記画像情報を取得して、像面湾曲収差が補正された前記補正画像を生成することを特徴とする画像処理装置。The correction image generation unit acquires the image information from a position where the image heights differ between the captured images, and generates the correction image in which the field curvature aberration is corrected. .
請求項3から請求項6のいずれか1項に記載の画像処理装置において、The image processing apparatus according to any one of claims 3 to 6,
前記画像処理部は、前記撮像画像間の撮影倍率の差を調整する倍率調整処理と、前記撮像画像間の歪曲収差の差を調整する歪曲収差調整処理と、前記撮像画像間での被写体のぶれを補正するぶれ補正処理との少なくとも1つの処理をさらに実行することを特徴とする画像処理装置。The image processing unit includes a magnification adjustment process that adjusts a difference in photographing magnification between the captured images, a distortion aberration adjustment process that adjusts a difference in distortion aberration between the captured images, and a subject blur between the captured images. An image processing apparatus that further executes at least one of a blur correction process for correcting the image.
撮影レンズの焦点距離を変化させてブラケティング撮影された複数の撮像画像を取得する画像読込処理と、
前記撮像画像間で明るさが相違する場合、R画素の主波長で撮像面に結像する第1の撮像画像、G画素の主波長で撮像面に結像する第2の撮像画像、B画素の主波長で撮像面に結像する第3の撮像画像間での画像の明るさの差を調整する明度調整処理を実行する画像処理と、
各々の前記撮像画像からそれぞれ画像情報を取得するとともに、複数の前記画像情報を組み合わせて、前記撮影レンズの収差が補正された補正画像を生成する補正画像生成処理と、
をコンピュータに実行させることを特徴とするプログラム。
An image reading process for acquiring a plurality of captured images taken by bracketing by changing the focal length of the taking lens ;
When the brightness differs between the captured images, a first captured image that forms an image on the imaging surface with the main wavelength of the R pixel, a second captured image that forms an image on the imaging surface with the main wavelength of the G pixel, and a B pixel Image processing for performing brightness adjustment processing for adjusting a difference in image brightness between the third captured images formed on the imaging surface at the principal wavelength of
Correction image generation processing for acquiring image information from each of the captured images and generating a correction image in which the aberration of the photographing lens is corrected by combining a plurality of the image information;
A program that causes a computer to execute.
撮影レンズの焦点距離を変化させてブラケティング撮影された複数の撮像画像を撮像する撮像工程と、An imaging step of imaging a plurality of captured images taken by bracketing by changing the focal length of the imaging lens;
前記撮像画像間で明るさが相違する場合、R画素の主波長で撮像面に結像する第1の撮像画像、G画素の主波長で撮像面に結像する第2の撮像画像、B画素の主波長で撮像面に結像する第3の撮像画像間での画像の明るさの差を調整する明度調整処理を実行する画像処理を実行する画像処理工程と、When the brightness differs between the captured images, a first captured image that forms an image on the imaging surface with the main wavelength of the R pixel, a second captured image that forms an image on the imaging surface with the main wavelength of the G pixel, and a B pixel An image processing step for performing image processing for performing brightness adjustment processing for adjusting a difference in image brightness between the third captured images formed on the imaging surface at the principal wavelength of
各々の前記撮像画像からそれぞれ画像情報を取得するとともに、複数の前記画像情報を組み合わせて、前記撮影レンズの収差が補正された補正画像を生成する補正画像生成工程と、A corrected image generation step of acquiring image information from each of the captured images and generating a corrected image in which the aberration of the photographing lens is corrected by combining a plurality of the image information;
を有することを特徴とする画像処理方法。An image processing method comprising:
撮影レンズを通過した光束による結像を撮像する撮像部と、An imaging unit for imaging an image formed by a light beam that has passed through the taking lens;
請求項1から請求項3のいずれか1項に記載の画像処理装置と、The image processing apparatus according to any one of claims 1 to 3,
を備えることを特徴とする撮像装置。An imaging apparatus comprising:
JP2008318544A 2008-12-15 2008-12-15 Image processing apparatus, imaging apparatus, program, and image processing method Active JP5272699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008318544A JP5272699B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, imaging apparatus, program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008318544A JP5272699B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, imaging apparatus, program, and image processing method

Publications (2)

Publication Number Publication Date
JP2010141814A JP2010141814A (en) 2010-06-24
JP5272699B2 true JP5272699B2 (en) 2013-08-28

Family

ID=42351501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008318544A Active JP5272699B2 (en) 2008-12-15 2008-12-15 Image processing apparatus, imaging apparatus, program, and image processing method

Country Status (1)

Country Link
JP (1) JP5272699B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5367053B2 (en) * 2011-02-28 2013-12-11 キヤノン株式会社 Image processing apparatus, image processing program, image processing method, and imaging apparatus
JP2012222431A (en) * 2011-04-05 2012-11-12 Canon Inc Imaging apparatus and control method of the same
JP5806518B2 (en) * 2011-06-15 2015-11-10 オリンパス株式会社 Zoom lens and image pickup apparatus including the same
CN105635590B (en) * 2016-02-29 2018-10-26 中国工程物理研究院流体物理研究所 A kind of focusing method and device based on digital hologram restructing algorithm
JP6746857B2 (en) * 2019-01-31 2020-08-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program
JP2022059763A (en) 2020-10-02 2022-04-14 キヤノン株式会社 Aberration correction method, program, and image capturing device
US20220159191A1 (en) * 2020-11-18 2022-05-19 Canon Kabushiki Kaisha Image pickup apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198783A (en) * 1997-01-08 1998-07-31 Hitachi Ltd Image input device
JP2002094860A (en) * 2000-09-11 2002-03-29 Canon Inc Image processor and image processing method and memory medium
JP4378994B2 (en) * 2003-04-30 2009-12-09 ソニー株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP2008085774A (en) * 2006-09-28 2008-04-10 Olympus Corp Aberration correcting imaging apparatus and aberration correcting method

Also Published As

Publication number Publication date
JP2010141814A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5272699B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
US11228701B2 (en) Image capturing apparatus
US10992854B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JPWO2012111220A1 (en) Imaging apparatus, imaging apparatus main body, and shading correction method
JP4433883B2 (en) White balance correction device, white balance correction method, program, and electronic camera device
JP2008092440A (en) Camera, and image processing program
JP2014235224A (en) Imaging device and control program
JP5183348B2 (en) Imaging device
KR101635101B1 (en) An apparatus and a method of removing lens distortion and chromatic aberration
JP5378283B2 (en) Imaging apparatus and control method thereof
KR101626447B1 (en) An apparatus, a method, a computer-readable medium storing a computer program of removing lens distortion and chromatic aberration
JP2012034130A (en) Imaging apparatus
US9282257B2 (en) Image apparatus and imaging method
JP5173664B2 (en) Image processing apparatus and image processing method
JP2009055415A (en) Camera
JP4705146B2 (en) Imaging apparatus and imaging method
JP2007074321A (en) Chromatic aberration correcting apparatus
JP2008053810A (en) Imaging apparatus and image processing program
JP6547742B2 (en) Imaging control apparatus, imaging apparatus and imaging control method
JP4321317B2 (en) Electronic camera, camera system, and black spot correction method for electronic camera
JP7271316B2 (en) Imaging device and its control method
JP5708048B2 (en) Imaging device
JP2018151415A (en) Imaging device, method of controlling imaging device, and program
JP2007201780A (en) Imaging apparatus, image processing apparatus and method
JP5273136B2 (en) Chromatic aberration correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250