JP2023084577A - Imaging device, imaging method and program - Google Patents

Imaging device, imaging method and program Download PDF

Info

Publication number
JP2023084577A
JP2023084577A JP2021198846A JP2021198846A JP2023084577A JP 2023084577 A JP2023084577 A JP 2023084577A JP 2021198846 A JP2021198846 A JP 2021198846A JP 2021198846 A JP2021198846 A JP 2021198846A JP 2023084577 A JP2023084577 A JP 2023084577A
Authority
JP
Japan
Prior art keywords
imaging
image
captured image
wavelength band
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021198846A
Other languages
Japanese (ja)
Inventor
貴嗣 青木
Takashi Aoki
洋一 岩崎
Yoichi Iwasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021198846A priority Critical patent/JP2023084577A/en
Publication of JP2023084577A publication Critical patent/JP2023084577A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

To provide an imaging device, an imaging method and a program that acquire a photographed image having on-axis chromatic aberrations more suppressed.SOLUTION: An imaging device 10 comprises: an imaging optical system 12; an imaging element 16 which acquires a photographed image, a memory 8 which stores chromatic aberration correction information corresponding to an image height of the photographed image in a sagittal direction and a tangential direction of the photographed image for correcting on-axis chromatic aberrations of the imaging optical system 12; a drive device 20 which moves the imaging optical system 12 in an optical-axis direction; and a processor 40. The processor 40 acquires a correction object area, reads the corresponding chromatic aberration correction information out of the memory based upon the image height in the correction object area, and determines an imaging position corresponding to a wavelength band of the imaging element based upon the chromatic aberration correction information.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、撮像方法、及びプログラムに関する。 The present invention relates to an imaging device, an imaging method, and a program.

一般に撮像光学系に入射する光は、複数の異なる波長の光を有する。このような場合には、撮像光学系は、入射した光の波長に対応する像を、それぞれ撮像光学系の光軸方向の異なる位置に結像する(軸上色収差)。 In general, light incident on an imaging optical system has light of a plurality of different wavelengths. In such a case, the imaging optical system forms images corresponding to the wavelengths of incident light at different positions in the optical axis direction of the imaging optical system (axial chromatic aberration).

特許文献1に記載された技術では、撮像光学系と撮像素子との相対距離を変化させて複数回の撮影を行わせ、得られた複数の画像を合成することにより、軸上色収差が抑制された画像を取得する技術が記載されている。 In the technique described in Patent Literature 1, longitudinal chromatic aberration is suppressed by changing the relative distance between the imaging optical system and the imaging element, performing multiple shots, and synthesizing the obtained multiple images. Techniques are described for acquiring an image of the

特開2008-85774号公報JP 2008-85774 A

本開示の技術にかかる一つの実施形態は、軸上色収差がより抑制された撮影画像を取得することができる撮像装置、撮像方法、及びプログラムを提供することである。 One embodiment according to the technology of the present disclosure is to provide an imaging device, an imaging method, and a program capable of acquiring a captured image with further suppressed longitudinal chromatic aberration.

本発明の一の態様である撮像装置は、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系の軸上色収差を補正する為の色収差補正情報であって、撮影画像におけるサジタル方向及びタンジェンシャル方向の、撮影画像における像高に応じた色収差補正情報を記憶するメモリと、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置であって、プロセッサは、補正対象エリアを取得し、補正対象エリアの像高に基づいて、メモリから対応する色収差補正情報を読み出し、色収差補正情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定する。 An imaging apparatus according to one aspect of the present invention includes an imaging optical system, an imaging device that acquires a captured image, chromatic aberration correction information for correcting axial chromatic aberration of the imaging optical system, and a sagittal direction in the captured image. and a memory for storing chromatic aberration correction information according to the image height of a captured image in the tangential direction, a driving device for moving the imaging optical system in the optical axis direction, and a processor, wherein the processor is , acquires a correction target area, reads corresponding chromatic aberration correction information from the memory based on the image height of the correction target area, and determines an imaging position according to the wavelength band of the image sensor based on the chromatic aberration correction information.

好ましくは、プロセッサは、駆動装置により撮像光学系のレンズ群を撮像位置に移動させ、撮像素子により撮影画像を取得させる。 Preferably, the processor causes the driving device to move the lens group of the imaging optical system to the imaging position, and causes the imaging element to acquire the captured image.

好ましくは、波長帯域は、第1の色の波長帯域、第2の色の波長帯域、及び第3の色の波長帯域を有し、プロセッサは、色収差補正情報に基づいて、撮像位置である、第1の色の波長帯域の撮像を行う場合のレンズ群の位置である第1のレンズ位置、第2の色の波長帯域の撮像を行う場合のレンズ群の位置である第2のレンズ位置、及び第3の色の波長帯域の撮像を行う場合のレンズ群の位置である第3のレンズ位置を決定し、第1のレンズ位置における第1の色の波長帯域の撮影画像である第1の撮影画像、第2のレンズ位置における第2の色の波長帯域の撮影画像である第2の撮影画像、及び第3のレンズ位置における第3の色の波長帯域の撮影画像である第3の撮影画像を撮像素子に取得させる。 Preferably, the wavelength band has a first color wavelength band, a second color wavelength band, and a third color wavelength band, and the processor determines the imaging position based on the chromatic aberration correction information. A first lens position that is the position of the lens group when imaging the wavelength band of the first color, a second lens position that is the position of the lens group when imaging the wavelength band of the second color, and a third lens position, which is the position of the lens group when imaging the wavelength band of the third color, is determined, and the first lens position, which is the captured image of the wavelength band of the first color at the first lens position A captured image, a second captured image that is a captured image in the second color wavelength band at the second lens position, and a third captured image that is a captured image in the third color wavelength band at the third lens position An image is captured by the imaging device.

本発明の他の態様である撮像装置は、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置であって、プロセッサは、補正対象エリアを取得し、駆動装置によりレンズ群を走査させて、補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得し、コントラスト情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定する。 An imaging apparatus according to another aspect of the present invention is an imaging apparatus comprising an imaging optical system, an imaging element for acquiring a captured image, a driving device for moving the imaging optical system in an optical axis direction, and a processor. , the processor acquires a correction target area, scans the lens group with a driving device, acquires contrast information in the sagittal direction and the tangential direction of the wavelength band in the correction target area, and performs imaging based on the contrast information. An imaging position is determined according to the wavelength band of the device.

好ましくは、プロセッサは、駆動装置により撮像光学系を撮像位置に移動させ、撮像素子により撮影画像を取得させる。 Preferably, the processor causes the driving device to move the imaging optical system to the imaging position, and causes the imaging element to acquire the captured image.

好ましくは、波長帯域は、第1の色の波長帯域、第2の色の波長帯域、及び第3の色の波長帯域を有し、プロセッサは、コントラスト情報に基づいて、撮像位置である、第1の色の波長帯域の撮像を行う場合のレンズ群の位置である第1のレンズ位置、第2の色の波長帯域の撮像を行う場合のレンズ群の位置である第2のレンズ位置、及び第3の色の波長帯域の撮像を行う場合のレンズ群の位置である第3のレンズ位置を決定し、第1のレンズ位置における第1の色の波長帯域の撮影画像である第1の撮影画像、第2のレンズ位置における第2の色の波長帯域の撮影画像である第2の撮影画像、及び第3のレンズ位置における第3の色の波長帯域の撮影画像である第3の撮影画像を撮像素子に取得させる。 Preferably, the wavelength band has a first color wavelength band, a second color wavelength band, and a third color wavelength band, and the processor is the imaging position based on the contrast information. A first lens position that is the position of the lens group when imaging the wavelength band of one color, a second lens position that is the position of the lens group when imaging the wavelength band of the second color, and A third lens position, which is the position of the lens group in the case of imaging the wavelength band of the third color, is determined, and the first imaging is the captured image of the wavelength band of the first color at the first lens position. an image, a second captured image that is a captured image in the second color wavelength band at the second lens position, and a third captured image that is a captured image in the third color wavelength band at the third lens position is acquired by the imaging device.

好ましくは、波長帯域は、撮像素子の分光特性に関する。 Preferably, the wavelength band relates to spectral characteristics of the imaging device.

好ましくは、プロセッサは、分光特性ごとに撮影画像を取得して、撮影画像から別撮影画像を生成する。 Preferably, the processor acquires the captured image for each spectral characteristic and generates another captured image from the captured image.

好ましくは、プロセッサは、補正対象エリアのサジタル方向のコントラスト及びタンジェンシャル方向のコントラストを算出し、サジタル方向のコントラストとタンジェンシャル方向のコントラストのエリアコントラスト比を算出し、エリアコントラスト比に基づいて、撮像位置を決定する。 Preferably, the processor calculates the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area, calculates the area contrast ratio of the contrast in the sagittal direction and the contrast in the tangential direction, and performs imaging based on the area contrast ratio. Determine position.

好ましくは、プロセッサは、エリアコントラスト比に基づいて、サジタル方向とタンジェンシャル方向とで異なる重みづけを行って撮像位置を決定する。 Preferably, the processor determines the imaging position by weighting differently in the sagittal direction and the tangential direction based on the area contrast ratio.

好ましくは、プロセッサは、ユーザからのエリア選択指示に基づいて補正対象エリアの入力を受け付ける。 Preferably, the processor receives input of the correction target area based on an area selection instruction from the user.

好ましくは、プロセッサは、撮影画像内の第1の閾値以上のコントラストを有する箇所を含むコントラストエリアを検出し、コントラストエリアを補正対象エリアとして入力を受け付ける。 Preferably, the processor detects a contrast area including a portion having a contrast equal to or greater than a first threshold in the captured image, and receives input as the correction target area.

好ましくは、プロセッサは、顔検出処理を行い、顔検出エリアを補正対象エリアとして入力を受け付ける。 Preferably, the processor performs face detection processing and accepts input of the face detection area as the correction target area.

好ましくは、プロセッサは、被写体検出処理を行い、被写体検出エリアを補正対象エリアとして入力を受け付ける。 Preferably, the processor performs subject detection processing and accepts input of the subject detection area as the correction target area.

好ましくは、プロセッサは、撮影画像内の第2の閾値以上の輝度を有する箇所を含む輝度エリアを検出し、輝度エリアを補正対象エリアとして入力を受け付ける。 Preferably, the processor detects a luminance area including a portion having luminance equal to or higher than the second threshold in the captured image, and receives input as the correction target area.

好ましくは、第1のレンズ位置、第2のレンズ位置、及び第3のレンズ位置は、補正対象エリアのコントラストオートフォーカス方式により得られる焦点距離に基づいて取得される。 Preferably, the first lens position, the second lens position, and the third lens position are obtained based on the focal length obtained by the contrast autofocus method of the area to be corrected.

好ましくは、第1の色は緑色であり、第2の色は赤色であり、第3の色は青色である。 Preferably, the first color is green, the second color is red and the third color is blue.

本発明の他の態様である撮像方法は、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系の軸上色収差を補正する為の色収差補正情報であって、撮影画像におけるサジタル方向及びタンジェンシャル方向の、撮影画像における像高に応じた色収差補正情報を記憶するメモリと、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置の撮像方法であって、プロセッサが、補正対象エリアを取得するステップと、補正対象エリアの像高に基づいて、メモリから対応する色収差補正情報を読み出すステップと、色収差補正情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定するステップと、を行う。 An image pickup method according to another aspect of the present invention includes an image pickup optical system, an image sensor for acquiring a photographed image, chromatic aberration correction information for correcting longitudinal chromatic aberration of the image pickup optical system, and a sagittal direction in the photographed image. and a memory for storing chromatic aberration correction information according to the image height of a captured image in the tangential direction, a driving device for moving the imaging optical system in the optical axis direction, and a processor. , the processor acquires a correction target area; reads out chromatic aberration correction information corresponding to the correction target area from the memory based on the image height of the correction target area; and determining an imaging position.

本発明の他の態様である撮像方法は、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置の撮像方法であって、プロセッサが、補正対象エリアを取得するステップと、駆動装置によりレンズ群を走査させて、補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得するステップと、コントラスト情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定するステップと、を行う。 An imaging method according to another aspect of the present invention is an imaging method for an imaging apparatus including an imaging optical system, an imaging element for acquiring a captured image, a driving device for moving the imaging optical system in an optical axis direction, and a processor. wherein the processor acquires a correction target area, scans the lens group with a driving device, and acquires contrast information in the sagittal direction and the tangential direction of the wavelength band in the correction target area; and determining an imaging position according to the wavelength band of the imaging element based on the contrast information.

本発明の他の態様であるプログラムは、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系の軸上色収差を補正する為の色収差補正情報であって、撮影画像におけるサジタル方向及びタンジェンシャル方向の、撮影画像における像高に応じた色収差補正情報を記憶するメモリと、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置に撮像方法を実行させるプログラムであって、プロセッサに、補正対象エリアを取得するステップと、補正対象エリアの像高に基づいて、メモリから対応する色収差補正情報を読み出すステップと、色収差補正情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定するステップと、を実行させる。 A program, which is another aspect of the present invention, includes an imaging optical system, an imaging device for acquiring a captured image, chromatic aberration correction information for correcting axial chromatic aberration of the imaging optical system, and the sagittal direction and the A program for causing an image capturing apparatus having a memory for storing chromatic aberration correction information corresponding to an image height in a captured image in the tangential direction, a driving device for moving an image capturing optical system in the optical axis direction, and a processor to execute an image capturing method. wherein the processor acquires a correction target area, reads chromatic aberration correction information corresponding to the correction target area from the memory based on the image height of the correction target area, and based on the chromatic aberration correction information, determines the wavelength band of the image sensor. and a step of determining an imaging position in accordance with.

本発明の他の態様であるプログラムは、撮像光学系と、撮影画像を取得する撮像素子と、撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置に撮像方法を実行させるプログラムであって、プロセッサに、補正対象エリアを取得するステップと、駆動装置によりレンズ群を走査させて、補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得するステップと、コントラスト情報に基づいて、撮像素子の波長帯域に応じた撮像位置を決定するステップと、を実行させる。 A program, which is another aspect of the present invention, provides an imaging method for an imaging apparatus including an imaging optical system, an imaging element for acquiring a captured image, a driving device for moving the imaging optical system in an optical axis direction, and a processor. A program to be executed, comprising a step of acquiring a correction target area by a processor, and causing a driving device to scan a lens group to acquire contrast information of a wavelength band in a sagittal direction and a tangential direction in the correction target area. and determining an imaging position according to the wavelength band of the imaging element based on the contrast information.

図1は、撮像装置の内部構成を示すブロック図である。FIG. 1 is a block diagram showing the internal configuration of an imaging device. 図2は、プロセッサで実現される主な機能を示すブロック図である。FIG. 2 is a block diagram showing main functions implemented by a processor. 図3は、補正対象エリアのサジタル方向及びタンジェンシャル方向に関して説明する図である。FIG. 3 is a diagram for explaining the sagittal direction and tangential direction of the correction target area. 図4は、像高、サジタル像面、及びタンジェンシャル像面での軸上色収差に関して説明する図である。FIG. 4 is a diagram for explaining longitudinal chromatic aberration at image height, sagittal image plane, and tangential image plane. 図5は、色収差補正情報の一例に関して説明する図である。FIG. 5 is a diagram illustrating an example of chromatic aberration correction information. 図6は、レンズ群の移動と各波長帯域の撮影画像の取得に関して説明する図である。FIG. 6 is a diagram for explaining the movement of the lens group and acquisition of captured images in each wavelength band. 図7は、多色モザイク画像から完成合成画像の生成に関して説明する図である。FIG. 7 is a diagram illustrating generation of a completed composite image from a multicolor mosaic image. 図8は、撮像装置を使用した撮像方法を示すフローチャートである。FIG. 8 is a flow chart showing an imaging method using the imaging device. 図9は、プロセッサが実現する機能を示す機能ブロック図である。FIG. 9 is a functional block diagram showing functions realized by a processor. 図10は、コントラスト情報の取得に関して説明する図である。FIG. 10 is a diagram illustrating acquisition of contrast information. 図11は、撮像装置を使用した撮像方法を示すフローチャートである。FIG. 11 is a flow chart showing an imaging method using an imaging device. 図12は、補正対象エリアの具体例1に関して説明する図である。FIG. 12 is a diagram illustrating specific example 1 of the correction target area. 図13は、補正対象エリアの具体例2に関して説明する図である。FIG. 13 is a diagram illustrating specific example 2 of the correction target area. 図14は、補正対象エリアの具体例3に関して説明する図である。FIG. 14 is a diagram illustrating specific example 3 of the correction target area. 図15は、補正対象エリアの具体例4に関して説明する図である。FIG. 15 is a diagram illustrating specific example 4 of the correction target area. 図16は、補正対象エリアの具体例5に関して説明する図である。FIG. 16 is a diagram illustrating specific example 5 of the correction target area.

以下、添付図面にしたがって本発明にかかる撮像装置、撮像方法、及びプログラムの好ましい実施の形態について説明する。 Preferred embodiments of an imaging apparatus, an imaging method, and a program according to the present invention will be described below with reference to the accompanying drawings.

<第1の実施形態>
図1は、本発明の撮像装置の内部構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing the internal configuration of the imaging apparatus of the present invention.

撮像装置10は、撮像した撮影画像をメモリカード54に記録するもので、装置全体の動作は、プロセッサ(中央処理装置:CPU:Central Processing Unit)40によって統括制御される。 The imaging device 10 records captured images in a memory card 54 , and the operation of the entire device is centrally controlled by a processor (CPU: Central Processing Unit) 40 .

撮像装置10には、シャッターボタン、電源/モードスイッチ、モードダイヤル、十字操作ボタン、等の操作部38が設けられている。この操作部38からの信号(指令)はプロセッサ40に入力される。プロセッサ40は、入力信号に基づいて撮像装置10の各回路を制御し、シャッター14の駆動制御、撮像素子16の駆動制御、レンズ駆動装置(駆動装置)20によるレンズ駆動制御、絞り駆動制御、撮像動作制御、画像処理制御、画像データの記録/再生制御、及び、画像モニタ30の表示制御などを行う。 The imaging device 10 is provided with an operation unit 38 such as a shutter button, a power/mode switch, a mode dial, a cross operation button, and the like. A signal (command) from the operation unit 38 is input to the processor 40 . The processor 40 controls each circuit of the imaging device 10 based on the input signal, and performs drive control of the shutter 14, drive control of the imaging device 16, lens drive control by the lens drive device (driving device) 20, aperture drive control, and imaging. It performs operation control, image processing control, image data recording/playback control, display control of the image monitor 30, and the like.

撮像光学系12は、例えば交換レンズ装置で構成される。撮像光学系12は、用途やユーザの嗜好によって適宜交換され、撮像装置10のカメラボディ(不図示)に装着される。撮像光学系12とカメラボディとは電気的に接続されており、撮像光学系12とカメラボディとは相互に通信が可能である。撮像光学系12は、レンズ側メモリ8を備えている。レンズ側メモリ8は、撮像光学系12のレンズ群18に関するパラメータを記憶している。また、レンズ側メモリ8には、後で説明する色収差補正情報を記憶している。 The imaging optical system 12 is composed of, for example, an interchangeable lens device. The imaging optical system 12 is appropriately exchanged depending on the application and user's preference, and is attached to the camera body (not shown) of the imaging apparatus 10 . The imaging optical system 12 and the camera body are electrically connected, and the imaging optical system 12 and the camera body can communicate with each other. The imaging optical system 12 has a lens side memory 8 . The lens-side memory 8 stores parameters related to the lens group 18 of the imaging optical system 12 . Further, the lens-side memory 8 stores chromatic aberration correction information, which will be described later.

撮像光学系12は、レンズ群18を備えており、レンズ群18は、プロセッサ40の制御により、レンズ駆動装置20を介して光軸上の物体側又は撮像素子16側に移動させられる。なお、本例ではレンズ群18を移動させてレンズ群18と撮像素子16との距離を変更させる形態に関して説明するが、本発明の適用はこれに限定されるものではない。例えば、撮像素子16を移動させることにより、レンズ群18と撮像素子16との距離を変更させてもよい。 The imaging optical system 12 includes a lens group 18 , and the lens group 18 is moved to the object side or the imaging element 16 side on the optical axis via the lens driving device 20 under the control of the processor 40 . In this example, the lens group 18 is moved to change the distance between the lens group 18 and the imaging element 16, but application of the present invention is not limited to this. For example, the distance between the lens group 18 and the image sensor 16 may be changed by moving the image sensor 16 .

撮像光学系12を通過した光束は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサである撮像素子16に結像される。但し、光軸色収差の影響で、光束を構成する光の波長帯域に応じて、像が結像される位置が光軸方向で前後にずれる。なお、この波長帯域は、撮像素子16の分光特性に関するものである。撮像素子16は、CMOS型に限らず、CCD(Charge Coupled Device)型、又は有機撮像素子、1層に1色で3層積層型のセンサー構造を有する撮像素子など他の形式のイメージセンサでもよい。 The luminous flux that has passed through the imaging optical system 12 forms an image on an imaging element 16, which is a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor. However, due to the influence of optical axis chromatic aberration, the position where the image is formed shifts back and forth in the optical axis direction according to the wavelength band of the light that constitutes the luminous flux. Note that this wavelength band relates to the spectral characteristics of the imaging device 16 . The imaging device 16 is not limited to the CMOS type, but may be another type of image sensor such as a CCD (Charge Coupled Device) type, an organic imaging device, or an imaging device having a three-layer laminated sensor structure with one color per layer. .

撮像光学系12のレンズ駆動装置(駆動装置)20はプロセッサ40により制御される。レンズ駆動装置20により撮像光学系12のレンズ群18は光軸(L)方向の物体側及び撮像素子16側に移動する。したがって、プロセッサ40は、レンズ駆動装置20によりレンズ群18を移動させることにより、各波長帯域の光束の結像位置(又は像面位置)を移動させることができる。 A lens driving device (driving device) 20 of the imaging optical system 12 is controlled by a processor 40 . The lens driving device 20 moves the lens group 18 of the imaging optical system 12 to the object side and the imaging element 16 side in the optical axis (L) direction. Therefore, the processor 40 can move the imaging position (or image plane position) of the light flux of each wavelength band by moving the lens group 18 with the lens driving device 20 .

撮像素子16は、多数の受光素子(例えばフォトダイオード)が2次元配列されており、各受光素子の受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(又は電荷)に変換(光電変換)され、撮像素子16内のA/D(Analog/Digital)変換器を介してデジタル信号に変換されて出力される。 The imaging element 16 has a large number of light receiving elements (for example, photodiodes) arranged two-dimensionally, and the subject image formed on the light receiving surface of each light receiving element is a signal voltage (or charge) corresponding to the amount of incident light. ) (photoelectric conversion), converted to a digital signal via an A/D (Analog/Digital) converter in the imaging device 16, and output.

動画又は静止画の撮影時に撮像素子16から読み出された画像信号(画像データ)は、画像入力コントローラ22を介してメモリ(SDRAM(Synchronous Dynamic Random Access Memory))48に一時的に記憶される。 An image signal (image data) read out from the image sensor 16 when shooting a moving image or still image is temporarily stored in a memory (SDRAM (Synchronous Dynamic Random Access Memory) 48 via the image input controller 22 ).

また、フラッシュメモリ(Flash Memory)47は、カメラ制御プログラム、画像処理等に使用する各種のパラメータやテーブルが記憶されている。 A flash memory 47 stores various parameters and tables used for camera control programs, image processing, and the like.

シャッター14は、プロセッサ40により制御される。操作部38の一部であるシャッターボタンが押下されと、プロセッサ40は、シャッター14の開閉を制御することにより、予め設定されているシャッタースピードに応じた時間の露光を行う。 Shutter 14 is controlled by processor 40 . When the shutter button, which is part of the operation unit 38, is pressed, the processor 40 controls the opening and closing of the shutter 14 to perform exposure for a time corresponding to the preset shutter speed.

画像処理部24は、動画又は静止画の撮影時に画像入力コントローラ22を介して取得され、メモリ48に一時的に記憶された未処理の画像データを読み出す。画像処理部24は、読み出した画像データに対してオフセット処理、画素補間処理、ホワイトバランス補正、感度補正を含むゲインコントロール処理、ガンマ補正処理、デモザイク処理(同時化処理)、輝度及び色差信号生成処理、輪郭強調処理、及び色補正等を行う。画像処理部24により処理された画像データであって、ライブビュー画像として処理された画像データは、VRAM(Video RAM Random access memory)50に入力される。 The image processing unit 24 reads out unprocessed image data acquired via the image input controller 22 when shooting a moving image or still image and temporarily stored in the memory 48 . The image processing unit 24 performs offset processing, pixel interpolation processing, white balance correction, gain control processing including sensitivity correction, gamma correction processing, demosaic processing (synchronization processing), and luminance and color difference signal generation processing on the read image data. , edge enhancement processing, color correction, and the like. Image data processed by the image processing unit 24 and processed as a live view image is input to a VRAM (Video RAM Random Access Memory) 50 .

VRAM50から読み出された画像データは、ビデオエンコーダ28においてエンコーディングされ、カメラ背面に設けられている画像モニタ30に出力される。これにより、被写体像を示すライブビュー画像が画像モニタ30に表示される。 The image data read from the VRAM 50 is encoded by the video encoder 28 and output to the image monitor 30 provided on the back of the camera. As a result, a live view image showing the subject image is displayed on the image monitor 30 .

画像処理部24により処理された画像データであって、記録用の静止画又は動画として処理された画像データは、再びメモリ48に記憶される。 Image data processed by the image processing unit 24 and processed as still images or moving images for recording are stored in the memory 48 again.

圧縮伸張処理部26は、静止画又は動画の記録時に、画像処理部24により処理され、メモリ48に格納された輝度データ(Y)及び色差データ(Cb)、(Cr)に対して圧縮処理を施す。圧縮された圧縮画像データは、メディアコントローラ52を介してメモリカード54に記録される。 The compression/decompression processing unit 26 performs compression processing on the luminance data (Y) and the color difference data (Cb) and (Cr) that are processed by the image processing unit 24 and stored in the memory 48 when recording a still image or moving image. Apply. Compressed compressed image data is recorded in the memory card 54 via the media controller 52 .

また、圧縮伸張処理部26は、再生モード時にメディアコントローラ52を介してメモリカード54から得た圧縮画像データに対して伸張処理を施す。メディアコントローラ52は、メモリカード54に対する圧縮画像データの記録及び読み出しなどを行う。 Further, the compression/decompression processing unit 26 decompresses the compressed image data obtained from the memory card 54 via the media controller 52 in the reproduction mode. The media controller 52 performs recording and reading of compressed image data on the memory card 54 .

図2は、プロセッサ40で実現される主な機能を示すブロック図である。 FIG. 2 is a block diagram showing main functions implemented by the processor 40. As shown in FIG.

プロセッサ40は、補正対象エリア取得部40A、コントラスト情報取得部40B、色収差補正情報読出部40C、撮像位置決定部40D、駆動装置制御部40E、及び画像取得部40Fの機能を実現する。 The processor 40 implements the functions of a correction target area acquisition section 40A, a contrast information acquisition section 40B, a chromatic aberration correction information readout section 40C, an imaging position determination section 40D, a drive device control section 40E, and an image acquisition section 40F.

補正対象エリア取得部40Aは、補正対象エリアを取得する。補正対象エリア取得部40Aは、様々な態様により補正対象エリアを取得することができる。例えば、補正対象エリア取得部40Aは、撮影画像(又はライブビュー画像)において、ユーザが選択するAF(Auto Focus)エリア、被写体のコントラストが大きいエリア、人物の顔が検出されたエリア、被写体を認識したエリア、又は輝度が大きいエリアを補正対象エリアとして取得することができる。補正対象エリア取得部40Aは、ユーザの操作部38の操作に応じた入力によって補正対象エリアを取得してもよいし、補正対象エリア取得部40Aが予め設定された検出処理を行うことにより補正対象エリアを取得してもよい。なお、補正対象エリアの具体例に関しては後で説明を行う。 40 A of correction|amendment object area acquisition parts acquire a correction|amendment object area. 40 A of correction|amendment object area acquisition parts can acquire a correction|amendment object area by various aspects. For example, the correction target area acquisition unit 40A recognizes an AF (Auto Focus) area selected by the user, an area where the subject has a high contrast, an area where a person's face is detected, and the subject in the captured image (or live view image). It is possible to acquire the area where the brightness is high or the area where the luminance is high as the correction target area. The correction target area acquisition unit 40A may acquire the correction target area by an input corresponding to the operation of the operation unit 38 by the user, or the correction target area may be acquired by the correction target area acquisition unit 40A performing preset detection processing. You can get the area. A specific example of the correction target area will be described later.

コントラスト情報取得部40Bは、補正対象エリアのサジタル方向のコントラストとタンジェンシャル方向のコントラストとの比であるエリアコントラスト比を取得する。先ず、コントラスト情報取得部40Bは、補正対象エリアのサジタル方向のコントラストと、補正対象エリアのタンジェンシャル方向のコントラストとを公知の技術により取得する。その後、コントラスト情報取得部40Bは、取得した補正対象エリアのサジタル方向のコントラストと、補正対象エリアのタンジェンシャル方向のコントラストとの比であるエリアコントラスト比を取得する。 The contrast information acquisition unit 40B acquires an area contrast ratio, which is the ratio of the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area. First, the contrast information acquisition unit 40B acquires the contrast in the sagittal direction of the correction target area and the contrast in the tangential direction of the correction target area using a known technique. After that, the contrast information acquisition unit 40B acquires an area contrast ratio, which is the ratio of the acquired contrast in the sagittal direction of the correction target area to the contrast in the tangential direction of the correction target area.

図3は、補正対象エリアのサジタル方向及びタンジェンシャル方向に関して説明する図である。 FIG. 3 is a diagram for explaining the sagittal direction and tangential direction of the correction target area.

図3には、撮影画像100が示されており、撮影画像100のサジタル方向(符号Sで示す)とタンジェンシャル方向(符号Tで示す)が示されている。また、撮影画像100には、補正対象エリア102が示されている。補正対象エリア102においても、撮影画像100でのサジタル方向及びタンジェンシャル方向に基づいた、サジタル方向(符号Sで示す)とタンジェンシャル方向(符号Tで示す)とを有する。コントラスト情報取得部40Bは、補正対象エリア102において、サジタル方向の最も明るい箇所の輝度と最も暗い箇所の輝度との差を取得することにより、サジタル方向のコントラストを取得する。また、コントラスト情報取得部40Bは、補正対象エリア102において、タンジェンシャル方向の最も明るい箇所の輝度と最も暗い箇所の輝度との差を取得することにより、タンジェンシャル方向のコントラストを取得する。そして、コントラスト情報取得部40Bは、サジタル方向のコントラストとタンジェンシャル方向のコントラストとの比であるエリアコントラスト比を取得する。 FIG. 3 shows a photographed image 100, and the sagittal direction (indicated by symbol S) and the tangential direction (indicated by symbol T) of the photographed image 100 are shown. A correction target area 102 is also shown in the captured image 100 . The correction target area 102 also has a sagittal direction (indicated by symbol S) and a tangential direction (indicated by symbol T) based on the sagittal direction and tangential direction in the captured image 100 . The contrast information acquisition unit 40B acquires the contrast in the sagittal direction by acquiring the difference between the brightness of the brightest part and the brightness of the darkest part in the correction target area 102 in the sagittal direction. Further, the contrast information acquisition unit 40B acquires the contrast in the tangential direction by acquiring the difference between the brightness of the brightest part and the brightness of the darkest part in the correction target area 102 in the tangential direction. Then, the contrast information acquisition unit 40B acquires an area contrast ratio, which is the ratio of the contrast in the sagittal direction and the contrast in the tangential direction.

色収差補正情報読出部40C(図2参照)は、レンズ側メモリ8に記憶されている色収差補正情報を読み出す。色収差補正情報は、撮像光学系12の軸上色収差を補正するための情報である。ここで、軸上色収差は、撮影画像の像高によって変動する。また、レンズ(又はレンズ群)の特性はサジタル像面とタンジェンシャル像面とで異なるため、同じ像高でも異なる軸上色収差の補正が必要となる。したがって、レンズ側メモリ8に記憶されている色収差補正情報は、サジタル像面及びタンジェンシャル像面、撮影画像における像高に応じた軸上色収差を補正するための情報を有する。なお、色収差補正情報は、撮像光学系12の各々によって異なるので、撮像光学系12毎に準備されることが好ましい。 A chromatic aberration correction information reading unit 40C (see FIG. 2) reads chromatic aberration correction information stored in the lens side memory 8. FIG. The chromatic aberration correction information is information for correcting axial chromatic aberration of the imaging optical system 12 . Here, longitudinal chromatic aberration varies depending on the image height of the captured image. In addition, since the characteristics of the lens (or lens group) are different between the sagittal image plane and the tangential image plane, it is necessary to correct different longitudinal chromatic aberrations even if the image height is the same. Therefore, the chromatic aberration correction information stored in the lens-side memory 8 has information for correcting axial chromatic aberration according to the image height in the sagittal image plane, the tangential image plane, and the captured image. In addition, since the chromatic aberration correction information differs depending on each imaging optical system 12 , it is preferable to prepare the chromatic aberration correction information for each imaging optical system 12 .

色収差補正情報読出部40Cは、補正対象エリアの像高に基づいて、メモリから対応する色収差補正情報を読み出す。ここで、補正対象エリアの像高とは、例えば補正対象エリアの中心に対応する像高である。 The chromatic aberration correction information reading unit 40C reads the corresponding chromatic aberration correction information from the memory based on the image height of the correction target area. Here, the image height of the correction target area is, for example, the image height corresponding to the center of the correction target area.

図4は、像高、サジタル像面、及びタンジェンシャル像面での軸上色収差に関して説明する図である。なお、以下の例では、3色の波長帯域の光の像に関して説明を行うが、本発明の適用はこれに限定されるものではない。例えば、2色の波長帯域を有する光においても本発明を適用することができる。 FIG. 4 is a diagram for explaining longitudinal chromatic aberration at image height, sagittal image plane, and tangential image plane. In the following example, an image of light in three color wavelength bands will be described, but application of the present invention is not limited to this. For example, the present invention can be applied to light having wavelength bands of two colors.

図4では、横軸は像面の位置を示し、縦軸は像高を示している。また、緑色の波長帯域(第1の色の波長帯域)の光の像のサジタル像面での位置はG(S)、タンジェンシャル像面での位置はG(T)で示されている。また、赤色の波長帯域(第2の色の波長帯域)の光の像のサジタル像面の位置はR(S)、タンジェンシャル像面の位置はR(T)で示されている。また、青色の波長帯域(第3の色の波長帯域)の光の像のサジタル像面の位置はB(S)、タンジェンシャル像面の位置はB(T)で示されている。 In FIG. 4, the horizontal axis indicates the position of the image plane, and the vertical axis indicates the image height. The position of the light image of the green wavelength band (first color wavelength band) on the sagittal image plane is indicated by G(S), and the position on the tangential image plane is indicated by G(T). The position of the sagittal image plane of the light image of the red wavelength band (second color wavelength band) is indicated by R(S), and the position of the tangential image plane is indicated by R(T). Also, the position of the sagittal image plane of the light image of the blue wavelength band (the wavelength band of the third color) is indicated by B(S), and the position of the tangential image plane is indicated by B(T).

図4に示すように、像高が0の光軸L上では、緑色の波長帯域の光の像(符号Gで示す)を中心として、赤色の波長帯域の光の像(符号Rで示す)及び青色の波長帯域の光の像(符号Bで示す)の像面の位置は異なる。また、像高が高くなるのにしたがって、サジタル像面とタンジェンシャル像面とで異なる位置で結像するようになる。以下で説明する色収差補正情報は、像高、サジタル像面、及びタンジェンシャル像面での各色の波長帯域の光の像面の位置に関する情報を有する。 As shown in FIG. 4, on the optical axis L where the image height is 0, the image of the light in the red wavelength band (indicated by R) is centered on the image of the light in the green wavelength band (indicated by G). and the positions of the image planes of the light images of the blue wavelength band (indicated by symbol B) are different. Further, as the image height increases, images are formed at different positions on the sagittal image plane and the tangential image plane. The chromatic aberration correction information described below has information about the positions of the image planes of the light of the wavelength bands of each color on the image height, the sagittal image plane, and the tangential image plane.

図5は、レンズ側メモリ8に記憶されている色収差補正情報の一例に関して説明する図である。 FIG. 5 is a diagram illustrating an example of chromatic aberration correction information stored in the lens side memory 8. As shown in FIG.

色収差補正情報は、例えば、ズームレンズの位置に応じて0~10段階、絞りの開口の大きさに応じて0~10段階、焦点距離に応じて0~10段階、像高に応じて0~10段階に分かれてサジタル像面の位置及びタンジェンシャル像面の位置が、緑色の波長帯域の光の像、赤色の波長帯域の光の像、青色の波長帯域の光の像に関して示されている。 Chromatic aberration correction information is, for example, 0 to 10 steps depending on the position of the zoom lens, 0 to 10 steps depending on the aperture size of the diaphragm, 0 to 10 steps depending on the focal length, and 0 to 10 steps depending on the image height. The position of the sagittal image plane and the position of the tangential image plane are divided into 10 levels and are shown with respect to the image of light in the green wavelength band, the image of light in the red wavelength band, and the image of light in the blue wavelength band. .

例えば、ズーム10、絞り10、焦点距離10、像高0のサジタル像面の像面位置は、赤色の波長帯域の光の像ではα0(R)、緑色の波長帯域の光の像ではα0(G)、青色の波長帯域の光の像ではα0(B)である。また、例えば、ズーム10、絞り10、焦点距離10のタンジェンシャル像面の像面位置は、赤色の波長帯域の光の像ではβ0(R)、緑色の波長帯域の光の像ではβ0(G)、青色の波長帯域の光の像ではβ0(B)である。ここで、像高0の場合には、サジタル像面とタンジェンシャル像面とは等しくなるので、α0(G)、β0(G)を基準として、α0(R)=β0(R)、α0(G)=β0(G)、α0(B)=β0(B)である。なお、図5では、ズーム10、絞り10、焦点距離10における像高0~10の像面位置に関して示しており、色収差補正情報における他の情報は省略されている。 For example, the image plane position of the sagittal image plane with a zoom of 10, an aperture of 10, a focal length of 10, and an image height of 0 is α0(R) for the image of light in the red wavelength band, and α0(R) for the image of light in the green wavelength band. G), and α0(B) for the image of light in the blue wavelength band. Further, for example, the image plane position of the tangential image plane with a zoom of 10, an aperture of 10, and a focal length of 10 is β0(R) for the image of light in the red wavelength band, and β0(G ), and β0(B) in the image of light in the blue wavelength band. Here, when the image height is 0, the sagittal image plane and the tangential image plane are equal, so α0(R)=β0(R), α0( G)=β0(G), α0(B)=β0(B). Note that FIG. 5 shows image plane positions at image heights 0 to 10 at zoom 10, diaphragm 10, and focal length 10, and other information in the chromatic aberration correction information is omitted.

撮像位置決定部40D(図2参照)は、色収差補正情報読出部40Cが読み出した色収差補正情報に基づいて、撮像位置を決定する。詳細には、撮像位置決定部40Dは、エリアコントラスト比と読み出された色収差補正情報とに基づいて撮像位置を決定する。例えば、色収差補正情報読出部40Cから像高に応じた像面位置が読み出され、撮像位置決定部40Dは、エリアコントラスト比に基づいて、サジタル像面の位置とタンジェンシャル像面の位置との加重平均を行った位置を撮像位置とする。このようにして、撮像位置決定部40Dは、緑色の波長帯域の光の像の撮像位置(第1のレンズ位置)、赤色の波長帯域の光の像の撮像位置(第2のレンズ位置)、及び青色の波長帯域の光の像の撮像位置(第3のレンズ位置)の各々を決定する。なお、緑色の波長帯域の光の像の撮像位置では、G画素(緑色の画素)用の撮影画像(第1の撮影画像)が取得され、赤色の波長帯域の光の像の撮像位置では、R画素(赤色の画素)用の撮影画像(第2の撮影画像)が取得され、青色の波長帯域の光の像の撮像位置では、B画素(青色の画素)用の撮影画像(第3の撮影画像)が取得される。 The imaging position determining section 40D (see FIG. 2) determines the imaging position based on the chromatic aberration correction information read by the chromatic aberration correction information reading section 40C. Specifically, the imaging position determination unit 40D determines the imaging position based on the area contrast ratio and the read chromatic aberration correction information. For example, the image plane position corresponding to the image height is read from the chromatic aberration correction information reading unit 40C, and the imaging position determination unit 40D determines the position of the sagittal image plane and the position of the tangential image plane based on the area contrast ratio. Let the position where the weighted average is performed be the imaging position. In this way, the imaging position determination unit 40D determines the imaging position of the light image in the green wavelength band (first lens position), the imaging position of the light image in the red wavelength band (second lens position), and blue wavelength band light image imaging positions (third lens positions). Note that a photographed image (first photographed image) for G pixels (green pixels) is acquired at the imaging position of the light image in the green wavelength band, and at the imaging position of the light image in the red wavelength band, A captured image (second captured image) for R pixels (red pixels) is acquired, and a captured image (third captured image) for B pixels (blue pixels) is obtained at the imaging position of the light image in the blue wavelength band. captured image) is acquired.

以下に、撮像位置決定部40Dにより行われる撮像位置の決定の具体例に関して説明する。 A specific example of determination of the imaging position performed by the imaging position determination unit 40D will be described below.

(具体例1)
本例ではコントラスト情報取得部40Bは、補正対象エリアのエリアコントラスト比を2:3(サジタル方向:タンジェンシャル方向)と取得する。また、色収差補正情報読出部40Cは、色収差補正情報のうち像高10のサジタル像面とタンジェンシャル像面の像面位置(α10(R)、α10(G)、α10(B)、β10(R)、β10(G)、β10(B))(図5参照)を読み出す。このような場合には、以下の式1~3に基づいて、G画素用の撮影画像を取得する撮像位置X1、R画素用の撮影画像を取得する撮像位置X2、B画素用の撮影画像を取得する撮像位置X3が決定される。
(Specific example 1)
In this example, the contrast information acquisition unit 40B acquires the area contrast ratio of the correction target area as 2:3 (sagittal direction: tangential direction). Further, the chromatic aberration correction information reading unit 40C reads the image plane positions (α10(R), α10(G), α10(B), β10(R ), β10(G), β10(B)) (see FIG. 5). In such a case, based on the following equations 1 to 3, the imaging position X1 for acquiring the captured image for G pixels, the imaging position X2 for acquiring the captured image for R pixels, and the captured image for B pixels are determined. An imaging position X3 to be acquired is determined.

X1=(α10(G)×2+β10(G)×3)/5・・・(式1)
X2=(α10(R)×2+β10(R)×3)/5・・・(式2)
X3=(α10(B)×2+β10(B)×3)/5・・・(式3)
ここで、撮像位置とは、レンズ群18の位置と撮像素子16との相対的な位置関係のことをいい、本実施形態においてはレンズ群18を移動させることにより撮像位置が変更される。
X1=(α10(G)×2+β10(G)×3)/5 (Formula 1)
X2=(α10(R)×2+β10(R)×3)/5 (Formula 2)
X3=(α10(B)×2+β10(B)×3)/5 (Formula 3)
Here, the imaging position refers to the relative positional relationship between the position of the lens group 18 and the imaging element 16, and in the present embodiment, the imaging position is changed by moving the lens group 18. FIG.

(具体例2)
本例では、AF制御やMF(Manual Focus)制御などによりG画素用の撮影画像を取得する撮像位置X1を決定する。この場合、G画素用の撮影画像を取得する撮像位置X1=0とし、R画素用の撮影画像を取得する撮像位置X2、B画素用の撮影画像を取得する撮像位置X3は、α10(G)、β10(G)との差分を算出し以下の式1a~3aに基づいて決定される。なお、補正対象エリアのエリアコントラスト比(2:3(サジタル方向:タンジェンシャル方向)、色収差補正情報読出部40Cが読み出す像高10のサジタル像面とタンジェンシャル像面の像面位置は上記具体例1と同じである。
(Specific example 2)
In this example, an imaging position X1 for obtaining a captured image for G pixels is determined by AF control, MF (Manual Focus) control, or the like. In this case, the imaging position X1 for acquiring the captured image for G pixels is set to 0, the imaging position X2 for acquiring the captured image for R pixels, and the imaging position X3 for acquiring the captured image for B pixels are α10(G). , β10(G), and determined based on the following equations 1a to 3a. Note that the area contrast ratio of the correction target area (2:3 (sagittal direction: tangential direction), and the image plane positions of the sagittal image plane and the tangential image plane at an image height of 10 read by the chromatic aberration correction information reading unit 40C are Same as 1.

X1=0・・・(式1a)
X2=((α10(R)-α10(G))×2+(β10(R)-β10(G))×3)/5・・・(式2a)
X3=((α10(B)-α10(G))×2+(β10(B)-β10(G))×3)/5・・・(式3a)
駆動装置制御部40E(図2参照)は、撮像位置決定部40Dで決定された撮像位置にレンズ駆動装置20を介してレンズ群18を移動させる。駆動装置制御部40Eは、例えば、G画素用の撮影画像を撮影する撮影位置、R画素用の撮影画像を撮影する撮影位置、及びB画素用の撮影画像を撮影する撮影位置に順にレンズ群18を移動させる。
X1=0 (formula 1a)
X2=((α10(R)-α10(G))×2+(β10(R)-β10(G))×3)/5 (Formula 2a)
X3=((α10(B)-α10(G))×2+(β10(B)-β10(G))×3)/5 (Formula 3a)
The driving device control section 40E (see FIG. 2) moves the lens group 18 via the lens driving device 20 to the imaging position determined by the imaging position determining section 40D. The driving device control unit 40E, for example, sequentially shifts the lens group 18 to a photographing position for photographing a photographed image for G pixels, a photographing position for photographing a photographed image for R pixels, and a photographing position for photographing a photographed image for B pixels. to move.

画像取得部40Fは、駆動装置制御部40Eがレンズ群18を撮像位置に移動させた後に、撮像素子16に撮影画像の取得を行わせる。例えば、画像取得部40Fは、レンズ群18がG画素用の撮影画像の撮像位置に移動が完了した後に、撮像素子16にG画素用の撮影画像を取得させる。また例えば、画像取得部40Fは、レンズ群18がR画素用の撮影画像の撮像位置に移動が完了した後に、撮像素子16にR画素用の撮影画像を取得させる。また例えば、画像取得部40Fは、レンズ群18がB画素用の撮影画像の撮像位置に移動が完了した後に、撮像素子16にB画素用の撮影画像を取得させる。 The image acquisition unit 40F causes the image pickup device 16 to acquire a captured image after the driving device control unit 40E moves the lens group 18 to the image pickup position. For example, the image acquisition unit 40F causes the image pickup element 16 to acquire the captured image for the G pixels after the lens group 18 has completed the movement to the imaging position for the captured image for the G pixels. Further, for example, the image acquisition unit 40F causes the image pickup device 16 to acquire the captured image for the R pixel after the lens group 18 has completed the movement to the imaging position for the captured image for the R pixel. Further, for example, the image acquisition unit 40F causes the image pickup device 16 to acquire the captured image for the B pixels after the lens group 18 has completed the movement to the imaging position of the captured image for the B pixels.

図6は、レンズ群18の移動と各波長帯域の撮影画像の取得に関して説明する図である。 FIG. 6 is a diagram for explaining the movement of the lens group 18 and acquisition of captured images in each wavelength band.

図6(A)は、G画素用の撮影画像の取得に関して説明する図である。駆動装置制御部40Eは、レンズ群18を緑色の波長帯域の光の像の撮像位置(G画素用の撮影画像の撮像位置)に移動させる。その後、画像取得部40Fは、G画素用の撮影画像110を取得させる。 FIG. 6A is a diagram illustrating acquisition of a photographed image for G pixels. The driving device control unit 40E moves the lens group 18 to the imaging position of the image of the light in the green wavelength band (the imaging position of the captured image for the G pixels). After that, the image acquiring unit 40F acquires the photographed image 110 for G pixels.

図6(B)は、R画素用の撮影画像の取得に関して説明する図である。駆動装置制御部40Eは、レンズ群18を赤色の波長帯域の光の像の撮像位置(R画素用の撮影画像の撮像位置)に移動させる。その後、画像取得部40Fは、R画素用の撮影画像112を取得させる。 FIG. 6B is a diagram illustrating acquisition of a photographed image for R pixels. The driving device control unit 40E moves the lens group 18 to the imaging position of the light image of the red wavelength band (the imaging position of the captured image for the R pixel). After that, the image acquiring unit 40F acquires the photographed image 112 for R pixels.

図6(C)は、B画素用の撮影画像の取得に関して説明する図である。駆動装置制御部40Eは、レンズ群18を青色の波長帯域の光の像の撮像位置(B画素用の撮影画像の撮像位置)に移動させる。その後、画像取得部40Fは、B画素用の撮影画像114を取得させる。 FIG. 6C is a diagram illustrating acquisition of a photographed image for B pixels. The driving device control unit 40E moves the lens group 18 to the imaging position of the image of the light in the blue wavelength band (the imaging position of the captured image for the B pixels). After that, the image acquiring unit 40F acquires the photographed image 114 for B pixels.

画像取得部40Fは、得られたG画素用の撮影画像110のG画素、R画素用の撮影画像112のR画素、及びB画素用の撮影画像114のB画素を用いて、1枚の多色モザイク画像(別撮影画像)を生成する。そして、画像取得部40Fは、画像処理部24に多色モザイク画像をデモザイク処理させることにより、完成合成画像を取得する。 The image acquisition unit 40F uses the obtained G pixels of the captured image 110 for G pixels, the R pixels of the captured image 112 for R pixels, and the B pixels of the captured image 114 for B pixels to obtain one multi-pixel image. Generate a color mosaic image (another captured image). Then, the image acquisition unit 40F acquires a completed composite image by causing the image processing unit 24 to perform demosaic processing on the multicolor mosaic image.

図7は、多色モザイク画像から完成合成画像の生成に関して説明する図である。 FIG. 7 is a diagram illustrating generation of a completed composite image from a multicolor mosaic image.

多色モザイク画像116は、G画素用の撮影画像110のG画素(図中では「1」と記載)、R画素用の撮影画像112のR画素(図中では「2」と記載)、B画素用の撮影画像114のB画素(図中では「3」と記載)で構成されている。なお、本例では撮像素子16に配置されるカラーフィルタがベイヤ配列で配列されている場合である。そして、画像取得部40Fは、多色モザイク画像を画像処理部24によりデモザイク化して完成合成画像118を取得する。このようにして得られた完成合成画像118は、補正対象エリアのコントラスト比に沿って、軸上色収差の補正が行われた画像である。 The multicolor mosaic image 116 includes G pixels of the captured image 110 for G pixels (indicated as “1” in the figure), R pixels of the captured image 112 for R pixels (indicated as “2” in the figure), B It is composed of B pixels (denoted as “3” in the figure) of the captured image 114 for pixels. In this example, the color filters arranged in the imaging device 16 are arranged in a Bayer array. Then, the image acquisition unit 40</b>F demosaicizes the multicolor mosaic image by the image processing unit 24 to acquire the completed composite image 118 . The completed composite image 118 obtained in this manner is an image in which axial chromatic aberration has been corrected along the contrast ratio of the correction target area.

図8は、撮像装置10を使用した撮像方法を示すフローチャートである。なお、本撮像方法は、プロセッサ40がフラッシュメモリ47に記憶されているプログラムを実行することにより、各ステップが実行される。 FIG. 8 is a flow chart showing an imaging method using the imaging device 10. As shown in FIG. In this imaging method, each step is executed by the processor 40 executing a program stored in the flash memory 47 .

先ず、補正対象エリア取得部40Aは、補正対象エリアを取得する(ステップS100)。例えば、補正対象エリア取得部40Aは、撮像装置10で行われる顔検出処理により被写体の顔が写った位置であり顔検出処理で検出されたエリアを補正対象エリアとして取得する。なお、本例では補正対象エリアにおける検出された顔に焦点が自動で合わせられている(オートフォーカスされる)。次に、コントラスト情報取得部40Bは、補正対象エリアにおける、サジタル方向のコントラスト及びタンジェンシャル方向のコントラストを算出する(ステップS101)。その後、コントラスト情報取得部40Bは、サジタル方向のコントラストと、タンジェンシャル方向のコントラストとの比であるエリアコントラスト比を取得する(ステップS102)。 First, the correction target area acquisition unit 40A acquires a correction target area (step S100). For example, the correction target area acquiring unit 40A acquires the area detected by the face detection process, which is the position where the subject's face is captured by the face detection process performed by the imaging device 10, as the correction target area. In this example, the face detected in the correction target area is automatically focused (autofocused). Next, the contrast information acquisition unit 40B calculates the contrast in the sagittal direction and the contrast in the tangential direction in the correction target area (step S101). After that, the contrast information acquiring unit 40B acquires an area contrast ratio, which is the ratio of the contrast in the sagittal direction and the contrast in the tangential direction (step S102).

その後、色収差補正情報読出部40Cは、像高に応じたサジタル像面とタンジェンシャル像面の像面位置を色収差補正情報としてレンズ側メモリ8から読み出す。そして、撮像位置決定部40Dは、エリアコントラスト比と取得した色収差補正情報(サジタル像面とタンジェンシャル像面の位置)に基づいて、G画素用の撮影画像の撮像位置、R画素用の撮影画像の撮像位置、B画素用の撮影画像の撮像位置を決定する(ステップS103)。具体的には撮像位置決定部40Dは、エリアコントラスト比で重みづけを行い、サジタル像面とタンジェンシャル像面との像面位置を加重平均した位置を撮影位置として決定する。 Thereafter, the chromatic aberration correction information reading unit 40C reads the image plane positions of the sagittal image plane and the tangential image plane according to the image height from the lens side memory 8 as chromatic aberration correction information. Then, based on the area contrast ratio and the acquired chromatic aberration correction information (the positions of the sagittal image plane and the tangential image plane), the imaging position determining unit 40D determines the imaging position of the captured image for G pixels, the captured image for R pixels, and so on. and the imaging position of the captured image for B pixels are determined (step S103). Specifically, the imaging position determination unit 40D performs weighting by the area contrast ratio, and determines a position obtained by weighted averaging the image plane positions of the sagittal image plane and the tangential image plane as the imaging position.

その後、駆動装置制御部40Eは、撮像位置決定部40Dで決定された各撮像位置に、撮像光学系12のレンズ群18を移動させる。先ず、駆動装置制御部40Eは、G画素用の撮影画像の撮像位置にレンズ群18を移動させる(ステップS104)。その後、画像取得部40Fは、撮像装置10に撮影を実行させ、G画素用の撮影画像を撮影する(ステップS105)。その後、駆動装置制御部40Eは、R画素用の撮影画像の撮像位置にレンズ群18を移動させる(ステップS106)。その後、画像取得部40Fは、撮像装置10に撮影を実行させ、R画素用の撮影画像を撮影させる(ステップS107)。その後、駆動装置制御部40Eは、B画素用の撮影画像の撮像位置にレンズ群18を移動させる(ステップS108)。その後、画像取得部40Fは、撮像装置10に撮影を実行させ、B画素用の撮影画像を撮影させる(ステップS109)。なお、この場合、G画素用の撮影画像、R画素用の撮影画像、B画素用の撮影画像はRAWデータで構成される。 After that, the driving device control section 40E moves the lens group 18 of the imaging optical system 12 to each imaging position determined by the imaging position determining section 40D. First, the driving device control unit 40E moves the lens group 18 to the imaging position of the captured image for G pixels (step S104). After that, the image acquisition unit 40F causes the image capturing device 10 to perform image capturing, and captures a captured image for G pixels (step S105). After that, the driving device control unit 40E moves the lens group 18 to the imaging position of the captured image for the R pixel (step S106). After that, the image acquisition unit 40F causes the image capturing device 10 to perform image capturing to capture a captured image for R pixels (step S107). After that, the driving device control unit 40E moves the lens group 18 to the imaging position of the captured image for the B pixels (step S108). After that, the image acquisition unit 40F causes the image capturing device 10 to perform image capturing and capture a captured image for B pixels (step S109). Note that in this case, the captured image for G pixels, the captured image for R pixels, and the captured image for B pixels are composed of RAW data.

その後、画像取得部40Fは、G画素用の撮影画像のG画素、R画素用の撮影画像のR画素、及びB画素用の撮影画像のB画素を用いて、1枚の多色モザイク画像を生成する(ステップS110)。その後、画像取得部40Fは、画像処理部24に多色モザイク画像をデモザイク処理させることにより、完成合成画像118を取得する(ステップS111)。 After that, the image acquisition unit 40F uses the G pixels of the captured image for the G pixels, the R pixels of the captured image for the R pixels, and the B pixels of the captured image for the B pixels to obtain one multicolor mosaic image. Generate (step S110). After that, the image acquisition unit 40F acquires the completed composite image 118 by causing the image processing unit 24 to perform demosaic processing on the multicolor mosaic image (step S111).

なお、上述した例では、補正対象エリアとして取得される顔検出処理で検出されたエリアに、自動で焦点が合わされる例に関して説明したが、本発明はこれに限定されるものではない。G画素用の撮影画像、R画素用の撮影画像、及びB画素用の撮影画像を取得する際の焦点は、自動又は手動により様々な形態で合わせることが可能である。 In the above example, the area detected by the face detection process acquired as the correction target area is automatically focused, but the present invention is not limited to this. The focus when acquiring the captured image for G pixels, the captured image for R pixels, and the captured image for B pixels can be adjusted automatically or manually in various forms.

以上で説明したように、本実施形態では、G画素用の撮影画像、R画素用の撮影画像、及びB画素用の撮影画像の撮像位置が、補正対象エリアのサジタル方向のコントラストとタンジェンシャル方向のコントラストの比であるエリアコントラスト比に基づいて決定される。そして、得られたG画素用の撮影画像、R画素用の撮影画像、B画素用の撮影画像を使用して、多色モザイク画像が生成され、多色モザイク画像がデモザイク処理されて完成合成画像が生成される。これにより、本実施形態は、撮影画像に応じて適切に軸上色収差が抑制された完成合成画像を取得することができる。 As described above, in the present embodiment, the imaging positions of the captured image for G pixels, the captured image for R pixels, and the captured image for B pixels are determined by the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area. is determined based on the area contrast ratio, which is the ratio of the contrast of Then, a multicolor mosaic image is generated using the obtained captured image for G pixels, captured image for R pixels, and captured image for B pixels, and the multicolor mosaic image is demosaiced to complete a combined image. is generated. As a result, the present embodiment can obtain a complete composite image in which axial chromatic aberration is appropriately suppressed according to the captured image.

<第2の実施形態>
次に、第2の実施形態に関して説明する。
<Second embodiment>
Next, a second embodiment will be described.

図9は、本実施形態のプロセッサ40が実現する機能を示す機能ブロック図である。 FIG. 9 is a functional block diagram showing functions realized by the processor 40 of this embodiment.

本実施形態のプロセッサ40は、補正対象エリア取得部40A、コントラストAF制御部40G、撮像位置決定部40D、駆動装置制御部40E、及び画像取得部40Fの機能を実現する。なお、図2で既に説明を行った箇所は同じ符号を付し説明は省略する。 The processor 40 of the present embodiment implements the functions of a correction target area acquisition section 40A, a contrast AF control section 40G, an imaging position determination section 40D, a driving device control section 40E, and an image acquisition section 40F. 2 are assigned the same reference numerals, and the description thereof will be omitted.

コントラストAF制御部40Gは、撮像装置10に補正対象エリアにおけるコントラストオートフォーカス方式でのAFを実行させる。そして、コントラストAF制御部40Gは、補正対象エリアにおけるコントラスト情報を取得する。具体的には、コントラストAF制御部40Gは、駆動装置によりレンズ群18を無限遠から至近距離まで走査し、補正対象エリアのサジタル方向のコントラスト及びタンジェンシャル方向のコントラストの測定をし、コントラスト情報を取得する。 The contrast AF control unit 40G causes the imaging device 10 to perform AF in the correction target area by the contrast autofocus method. Then, the contrast AF control section 40G acquires contrast information in the correction target area. Specifically, the contrast AF control unit 40G scans the lens group 18 from infinity to a close distance by the driving device, measures the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area, and obtains the contrast information. do.

図10は、コントラストAF制御部40Gの制御で行われるコントラスト情報の取得に関して説明する図である。 FIG. 10 is a diagram for explaining acquisition of contrast information performed under the control of the contrast AF control section 40G.

図10では、縦軸にコントラスト、横軸にレンズ群18の位置が示されている。また、図10には、レンズ群18を無限遠から至近距離に走査させることにより得られた、補正対象エリアにおけるサジタル方向のコントラストとタンジェンシャル方向のコントラストが示されている。詳細には、緑色の波長帯域の光の像のサジタル方向のコントラストは線122Aで示されおり、緑色の波長帯域の光の像のタンジェンシャル方向のコントラストは点線122Bで示されている。赤色の波長帯域の光の像のサジタル方向のコントラストは線120Aで示されおり、赤色の波長帯域の光の像のタンジェンシャル方向のコントラストは点線120Bで示されている。青色の波長帯域の光の像のサジタル方向のコントラストは線124Aで示されおり、青色の波長帯域の光の像のタンジェンシャル方向のコントラストは点線124Bで示されている。また、図10には、各色のコントラストのピーク位置が示されている。詳細には、緑色の波長帯域の光の像のサジタル方向のコントラスト(線122A)のピーク位置は(P1(S)、L1(S))であり、緑色の波長帯域の光の像のタンジェンシャル方向のコントラスト(点線122B)のピーク位置は(P1(T)、L1(T))である。また、赤色の波長帯域の光の像のサジタル方向のコントラスト(線120A)のピーク位置は(P2(S)、L2(S))であり、赤色の波長帯域の光の像のタンジェンシャル方向のコントラスト(点線120B)のピーク位置は(P2(T)、L2(T))で示されている。また、青色の波長帯域の光の像のサジタル方向のコントラスト(線124A)のピーク位置は(P3(S)、L3(S))であり、青色の波長帯域の光の像のタンジェンシャル方向のコントラスト(点線124B)のピーク位置は(P3(T)、L3(T))で示されている。 In FIG. 10 , the vertical axis indicates the contrast, and the horizontal axis indicates the position of the lens group 18 . FIG. 10 also shows the contrast in the sagittal direction and the contrast in the tangential direction in the area to be corrected, obtained by scanning the lens group 18 from infinity to close range. Specifically, the sagittal contrast of the green wavelength band light image is indicated by line 122A, and the tangential contrast of the green wavelength band light image is indicated by dashed line 122B. The sagittal contrast of the red wavelength band light image is indicated by line 120A, and the tangential contrast of the red wavelength band light image is indicated by dashed line 120B. The sagittal contrast of the image of light in the blue wavelength band is indicated by line 124A, and the tangential contrast of the image of light in the blue wavelength band is indicated by dashed line 124B. FIG. 10 also shows the contrast peak position of each color. Specifically, the peak position of the contrast (line 122A) in the sagittal direction of the image of the light in the green wavelength band is (P1(S), L1(S)), and the tangential direction of the image of the light in the green wavelength band is The peak position of the directional contrast (dotted line 122B) is (P1(T), L1(T)). Also, the peak position of the contrast (line 120A) in the sagittal direction of the light image of the red wavelength band is (P2(S), L2(S)), and the tangential direction of the light image of the red wavelength band is The peak position of the contrast (dotted line 120B) is indicated by (P2(T), L2(T)). Also, the peak position of the contrast (line 124A) in the sagittal direction of the image of the light in the blue wavelength band is (P3(S), L3(S)), and the tangential direction of the image of the light in the blue wavelength band is The peak position of the contrast (dotted line 124B) is indicated by (P3(T), L3(T)).

図10に示すように、コントラストAF制御部40Gは、レンズ群18を走査させることにより、レンズ群18の位置毎の各色のコントラストを取得し、コントラストのピーク位置を取得する。 As shown in FIG. 10, the contrast AF control unit 40G scans the lens group 18 to obtain the contrast of each color for each position of the lens group 18, and obtains the contrast peak position.

そして、コントラストAF制御部40Gは、コントラストのピーク位置からサジタル方向のコントラストとタンジェンシャル方向のコントラストとの比であるエリアコントラスト比を取得する。具体的には、図10に示した場合では、緑色の波長帯域のエリアコントラスト比(サジタル方向:タンジェンシャル方向)は、L1(S):L1(T)となり、赤色の波長帯域のエリアコントラスト比(サジタル方向:タンジェンシャル方向)は、L2(S):L2(T)となり、青色の波長帯域のエリアコントラスト比(サジタル方向:タンジェンシャル方向)は、L3(S):L3(T)となる。このように、本実施形態においては、緑色の波長帯域のエリアコントラスト比、赤色の波長帯域のエリアコントラスト比、青色の波長帯域のエリアコントラスト比が取得される。 Then, the contrast AF control unit 40G acquires an area contrast ratio, which is the ratio of the contrast in the sagittal direction and the contrast in the tangential direction, from the contrast peak position. Specifically, in the case shown in FIG. 10, the area contrast ratio (sagittal direction: tangential direction) of the green wavelength band is L1(S):L1(T), and the area contrast ratio of the red wavelength band is (sagittal direction: tangential direction) becomes L2(S):L2(T), and the area contrast ratio (sagittal direction: tangential direction) of the blue wavelength band becomes L3(S):L3(T). . Thus, in this embodiment, the area contrast ratio for the green wavelength band, the area contrast ratio for the red wavelength band, and the area contrast ratio for the blue wavelength band are obtained.

撮像位置決定部40Dは、コントラストAF制御部40Gで取得された各色の波長帯域のピーク位置(レンズ群18の位置)、及び各色の波長帯域のエリアコントラスト比に基づいて、G画素用の撮影画像、R画素用の撮影画像、及びB画素用の撮影画像の撮像位置を加重平均することにより決定する。 The imaging position determination unit 40D determines the captured image for the G pixel based on the peak position (position of the lens group 18) of the wavelength band of each color acquired by the contrast AF control unit 40G and the area contrast ratio of the wavelength band of each color. , the imaging positions of the captured image for R pixels and the captured image for B pixels are weighted and averaged.

撮像位置決定部40Dは、例えば、G画素用の撮影画像の撮像位置Y1、R画素用の撮影画像の撮像位置Y2、B画素用の撮影画像の撮像位置Y3を以下の式(4)~(6)で決定することができる。 The imaging position determination unit 40D, for example, determines the imaging position Y1 of the captured image for G pixels, the imaging position Y2 of the captured image for R pixels, and the imaging position Y3 of the captured image for B pixels according to the following equations (4) to ( 6) can be determined.

Y1=(P1(S)×L1(S)+P1(T)×L1(T))/(L1(S)+L1(T))・・・(式4)
Y2=(P2(S)×L2(S)+P2(T)×L2(T))/(L2(S)+L2(T))・・・(式5)
Y3=(P3(S)×L3(S)+P3(T)×L3(T))/(L3(S)+L3(T))・・・(式6)
図11は、本実施形態の撮像装置10を使用した撮像方法を示すフローチャートである。なお、本撮像方法は、プロセッサ40がフラッシュメモリ47に記憶されているプログラムを実行することにより、各ステップが実行される。
Y1=(P1(S)×L1(S)+P1(T)×L1(T))/(L1(S)+L1(T)) (Formula 4)
Y2=(P2(S)×L2(S)+P2(T)×L2(T))/(L2(S)+L2(T)) (Formula 5)
Y3=(P3(S)×L3(S)+P3(T)×L3(T))/(L3(S)+L3(T)) (Formula 6)
FIG. 11 is a flow chart showing an imaging method using the imaging apparatus 10 of this embodiment. In this imaging method, each step is executed by the processor 40 executing a program stored in the flash memory 47 .

先ず、補正対象エリア取得部40Aは、補正対象エリアを取得する(ステップS200)。例えば、補正対象エリア取得部40Aは、顔検出処理により被写体の顔が写った位置であり顔検出処理で検出されたエリアを補正対象エリアとして取得する。次に、コントラストAF制御部40Gは、駆動装置でレンズ群18を走査させて、補正対象エリアにおけるコントラストAFを実行する(ステップS201)。コントラストAF制御部40G、補正対象エリアにおけるコントラストAFを実行することにより、レンズ群18の位置ごとのサジタル方向及びタンジェンシャル方向でのコントラストを算出する(ステップS202)。その後、補正対象エリア取得部40Aは、サジタル方向のコントラスト及びタンジェンシャル方向のコントラストの比であるエリアコントラスト比を取得する(ステップS203)。 First, the correction target area acquiring unit 40A acquires a correction target area (step S200). For example, the correction target area acquiring unit 40A acquires the area detected by the face detection process, which is the position where the face of the subject is captured by the face detection process, as the correction target area. Next, the contrast AF control unit 40G causes the driving device to scan the lens group 18 to perform contrast AF in the correction target area (step S201). The contrast AF control unit 40G executes contrast AF in the correction target area to calculate the contrast in the sagittal direction and the tangential direction for each position of the lens group 18 (step S202). After that, the correction target area acquisition unit 40A acquires an area contrast ratio, which is the ratio of the contrast in the sagittal direction and the contrast in the tangential direction (step S203).

次に、撮像位置決定部40Dは、エリアコントラスト比に基づいて重み付けを行った平均(加重平均)から撮像位置を決定する(ステップS204)。具体的には、撮像位置決定部40Dは、各色の波長帯域のコントラストのピーク位置に基づいて、G画素用の撮影画像の撮像位置、R画素用の撮影画像の撮像位置、B画素用の撮影画像の撮像位置を加重平均することにより決定する。 Next, the imaging position determination unit 40D determines the imaging position from the average (weighted average) weighted based on the area contrast ratio (step S204). Specifically, the imaging position determining unit 40D determines the imaging position of the captured image for the G pixels, the imaging position of the captured image for the R pixels, the imaging position of the captured image for the B pixels, and the It is determined by weighted averaging the imaging position of the image.

その後、駆動装置制御部40Eは、撮像位置決定部40Dで決定された各撮像位置に、撮像光学系12のレンズ群18を移動させる。先ず、駆動装置制御部40Eは、G画素用の撮影画像の撮像位置にレンズ群18を移動させる(ステップS205)。その後、画像取得部40Fは、撮影を実行させ、G画素用の撮影画像を撮影する(ステップS206)。その後、駆動装置制御部40Eは、R画素用の撮影画像の撮像位置にレンズ群18を移動させる(ステップS207)。その後、画像取得部40Fは、撮影を実行させ、R画素用の撮影画像を撮影させる(ステップS208)。駆動装置制御部40Eは、B画素用の撮像位置にレンズ群18を移動させる(ステップS209)。その後、画像取得部40Fは、撮影を実行させ、B画素用の撮影画像を撮影させる(ステップS210)。 After that, the driving device control section 40E moves the lens group 18 of the imaging optical system 12 to each imaging position determined by the imaging position determination section 40D. First, the drive device control unit 40E moves the lens group 18 to the imaging position of the captured image for G pixels (step S205). After that, the image acquisition unit 40F executes shooting and shoots a shot image for G pixels (step S206). After that, the driving device control unit 40E moves the lens group 18 to the imaging position of the captured image for the R pixel (step S207). After that, the image acquisition unit 40F executes image capturing and captures a captured image for R pixels (step S208). The driving device control unit 40E moves the lens group 18 to the imaging position for the B pixel (step S209). After that, the image acquisition unit 40F executes image capturing to capture a captured image for B pixels (step S210).

次に、画像取得部40Fは、G画素用の撮影画像のG画素、R画素用の撮影画像のR画素、及びB画素用の撮影画像のB画素を用いて、1枚の多色モザイク画像を生成する(ステップS211)。その後、画像取得部40Fは、多色モザイク画像をデモザイク処理することにより、合成画像を取得する(ステップS212)。 Next, the image acquisition unit 40F creates one multicolor mosaic image using the G pixels of the captured image for G pixels, the R pixels of the captured image for R pixels, and the B pixels of the captured image for B pixels. is generated (step S211). After that, the image acquiring unit 40F acquires a composite image by demosaicing the multicolor mosaic image (step S212).

以上で説明したように、本実施形態では、G画素用の撮影画像、R画素用の撮影画像、及びB画素用の撮影画像の撮像位置を、補正対象エリアのサジタル方向のコントラストとタンジェンシャル方向のコントラストの比であるエリアコントラスト比に基づいて決定される。そして、得られたG画素用の撮影画像、R画素用の撮影画像、B画素用の撮影画像を使用して、多色モザイク画像が生成され、多色モザイク画像がデモザイク処理されて完成合成画像が生成される。これにより、本実施形態は、撮影画像に応じて適切に軸上色収差が抑制された完成合成画像を取得することができる。また、本実施形態では、第1の実施形態で説明した色収差補正情報をレンズ側メモリ8に記憶していない撮像光学系12を使用する場合であっても、軸上色収差が抑制された完成合成画像を取得することができる。 As described above, in the present embodiment, the imaging positions of the captured image for G pixels, the captured image for R pixels, and the captured image for B pixels are determined by the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area. is determined based on the area contrast ratio, which is the ratio of the contrast of Then, a multicolor mosaic image is generated using the obtained captured image for G pixels, captured image for R pixels, and captured image for B pixels, and the multicolor mosaic image is demosaiced to complete a combined image. is generated. As a result, the present embodiment can obtain a complete composite image in which axial chromatic aberration is appropriately suppressed according to the captured image. Further, in the present embodiment, even when using the imaging optical system 12 in which the chromatic aberration correction information described in the first embodiment is not stored in the lens-side memory 8, a complete composition in which longitudinal chromatic aberration is suppressed is obtained. Images can be acquired.

<補正対象エリアの例>
次に、補正対象エリアの具体例を説明する。補正対象エリア取得部40Aは、様々な態様で補正対象エリアの取得を行うことができる。以下に、補正対象エリア取得部40Aの補正対象エリアの取得の具体例に関して説明する。
<Example of correction target area>
Next, a specific example of the correction target area will be described. The correction target area acquisition unit 40A can acquire the correction target area in various modes. A specific example of acquisition of the correction target area by the correction target area acquisition unit 40A will be described below.

図12は、補正対象エリアの具体例1に関して説明する図である。 FIG. 12 is a diagram illustrating specific example 1 of the correction target area.

本例では補正対象エリア取得部40Aは、ユーザからのエリア選択指示に基づいて、補正対象エリアの入力を受け付ける。図12に示すように、ユーザは、画像モニタ30上でAFエリア132を選択する。例えば、ユーザは、操作部38を介してAFエリア132を選択する。補正対象エリア取得部40Aは、操作部38からの入力信号に基づいて、AFエリア132を補正対象エリアとして取得する。このように、ユーザが選択したエリアを補正対象エリアとして取得することにより、ユーザの意図に沿った軸上色収差の補正を行うことができる。 In this example, the correction target area acquisition unit 40A receives an input of the correction target area based on the area selection instruction from the user. As shown in FIG. 12, the user selects AF area 132 on image monitor 30 . For example, the user selects the AF area 132 via the operation section 38 . The correction target area acquisition unit 40A acquires the AF area 132 as the correction target area based on the input signal from the operation unit 38. FIG. In this way, by acquiring the area selected by the user as the correction target area, it is possible to correct axial chromatic aberration in accordance with the user's intention.

図13は、補正対象エリアの具体例2に関して説明する図である。 FIG. 13 is a diagram illustrating specific example 2 of the correction target area.

本例では補正対象エリア取得部40Aは、被写体の輪郭部を補正対象エリアとして入力を受け付ける。被写体の輪郭部はコントラストが大きい箇所であり、コントラストが大きい箇所は、軸上色収差が顕著に表れる。 In this example, the correction target area acquisition unit 40A receives an input as the correction target area, which is the outline of the subject. The contour portion of the subject is a portion with high contrast, and longitudinal chromatic aberration appears remarkably at the portion with high contrast.

図13では、被写体130が示されている。プロセッサ40は、撮影画像(ライブビュー画像)において、予め設定された第1の閾値以上のコントラストを有するコントラストエリアを検出することにより輪郭部134を検出する。そして、補正対象エリア取得部40Aは、検出された輪郭部134を補正対象エリアとして取得する。このように、輪郭部134(コントラストエリア)を補正対象エリアとして取得することにより、被写体の輪郭部で軸上色収差が抑制された画像を取得することができる。なお、第1の閾値は、被写体の輪郭を検出する観点より予め決定されることが好ましい。 In FIG. 13, a subject 130 is shown. The processor 40 detects the contour portion 134 by detecting a contrast area having a contrast equal to or greater than a preset first threshold in the captured image (live view image). Then, the correction target area acquiring unit 40A acquires the detected contour part 134 as the correction target area. By obtaining the contour portion 134 (contrast area) as a correction target area in this way, it is possible to obtain an image in which longitudinal chromatic aberration is suppressed in the contour portion of the subject. Note that the first threshold is preferably determined in advance from the viewpoint of detecting the contour of the subject.

図14は、補正対象エリアの具体例3に関して説明する図である。 FIG. 14 is a diagram illustrating specific example 3 of the correction target area.

図14では、プロセッサ40により主要被写体(人)138の顔検出処理が行われ、表示される顔検出エリア136が示されている。顔検出エリア136は、プロセッサ40により撮影画像(ライブビュー画像)において、公知の顔検出技術により検出される。その後、補正対象エリア取得部40Aは、検出された顔検出エリア136を補正対象エリアとして受け付ける。本例では補正対象エリア取得部40Aは、顔検出処理が行われた顔検出エリアを補正対象エリアとして入力を受け付ける。これにより、主要被写体を優先した、軸上色収差の補正を行うことができる。 FIG. 14 shows a face detection area 136 that is displayed after face detection processing of a main subject (person) 138 is performed by the processor 40 . The face detection area 136 is detected by the processor 40 in the captured image (live view image) using a known face detection technique. Thereafter, the correction target area acquisition unit 40A accepts the detected face detection area 136 as the correction target area. In this example, the correction target area acquiring unit 40A receives an input as a correction target area, which is a face detection area subjected to face detection processing. As a result, longitudinal chromatic aberration can be corrected with priority given to the main subject.

図15は、補正対象エリアの具体例4に関して説明する図である。 FIG. 15 is a diagram illustrating specific example 4 of the correction target area.

本例では補正対象エリア取得部40Aは、被写体検出処理が行われてた被写体検出エリアを補正対象エリアとして入力を受け付ける。 In this example, the correction target area acquiring unit 40A receives an input as the correction target area of the subject detection area in which the subject detection processing has been performed.

図15では、主要被写体142の被写体検出処理がプロセッサ40で行われ、被写体検出エリア140が示されている。被写体検出エリア140は、プロセッサ40により撮影画像(ライブビュー画像)において、公知の被写体検出技術により検出される。その後、補正対象エリア取得部40Aは、検出された被写体検出エリア140を補正対象エリアとして受け付ける。このように、被写体検出エリア140を補正対象エリアとすることにより、被写体における軸上色収差を抑制することができる。なお、検出される被写体は単数であっても複数であってもよい。補正対象エリアが複数ある場合には、平均、又は加重平均をして処理を行う。 In FIG. 15, subject detection processing for a main subject 142 is performed by the processor 40, and a subject detection area 140 is shown. The subject detection area 140 is detected by the processor 40 in the captured image (live view image) by a known subject detection technique. After that, the correction target area acquiring unit 40A accepts the detected subject detection area 140 as the correction target area. By making the subject detection area 140 the area to be corrected in this way, axial chromatic aberration in the subject can be suppressed. Note that the subject to be detected may be singular or plural. When there are a plurality of areas to be corrected, averaging or weighted averaging is performed.

図16は、補正対象エリアの具体例5に関して説明する図である。 FIG. 16 is a diagram illustrating specific example 5 of the correction target area.

本例では補正対象エリア取得部40Aは、撮影画像内の第2の閾値以上の輝度を有する箇所を含む輝度エリアを補正対象エリアとして入力を受け付ける。軸上色収差は、輝度差が大きい輪郭部に顕著に表れるので、補正対象エリアとして輝度差が大きい輪郭部を取得することにより、より軸上色収差を効果的に抑制する。 In this example, the correction target area obtaining unit 40A receives an input of a brightness area including a portion having brightness equal to or higher than the second threshold in the captured image as the correction target area. Since the axial chromatic aberration is conspicuous in the contour portion with a large luminance difference, obtaining the contour portion with a large luminance difference as the correction target area effectively suppresses the axial chromatic aberration.

図16では、高い輝度のライト146を被写体(木)が示されている。プロセッサ40は、撮影画像(ライブビュー画像)において、予め設定された第2の閾値以上の輝度を有する輝度エリア144を検出する。そして、補正対象エリア取得部40Aは、検出された輝度エリア144を補正対象エリアとして取得する。このように、輝度エリア144を補正対象エリアとして取得することにより、輝度が高いエリアにおいて軸上色収差が抑制された完成合成画像を取得することができる。 In FIG. 16, a subject (tree) is shown with a light 146 of high brightness. The processor 40 detects a brightness area 144 having a brightness equal to or higher than a preset second threshold in the captured image (live view image). Then, the correction target area acquisition unit 40A acquires the detected brightness area 144 as the correction target area. By obtaining the luminance area 144 as a correction target area in this way, it is possible to obtain a complete composite image in which axial chromatic aberration is suppressed in areas with high luminance.

上記実施形態において、各種の処理を実行する処理部(補正対象エリア取得部40A、コントラスト情報取得部40B、色収差補正情報読出部40C、撮像位置決定部40D、駆動装置制御部40E、画像取得部40F、コントラストAF制御部40G)(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the processing units (correction target area acquiring unit 40A, contrast information acquiring unit 40B, chromatic aberration correction information reading unit 40C, imaging position determining unit 40D, driving device control unit 40E, image acquiring unit 40F) that execute various processes , Contrast AF control unit 40G) (processing unit) has a hardware structure of various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), which is a general-purpose processor that executes software (program) and functions as various processing units, FPGA (Field Programmable Gate Array), etc. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or composed of two or more processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA). may Also, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units in a single processor, first, as represented by a computer such as a client or server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the function of the entire system including a plurality of processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each configuration and function described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer capable of installing such a program However, the present invention can be applied.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although the examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible without departing from the scope of the present invention.

8 :レンズ側メモリ
10 :絞り
12 :撮像光学系
14 :シャッター
16 :撮像素子
18 :レンズ群
20 :レンズ駆動装置
22 :画像入力コントローラ
24 :画像処理部
26 :圧縮伸張処理部
28 :ビデオエンコーダ
30 :画像モニタ
38 :操作部
40 :プロセッサ
47 :フラッシュメモリ
48 :メモリ
52 :メディアコントローラ
54 :メモリカード
8: Lens side memory 10: Aperture 12: Imaging optical system 14: Shutter 16: Imaging element 18: Lens group 20: Lens driving device 22: Image input controller 24: Image processing unit 26: Compression/decompression processing unit 28: Video encoder 30 : Image monitor 38 : Operation unit 40 : Processor 47 : Flash memory 48 : Memory 52 : Media controller 54 : Memory card

Claims (21)

撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系の軸上色収差を補正する為の色収差補正情報であって、前記撮影画像におけるサジタル方向及びタンジェンシャル方向の、前記撮影画像における像高に応じた色収差補正情報を記憶するメモリと、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置であって、
前記プロセッサは、
補正対象エリアを取得し、
前記補正対象エリアの前記像高に基づいて、前記メモリから対応する前記色収差補正情報を読み出し、
前記色収差補正情報に基づいて、前記撮像素子の波長帯域に応じた撮像位置を決定する、
撮像装置。
An imaging optical system, an imaging element for acquiring a captured image, and chromatic aberration correction information for correcting axial chromatic aberration of the imaging optical system, wherein the sagittal direction and the tangential direction in the captured image in the captured image An imaging apparatus comprising: a memory for storing chromatic aberration correction information according to image height; a driving device for moving the imaging optical system in an optical axis direction; and a processor,
The processor
Acquire the correction target area,
reading the corresponding chromatic aberration correction information from the memory based on the image height of the correction target area;
determining an imaging position according to the wavelength band of the imaging element based on the chromatic aberration correction information;
Imaging device.
前記プロセッサは、
前記駆動装置により前記撮像光学系のレンズ群を前記撮像位置に移動させ、
前記撮像素子により前記撮影画像を取得させる、請求項1に記載の撮像装置。
The processor
moving the lens group of the imaging optical system to the imaging position by the driving device;
2. The imaging apparatus according to claim 1, wherein said imaging device acquires said photographed image.
前記波長帯域は、第1の色の波長帯域、第2の色の波長帯域、及び第3の色の波長帯域を有し、
前記プロセッサは、
前記色収差補正情報に基づいて、前記撮像位置である、前記第1の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第1のレンズ位置、前記第2の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第2のレンズ位置、及び前記第3の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第3のレンズ位置を決定し、
前記第1のレンズ位置における前記第1の色の波長帯域の前記撮影画像である第1の撮影画像、前記第2のレンズ位置における前記第2の色の波長帯域の前記撮影画像である第2の撮影画像、及び前記第3のレンズ位置における前記第3の色の波長帯域の前記撮影画像である第3の撮影画像を前記撮像素子に取得させる、
請求項2に記載の撮像装置。
the wavelength band has a first color wavelength band, a second color wavelength band, and a third color wavelength band;
The processor
based on the chromatic aberration correction information; determining a second lens position, which is the position of the lens group when imaging, and a third lens position, which is the position of the lens group when imaging the wavelength band of the third color;
a first captured image that is the captured image in the first color wavelength band at the first lens position; a second captured image that is the captured image in the second color wavelength band at the second lens position; and a third captured image, which is the captured image of the third color wavelength band at the third lens position.
The imaging device according to claim 2.
撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置であって、
前記プロセッサは、
補正対象エリアを取得し、
前記駆動装置によりレンズ群を走査させて、前記補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得し、
前記コントラスト情報に基づいて、前記撮像素子の前記波長帯域に応じた撮像位置を決定する、
撮像装置。
An imaging apparatus comprising an imaging optical system, an imaging element for acquiring a captured image, a driving device for moving the imaging optical system in an optical axis direction, and a processor,
The processor
Acquire the correction target area,
Scanning the lens group with the driving device to obtain contrast information in the sagittal direction and the tangential direction of the wavelength band in the correction target area,
Determining an imaging position according to the wavelength band of the imaging element based on the contrast information;
Imaging device.
前記プロセッサは、
前記駆動装置により前記撮像光学系を前記撮像位置に移動させ、
前記撮像素子により前記撮影画像を取得させる、請求項4に記載の撮像装置。
The processor
moving the imaging optical system to the imaging position by the driving device;
5. The imaging apparatus according to claim 4, wherein said imaging device acquires said photographed image.
前記波長帯域は、第1の色の波長帯域、第2の色の波長帯域、及び第3の色の波長帯域を有し、
前記プロセッサは、
前記コントラスト情報に基づいて、撮像位置である、前記第1の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第1のレンズ位置、前記第2の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第2のレンズ位置、及び前記第3の色の波長帯域の撮像を行う場合の前記レンズ群の位置である第3のレンズ位置を決定し、
前記第1のレンズ位置における前記第1の色の波長帯域の前記撮影画像である第1の撮影画像、前記第2のレンズ位置における前記第2の色の波長帯域の前記撮影画像である第2の撮影画像、及び前記第3のレンズ位置における前記第3の色の波長帯域の前記撮影画像である第3の撮影画像を前記撮像素子に取得させる、
請求項5に記載の撮像装置。
the wavelength band has a first color wavelength band, a second color wavelength band, and a third color wavelength band;
The processor
Based on the contrast information, a first lens position, which is the position of the lens group when imaging the wavelength band of the first color, which is the imaging position, and the wavelength band of the second color. determining a second lens position, which is the position of the lens group when performing imaging, and a third lens position, which is the position of the lens group when imaging the wavelength band of the third color;
a first captured image that is the captured image in the first color wavelength band at the first lens position; a second captured image that is the captured image in the second color wavelength band at the second lens position; and a third captured image, which is the captured image of the third color wavelength band at the third lens position.
The imaging device according to claim 5.
前記波長帯域は、前記撮像素子の分光特性に関する請求項1から6のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 6, wherein the wavelength band relates to spectral characteristics of the imaging device. 前記プロセッサは、分光特性ごとに前記撮影画像を取得して、前記撮影画像から別撮影画像を生成する請求項7に記載の撮像装置。 8. The imaging apparatus according to claim 7, wherein the processor acquires the captured image for each spectral characteristic and generates another captured image from the captured image. 前記プロセッサは、
前記補正対象エリアのサジタル方向のコントラスト及びタンジェンシャル方向のコントラストを算出し、前記サジタル方向のコントラストと前記タンジェンシャル方向のコントラストのエリアコントラスト比を算出し、
前記エリアコントラスト比に基づいて、前記撮像位置を決定する請求項1から8のいずれか1項に記載の撮像装置。
The processor
calculating the contrast in the sagittal direction and the contrast in the tangential direction of the correction target area, calculating the area contrast ratio of the contrast in the sagittal direction and the contrast in the tangential direction;
The imaging apparatus according to any one of claims 1 to 8, wherein the imaging position is determined based on the area contrast ratio.
前記プロセッサは、
前記エリアコントラスト比に基づいて、サジタル方向とタンジェンシャル方向とで異なる重みづけを行って前記撮像位置を決定する請求項9に記載の撮像装置。
The processor
10. The imaging apparatus according to claim 9, wherein the imaging position is determined by weighting differently in the sagittal direction and the tangential direction based on the area contrast ratio.
前記プロセッサは、ユーザからのエリア選択指示に基づいて前記補正対象エリアの入力を受け付ける請求項1から10のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 10, wherein the processor receives input of the correction target area based on an area selection instruction from a user. 前記プロセッサは、前記撮影画像内の第1の閾値以上のコントラストを有する箇所を含むコントラストエリアを検出し、前記コントラストエリアを前記補正対象エリアとして入力を受け付ける請求項1から11のいずれか1項に記載の撮像装置。 12. The processor according to any one of claims 1 to 11, wherein the processor detects a contrast area including a portion having a contrast equal to or greater than a first threshold in the captured image, and receives input of the contrast area as the correction target area. The imaging device described. 前記プロセッサは、顔検出処理を行い、顔検出エリアを前記補正対象エリアとして入力を受け付ける請求項1から12のいずれか1項に記載の撮像装置。 13. The imaging apparatus according to any one of claims 1 to 12, wherein the processor performs face detection processing and receives input of a face detection area as the correction target area. 前記プロセッサは、被写体検出処理を行い、被写体検出エリアを前記補正対象エリアとして入力を受け付ける請求項1から13のいずれか1項に記載の撮像装置。 14. The imaging apparatus according to any one of claims 1 to 13, wherein the processor performs subject detection processing and receives an input of a subject detection area as the correction target area. 前記プロセッサは、前記撮影画像内の第2の閾値以上の輝度を有する箇所を含む輝度エリアを検出し、前記輝度エリアを前記補正対象エリアとして入力を受け付ける請求項1から14のいずれか1項に記載の撮像装置。 15. The processor according to any one of claims 1 to 14, wherein the processor detects a brightness area including a portion having a brightness equal to or higher than a second threshold in the captured image, and receives input of the brightness area as the correction target area. The imaging device described. 前記第1のレンズ位置、前記第2のレンズ位置、及び前記第3のレンズ位置は、前記補正対象エリアのコントラストオートフォーカス方式により得られる焦点距離に基づいて取得される請求項3又は6に記載の撮像装置。 7. The first lens position, the second lens position, and the third lens position according to claim 3 or 6, wherein the focal length of the correction target area obtained by a contrast autofocus method is obtained. imaging device. 前記第1の色は緑色であり、前記第2の色は赤色であり、前記第3の色は青色である請求項3又は6に記載の撮像装置。 7. The imaging device according to claim 3, wherein said first color is green, said second color is red, and said third color is blue. 撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系の軸上色収差を補正する為の色収差補正情報であって、前記撮影画像におけるサジタル方向及びタンジェンシャル方向の、前記撮影画像における像高に応じた色収差補正情報を記憶するメモリと、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置の撮像方法であって、
前記プロセッサが、
補正対象エリアを取得するステップと、
前記補正対象エリアの前記像高に基づいて、前記メモリから対応する前記色収差補正情報を読み出すステップと、
前記色収差補正情報に基づいて、前記撮像素子の波長帯域に応じた撮像位置を決定するステップと、
を行う撮像方法。
An imaging optical system, an imaging element for acquiring a captured image, and chromatic aberration correction information for correcting axial chromatic aberration of the imaging optical system, wherein the sagittal direction and the tangential direction in the captured image in the captured image An imaging method for an imaging device comprising: a memory for storing chromatic aberration correction information according to image height; a driving device for moving the imaging optical system in an optical axis direction; and a processor,
the processor
a step of obtaining a correction target area;
reading out the corresponding chromatic aberration correction information from the memory based on the image height of the correction target area;
determining an imaging position according to the wavelength band of the imaging element based on the chromatic aberration correction information;
imaging method.
撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置の撮像方法であって、
前記プロセッサが、
補正対象エリアを取得するステップと、
前記駆動装置によりレンズ群を走査させて、前記補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得するステップと、
前記コントラスト情報に基づいて、前記撮像素子の前記波長帯域に応じた撮像位置を決定するステップと、
を行う撮像方法。
An image capturing method for an image capturing apparatus comprising: an image capturing optical system; an image sensor for obtaining a captured image; a driving device for moving the image capturing optical system in an optical axis direction; and a processor,
the processor
a step of obtaining a correction target area;
a step of scanning the lens group by the driving device to obtain contrast information in the sagittal direction and the tangential direction of the wavelength band in the correction target area;
determining an imaging position corresponding to the wavelength band of the imaging element based on the contrast information;
imaging method.
撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系の軸上色収差を補正する為の色収差補正情報であって、前記撮影画像におけるサジタル方向及びタンジェンシャル方向の、前記撮影画像における像高に応じた色収差補正情報を記憶するメモリと、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置に撮像方法を実行させるプログラムであって、
前記プロセッサに、
補正対象エリアを取得するステップと、
前記補正対象エリアの前記像高に基づいて、前記メモリから対応する前記色収差補正情報を読み出すステップと、
前記色収差補正情報に基づいて、前記撮像素子の波長帯域に応じた撮像位置を決定するステップと、
を実行させるプログラム。
An imaging optical system, an imaging element for acquiring a captured image, and chromatic aberration correction information for correcting axial chromatic aberration of the imaging optical system, wherein the sagittal direction and the tangential direction in the captured image in the captured image A program for causing an imaging apparatus comprising a memory for storing chromatic aberration correction information corresponding to image height, a driving device for moving the imaging optical system in the optical axis direction, and a processor to execute an imaging method,
to the processor;
a step of obtaining a correction target area;
reading out the corresponding chromatic aberration correction information from the memory based on the image height of the correction target area;
determining an imaging position according to the wavelength band of the imaging element based on the chromatic aberration correction information;
program to run.
撮像光学系と、撮影画像を取得する撮像素子と、前記撮像光学系を光軸方向に移動させる駆動装置と、プロセッサと、を備える撮像装置に撮像方法を実行させるプログラムであって、
前記プロセッサに、
補正対象エリアを取得するステップと、
前記駆動装置によりレンズ群を走査させて、前記補正対象エリアにおける、波長帯域のサジタル方向とタンジェンシャル方向とのコントラスト情報を取得するステップと、
前記コントラスト情報に基づいて、前記撮像素子の前記波長帯域に応じた撮像位置を決定するステップと、
を実行させるプログラム。
A program for causing an imaging apparatus comprising an imaging optical system, an imaging element for acquiring a captured image, a driving device for moving the imaging optical system in an optical axis direction, and a processor to execute an imaging method,
to the processor;
a step of obtaining a correction target area;
a step of scanning the lens group by the driving device to obtain contrast information in the sagittal direction and the tangential direction of the wavelength band in the correction target area;
determining an imaging position corresponding to the wavelength band of the imaging element based on the contrast information;
program to run.
JP2021198846A 2021-12-07 2021-12-07 Imaging device, imaging method and program Pending JP2023084577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021198846A JP2023084577A (en) 2021-12-07 2021-12-07 Imaging device, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021198846A JP2023084577A (en) 2021-12-07 2021-12-07 Imaging device, imaging method and program

Publications (1)

Publication Number Publication Date
JP2023084577A true JP2023084577A (en) 2023-06-19

Family

ID=86771898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198846A Pending JP2023084577A (en) 2021-12-07 2021-12-07 Imaging device, imaging method and program

Country Status (1)

Country Link
JP (1) JP2023084577A (en)

Similar Documents

Publication Publication Date Title
CN105323474B (en) Picture pick-up device and its control method
KR101428635B1 (en) Dual image capture processing
US7609291B2 (en) Device and method for producing an enhanced color image using a flash of infrared light
CN109196854B (en) Imaging device, image processing device, and electronic apparatus
CN108141531B (en) Image pickup apparatus
JP7099446B2 (en) Solid-state image sensor and electronic equipment
KR20120127903A (en) Image pickup device, digital photographing apparatus using the device, auto-focusing method, and computer-readable storage medium for performing the method
JP2018196083A (en) Image processing system
WO2017170716A1 (en) Image pickup device, image processing device, and electronic apparatus
KR101679293B1 (en) Photo detecting device and image pickup device
JP6254843B2 (en) Image processing apparatus and control method thereof
JP4049257B2 (en) Solid-state imaging device and digital camera
US11997406B2 (en) Imaging apparatus and imaging sensor
JP2011232615A (en) Imaging device
JP5464008B2 (en) Image input device
JP2023084577A (en) Imaging device, imaging method and program
WO2017170717A1 (en) Image pickup device, focusing device, and electronic apparatus
WO2017170726A1 (en) Image pickup device and electronic apparatus
JP6968650B2 (en) Imaging device and its control method
JP2017102240A (en) Image processing device and image processing method, imaging device, program
JP6589989B2 (en) Imaging device
JP2024012869A (en) Imaging apparatus and method for reading out image data of imaging apparatus
WO2017170718A1 (en) Image pickup device, subject detection device, and electronic apparatus
WO2017170719A1 (en) Image pickup device and electronic apparatus
JP2003116147A (en) Solid-state image pickup device