JP2023034485A - Imaging device and autofocus control method - Google Patents

Imaging device and autofocus control method Download PDF

Info

Publication number
JP2023034485A
JP2023034485A JP2021140740A JP2021140740A JP2023034485A JP 2023034485 A JP2023034485 A JP 2023034485A JP 2021140740 A JP2021140740 A JP 2021140740A JP 2021140740 A JP2021140740 A JP 2021140740A JP 2023034485 A JP2023034485 A JP 2023034485A
Authority
JP
Japan
Prior art keywords
parallax
image data
unit
focus lens
lens group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021140740A
Other languages
Japanese (ja)
Inventor
秀弘 加藤
Hidehiro Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021140740A priority Critical patent/JP2023034485A/en
Publication of JP2023034485A publication Critical patent/JP2023034485A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To provide an imaging device with which it is possible to realize autofocus that excels in responsiveness and focusing accuracy.SOLUTION: Distortion aberration vector correction units 311 and 312 correct first and second image data on the basis of distortion aberration vector information for each pixel that indicates the distortion aberration vectors of first and second lens groups. A parallax calculation unit 313 calculates the parallax between the first and second image data on the basis of the image data corrected by the distortion aberration vector correction units 311 and 312. A focus lens position conversion unit 314 converts the parallax calculated by the parallax calculation unit 313 into the position information on a focus lens for focusing on the distance to a subject that is indicated by the parallax. A drive control unit 33 controls a drive unit so as to move the position of the focus lens to the position indicated by the position information.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置及びオートフォーカス制御方法に関する。 The present invention relates to an imaging device and an autofocus control method.

撮像装置が被写体を撮影するときに被写体に自動的にフォーカスを合わせるオートフォーカス(AF)の方法の代表例として、水平方向に並べた2眼の撮像系を用いて被写体までの距離を測距する位相差AFと、山登り法を用いる山登りAFとがある(特許文献1参照)。位相差AFでは、2眼の撮像系で得た画像の水平方向の視差(位相差)に基づいて被写体までの大まかな距離が測距されて、測距された距離に対応してフォーカスレンズが移動される。山登りAFでは、被写体を撮影した画像のコントラストが最大となるようにフォーカスレンズが移動される。 As a representative example of an autofocus (AF) method in which an imaging device automatically focuses on a subject when photographing the subject, the distance to the subject is measured using two imaging systems arranged in the horizontal direction. There are phase-difference AF and hill-climbing AF using a hill-climbing method (see Patent Document 1). In phase difference AF, the approximate distance to the subject is measured based on the horizontal parallax (phase difference) of the image obtained by the two-lens imaging system, and the focus lens is adjusted according to the measured distance. be moved. In the hill-climbing AF, the focus lens is moved so that the contrast of the image of the subject is maximized.

特開2006-93860号公報JP-A-2006-93860

位相差AFは応答性がよいが、合焦精度がさほどよくない。一方、山登りAFは合焦精度はよいが、合焦するまでに比較的長い時間がかかるので応答性が悪い。応答性及び合焦精度のよいAF制御が求められている。 Phase-difference AF has good responsiveness, but its focusing accuracy is not so good. On the other hand, the hill-climbing AF has good focusing accuracy, but the responsiveness is poor because it takes a relatively long time to achieve focusing. There is a demand for AF control with good responsiveness and focusing accuracy.

本発明は、応答性及び合焦精度のよいオートフォーカスを実現することができる撮像装置及びオートフォーカス制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging apparatus and an autofocus control method capable of achieving autofocus with good responsiveness and focusing accuracy.

本発明は、第1のフォーカスレンズを含む第1のレンズ群及び第1の撮像素子を有する第1の撮像系と、第2のレンズ群及び第2の撮像素子を有し、前記第2のレンズ群は前記第1のレンズ群と水平方向または垂直方向に所定の距離離れた状態で並べられている第2の撮像系と、前記第1及び第2の撮像系によってそれぞれ生成された第1及び第2の画像データの視差に基づく距離にフォーカスを合わせるための位相差オートフォーカス処理部と、前記位相差オートフォーカス処理部による処理に基づいて、前記第1のフォーカスレンズを駆動する第1の駆動部を制御する第1の駆動制御部とを備える撮像装置を提供する。 The present invention has a first imaging system having a first lens group including a first focus lens and a first imaging device, a second lens group and a second imaging device, The lens group includes: a second imaging system arranged horizontally or vertically with a predetermined distance from the first lens group; and a phase difference autofocus processing unit for focusing on a distance based on the parallax of the second image data, and a first driving the first focus lens based on the processing by the phase difference autofocus processing unit and a first drive control section that controls the drive section.

上記の構成において、前記位相差オートフォーカス処理部は、前記第1の画像データを、前記第1のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正する第1の歪曲収差ベクトル補正部と、前記第2の画像データを、前記第2のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正する第2の歪曲収差ベクトル補正部と、前記第1及び第2の歪曲収差ベクトル補正部によってそれぞれ歪曲収差ベクトルが補正された前記第1及び第2の画像データに基づいて両者の視差を算出する視差算出部と、前記視差算出部が算出した視差を、前記視差が示す被写体までの距離にフォーカスを合わせるための前記第1のフォーカスレンズの位置を示す位置情報に変換するフォーカスレンズ位置変換部とを有する。 In the above configuration, the phase difference autofocus processing unit corrects the first image data based on distortion vector information for each pixel indicating a distortion vector of the first lens group. a second distortion vector correction unit configured to correct the second image data based on distortion vector information for each pixel indicating a distortion vector of the second lens group; a parallax calculation unit for calculating parallax between the first and second image data whose distortion vectors are corrected by first and second distortion aberration vector correction units, respectively; and the parallax calculated by the parallax calculation unit. into position information indicating the position of the first focus lens for focusing on the distance to the subject indicated by the parallax.

上記の構成において、前記第1の駆動制御部は、前記第1のフォーカスレンズの位置を前記位置情報が示す位置に移動させるよう前記第1の駆動部を制御する。 In the above configuration, the first drive control section controls the first drive section to move the position of the first focus lens to the position indicated by the position information.

本発明は、フォーカスレンズを含む第1のレンズ群及び第1の撮像素子を有する第1の撮像系によって被写体を撮像して、第1の画像データを生成し、第2のレンズ群及び第2の撮像素子を有し、前記第2のレンズ群は前記第1のレンズ群と水平方向または垂直方向に所定の距離離れた状態で並べられている第2の撮像系によって前記被写体を撮像して、第2の画像データを生成し、前記第1の画像データを、前記第1のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正し、前記第2の画像データを、前記第2のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正し、歪曲収差ベクトルが補正された前記第1及び第2の画像データに基づいて両者の視差を算出し、前記視差が示す被写体までの距離にフォーカスを合わせるための前記フォーカスレンズの位置を示す位置情報に変換し、前記フォーカスレンズの位置を前記位置情報が示す位置に移動させるオートフォーカス制御方法を提供する。 In the present invention, a subject is imaged by a first imaging system having a first lens group including a focus lens and a first imaging element, first image data is generated, and the second lens group and the second and the second lens group is arranged horizontally or vertically with a predetermined distance from the first lens group. , generating second image data, correcting the first image data based on distortion vector information for each pixel indicating a distortion vector of the first lens group, and converting the second image data to , correcting based on distortion vector information for each pixel indicating the distortion vector of the second lens group, and calculating the parallax between the first and second image data in which the distortion vector is corrected. and converting it into position information indicating the position of the focus lens for focusing on the distance to the subject indicated by the parallax, and moving the position of the focus lens to the position indicated by the position information. do.

本発明の撮像装置及びオートフォーカス制御方法によれば、応答性及び合焦精度のよいオートフォーカスを実現することができる。 According to the imaging device and the autofocus control method of the present invention, autofocus with good responsiveness and good focusing accuracy can be realized.

各実施形態の撮像装置を示すブロック図である。It is a block diagram showing an imaging device of each embodiment. 各実施形態の撮像装置の概略的な外観を示す斜視図である。1 is a perspective view showing a schematic appearance of an imaging device according to each embodiment; FIG. レンズの歪曲収差による樽型歪を示す図である。FIG. 4 is a diagram showing barrel distortion due to lens distortion; レンズの歪曲収差による糸巻型歪を示す図である。FIG. 10 is a diagram showing pincushion distortion due to distortion of a lens; 樽型歪による歪曲収差ベクトルを示す図である。FIG. 4 is a diagram showing distortion aberration vectors due to barrel distortion; 糸巻型歪による歪曲収差ベクトルを示す図である。FIG. 4 is a diagram showing distortion aberration vectors due to pincushion distortion; 第1実施形態の撮像装置における制御部が備える具体的な構成例を示すブロック図である。3 is a block diagram showing a specific configuration example of a control unit in the imaging device of the first embodiment; FIG. 第1実施形態のオートフォーカス制御方法を示すフローチャートである。4 is a flow chart showing an autofocus control method of the first embodiment; 第2実施形態の撮像装置における制御部が備える具体的な構成例を示すブロック図である。FIG. 11 is a block diagram showing a specific configuration example of a control unit in the imaging apparatus according to the second embodiment; FIG. 繰り返しパターンを含む画像の一例を示す図である。FIG. 10 is a diagram showing an example of an image containing a repeating pattern; FIG. 図8Aに示す画像をローパスフィルタによって高域成分を減衰させて低域成分を抽出した状態を示す概念図である。FIG. 8C is a conceptual diagram showing a state in which high-frequency components are attenuated by a low-pass filter and low-frequency components are extracted from the image shown in FIG. 8A; 第2実施形態のオートフォーカス制御方法を示すフローチャートである。9 is a flow chart showing an autofocus control method of the second embodiment; 第3実施形態の撮像装置における制御部が備える具体的な構成例を示すブロック図である。FIG. 12 is a block diagram showing a specific configuration example of a control unit in an imaging apparatus according to a third embodiment; FIG. 第3実施形態のオートフォーカス制御方法を示すフローチャートである。10 is a flow chart showing an autofocus control method of the third embodiment; 第4実施形態の撮像装置における制御部が備える具体的な構成例を示すブロック図である。FIG. 12 is a block diagram showing a specific configuration example of a control unit in an imaging apparatus according to a fourth embodiment; FIG. 第4実施形態のオートフォーカス制御方法を示すフローチャートである。14 is a flow chart showing an autofocus control method of the fourth embodiment; 第5実施形態の撮像装置における制御部が備える具体的な構成例を示すブロック図である。FIG. 12 is a block diagram showing a specific configuration example of a control unit in an imaging apparatus according to a fifth embodiment; FIG. フレーム内に設定している領域の一例を示す図である。FIG. 4 is a diagram showing an example of a region set within a frame; ユーザがフォーカスを合わせる領域を変更するためにタッチパネル付きディスプレイを指で触れた状態を示す図である。FIG. 10 is a diagram showing a state in which the user touches the display with a touch panel with a finger in order to change the area to be focused. フレーム内の各領域における視差のヒストグラムの一例を示す図である。FIG. 4 is a diagram showing an example of a histogram of parallaxes in each region within a frame; 第5実施形態のオートフォーカス制御方法を示すフローチャートである。FIG. 11 is a flow chart showing an autofocus control method of the fifth embodiment; FIG.

以下、各実施形態の撮像装置及びオートフォーカス制御方法について、添付図面を参照して説明する。 An imaging device and an autofocus control method of each embodiment will be described below with reference to the accompanying drawings.

図1及び図2を用いて、各実施形態で共通の撮像装置100の構成及び概略的な動作を説明する。図1に示すように、撮像装置100は、レンズ群11(第1のレンズ群)及び撮像素子12(第1の撮像素子)を有する第1の撮像系と、レンズ群21(第2のレンズ群)及び撮像素子22(第2の撮像素子)を有する第2の撮像系とを備える、いわゆる2眼カメラである。図2に示すように、レンズ群11とレンズ群21とは、筐体101の前面101Fに水平方向に所定の距離離れた状態で並べられている。レンズ群11とレンズ群21とは、前面101Fに垂直方向に所定の距離離れた状態で並べられていてもよい。 The configuration and schematic operation of an imaging apparatus 100 common to each embodiment will be described with reference to FIGS. 1 and 2. FIG. As shown in FIG. 1, an imaging apparatus 100 includes a first imaging system having a lens group 11 (first lens group) and an imaging element 12 (first imaging element), a lens group 21 (second lens group) and a second imaging system having an imaging element 22 (second imaging element). As shown in FIG. 2, the lens group 11 and the lens group 21 are arranged horizontally on the front surface 101F of the housing 101 with a predetermined distance therebetween. The lens group 11 and the lens group 21 may be arranged vertically on the front surface 101F with a predetermined distance therebetween.

第1の撮像系は、被写体を撮影して記録するための画像データを生成するための主たる撮像系である。第2の撮像系は位相差AFによって被写体にフォーカスを合わせるための従たる撮像系である。レンズ群11及び21はフォーカスレンズを含む。レンズ群11が備えるフォーカスレンズを第1のフォーカスレンズとすると、レンズ群21が備えるフォーカスレンズは第2のフォーカスレンズである。レンズ群11は、フォーカスレンズに加えてズームレンズを含んでもよい。 The first imaging system is a main imaging system for generating image data for photographing and recording a subject. The second imaging system is a secondary imaging system for focusing on a subject by phase difference AF. Lens groups 11 and 21 include focus lenses. Assuming that the focus lens included in the lens group 11 is the first focus lens, the focus lens included in the lens group 21 is the second focus lens. The lens group 11 may include a zoom lens in addition to the focus lens.

撮像素子12は、レンズ群11を介して入射される光に基づき、被写体を撮像したアナログの撮像画像信号を生成する。A/D変換器13は、撮像素子12より出力された撮像画像信号をA/D変換して、デジタルの画像データD13(第1の画像データ)を制御部30に供給する。撮像素子12及びA/D変換器13が一体化されていてもよい。画像データD13は動画像データである。 The imaging device 12 generates an analog captured image signal of an imaged subject based on the light incident through the lens group 11 . The A/D converter 13 A/D-converts the captured image signal output from the image sensor 12 and supplies digital image data D<b>13 (first image data) to the control unit 30 . The imaging element 12 and the A/D converter 13 may be integrated. The image data D13 is moving image data.

撮像素子22は、レンズ群21を介して入射される光に基づき、被写体を撮像したアナログの撮像画像信号を生成する。A/D変換器23は、撮像素子22より出力された撮像画像信号をA/D変換して、デジタルの画像データD23(第2の画像データ)を制御部30に供給する。撮像素子22及びA/D変換器23が一体化されていてもよい。画像データD23は動画像データである。 The imaging element 22 generates an analog captured image signal of an imaged subject based on the light incident through the lens group 21 . The A/D converter 23 A/D-converts the captured image signal output from the image sensor 22 and supplies digital image data D23 (second image data) to the control unit 30 . The imaging element 22 and the A/D converter 23 may be integrated. The image data D23 is moving image data.

撮像素子12及び22は、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。図1では図示を省略しているが、撮像素子12及び22がベイヤ配列のイメージセンサであれば、デモザイク処理及びRGBデータへの変換処理等の各種の映像信号処理が施される。画像データD13及びD23はRGBデータであることがある。撮像素子12及び22が3板式のイメージセンサで構成されていてもよい。 The imaging elements 12 and 22 are CCD (Charge Coupled Device) image sensors or CMOS (Complementary Metal Oxide Semiconductor) image sensors. Although not shown in FIG. 1, if the imaging elements 12 and 22 are Bayer array image sensors, various video signal processing such as demosaicing and conversion to RGB data are performed. Image data D13 and D23 may be RGB data. The imaging elements 12 and 22 may be composed of three-plate image sensors.

制御部30は、画像データD13及びD23に基づいて被写体に自動的にフォーカスを合わせるよう駆動部14及び24を制御する。駆動部14は第1の駆動部であり、駆動部24は第2の駆動部である。駆動部14及び24は、レンズ群11及び21のフォーカスレンズを移動させるモータで構成することができる。制御部30は、マイクロコンピュータの中央処理装置(CPU)で構成することができる。 The control unit 30 controls the driving units 14 and 24 to automatically focus on the subject based on the image data D13 and D23. Drive section 14 is a first drive section and drive section 24 is a second drive section. The driving units 14 and 24 can be composed of motors for moving the focus lenses of the lens groups 11 and 21, respectively. The control unit 30 can be composed of a central processing unit (CPU) of a microcomputer.

制御部30には、ROM(Read Only Memory)41及びRAM(Random Access Memory)42が接続されている。ROM41は非一時的な記憶媒体の一例である。ROM41には、オートフォーカスに必要なデータが記憶されていてもよい。ROM41には、オートフォーカス制御プログラムが記憶されていてもよい。RAM42は、制御部30が各種の処理を実行する際の作業用メモリとして使用される。 A ROM (Read Only Memory) 41 and a RAM (Random Access Memory) 42 are connected to the control unit 30 . ROM41 is an example of a non-temporary storage medium. Data necessary for autofocus may be stored in the ROM 41 . The ROM 41 may store an autofocus control program. The RAM 42 is used as a working memory when the controller 30 executes various processes.

制御部30には、さらに、タッチパネル付きディスプレイ50(以下、ディスプレイ50と略記する)、エンコーダ61、操作部70が接続されている。ディスプレイ50は、画像データD13に基づく画像を表示する。撮像装置100は、ディスプレイ50の代わりに、タッチパネルを有さないディスプレイを備えてもよい。エンコーダ61は画像データD13を圧縮符号化し、記憶部62は圧縮符号化された画像データを記憶する。操作部70は、筐体101に設けられている操作ボタンである。ここで、ディスプレイ50のタッチパネルは操作部70に含まれる。 A display 50 with a touch panel (hereinafter abbreviated as the display 50), an encoder 61, and an operation section 70 are further connected to the control section 30. As shown in FIG. The display 50 displays an image based on the image data D13. The imaging device 100 may have a display without a touch panel instead of the display 50 . The encoder 61 compression-encodes the image data D13, and the storage unit 62 stores the compression-encoded image data. The operation unit 70 is an operation button provided on the housing 101 . Here, the touch panel of the display 50 is included in the operation unit 70 .

以上のように構成される撮像装置100において、応答性及び合焦精度のよいオートフォーカスを実現するための複数の実施形態を順に説明する。後述する各実施形態は、位相差AFと山登りAFとの双方を用いることによって、応答性及び合焦精度のよいオートフォーカスを実現する。さらに、各実施形態は、各実施形態特有の構成によって、位相差AFを用いるときの合焦精度を向上させている。 A plurality of embodiments for realizing autofocus with good responsiveness and good focusing accuracy in the imaging apparatus 100 configured as described above will be described in order. Each embodiment described later achieves autofocus with good responsiveness and good focusing accuracy by using both phase difference AF and hill-climbing AF. Furthermore, each embodiment improves focusing accuracy when phase difference AF is used by a configuration unique to each embodiment.

<第1実施形態>
画像データD13及びD23の各フレームは、レンズ群11及び21におけるレンズの歪曲収差によって、図3Aに示すような樽型歪または図3Bに示すような糸巻型歪を呈することがある。画像データD13の各フレームと画像データD23の各フレームとで樽型歪または糸巻型歪の程度が異なることがあり、画像データD13の各フレームと画像データD23の各フレームとで呈する歪が樽型歪と糸巻型歪とで異なることもある。
<First embodiment>
Each frame of image data D13 and D23 may exhibit barrel distortion as shown in FIG. 3A or pincushion distortion as shown in FIG. 3B due to lens distortion aberrations in lens groups 11 and 21 . The degree of barrel distortion or pincushion distortion may differ between each frame of the image data D13 and each frame of the image data D23. There is also a difference between distortion and pincushion distortion.

図4Aはフレーム内の各画素が樽型歪によってどのように変位するかを示し、図4Bフレーム内の各画素が糸巻型歪によってどのように変位するかを示している。図4A及び図4Bにおいて、各黒丸は樽型歪または糸巻型歪による影響を受けず、本来の画素位置にある画素を示している。各ベクトルは、ベクトルの始点に位置する画素が樽型歪または糸巻型歪による影響を受けてベクトルの終点の位置へと変位することを示している。図4A及び図4Bにおいて、黒丸は樽型歪または糸巻型歪による影響を受けない画素のうちの一部の画素であり、ベクトルは樽型歪または糸巻型歪による影響を受ける画素のうちの一部の画素である。 FIG. 4A shows how each pixel in the frame is displaced by barrel distortion, and FIG. 4B shows how each pixel in the frame is displaced by pincushion distortion. In FIGS. 4A and 4B, each bullet indicates a pixel at its original pixel position, unaffected by barrel or pincushion distortion. Each vector indicates that the pixel located at the starting point of the vector is displaced to the position of the ending point of the vector under the influence of barrel distortion or pincushion distortion. In FIGS. 4A and 4B, the black circles are some of the pixels unaffected by barrel or pincushion distortion, and the vector is one of the pixels affected by barrel or pincushion distortion. are the pixels of the part.

画像データD13の各フレームと画像データD23の各フレームとで、樽型歪または糸巻型歪による影響を受けて変位する画素の位置、変位する方向及び量は同一ではない。従って、画像データD13及びD23をそのまま用いて画像データD13と画像データD23との水平方向の視差を求めると、樽型歪または糸巻型歪によるレンズの歪曲収差の影響を受けて、本来の正しい視差を求めることはできない。 The position, direction and amount of displacement of pixels affected by barrel distortion or pincushion distortion are not the same between each frame of the image data D13 and each frame of the image data D23. Therefore, if the horizontal parallax between the image data D13 and the image data D23 is calculated using the image data D13 and D23 as they are, the original correct parallax will be affected by lens distortion due to barrel distortion or pincushion distortion. cannot be asked for.

第1実施形態は、レンズ群11及び21におけるレンズの歪曲収差に起因するベクトル(以下、歪曲収差ベクトル)を補正した上で、画像データD13と画像データD23との水平方向の視差を求めて、位相差AFを用いるときの合焦精度を向上させている。 In the first embodiment, after correcting a vector caused by lens distortion aberration in the lens groups 11 and 21 (hereinafter referred to as a distortion aberration vector), the horizontal parallax between the image data D13 and the image data D23 is obtained, Focusing accuracy is improved when phase difference AF is used.

図5は、第1実施形態における制御部30が備える具体的な構成例を示している。ROM41には、撮像装置100によって無限遠の被写体を撮影することによって計測した、レンズ群11及び21の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報が予め記憶されている。撮像装置100が無限遠の被写体を撮影するとき、視差はほぼ0であるから、レンズ群11及び21の歪曲収差ベクトルを計測することができる。 FIG. 5 shows a specific configuration example of the controller 30 in the first embodiment. The ROM 41 preliminarily stores distortion aberration vector information for each pixel indicating the distortion aberration vectors of the lens groups 11 and 21, which are measured by photographing an object at infinity with the image pickup apparatus 100. FIG. When the imaging apparatus 100 photographs an object at infinity, the parallax is almost 0, so the distortion vectors of the lens groups 11 and 21 can be measured.

フレームの右方向を水平方向のプラス、下方向を垂直方向のプラスとし、例えば、ある画素における歪曲収差ベクトルが水平方向+10画素、垂直方向-5画素のベクトルであるとすれば、その歪曲収差ベクトル情報は、水平方向+10、垂直方向-5のように表現されていればよい。 The right direction of the frame is positive in the horizontal direction, and the downward direction is positive in the vertical direction. The information may be expressed as +10 in the horizontal direction and -5 in the vertical direction.

図5に示すように、制御部30は、位相差オートフォーカス処理部(以下、位相差AF処理部)31A、山登りオートフォーカス処理部(以下、山登りAF処理部)32、駆動制御部33及び34を備える。駆動制御部33を第1の駆動制御部とすると、駆動制御部34は第2の駆動制御部である。位相差AF処理部31Aは、歪曲収差ベクトル補正部311及び312、視差算出部313、フォーカスレンズ位置変換部314、変換テーブル保持部315を有する。歪曲収差ベクトル補正部311を第1の歪曲収差ベクトル補正部とすると、歪曲収差ベクトル補正部312は第2の歪曲収差ベクトル補正部である。 As shown in FIG. 5, the control unit 30 includes a phase difference autofocus processing unit (hereinafter referred to as phase difference AF processing unit) 31A, a hill climbing autofocus processing unit (hereinafter referred to as hill climbing AF processing unit) 32, drive control units 33 and 34 Prepare. Assuming that the drive control section 33 is the first drive control section, the drive control section 34 is the second drive control section. The phase difference AF processing unit 31A has distortion aberration vector correction units 311 and 312, a parallax calculation unit 313, a focus lens position conversion unit 314, and a conversion table holding unit 315. Assuming that the distortion vector correction section 311 is a first distortion vector correction section, the distortion vector correction section 312 is a second distortion vector correction section.

歪曲収差ベクトル補正部311には、画像データD13と、レンズ群11の歪曲収差ベクトル情報とが入力される。歪曲収差ベクトル補正部311は、画像データD13の各フレーム内の各画素を、歪曲収差ベクトル情報に基づいて補正して視差算出部313に供給する。ある画素における歪曲収差ベクトル情報が水平方向+10、垂直方向-5であれば、歪曲収差ベクトル補正部311は、その画素を水平方向に-10画素変位させ、垂直方向に+5画素変位させればよい。 Image data D<b>13 and distortion vector information of the lens group 11 are input to the distortion vector correction unit 311 . The distortion aberration vector correction unit 311 corrects each pixel in each frame of the image data D13 based on the distortion aberration vector information and supplies it to the parallax calculation unit 313 . If the distortion vector information of a certain pixel is +10 in the horizontal direction and -5 in the vertical direction, the distortion vector correction unit 311 displaces the pixel by -10 pixels in the horizontal direction and +5 pixels in the vertical direction. .

歪曲収差ベクトル補正部312には、画像データD23と、レンズ群21の歪曲収差ベクトル情報とが入力される。歪曲収差ベクトル補正部312は、歪曲収差ベクトル補正部311と同様に、画像データD23の各フレーム内の各画素を、歪曲収差ベクトル情報に基づいて補正して視差算出部313に供給する。 Image data D<b>23 and distortion vector information of the lens group 21 are input to the distortion vector correction unit 312 . Similar to the distortion vector correction unit 311 , the distortion vector correction unit 312 corrects each pixel in each frame of the image data D23 based on the distortion vector information and supplies the corrected pixels to the parallax calculation unit 313 .

ROM41に記憶させる歪曲収差ベクトル情報を、歪曲収差ベクトル補正部311及び312が画素を変位させる値そのものとしてもよい。即ち、歪曲収差ベクトルが水平方向+10画素、垂直方向-5画素のベクトルであるとき、ROM41に記憶させる歪曲収差ベクトル情報を、歪曲収差ベクトルの正負を反転させて、水平方向-10、垂直方向+5としてもよい。この場合、例えば、歪曲収差ベクトル補正部311は、ある画素における歪曲収差ベクトル情報が水平方向-10、垂直方向+5であれば、その画素を水平方向に-10画素変位させ、垂直方向に+5画素変位させればよい。 The distortion vector information to be stored in the ROM 41 may be the values themselves for displacing the pixels by the distortion vector correction units 311 and 312 . That is, when the distortion vector is a vector of +10 pixels in the horizontal direction and -5 pixels in the vertical direction, the distortion vector information to be stored in the ROM 41 is obtained by inverting the sign of the distortion vector to obtain -10 pixels in the horizontal direction and +5 pixels in the vertical direction. may be In this case, for example, if the distortion vector information in a certain pixel is −10 in the horizontal direction and +5 in the vertical direction, the distortion vector correction unit 311 displaces the pixel by −10 pixels in the horizontal direction and +5 pixels in the vertical direction. It should be displaced.

視差算出部313は、歪曲収差ベクトル補正部311及び312によって歪曲収差ベクトルが補正された画像データD13及びD23に基づいて両者の視差を算出する。視差算出部313は、フレーム内の一部の領域で視差を算出すればよい。典型的には、フレームの中央部でフォーカスを合わせるため、視差算出部313はフレームの中央に位置する所定の面積の領域で視差を算出する。視差算出部313は、フレームを水平方向に均等に3分割、垂直方向に均等に3分割した、計9個の領域の中央に位置する領域で視差を算出してもよい。 The parallax calculator 313 calculates the parallax between the image data D13 and D23 whose distortion vectors are corrected by the distortion vector correctors 311 and 312, respectively. The parallax calculation unit 313 may calculate parallax in a partial region within the frame. Typically, the parallax calculator 313 calculates the parallax in a predetermined area located in the center of the frame in order to focus on the center of the frame. The parallax calculation unit 313 may calculate the parallax in a central area of a total of 9 areas obtained by equally dividing the frame into 3 parts in the horizontal direction and 3 parts in the vertical direction.

視差算出部313は、視差を算出する領域内で、画像データD13の画素と同じ垂直位置で画像データD23における最も差分が小さい画素(相関が最も高い画素)を探索することによって、画像データD13と画像データD23との水平方向の視差を算出する。視差算出部313は、視差を算出する領域内で画素ごとに得られる視差の例えば平均値(または最大値)を画像データD13と画像データD23との最終的な視差とすればよい。 The parallax calculation unit 313 searches for a pixel with the smallest difference (the pixel with the highest correlation) in the image data D23 at the same vertical position as the pixel of the image data D13 within the region for calculating the parallax. A horizontal parallax with the image data D23 is calculated. The parallax calculator 313 may use, for example, the average value (or the maximum value) of the parallaxes obtained for each pixel in the region where the parallax is calculated as the final parallax between the image data D13 and the image data D23.

フォーカスを合わせる位置が撮像装置100から離れて無限遠に近付くほど、画像データD13と画像データD23との視差は小さくなる。視差算出部313で算出された視差は、概ね、フォーカスを合わせる距離に応じた値となる。 As the focus position moves away from the imaging device 100 and approaches infinity, the parallax between the image data D13 and the image data D23 becomes smaller. The parallax calculated by the parallax calculation unit 313 is generally a value corresponding to the focusing distance.

変換テーブル保持部315には、視差算出部313で算出された視差と、その視差に応じた距離でフォーカスを合わせることができるフォーカスレンズの位置を示す位置情報とを対応付けた変換テーブルが保持されている。変換テーブルは、ROM41に記憶されていてもよい。 The conversion table holding unit 315 holds a conversion table that associates the parallax calculated by the parallax calculation unit 313 with position information indicating the position of the focus lens that can focus at a distance corresponding to the parallax. ing. A conversion table may be stored in the ROM 41 .

フォーカスレンズ位置変換部314は、変換テーブルを参照して、視差算出部313より供給された視差をフォーカスレンズの位置情報に変換して、駆動制御部33及び34に供給する。駆動制御部33及び34は、それぞれ、レンズ群11及び21のフォーカスレンズをフォーカスレンズ位置変換部314で求められた位置に移動させるよう駆動部14及び24を制御する。 The focus lens position conversion unit 314 refers to the conversion table, converts the parallax supplied from the parallax calculation unit 313 into focus lens position information, and supplies the position information to the drive control units 33 and 34 . The drive control units 33 and 34 control the drive units 14 and 24 to move the focus lenses of the lens groups 11 and 21 to the positions obtained by the focus lens position conversion unit 314, respectively.

レンズ群11及び21のフォーカスレンズを移動させるよう駆動部14及び24を制御した後、駆動制御部33及び34は、山登りAF処理部32による指示に従って駆動部14及び24を制御する。山登りAF処理部32は、画像データD13のコントラストを求める。駆動制御部33及び34は、山登りAF処理部32において最大のコントラストが得られるまで、レンズ群11及び21のフォーカスレンズを移動させるよう駆動部14及び24を制御する。 After controlling the drive units 14 and 24 to move the focus lenses of the lens groups 11 and 21 , the drive control units 33 and 34 control the drive units 14 and 24 according to instructions from the hill-climbing AF processing unit 32 . The hill-climbing AF processing section 32 obtains the contrast of the image data D13. The drive control units 33 and 34 control the drive units 14 and 24 to move the focus lenses of the lens groups 11 and 21 until the hill-climbing AF processing unit 32 obtains the maximum contrast.

フォーカスレンズ位置変換部314は、変換テーブルを参照して、視差算出部313より供給された視差をフォーカスレンズの位置情報に変換して、駆動制御部33に供給する一方、駆動制御部34にはフォーカスレンズの位置情報を供給しないようにしてもよい。駆動制御部33は、レンズ群11のフォーカスレンズをフォーカスレンズ位置変換部314で求められた位置に移動させるよう駆動部14を制御する。一方、駆動制御部34は、レンズ群21のフォーカスレンズをフォーカスレンズ位置変換部314で求められた位置に移動させるよう駆動部24を制御しなくてもよい。これらのことは、後述する第2~第5実施形態においても同様である。 The focus lens position conversion unit 314 refers to the conversion table, converts the parallax supplied from the parallax calculation unit 313 into focus lens position information, and supplies the information to the drive control unit 33 . The position information of the focus lens may not be supplied. The drive control unit 33 controls the drive unit 14 to move the focus lens of the lens group 11 to the position obtained by the focus lens position conversion unit 314 . On the other hand, the drive control section 34 does not have to control the drive section 24 to move the focus lens of the lens group 21 to the position obtained by the focus lens position conversion section 314 . The same applies to second to fifth embodiments, which will be described later.

図6に示すフローチャートを用いて、第1実施形態で実行されるオートフォーカス制御方法を説明する。図6において、撮像装置100による撮影が開始されると、制御部30は、ステップS101にて、画像データD13及びD23の各フレーム内の画素をそれぞれレンズ群11及び21の歪曲収差ベクトル情報に基づいて補正する。 The autofocus control method executed in the first embodiment will be described using the flowchart shown in FIG. In FIG. 6, when the imaging apparatus 100 starts shooting, in step S101, the control unit 30 adjusts the pixels in each frame of the image data D13 and D23 based on the distortion aberration vector information of the lens groups 11 and 21, respectively. to correct.

制御部30は、ステップS102にて、画像データD13及びD23の視差を算出する。制御部30は、ステップS103にて、変換テーブルを参照して視差をフォーカスレンズの位置に変換し、ステップS104にて、フォーカスレンズを移動するよう駆動部14及び24を制御する。 The control unit 30 calculates the parallax of the image data D13 and D23 in step S102. The control unit 30 refers to the conversion table to convert the parallax into the position of the focus lens in step S103, and controls the driving units 14 and 24 to move the focus lens in step S104.

その後、制御部30は、ステップS105にて、山登りAFを実行する。制御部30は、ステップS106にて、撮影終了の操作がされたか否かを判定する。撮影終了の操作がされなければ(NO)、制御部30はステップS105及びS106の処理を繰り返す。撮影終了の操作がされれば(YES)、制御部30は処理を終了させる。 Thereafter, in step S105, the control unit 30 executes hill-climbing AF. In step S106, the control unit 30 determines whether or not an operation to end shooting has been performed. If the shooting end operation is not performed (NO), the control unit 30 repeats the processing of steps S105 and S106. If the shooting end operation is performed (YES), the control unit 30 ends the processing.

第1実施形態によれば、まず位相差AFを実行してフォーカスレンズをおおよその合焦位置まで移動させた後に山登りAFを実行するので、応答性及び合焦精度のよいオートフォーカスを実現することができる。これに加えて、第1実施形態によれば、レンズ群11及び21の歪曲収差ベクトルを補正した上で視差を求めているので、位相差AFを用いるときの合焦精度を向上させることができる。 According to the first embodiment, the phase-difference AF is executed first, the focus lens is moved to an approximate in-focus position, and then the hill-climbing AF is executed. can be done. In addition, according to the first embodiment, the parallax is obtained after correcting the distortion vectors of the lens groups 11 and 21, so that the focusing accuracy when using the phase difference AF can be improved. .

<第2実施形態>
第2実施形態は、撮像装置100が初期状態(合焦する前の状態)で、偶然にもフォーカスが合っていて、精度の悪い視差を算出しないように構成することによって、位相差AFを用いるときの合焦精度を向上させている。
<Second embodiment>
In the second embodiment, the imaging apparatus 100 is in the initial state (state before focusing), and the phase difference AF is used by configuring so as not to calculate the inaccurate parallax when the focus is coincident. Improves focusing accuracy.

図7は、第2実施形態における制御部30が備える具体的な構成例を示している。図7において、図5と同一部分には同一符号を付し、その説明を省略することがある。図7に示すように、制御部30は、位相差AF処理部31B、山登りAF処理部32、駆動制御部33及び34を備える。位相差AF処理部31Bは、ローパスフィルタ(以下、LPF)316及び317、視差算出部313、フォーカスレンズ位置変換部314、変換テーブル保持部315を有する。LPF316を第1のローパスフィルタとすると、LPF317は第2のローパスフィルタである。 FIG. 7 shows a specific configuration example of the controller 30 in the second embodiment. In FIG. 7, the same parts as those in FIG. 5 are denoted by the same reference numerals, and the description thereof may be omitted. As shown in FIG. 7, the controller 30 includes a phase difference AF processor 31B, a hill-climbing AF processor 32, and drive controllers 33 and . The phase difference AF processing unit 31B has low-pass filters (hereinafter referred to as LPFs) 316 and 317, a parallax calculation unit 313, a focus lens position conversion unit 314, and a conversion table holding unit 315. If LPF 316 is the first low-pass filter, LPF 317 is the second low-pass filter.

LPF316及び317は、それぞれ、画像データD13及びD23の高域成分を減衰させて低域成分を抽出し、抽出した画像データD13及びD23の低域成分を視差算出部313に供給する。視差算出部313は、LPF316及び317より供給された画像データD13及びD23の低域成分に基づいて視差を算出する。 The LPFs 316 and 317 respectively attenuate the high-frequency components of the image data D13 and D23 to extract low-frequency components, and supply the extracted low-frequency components of the image data D13 and D23 to the parallax calculator 313 . The parallax calculator 313 calculates parallax based on the low-frequency components of the image data D13 and D23 supplied from the LPFs 316 and 317 .

LPF316及び317によるLPF処理前の画素(x,y)の値をInPic(x,y)、LPF処理後の画素(x,y)の値をOutPic(x,y)、加算処理する数をMとすると、LPF316及び317は、次の式(1)で示す処理を実行する。LPF処理の際に加算する画素の位置に応じた重み付け処理がなされてもよい。
OutPic(x,y)=ΣInPic(x,y)/M …(1)
InPic(x,y) is the value of pixel (x, y) before LPF processing by LPF 316 and 317, OutPic(x, y) is the value of pixel (x, y) after LPF processing, and M is the number of additions Then, the LPFs 316 and 317 execute the processing shown in the following equation (1). Weighting processing may be performed according to the positions of the pixels to be added during the LPF processing.
OutPic(x,y)=ΣInPic(x,y)/M (1)

図8Aに示すように、画像データD13のあるフレームの画像が水平方向に高輝度と低輝度とを繰り返す格子模様のような繰り返しパターン81を含むとする。フレームの画像が繰り返しパターン81を含むと、視差算出部313は誤った視差を算出しやすい。 As shown in FIG. 8A, it is assumed that an image of a certain frame of the image data D13 includes a repetitive pattern 81 such as a checkered pattern in which high luminance and low luminance are repeated in the horizontal direction. If the frame image includes the repeating pattern 81, the parallax calculator 313 is likely to calculate an erroneous parallax.

図8Bに示すように、LPF316及び317が画像データD13及びD23にLPF処理を施すことにより、繰り返しパターン81を一定値パターン82とすることができる。これにより、視差算出部313は正しい視差を算出しやすくなる。なお、図8Bにおいては、画像を破線で示すことにより、図8Aに示す画像にLPF処理を施した状態を概念的に示している。 As shown in FIG. 8B, the LPFs 316 and 317 apply the LPF processing to the image data D13 and D23, so that the repeating pattern 81 can be made into the constant value pattern 82. FIG. This makes it easier for the parallax calculator 313 to calculate a correct parallax. Note that FIG. 8B conceptually shows a state in which the image shown in FIG. 8A is subjected to LPF processing by showing the image with a dashed line.

視差算出部313が、LPF316及び317より出力された画像データD13及びD23に基づいて、ある画素において最も差分が小さい画素を探索する際に、最小値が存在しない場合がある。このような場合、視差算出部313はその画素において0を出力してもよい。これにより、偶然に最小値が得られて、あたかも正しい視差が算出されるということを回避することができる。 When the parallax calculator 313 searches for a pixel with the smallest difference based on the image data D13 and D23 output from the LPFs 316 and 317, the minimum value may not exist. In such a case, the parallax calculator 313 may output 0 for that pixel. As a result, it is possible to avoid the fact that the minimum value is obtained by chance and the parallax is calculated as if it were correct.

図9に示すフローチャートを用いて、第2実施形態で実行されるオートフォーカス制御方法を説明する。図9において、撮像装置100による撮影が開始されると、制御部30は、ステップS201にて、画像データD13及びD23にLPF処理を施す。制御部30は、ステップS202にて、LPF処理された画像データD13及びD23に基づいて視差を算出する。 The autofocus control method executed in the second embodiment will be described using the flowchart shown in FIG. In FIG. 9, when the imaging device 100 starts photographing, the control unit 30 performs LPF processing on the image data D13 and D23 in step S201. In step S202, the control unit 30 calculates parallax based on the LPF-processed image data D13 and D23.

制御部30は、ステップS203にて、変換テーブルを参照して視差をフォーカスレンズの位置に変換し、ステップS204にて、フォーカスレンズを移動するよう駆動部14及び24を制御する。 The control unit 30 refers to the conversion table to convert the parallax into the position of the focus lens in step S203, and controls the driving units 14 and 24 to move the focus lens in step S204.

その後、制御部30は、ステップS205にて、山登りAFを実行する。制御部30は、ステップS206にて、撮影終了の操作がされたか否かを判定する。撮影終了の操作がされなければ(NO)、制御部30はステップS205及びS206の処理を繰り返す。撮影終了の操作がされれば(YES)、制御部30は処理を終了させる。 Thereafter, in step S205, the control unit 30 executes hill-climbing AF. In step S206, the control unit 30 determines whether or not an operation to end shooting has been performed. If the shooting end operation is not performed (NO), the control unit 30 repeats the processing of steps S205 and S206. If the shooting end operation is performed (YES), the control unit 30 ends the processing.

第2実施形態によれば、まず位相差AFを実行してフォーカスレンズをおおよその合焦位置まで移動させた後に山登りAFを実行するので、応答性及び合焦精度のよいオートフォーカスを実現することができる。これに加えて、第2実施形態によれば、画像データD13及びD23にLPF処理を施した上で視差を求めているので、位相差AFを用いるときの合焦精度を向上させることができる。 According to the second embodiment, the phase-difference AF is performed first, the focus lens is moved to an approximate in-focus position, and then the hill-climbing AF is performed. can be done. In addition, according to the second embodiment, the image data D13 and D23 are subjected to the LPF processing and then the parallax is obtained, so that the focusing accuracy when using the phase difference AF can be improved.

<第3実施形態>
第3実施形態は、第2実施形態を改良したより好ましい構成である。図10は、第3実施形態における制御部30が備える具体的な構成例を示している。図10において、図7と同一部分には同一符号を付し、その説明を省略することがある。図10に示すように、位相差AF処理部31Cは、位相差AF処理部31Bが有さない構成として、視差算出部318(第2の視差算出部)、差分算出部319、視差選択部3110を有する。
<Third Embodiment>
3rd Embodiment is a more preferable structure which improved 2nd Embodiment. FIG. 10 shows a specific configuration example of the controller 30 according to the third embodiment. In FIG. 10, the same parts as those in FIG. 7 are denoted by the same reference numerals, and the description thereof may be omitted. As shown in FIG. 10, the phase difference AF processing unit 31C includes a parallax calculation unit 318 (second parallax calculation unit), a difference calculation unit 319, and a parallax selection unit 3110 as components that the phase difference AF processing unit 31B does not have. have

視差算出部313(第1の視差算出部)は、LPF316及び317より供給された画像データD13及びD23の低域成分に基づいて視差を算出する。視差算出部318は、LPF316及び317を経ていない、入力された画像データD13及びD23に基づいて視差を算出する。差分算出部319は、視差算出部313より供給された視差と視差算出部318より供給された視差との差分を算出して、視差選択部3110に供給する。視差選択部3110には、視差算出部313が算出した視差と視差算出部318が算出した視差とが入力される。 The parallax calculator 313 (first parallax calculator) calculates parallax based on the low frequency components of the image data D13 and D23 supplied from the LPFs 316 and 317 . The parallax calculator 318 calculates parallax based on the input image data D13 and D23 that have not passed through the LPFs 316 and 317 . The difference calculation unit 319 calculates the difference between the parallax supplied from the parallax calculation unit 313 and the parallax supplied from the parallax calculation unit 318 , and supplies the difference to the parallax selection unit 3110 . The parallax calculated by the parallax calculator 313 and the parallax calculated by the parallax calculator 318 are input to the parallax selector 3110 .

視差選択部3110は、差分算出部319より供給された視差の差分が所定の閾値以上であるか否かを判定する。視差の差分が閾値以上であれば、視差算出部318が算出した視差の精度が悪いと考えられ、視差の差分が閾値未満であれば、視差算出部318が算出した視差の精度がよいと考えられる。そこで、視差選択部3110は、視差の差分が閾値以上であれば、視差算出部313が算出した視差を選択し、視差の差分が閾値未満であれば、視差算出部318が算出した視差を選択して、フォーカスレンズ位置変換部314に供給する。 The parallax selection unit 3110 determines whether or not the parallax difference supplied from the difference calculation unit 319 is equal to or greater than a predetermined threshold. If the parallax difference is greater than or equal to the threshold, the accuracy of the parallax calculated by the parallax calculation unit 318 is considered to be poor, and if the difference in parallax is less than the threshold, the accuracy of the parallax calculated by the parallax calculation unit 318 is considered to be good. be done. Therefore, the parallax selection unit 3110 selects the parallax calculated by the parallax calculation unit 313 if the parallax difference is equal to or greater than the threshold, and selects the parallax calculated by the parallax calculation unit 318 if the parallax difference is less than the threshold. and supplied to the focus lens position conversion unit 314 .

図10に破線の矢印線で示しているように、差分算出部319が算出した視差の差分を駆動制御部33及び34に供給してもよい。駆動制御部33及び34は、入力された視差の差分が閾値以上であるとき、次のように駆動部14及び24を制御してもよい。駆動制御部33及び34は、レンズ群11及び21のフォーカスレンズを位相差AF処理部31Cで指示された位置に移動させることなく、即座に、山登りAF処理部32による指示に従ってフォーカスレンズを移動させるよう駆動部14及び24を制御する。 The parallax difference calculated by the difference calculator 319 may be supplied to the drive controllers 33 and 34, as indicated by the dashed arrow lines in FIG. The drive control units 33 and 34 may control the drive units 14 and 24 as follows when the input parallax difference is greater than or equal to the threshold. The drive control units 33 and 34 move the focus lenses of the lens groups 11 and 21 immediately according to the instruction from the hill-climbing AF processing unit 32 without moving the focus lenses of the lens groups 11 and 21 to the positions instructed by the phase difference AF processing unit 31C. It controls the drives 14 and 24 as follows.

図11に示すフローチャートを用いて、第3実施形態で実行されるオートフォーカス制御方法を説明する。図11において、撮像装置100による撮影が開始されると、制御部30は、ステップS301にて、画像データD13及びD23にLPF処理を施す。制御部30は、ステップS302にて、LPF処理前及びLPF処理後の画像データD13及びD23に基づいて視差を算出する。 The autofocus control method executed in the third embodiment will be described using the flowchart shown in FIG. In FIG. 11, when the imaging device 100 starts photographing, the control unit 30 performs LPF processing on the image data D13 and D23 in step S301. In step S302, the control unit 30 calculates parallax based on the image data D13 and D23 before LPF processing and after LPF processing.

制御部30は、ステップS303にて、両者の視差の差分を算出する。制御部30は、ステップS304にて、差分が閾値以上であるか否かを判定する。差分が閾値以上であれば(YES)、制御部30は、ステップS305にて、LPF処理後の画像データD13及びD23に基づいて算出された視差を選択して、処理をステップS307に移行させる。差分が閾値以上でなければ(NO)、制御部30は、ステップS306にて、LPF処理前の画像データD13及びD23に基づいて算出された視差を選択して、処理をステップS307に移行させる。 In step S303, the control unit 30 calculates the difference in parallax between the two. In step S304, the control unit 30 determines whether or not the difference is greater than or equal to the threshold. If the difference is equal to or greater than the threshold (YES), in step S305, the control unit 30 selects the parallax calculated based on the image data D13 and D23 after LPF processing, and causes the process to proceed to step S307. If the difference is not equal to or greater than the threshold (NO), in step S306, the control unit 30 selects the parallax calculated based on the image data D13 and D23 before LPF processing, and moves the process to step S307.

制御部30は、ステップS307にて、変換テーブルを参照して視差をフォーカスレンズの位置に変換し、ステップS308にて、フォーカスレンズを移動するよう駆動部14及び24を制御する。 The control unit 30 refers to the conversion table to convert the parallax into the position of the focus lens in step S307, and controls the driving units 14 and 24 to move the focus lens in step S308.

その後、制御部30は、ステップS309にて、山登りAFを実行する。制御部30は、ステップS310にて、撮影終了の操作がされたか否かを判定する。撮影終了の操作がされなければ(NO)、制御部30はステップS309及びS310の処理を繰り返す。撮影終了の操作がされれば(YES)、制御部30は処理を終了させる。 Thereafter, in step S309, the control unit 30 executes hill-climbing AF. In step S310, the control unit 30 determines whether or not an operation to end shooting has been performed. If the shooting end operation is not performed (NO), the control unit 30 repeats the processing of steps S309 and S310. If the shooting end operation is performed (YES), the control unit 30 ends the processing.

図11に破線の矢印線で示しているように、ステップS304にて差分が閾値以上であるときに、即座にステップS309に移行させてもよい。 As indicated by the dashed arrow line in FIG. 11, when the difference is equal to or greater than the threshold in step S304, the process may immediately proceed to step S309.

第3実施形態によれば、精度の悪い視差が算出される画像であるときに、LPF処理を施した画像データD13及びD23によって視差を求めることができ、位相差AFを用いるときの合焦精度を向上させることができる。精度のよい視差が算出される画像であるときには、LPF処理を施さない方が好ましい。第3実施形態によれば、精度のよい視差が算出される画像であるときに、LPF処理を施さない画像データD13及びD23によって視差を求めることができる。 According to the third embodiment, when the image is an image for which parallax is calculated with poor accuracy, the parallax can be obtained by the image data D13 and D23 subjected to the LPF processing, and the focusing accuracy when using phase difference AF can be improved. It is preferable not to apply the LPF process to an image for which parallax can be calculated with high accuracy. According to the third embodiment, the parallax can be obtained from the image data D13 and D23 that are not subjected to the LPF processing when the image is an image for which the parallax can be calculated with high accuracy.

<第4実施形態>
第4実施形態は、第2実施形態を改良したより好ましい構成である。図12は、第4実施形態における制御部30が備える具体的な構成例を示している。図12において、図7と同一部分には同一符号を付し、その説明を省略することがある。図12に示すように、位相差AF処理部31Dは、位相差AF処理部31Bが有さない構成として、繰り返しパターン検出部3111を有する。
<Fourth Embodiment>
4th Embodiment is a more preferable structure which improved 2nd Embodiment. FIG. 12 shows a specific configuration example of the controller 30 according to the fourth embodiment. In FIG. 12, the same parts as those in FIG. 7 are denoted by the same reference numerals, and the description thereof may be omitted. As shown in FIG. 12, the phase difference AF processing section 31D has a repeated pattern detection section 3111 as a configuration that the phase difference AF processing section 31B does not have.

繰り返しパターン検出部3111は、画像データD13の各フレームにおいて、画像のエッジを検出することにより、画像内に存在することがある図8Aに示す繰り返しパターン81のような繰り返しパターンを検出する。繰り返しパターン検出部3111は、繰り返しパターンを検出すると、その旨をLPF316及び317に知らせる。例えば、繰り返しパターン検出部3111は、繰り返しパターンを検出しないときには値“0”をLPF316及び317に供給し、繰り返しパターンを検出したときには値“1”をLPF316及び317に供給すればよい。 The repetitive pattern detection unit 3111 detects a repetitive pattern such as the repetitive pattern 81 shown in FIG. 8A that may exist in the image by detecting edges of the image in each frame of the image data D13. When repeating pattern detection section 3111 detects a repeating pattern, it notifies LPFs 316 and 317 of the fact. For example, the repeat pattern detection unit 3111 may supply the value "0" to the LPFs 316 and 317 when no repeat pattern is detected, and the value "1" to the LPFs 316 and 317 when the repeat pattern is detected.

LPF316及び317は、繰り返しパターン検出部3111が繰り返しパターンを検出しなければ、画像データD13及びD23にLPF処理を施さず、画像データD13及びD23をそのまま視差算出部313に供給する。LPF316及び317は、繰り返しパターン検出部3111が繰り返しパターンを検出すれば、画像データD13及びD23にLPF処理を施して視差算出部313に供給する。 The LPFs 316 and 317 supply the image data D13 and D23 to the parallax calculator 313 as they are without LPF processing the image data D13 and D23 unless the repeat pattern detection unit 3111 detects a repeat pattern. When the repeat pattern detection unit 3111 detects a repeat pattern, the LPFs 316 and 317 perform LPF processing on the image data D13 and D23 and supply the processed image data to the parallax calculation unit 313 .

図13に示すフローチャートを用いて、第4実施形態で実行されるオートフォーカス制御方法を説明する。図13において、撮像装置100による撮影が開始されると、制御部30は、ステップS401にて、画像データD13に基づき、フレーム内に繰り返しパターンが存在するか否かを判定する。フレーム内に繰り返しパターンが存在すれば(YES)、制御部30は、ステップS402にて、画像データD13及びD23にLPF処理を施して、処理をステップS403に移行させる。フレーム内に繰り返しパターンが存在しなければ(NO)、制御部30は、処理をステップS403に移行させる。 The autofocus control method executed in the fourth embodiment will be described using the flowchart shown in FIG. In FIG. 13, when the imaging device 100 starts photographing, the control unit 30 determines in step S401 whether or not a repeating pattern exists in the frame based on the image data D13. If there is a repeating pattern in the frame (YES), the control unit 30 performs LPF processing on the image data D13 and D23 in step S402, and proceeds to step S403. If no repeating pattern exists in the frame (NO), the control unit 30 causes the process to proceed to step S403.

制御部30は、ステップS403にて、LPF処理された、またはLPF処理されていない画像データD13及びD23に基づいて視差を算出する。制御部30は、ステップS404にて、変換テーブルを参照して視差をフォーカスレンズの位置に変換し、ステップS405にて、フォーカスレンズを移動するよう駆動部14及び24を制御する。 In step S403, the control unit 30 calculates parallax based on the image data D13 and D23 that have undergone LPF processing or have not undergone LPF processing. The control unit 30 refers to the conversion table to convert the parallax into the position of the focus lens in step S404, and controls the driving units 14 and 24 to move the focus lens in step S405.

その後、制御部30は、ステップS406にて、山登りAFを実行する。制御部30は、ステップS407にて、撮影終了の操作がされたか否かを判定する。撮影終了の操作がされなければ(NO)、制御部30はステップS406及びS407の処理を繰り返す。撮影終了の操作がされれば(YES)、制御部30は処理を終了させる。 Thereafter, in step S406, the control unit 30 executes hill-climbing AF. In step S407, the control unit 30 determines whether or not an operation to end shooting has been performed. If the shooting end operation is not performed (NO), the control unit 30 repeats the processing of steps S406 and S407. If the shooting end operation is performed (YES), the control unit 30 ends the processing.

第4実施形態によれば、画像データD13及びD23の画像が、精度の悪い視差が算出される可能性の高い繰り返しパターンを含む画像であるときに、LPF処理を施した画像データD13及びD23によって視差を求めることができ、位相差AFを用いるときの合焦精度を向上させることができる。第4実施形態によれば、画像データD13及びD23の画像が繰り返しパターンを含む画像でないときに、LPF処理を施さない画像データD13及びD23によって視差を求めることができる。 According to the fourth embodiment, when the images of the image data D13 and D23 are images including repetitive patterns that are likely to result in inaccurate parallax calculation, the LPF-processed image data D13 and D23 Parallax can be obtained, and focusing accuracy can be improved when phase difference AF is used. According to the fourth embodiment, when the images of the image data D13 and D23 do not include repetitive patterns, the parallax can be obtained from the image data D13 and D23 without LPF processing.

<第5実施形態>
第5実施形態は、フォーカスを合わせる領域における算出した視差の信頼性に応じて位相差AFと山登りAFとを使い分けるように構成している。
<Fifth Embodiment>
The fifth embodiment is configured to selectively use phase difference AF and hill-climbing AF according to the reliability of the calculated parallax in the focused area.

図14は、第5実施形態における制御部30が備える具体的な構成例を示している。図14において、図5と同一部分には同一符号を付し、その説明を省略することがある。図14に示すように、制御部30は、位相差AF処理部31E、山登りAF処理部32、駆動制御部33及び34を備える。位相差AF処理部31Eは、視差算出部313、フォーカスレンズ位置変換部314、変換テーブル保持部315、ヒストグラム生成部3112、信頼性判定部3113を有する。 FIG. 14 shows a specific configuration example of the controller 30 according to the fifth embodiment. In FIG. 14, the same parts as in FIG. 5 are denoted by the same reference numerals, and the description thereof may be omitted. As shown in FIG. 14, the control section 30 includes a phase difference AF processing section 31E, a hill-climbing AF processing section 32, and drive control sections 33 and . The phase difference AF processing unit 31E has a parallax calculation unit 313, a focus lens position conversion unit 314, a conversion table storage unit 315, a histogram generation unit 3112, and a reliability determination unit 3113.

第5実施形態において、視差算出部313には、各フレーム内の複数の領域のうちのいずれかの領域を指定するための領域指定信号が入力される。図15に示すように、画像データD13及びD23の各フレームD13F及びD23Fは、水平方向に均等に3分割、垂直方向に均等に3分割した、計9個の領域に分けられている。9個の領域を“左上”、“中上”、“右上”、“左中”、“中中”、“右中”、“左下”、“中下”、“右下”の領域と称することとする。デフォルトの状態では、視差算出部313には、“中中”の領域を特定する領域指定信号が入力される。 In the fifth embodiment, the parallax calculator 313 receives an area designation signal for designating one of a plurality of areas in each frame. As shown in FIG. 15, each frame D13F and D23F of the image data D13 and D23 is equally divided into three areas in the horizontal direction and equally divided into three areas in the vertical direction into a total of nine areas. The nine regions are called "upper left", "upper middle", "upper right", "left middle", "middle middle", "right middle", "lower left", "lower middle", and "lower right" regions. It is assumed that In the default state, the parallax calculation unit 313 receives an area designation signal that specifies a "medium-medium" area.

視差算出部313は、画像データD13及びD23の各フレームの全領域のうち、領域指定信号で指定された領域における視差を算出する。視差算出部313は、指定された領域の複数の画素で算出された視差の例えば平均値(または最大値)を最終的な視差として、フォーカスレンズ位置変換部314に供給する。デフォルトの状態では、視差算出部313は、“中中”の領域における視差を算出して、フォーカスレンズ位置変換部314に供給する。 The parallax calculator 313 calculates the parallax in the area designated by the area designation signal among the entire areas of each frame of the image data D13 and D23. The parallax calculator 313 supplies the focus lens position converter 314 with, for example, the average value (or the maximum value) of the parallaxes calculated for the plurality of pixels in the specified area as the final parallax. In the default state, the parallax calculation unit 313 calculates the parallax in the “medium” area and supplies it to the focus lens position conversion unit 314 .

図16に示すように、ユーザがフォーカスを合わせる領域を変更するために、ディスプレイ50を指で触れたとする。制御部30は、指で触れた位置の領域を特定する領域指定信号を生成する。図16に示す例では、ユーザは“右中”の領域に触れており、視差算出部313には、“右中”の領域を特定する領域指定信号が入力される。この場合、視差算出部313は、“右中”の領域における視差を算出して、フォーカスレンズ位置変換部314に供給する。 Assume that the user touches the display 50 with a finger to change the focused area, as shown in FIG. Control unit 30 generates an area designation signal that identifies the area of the position touched by the finger. In the example shown in FIG. 16 , the user touches the “middle right” area, and the parallax calculation unit 313 receives an area designation signal specifying the “middle right” area. In this case, the parallax calculator 313 calculates the parallax in the “middle right” region and supplies it to the focus lens position converter 314 .

ヒストグラム生成部3112は、視差算出部313が算出した領域内の視差のヒストグラムを生成する。ヒストグラム生成部3112は、領域内の全ての画素で算出された視差のヒストグラムを生成してもよいし、水平方向及び垂直方向に間引いた一部の画素で算出された視差のヒストグラムを生成してもよい。 The histogram generation unit 3112 generates a histogram of parallax within the area calculated by the parallax calculation unit 313 . The histogram generation unit 3112 may generate a histogram of parallax calculated with all pixels in the region, or generate a histogram of parallax calculated with some pixels thinned out in the horizontal and vertical directions. good too.

図17は、あるフレームにおいて、仮に、視差算出部313がフレーム内の全体で視差を算出し、ヒストグラム生成部3112が各領域でヒストグラムを生成したときのヒストグラムの一例を示している。図17に示すヒストグラムは、簡略化のため、視差0、4、8、…28、32における、それらの視差が得られた度数(画素の個数)を示している。ヒストグラム生成部3112は、図17に示すような各領域の視差のヒストグラムのうち、ヒストグラム生成部3112が実際に生成した領域のヒストグラムを信頼性判定部3113に供給する。 FIG. 17 shows an example of a histogram when the parallax calculation unit 313 calculates the parallax for the entire frame and the histogram generation unit 3112 generates a histogram for each region in a given frame. For simplification, the histogram shown in FIG. 17 shows the frequencies (the number of pixels) at which these parallaxes are obtained at parallaxes 0, 4, 8, . The histogram generation unit 3112 supplies the histogram of the area actually generated by the histogram generation unit 3112 to the reliability determination unit 3113 among the histograms of parallax of each area as shown in FIG.

ここでは、視差算出部313が領域指定信号で指定された領域における視差を算出し、ヒストグラム生成部3112が指定された領域における視差のヒストグラムを生成している。視差算出部313が各フレームの全ての領域で視差を算出し、ヒストグラム生成部3112が全ての領域で視差のヒストグラムを生成してもよい。 Here, the parallax calculator 313 calculates the parallax in the area designated by the area designation signal, and the histogram generator 3112 generates the histogram of the parallax in the designated area. The parallax calculation unit 313 may calculate parallax in all areas of each frame, and the histogram generation unit 3112 may generate a histogram of parallax in all areas.

この場合、視差算出部313は、領域指定信号で指定された領域における最終的な視差を算出して、フォーカスレンズ位置変換部314に供給すればよい。ヒストグラム生成部3112にも領域指定信号を供給して、ヒストグラム生成部3112は、領域指定信号で指定された領域におけるヒストグラムを信頼性判定部3113に供給すればよい。 In this case, the parallax calculator 313 may calculate the final parallax in the area designated by the area designation signal and supply it to the focus lens position converter 314 . An area designation signal is also supplied to the histogram generation section 3112 , and the histogram generation section 3112 may supply the histogram of the area designated by the area designation signal to the reliability determination section 3113 .

このように構成すると、視差算出部313及びヒストグラム生成部3112における計算量が増大する。しかしながら、ユーザがディスプレイ50に触れてフォーカスを合わせる領域を変更したときに、信頼性判定部3113が即座に算出された視差の信頼性を判定することができる。 With this configuration, the amount of calculation in the parallax calculation unit 313 and the histogram generation unit 3112 increases. However, when the user touches the display 50 to change the focused area, the reliability determination unit 3113 can immediately determine the reliability of the calculated parallax.

信頼性判定部3113は、ヒストグラムを統計的に解析して算出された視差の信頼性を判定する。信頼性判定部3113は、視差の信頼性を判定するために、ヒストグラムの標準偏差または分散を求める。信頼性判定部3113は、標準偏差または分散の他に、最大値を求めてもよいし、さらには平均値を求めてもよい。 The reliability determination unit 3113 determines the reliability of the parallax calculated by statistically analyzing the histogram. The reliability determination unit 3113 obtains the standard deviation or variance of the histogram in order to determine the reliability of parallax. The reliability determination unit 3113 may obtain the maximum value or the average value in addition to the standard deviation or variance.

ヒストグラムの標準偏差または分散が所定の大きさ未満であるということは、領域内で算出された視差のばらつきが小さく、信頼性が高いということである。標準偏差または分散が所定の大きさ以上であるということは、領域内で算出された視差がばらついており、信頼性が低いということである。信頼性の判定のために最大値と平均値とのうちの少なくとも一方がさらに用いられてもよい。 If the standard deviation or variance of the histogram is less than a predetermined size, it means that the disparity calculated within the region has a small variation and is highly reliable. If the standard deviation or variance is greater than or equal to a predetermined size, it means that the parallax calculated within the area varies and is unreliable. At least one of the maximum value and the average value may further be used for reliability determination.

信頼性判定部3113は、標準偏差または分散が所定の大きさ未満であるとき、信頼性判定値として、算出された視差の信頼性が高いことを示す例えば値“0”を駆動制御部33及び34に供給する。信頼性判定部3113は、標準偏差または分散が所定の大きさ以上であるとき、信頼性判定値として、算出された視差の信頼性が低いことを示す例えば値“1”を駆動制御部33及び34に供給する。 When the standard deviation or the variance is less than a predetermined size, the reliability determination unit 3113 sets the value “0”, for example, indicating that the calculated parallax is highly reliable, as the reliability determination value to the drive control unit 33 and the 34. When the standard deviation or the variance is equal to or greater than a predetermined size, the reliability determination unit 3113 sets the value “1”, for example, indicating that the reliability of the calculated parallax is low, to the drive control unit 33 and the 34.

図17に示す例において、例えば“左上”の領域では視差16が個数の最大値で視差は12~20に比較的集中している。被写体までの距離は中程度であり、視差の信頼性が高い。“右上”の領域では視差0が個数の最大値で視差は0~12に比較的集中している。被写体までの距離が遠く、視差の信頼性が高い。“中下”の領域では視差28が個数の最大値で視差は20~32に比較的集中している。被写体までの距離は近く、視差の信頼性が高い。 In the example shown in FIG. 17, for example, parallax 16 is the largest value in the “upper left” region, and parallaxes 12 to 20 are relatively concentrated. The distance to the subject is moderate, and the parallax is highly reliable. In the “upper right” region, parallax 0 is the maximum number of parallaxes, and parallaxes are relatively concentrated in 0-12. The distance to the subject is long, and the parallax is highly reliable. In the "middle and lower" region, parallax 28 is the largest number, and parallaxes 20 to 32 are relatively concentrated. The distance to the subject is close, and the parallax is highly reliable.

一方、“右中”の領域では視差の個数の最大値が小さく、視差は、視差0から視差32まで広範囲に発生している。標準偏差または分散が所定の大きさ以上であり、視差の信頼性が低い。視差の信頼性が高いか低いかを判定するための標準偏差または分散の閾値をどの程度の値にするかは設計的な事項である。 On the other hand, in the “middle right” area, the maximum number of parallaxes is small, and parallaxes occur in a wide range from 0 to 32 parallaxes. The standard deviation or variance is greater than or equal to a predetermined size, and the reliability of parallax is low. It is a matter of design to set a threshold value of standard deviation or variance for determining whether the reliability of parallax is high or low.

駆動制御部33及び34は、信頼性判定部3113から信頼性判定値“0”が供給されれば、それぞれ、レンズ群11及び21のフォーカスレンズをフォーカスレンズ位置変換部314で求められた位置に移動させるよう駆動部14及び24を制御する。レンズ群11及び21のフォーカスレンズを移動させるよう駆動部14及び24を制御した後、駆動制御部33及び34は、山登りAF処理部32による指示に従って駆動部14及び24を制御する。 When the reliability determination value “0” is supplied from the reliability determination unit 3113 , the drive control units 33 and 34 move the focus lenses of the lens groups 11 and 21 to the positions determined by the focus lens position conversion unit 314 . Control the drives 14 and 24 to move. After controlling the drive units 14 and 24 to move the focus lenses of the lens groups 11 and 21 , the drive control units 33 and 34 control the drive units 14 and 24 according to instructions from the hill-climbing AF processing unit 32 .

駆動制御部33及び34は、信頼性判定部3113から信頼性判定値“1”が供給されれば、レンズ群11及び21のフォーカスレンズをフォーカスレンズ位置変換部314で求められた位置に移動させることなく、即座に、山登りAF処理部32による指示に従ってフォーカスレンズを移動させるよう駆動部14及び24を制御する。 When the reliability determination value "1" is supplied from the reliability determination unit 3113, the drive control units 33 and 34 move the focus lenses of the lens groups 11 and 21 to the positions obtained by the focus lens position conversion unit 314. The drive units 14 and 24 are controlled to move the focus lens according to the instruction from the hill-climbing AF processing unit 32 without delay.

図17において、デフォルトの状態では、“中中”の領域において視差の信頼性が高いと判定されて、駆動制御部33及び34には信頼性判定値“0”が供給される。よって、“中中”の領域においては、位相差AF処理部31Eによる位相差AFに続けて山登りAFが実行される。ユーザが“右中”の領域においてフォーカスを合わせるために“右中”の領域に触れた場合には、“右中”の領域において視差の信頼性が低いと判定されて、駆動制御部33及び34には信頼性判定値“1”が供給される。よって、“右中”の領域においては、即座に、山登りAFが実行される。 In FIG. 17, in the default state, it is determined that the reliability of the parallax is high in the “medium” region, and the drive control units 33 and 34 are supplied with the reliability determination value “0”. Therefore, in the "medium-medium" area, the hill-climbing AF is performed following the phase-difference AF by the phase-difference AF processing unit 31E. When the user touches the "middle right" area to focus on the "middle right" area, it is determined that the reliability of the parallax in the "middle right" area is low, and the drive control unit 33 and 34 is supplied with the reliability determination value "1". Therefore, hill-climbing AF is immediately executed in the "middle right" area.

図18に示すフローチャートを用いて、第5実施形態で実行されるオートフォーカス制御方法を説明する。図18において、撮像装置100による撮影が開始されると、制御部30は、ステップS501にて、領域指定信号で指定された領域内の各画素で視差を算出する。制御部30は、ステップS502にて、領域内の視差のヒストグラムを生成する。 The autofocus control method executed in the fifth embodiment will be described using the flowchart shown in FIG. In FIG. 18, when the imaging device 100 starts photographing, the control unit 30 calculates the parallax for each pixel in the area designated by the area designation signal in step S501. In step S502, the control unit 30 generates a histogram of parallax within the area.

制御部30は、ステップS503にて、視差の信頼性が高いか否かを判定する。視差の信頼性が高ければ(YES)、制御部30は、ステップS504にて、変換テーブルを参照して視差をフォーカスレンズの位置に変換し、ステップS505にて、フォーカスレンズを移動するよう駆動部14及び24を制御して、処理をステップS506に移行させる。視差の信頼性が高くなければ(NO)、制御部30は、処理をステップS506に移行させる。 In step S503, the control unit 30 determines whether or not the parallax is highly reliable. If the parallax is highly reliable (YES), in step S504, the control unit 30 refers to the conversion table to convert the parallax into the position of the focus lens, and in step S505, instructs the drive unit to move the focus lens. 14 and 24 are controlled to shift the process to step S506. If the reliability of the parallax is not high (NO), the control unit 30 causes the process to proceed to step S506.

制御部30は、ステップS506にて、山登りAFを実行する。制御部30は、ステップS507にて、撮影終了の操作がされたか否かを判定する。撮影終了の操作がされなければ(NO)、制御部30は、ステップS508にて、フォーカスを合わせる領域が変更されたか否かを判定する。フォーカスを合わせる領域が変更されなければ(NO)、制御部30は、ステップS506~S508の処理を繰り返す。 The control unit 30 executes hill-climbing AF in step S506. In step S507, the control unit 30 determines whether or not an operation to end shooting has been performed. If the operation to end shooting is not performed (NO), the control unit 30 determines in step S508 whether or not the focused area has been changed. If the focused area is not changed (NO), the control unit 30 repeats the processing of steps S506 to S508.

ステップS508にてフォーカスを合わせる領域が変更されれば(YES)、制御部30は、処理をステップS501に戻し、ステップS501移行の処理を繰り返す。ステップS507にて撮影終了の操作がされれば(YES)、制御部30は処理を終了させる。 If the area to be focused is changed in step S508 (YES), the control unit 30 returns the process to step S501 and repeats the process of moving to step S501. If an operation to end shooting is performed in step S507 (YES), the control unit 30 ends the processing.

以上の説明では、視差の信頼性を“高い”と“低い”の2段階としているが、信頼性の高さを複数段階で判定してもよい。駆動制御部33及び34は、信頼性の高さの値に応じて、フォーカスレンズを移動させる速度を変更したり、フォーカスレンズの目標位置を変更したりしてもよい。駆動制御部33及び34は、信頼性の高さの値に応じて、位相差AFから山登りAFへの移行のタイミングを変更してもよい。 In the above description, the reliability of the parallax is set to two stages of "high" and "low", but the reliability may be determined in multiple stages. The drive control units 33 and 34 may change the speed of moving the focus lens or change the target position of the focus lens according to the value of the reliability level. The drive control units 33 and 34 may change the timing of transition from phase difference AF to hill-climbing AF according to the value of the reliability level.

第5実施形態によれば、フォーカスを合わせようとする領域で算出される視差の信頼性の有無または信頼性を程度に応じて、位相差AFと山登りAFとを使い分けたり、位相差AFから山登りAFへと移行させたりすることができる。これにより、応答性及び合焦精度のよいオートフォーカスを実現することができる。 According to the fifth embodiment, phase difference AF and hill-climbing AF are selectively used, or phase-difference AF is used for hill-climbing depending on whether or not the reliability of parallax calculated in an area to be focused is reliable or the degree of reliability. It is possible to shift to AF. As a result, autofocus with good responsiveness and good focusing accuracy can be realized.

図14においては、信頼性判定部3113は、ヒストグラム生成部3112が生成した視差のヒストグラムに基づいて視差の信頼性を判定している。視差と視差が得られた度数とをグラフ化したヒストグラムを必ずしも作成する必要はなく、位相差AF処理部31Eの内部で、視差と視差が得られた度数とを集計した集計データを生成するのみでもよい。さらに、信頼性判定部3113は、領域指定信号で指定された領域における視差の分散に基づいて視差の信頼性を判定してもよい。この場合、位相差AF処理部31Eはヒストグラム生成部3112に代えて分散算出部を備えればよい。信頼性判定部3113による視差の信頼性の判定の仕方は限定されない。但し、上記のような集計データまたは分散は視差の信頼性を判定するのに好適である。 In FIG. 14 , the reliability determination unit 3113 determines the reliability of parallax based on the histogram of parallax generated by the histogram generation unit 3112 . It is not always necessary to create a histogram that graphs the parallax and the frequency at which the parallax is obtained, and the phase difference AF processing unit 31E only generates tallied data that aggregates the parallax and the frequency at which the parallax is obtained. It's okay. Furthermore, the reliability determination unit 3113 may determine the reliability of parallax based on the dispersion of parallax in the area designated by the area designation signal. In this case, the phase-difference AF processing unit 31E may include a variance calculation unit instead of the histogram generation unit 3112. FIG. The method of determining the reliability of parallax by the reliability determining unit 3113 is not limited. Aggregated data or variances as described above, however, are suitable for determining parallax reliability.

ところで、第1実施形態と、第2~第4実施形態とは組み合わせが可能である。第1実施形態と、第5実施形態とは組み合わせが可能である。第2~第4実施形態と、第5実施形態とは組み合わせが可能である。第1実施形態と、第2~第4実施形態と、第5実施形態とは組み合わせが可能である。 By the way, the first embodiment can be combined with the second to fourth embodiments. A combination of the first embodiment and the fifth embodiment is possible. The second to fourth embodiments can be combined with the fifth embodiment. Combinations of the first embodiment, the second to fourth embodiments, and the fifth embodiment are possible.

本発明は以上説明した第1~第5実施形態の各実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。上記のように、各実施形態は任意に組み合わせが可能であり、各実施形態を任意に組み合わせた構成も本発明に含まれる。 The present invention is not limited to the first to fifth embodiments described above, and can be variously modified without departing from the gist of the present invention. As described above, each embodiment can be arbitrarily combined, and the present invention also includes a configuration in which each embodiment is arbitrarily combined.

第1~第5実施形態をオートフォーカス制御プログラムで構成してもよい。この場合、オートフォーカス制御プログラムは、コンピュータに、図6、図9、図11、図13、図18に示す処理を実行させる。ハードウェアとソフトウェアとの使い分けは任意である。 The first to fifth embodiments may be configured with an autofocus control program. In this case, the autofocus control program causes the computer to execute the processes shown in FIGS. The proper use of hardware and software is optional.

11,21 レンズ群
12,22 撮像素子
13,23 A/D変換器
14,24 駆動部
30 制御部
31A,31B,31C,31D,31E 位相差オートフォーカス処理部
32 山登りオートフォーカス処理部
33,34 駆動制御部
41 ROM
42 RAM
50 タッチパネル付きディスプレイ
61 エンコーダ
62 記憶部
70 操作部
311,312 歪曲収差ベクトル補正部
313,318 視差算出部
314 フォーカスレンズ位置変換部
315 変換テーブル保持部
316,317 ローパスフィルタ
319 差分算出部
3110 視差選択部
3111 繰り返しパターン検出部
3112 ヒストグラム生成部
3113 信頼性判定部
Reference Signs List 11, 21 lens group 12, 22 image sensor 13, 23 A/D converter 14, 24 drive section 30 control section 31A, 31B, 31C, 31D, 31E phase difference autofocus processing section 32 hill climbing autofocus processing section 33, 34 Drive control unit 41 ROM
42 RAMs
50 display with touch panel 61 encoder 62 storage unit 70 operation unit 311, 312 distortion aberration vector correction unit 313, 318 parallax calculation unit 314 focus lens position conversion unit 315 conversion table holding unit 316, 317 low-pass filter 319 difference calculation unit 3110 parallax selection unit 3111 repetitive pattern detection unit 3112 histogram generation unit 3113 reliability determination unit

Claims (4)

第1のフォーカスレンズを含む第1のレンズ群及び第1の撮像素子を有する第1の撮像系と、
第2のレンズ群及び第2の撮像素子を有し、前記第2のレンズ群は前記第1のレンズ群と水平方向または垂直方向に所定の距離離れた状態で並べられている第2の撮像系と、
前記第1及び第2の撮像系によってそれぞれ生成された第1及び第2の画像データの視差に基づく距離にフォーカスを合わせるための位相差オートフォーカス処理部と、
前記位相差オートフォーカス処理部による処理に基づいて、前記第1のフォーカスレンズを駆動する第1の駆動部を制御する第1の駆動制御部と、
を備え、
前記位相差オートフォーカス処理部は、
前記第1の画像データを、前記第1のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正する第1の歪曲収差ベクトル補正部と、
前記第2の画像データを、前記第2のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正する第2の歪曲収差ベクトル補正部と、
前記第1及び第2の歪曲収差ベクトル補正部によってそれぞれ歪曲収差ベクトルが補正された前記第1及び第2の画像データに基づいて両者の視差を算出する視差算出部と、
前記視差算出部が算出した視差を、前記視差が示す被写体までの距離にフォーカスを合わせるための前記第1のフォーカスレンズの位置を示す位置情報に変換するフォーカスレンズ位置変換部と、
を有し、
前記第1の駆動制御部は、前記第1のフォーカスレンズの位置を前記位置情報が示す位置に移動させるよう前記第1の駆動部を制御する
撮像装置。
a first imaging system having a first lens group including a first focus lens and a first imaging element;
A second image pickup having a second lens group and a second image sensor, wherein the second lens group is arranged horizontally or vertically with a predetermined distance from the first lens group system and
a phase difference autofocus processing unit for focusing on a distance based on the parallax of the first and second image data respectively generated by the first and second imaging systems;
a first drive control unit that controls a first drive unit that drives the first focus lens based on processing by the phase difference autofocus processing unit;
with
The phase difference autofocus processing unit is
a first distortion vector correction unit that corrects the first image data based on distortion vector information for each pixel indicating a distortion vector of the first lens group;
a second distortion vector correction unit that corrects the second image data based on distortion vector information for each pixel indicating a distortion vector of the second lens group;
a parallax calculation unit that calculates a parallax between the first and second image data whose distortion vectors are corrected by the first and second distortion vector correction units, respectively;
a focus lens position conversion unit that converts the parallax calculated by the parallax calculation unit into position information indicating the position of the first focus lens for focusing on the distance to the subject indicated by the parallax;
has
The imaging device, wherein the first drive control section controls the first drive section to move the position of the first focus lens to a position indicated by the position information.
前記第1の画像データのコントラストに基づく山登り法を用いて被写体にフォーカスを合わせるための山登りオートフォーカス処理部をさらに備え、
前記第1の駆動制御部は、前記第1のフォーカスレンズの位置を前記位置情報が示す位置に移動させるよう前記第1の駆動部を制御した後に、前記山登りオートフォーカス処理部による処理に基づいて、前記第1のフォーカスレンズの位置を移動させるよう前記第1の駆動部を制御する
請求項1に記載の撮像装置。
Further comprising a hill-climbing autofocus processing unit for focusing on a subject using a hill-climbing method based on the contrast of the first image data,
The first drive control unit, after controlling the first drive unit to move the position of the first focus lens to the position indicated by the position information, based on processing by the hill-climbing autofocus processing unit , controlling the first drive unit to move the position of the first focus lens.
前記第2のレンズ群は第2のフォーカスレンズを含み、
前記第2のフォーカスレンズを駆動する第2の駆動部を制御する第2の駆動制御部をさらに備え、
前記第2の駆動制御部は、前記第2のフォーカスレンズの位置を前記位置情報が示す位置に移動させるよう前記第2の駆動部を制御する
請求項1または請求項2に記載の撮像装置。
the second lens group includes a second focus lens;
further comprising a second drive control unit that controls a second drive unit that drives the second focus lens;
3. The imaging apparatus according to claim 1, wherein the second drive control section controls the second drive section to move the position of the second focus lens to the position indicated by the position information.
フォーカスレンズを含む第1のレンズ群及び第1の撮像素子を有する第1の撮像系によって被写体を撮像して、第1の画像データを生成し、
第2のレンズ群及び第2の撮像素子を有し、前記第2のレンズ群は前記第1のレンズ群と水平方向または垂直方向に所定の距離離れた状態で並べられている第2の撮像系によって前記被写体を撮像して、第2の画像データを生成し、
前記第1の画像データを、前記第1のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正し、
前記第2の画像データを、前記第2のレンズ群の歪曲収差ベクトルを示す画素ごとの歪曲収差ベクトル情報に基づいて補正し、
歪曲収差ベクトルが補正された前記第1及び第2の画像データに基づいて両者の視差を算出し、
前記視差が示す被写体までの距離にフォーカスを合わせるための前記フォーカスレンズの位置を示す位置情報に変換し、
前記フォーカスレンズの位置を前記位置情報が示す位置に移動させる
オートフォーカス制御方法。
imaging a subject with a first imaging system having a first lens group including a focus lens and a first imaging element to generate first image data;
A second image pickup having a second lens group and a second image sensor, wherein the second lens group is arranged horizontally or vertically with a predetermined distance from the first lens group imaging the subject with a system to generate second image data;
correcting the first image data based on distortion vector information for each pixel indicating a distortion vector of the first lens group;
correcting the second image data based on distortion vector information for each pixel indicating a distortion vector of the second lens group;
calculating a parallax between the first and second image data in which the distortion aberration vector is corrected;
converting into position information indicating the position of the focus lens for focusing on the distance to the subject indicated by the parallax;
An autofocus control method of moving a position of the focus lens to a position indicated by the position information.
JP2021140740A 2021-08-31 2021-08-31 Imaging device and autofocus control method Pending JP2023034485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021140740A JP2023034485A (en) 2021-08-31 2021-08-31 Imaging device and autofocus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140740A JP2023034485A (en) 2021-08-31 2021-08-31 Imaging device and autofocus control method

Publications (1)

Publication Number Publication Date
JP2023034485A true JP2023034485A (en) 2023-03-13

Family

ID=85504289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021140740A Pending JP2023034485A (en) 2021-08-31 2021-08-31 Imaging device and autofocus control method

Country Status (1)

Country Link
JP (1) JP2023034485A (en)

Similar Documents

Publication Publication Date Title
KR101313686B1 (en) Image processing apparatus and method of controlling the same
US8922703B2 (en) Focus detection apparatus
JP6516429B2 (en) Distance measuring device, imaging device, and distance measuring method
JP6372983B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
JP6222514B2 (en) Image processing apparatus, imaging apparatus, and computer program
JP2012049773A (en) Imaging apparatus and method, and program
US9667853B2 (en) Image-capturing apparatus
JP2015049402A5 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
RU2599628C2 (en) Image capturing device
US9883096B2 (en) Focus detection apparatus and control method thereof
US9503661B2 (en) Imaging apparatus and image processing method
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2015194680A (en) Imaging apparatus
US20160241774A1 (en) Control apparatus, image pickup apparatus, control method, and storage medium
JP2023034485A (en) Imaging device and autofocus control method
JP2023034489A (en) Imaging device and autofocus control method
JP2023034487A (en) Imaging device and autofocus control method
JP6645690B2 (en) Automatic focus adjustment device, imaging device, and automatic focus adjustment method
US11381728B2 (en) Image capture apparatus and method for controlling the same
JP7271316B2 (en) Imaging device and its control method
JP6929140B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2015094834A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and storage medium