JP2010107664A - Stereoscopic imaging apparatus and focusing control method - Google Patents

Stereoscopic imaging apparatus and focusing control method Download PDF

Info

Publication number
JP2010107664A
JP2010107664A JP2008278728A JP2008278728A JP2010107664A JP 2010107664 A JP2010107664 A JP 2010107664A JP 2008278728 A JP2008278728 A JP 2008278728A JP 2008278728 A JP2008278728 A JP 2008278728A JP 2010107664 A JP2010107664 A JP 2010107664A
Authority
JP
Japan
Prior art keywords
focus lens
search
subject
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008278728A
Other languages
Japanese (ja)
Other versions
JP4995175B2 (en
Inventor
Hiroyuki Oishi
弘幸 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008278728A priority Critical patent/JP4995175B2/en
Publication of JP2010107664A publication Critical patent/JP2010107664A/en
Application granted granted Critical
Publication of JP4995175B2 publication Critical patent/JP4995175B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To increase the speed of AF search in a stereoscopic imaging apparatus having a plurality of imaging means. <P>SOLUTION: The stereoscopic imaging apparatus includes: a parallax detection processing part 49 which detects a parallax amount corresponding to a difference between a position in the first image of an object and a position in the second image of the object by analyzing the first image obtained by a first imaging element 29R and the second image obtained by a second imaging element 29L; an approximate distance calculation part 50 which calculates an approximate distance up to the object, based on the parallax amount; a lens moving distance decision part 53 which decides the moving distance of a focus lens 19R or 19L for obtaining the focusing lens position of the focus lenses 19R and 19L, based on the approximate distance; and a focusing control part 47 which calculates the contrast value of an image, while moving the focus lens 19R or 19L in the moving range and decides the focusing lens position where the focus lens 19R or 19L focuses on the object, based on the contrast value, to move the focus lens 19R or 19L to the decided focusing lens position. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の視点に対応する複数の画像を撮像して記録する立体撮像装置および合焦制御方法に関する。   The present invention relates to a stereoscopic imaging apparatus and a focus control method that capture and record a plurality of images corresponding to a plurality of viewpoints.

右眼に対応する第1の撮影光学系および第1の撮像素子と、左眼に対応する第2の撮影光学系および第2の撮像素子を備えた立体撮像装置が知られている。ふたつの撮影光学系は、それぞれ、フォーカスレンズを有する。   There is known a stereoscopic imaging apparatus including a first imaging optical system and a first imaging element corresponding to the right eye, and a second imaging optical system and a second imaging element corresponding to the left eye. Each of the two photographing optical systems has a focus lens.

オートフォーカス(「AF」ともいう)制御の方式として、コントラストAFが知られている。コントラストAFでは、フォーカスレンズを光軸方向に移動させながら、撮像素子により取り込まれた画像信号(以下「撮像画像」という)からコントラスト値(「AF評価値」ともいう)を検出し、そのコントラスト値が極大となる位置(ピーク値)を合焦レンズ位置と判断し、その位置にフォーカスレンズを移動させることで、自動でピント合わせ(合焦)を行う。   As a method of autofocus (also referred to as “AF”) control, contrast AF is known. In contrast AF, a contrast value (also referred to as “AF evaluation value”) is detected from an image signal (hereinafter referred to as “captured image”) captured by the image sensor while moving the focus lens in the optical axis direction, and the contrast value is detected. Is determined to be the focus lens position, and the focus lens is moved to that position to automatically focus (focus).

特許文献1、2には、ふたつの撮影光学系のフォーカスレンズの合焦を行う際に、一方の撮影光学系の合焦情報に基づき他方の撮影光学系の焦点調節を行う構成が開示されている。   Patent Documents 1 and 2 disclose a configuration in which the focus of one imaging optical system is adjusted based on the focusing information of the other imaging optical system when the focusing lens of the two imaging optical systems is focused. Yes.

特許文献3には、ふたつの撮影光学系のフォーカスレンズを同時に駆動し、先に合焦位置を検出した撮影光学系のフォーカス位置に、他方のフォーカスレンズを設定する構成が開示されている。ここで、例えば、一方の撮影光学系のフォーカスレンズを近点から遠点に向けて駆動し、他方の撮影光学系のフォーカスレンズを遠点から近点に向けて駆動する。
特開平8−242468号公報 特開2005−173270号公報 特開2006−162990号公報
Patent Document 3 discloses a configuration in which the focus lens of two photographing optical systems is simultaneously driven, and the other focus lens is set at the focus position of the photographing optical system where the in-focus position is detected first. Here, for example, the focus lens of one photographing optical system is driven from the near point to the far point, and the focus lens of the other photographing optical system is driven from the far point to the near point.
JP-A-8-242468 JP 2005-173270 A JP 2006-162990 A

合焦レンズ位置の検出(AFサーチ)として、いわゆる山登り方式を用いる場合には、人物でなく背景のみにピントが合ってしまうことを防止するため、最短撮影距離側から無限遠点距離側にサーチすることが多い。しかし、最短撮影距離側は、フォーカスレンズ移動量に対してピント位置変動が小さいため、被写体距離に対応する合焦位置を検出するまで時間(AFサーチ時間)が掛かり、撮影タイムラグになっていた。   When the so-called hill-climbing method is used as the focus lens position detection (AF search), in order to prevent focusing on only the background, not the person, the search is performed from the shortest shooting distance side to the infinity point distance side. Often done. However, on the shortest shooting distance side, since the focus position fluctuation is small with respect to the focus lens movement amount, it takes time (AF search time) until the in-focus position corresponding to the subject distance is detected, resulting in a shooting time lag.

本発明はこのような事情に鑑みてなされたもので、複数の撮像手段により立体撮像して得られる画像に基づいてAFサーチを高速化することができる立体撮像装置および合焦制御方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a stereoscopic imaging apparatus and a focusing control method capable of speeding up an AF search based on an image obtained by stereoscopic imaging with a plurality of imaging means. For the purpose.

前記目的を達成するために、本発明は、フォーカスレンズを含む第1の撮影光学系および該第1の撮影光学系を介して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系および該第2の撮影光学系を介して被写体像が結像される第2の撮像素子を有する第2の撮像手段とを備えた立体撮像装置において、前記第1の撮像素子により取得される第1の画像および前記第2の撮像素子により取得される第2の画像を解析して、前記被写体の前記第1の画像中の位置と前記被写体の前記第2の画像中の位置との差に対応する視差量を検出する視差量検出手段と、前記視差量に基づき、前記被写体までの概略距離を算出する概略距離算出手段と、前記概略距離に基づき、前記フォーカスレンズの合焦レンズ位置を求めるための前記フォーカスレンズの移動範囲を決定するレンズ移動範囲決定手段と、前記移動範囲内にて前記フォーカスレンズを移動させながら、前記第1の画像および前記第2の画像のうち少なくとも一方の画像のコントラスト値を算出するAFサーチを行うAFサーチ制御手段と、前記AFサーチにより得られた前記コントラスト値に基づき、前記フォーカスレンズが前記被写体に合焦する前記合焦レンズ位置を決定し、決定した前記合焦レンズ位置に前記フォーカスレンズを移動させる合焦制御手段と、を備えることを特徴とする立体撮像装置を提供する。   In order to achieve the above object, the present invention provides a first imaging optical system including a focus lens and a first imaging element on which a subject image is formed via the first imaging optical system. Stereo imaging including an imaging unit, a second imaging optical system including a focus lens, and a second imaging unit having a second imaging element on which a subject image is formed via the second imaging optical system In the apparatus, the first image acquired by the first image sensor and the second image acquired by the second image sensor are analyzed, and the position of the subject in the first image and the A parallax amount detecting means for detecting a parallax amount corresponding to a difference between the position of the subject in the second image, a rough distance calculating means for calculating a rough distance to the subject based on the parallax amount, and the rough outline Based on the distance, the focus lens Lens moving range determining means for determining a moving range of the focus lens for obtaining a focus lens position, and moving the focus lens within the moving range while moving the first lens and the second image. AF search control means for performing an AF search for calculating a contrast value of at least one of the images, and the focus lens position at which the focus lens focuses on the subject based on the contrast value obtained by the AF search. There is provided a stereoscopic imaging apparatus comprising: a focusing control unit that determines and moves the focus lens to the determined focusing lens position.

また、本発明は、前記視差量検出手段により視差量を検出するときの前記第1の撮影光学系および前記第2の撮影光学系の絞り値を、前記AFサーチ時の前記撮影光学系の絞り値よりも大きくする第1絞り値調節手段を備えることを特徴とする立体撮影装置を提供する。   In the present invention, the aperture value of the first imaging optical system and the second imaging optical system when the amount of parallax is detected by the parallax amount detection means is used as the aperture value of the imaging optical system at the time of the AF search. There is provided a stereoscopic photographing device comprising a first aperture value adjusting means for making the value larger than the value.

また、本発明は、前記AFサーチ制御手段は、前記視差量検出手段による視差量の検出に失敗したときには、前記フォーカスレンズを最短撮影距離に合焦する最短撮影距離位置側から無限遠に合焦する無限遠位置側に向かう第1の方向にて移動させて前記AFサーチを行う一方で、前記視差量検出手段による視差量の検出に成功したときには、前記フォーカスレンズを前記無限遠位置側から前記最短撮影距離位置側に向かう第2の方向にて移動させて前記AFサーチを行うことを特徴とする立体撮像装置を提供する。   Further, according to the present invention, when the AF search control unit fails to detect the parallax amount by the parallax amount detecting unit, the focus lens is focused from the shortest shooting distance position side where the focus lens is focused on the shortest shooting distance to infinity. While performing the AF search by moving in the first direction toward the infinity position side, when the parallax amount detection unit succeeds in detecting the parallax amount, the focus lens is moved from the infinity position side to the infinity position side. There is provided a stereoscopic imaging apparatus characterized by performing the AF search by moving in a second direction toward the shortest shooting distance position.

また、本発明は、前記概略距離算出手段により算出される前記概略距離に基づいて、前記AFサーチを開始する前記フォーカスレンズの位置を示すAFサーチ開始位置を算出するAFサーチ開始位置算出手段を備え、前記AFサーチ制御手段は、前記視差量検出手段による視差量の検出に失敗したときには、前記フォーカスレンズを最短撮影距離に合焦する最短撮影距離位置から無限遠に合焦する無限遠位置側に向けて前記フォーカスレンズを移動させて前記AFサーチを行う一方で、前記視差量検出手段による視差量の検出に成功したときには、前記AFサーチ開始位置算出手段により算出された前記AFサーチ開始位置から前記無限遠位置側に向けて前記フォーカスレンズを移動させて前記AFサーチを行うことを特徴とする立体撮像装置を提供する。   The present invention further includes an AF search start position calculation unit that calculates an AF search start position indicating a position of the focus lens at which the AF search is started based on the approximate distance calculated by the approximate distance calculation unit. When the parallax amount detection unit fails to detect the parallax amount, the AF search control unit moves the focus lens from the shortest shooting distance position focusing on the shortest shooting distance to the infinity position side focusing on infinity. While the AF search is performed by moving the focus lens toward the target, when the parallax amount is successfully detected by the parallax amount detection unit, the AF search start position calculated by the AF search start position calculation unit A stereoscopic imaging apparatus, wherein the AF search is performed by moving the focus lens toward an infinite position side. To provide.

また、本発明は、前記AFサーチ開始位置算出手段は、前記AFサーチに用いる前記撮影光学系の被写界深度が浅いほど前記フォーカスレンズの前記移動範囲を狭くすることを特徴とする立体撮像装置を提供する。   Further, in the present invention, the AF search start position calculating means narrows the moving range of the focus lens as the depth of field of the photographing optical system used for the AF search is shallower. I will provide a.

また、本発明は、前記AFサーチ制御手段は、前記AFサーチに用いる前記撮影光学系の被写界深度が深いほど、前記AFサーチ時の前記コントラスト値を算出するごとに前記フォーカスレンズを移動させるステップ幅を大きくすることを特徴とする立体撮像装置を提供する。   Further, according to the present invention, the AF search control means moves the focus lens every time the contrast value is calculated during the AF search as the depth of field of the photographing optical system used for the AF search is deeper. A stereoscopic imaging device characterized by increasing a step width is provided.

また、本発明は、前記フォーカスレンズが前記合焦レンズ位置に移動されたとき、前記AFサーチにより得られた前記コントラスト値と、前記コントラスト値が得られた前記フォーカスレンズの位置とに基づき、最短撮影距離位置側にある主要被写体までのほぼ正確な主要被写体距離、及び、前記主要被写体の後方にある副被写体までのほぼ正確な副被写体距離を算出する第1被写体距離算出手段と、前記主要及び前記副被写体距離に基づき、前記副被写体が被写界深度内に入るような前記撮影光学系の絞り値を被写界深度計算により算出する絞り値算出手段と、前記絞り値算出手段の算出結果に基づき、前記絞り値を調節する第2絞り値調節手段と、を備えることを特徴とする立体撮像装置を提供する。   Further, the present invention provides the shortest time based on the contrast value obtained by the AF search and the position of the focus lens from which the contrast value is obtained when the focus lens is moved to the focus lens position. First subject distance calculation means for calculating a substantially accurate main subject distance to a main subject at the shooting distance position side and a substantially accurate sub-subject distance to a sub-subject behind the main subject; Based on the sub-subject distance, aperture value calculation means for calculating the aperture value of the photographing optical system so that the sub-subject falls within the depth of field by calculation of the depth of field, and calculation results of the aperture value calculation means And a second aperture value adjusting means for adjusting the aperture value.

また、本発明は、前記AFサーチにより得られた前記コントラスト値と、前記コントラスト値が得られた前記フォーカスレンズの位置とに基づき、最短撮影距離位置側にある主要被写体までのほぼ正確な主要被写体距離、及び、前記主要被写体の後方にある副被写体までのほぼ正確な副被写体距離を算出する第2被写体距離算出手段と、前記主要及び前記副被写体距離に基づき、前記副被写体が被写界深度内に入る位置まで無限遠位置側に補正されたピント設定距離を被写界深度計算により算出し、算出した前記ピント設定距離に基づき前記合焦レンズ位置を決定する合焦レンズ位置決定手段とを備えることを特徴とする請求項1ないし6のうちいずれか1項に記載の立体撮像装置を提供する。   The present invention also provides a substantially accurate main subject up to the main subject on the shortest shooting distance position side based on the contrast value obtained by the AF search and the position of the focus lens from which the contrast value was obtained. A second subject distance calculating unit that calculates a sub-subject distance to the sub-subject behind the main subject and a distance, and the sub-subject is determined based on the main and sub-subject distances. Focusing lens position determining means for calculating a focus setting distance corrected to the infinity position side by a depth of field calculation up to a position entering inside, and determining the focusing lens position based on the calculated focus setting distance; The stereoscopic imaging apparatus according to claim 1, wherein the stereoscopic imaging apparatus is provided.

また、本発明は、前記視差量検出手段は、前記第1の画像および前記第2の画像に含まれている人物画像に基づいて前記視差量を検出することを特徴とする立体撮像装置を提供する。   In addition, the present invention provides a stereoscopic imaging apparatus, wherein the parallax amount detection unit detects the parallax amount based on a person image included in the first image and the second image. To do.

また、本発明は、フォーカスレンズを含む第1の撮影光学系および該第1の撮影光学系を介して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系および該第2の撮影光学系を介して被写体像が結像される第2の撮像素子を有する第2の撮像手段とを用いて前記フォーカスレンズの合焦制御を行う合焦制御方法であって、前記第1の撮像素子により取得される第1の画像および前記第2の撮像素子により取得される第2の画像を解析して、前記被写体の前記第1の画像中の位置と前記被写体の前記第2の画像中の位置との差に対応する視差量を検出する視差量検出ステップと、前記視差量に基づき、前記被写体までの概略距離を算出する概略距離算出ステップと、前記概略距離に基づき、前記フォーカスレンズの合焦レンズ位置を求めるための前記フォーカスレンズの移動範囲を決定するレンズ移動範囲決定ステップと、前記移動範囲内にて前記フォーカスレンズを移動させながら、前記第1の画像および前記第2の画像のうち少なくとも一方の画像のコントラスト値を算出するAFサーチを行うAFサーチステップと、前記AFサーチにより得られた前記コントラスト値に基づき、前記フォーカスレンズが前記被写体に合焦する前記合焦レンズ位置を決定し、決定した前記合焦レンズ位置に前記フォーカスレンズを移動させる合焦ステップと、を含むことを特徴とする合焦制御方法を提供する。   The present invention also provides a first imaging optical system including a focus lens, a first imaging unit having a first imaging element on which a subject image is formed via the first imaging optical system, and a focus lens. Focusing control of the focus lens using a second imaging optical system including the second imaging device and a second imaging unit having a second imaging element on which a subject image is formed via the second imaging optical system. A focusing control method to be performed, wherein a first image acquired by the first image sensor and a second image acquired by the second image sensor are analyzed, and the first image of the subject is analyzed. A parallax amount detecting step for detecting a parallax amount corresponding to a difference between a position in the image and a position in the second image of the subject; and a rough distance for calculating a rough distance to the subject based on the parallax amount Based on the calculating step and the approximate distance A lens movement range determining step for determining a movement range of the focus lens for obtaining a focus lens position of the focus lens; and moving the focus lens within the movement range, the first image and the An AF search step for performing an AF search for calculating a contrast value of at least one of the second images, and the focusing lens that focuses the subject based on the contrast value obtained by the AF search. And a focusing step of determining a focus lens position and moving the focus lens to the determined focus lens position.

本発明によれば、複数の撮像手段により立体撮像して得られる画像に基づいてAFサーチを高速化することができる。   According to the present invention, it is possible to speed up AF search based on an image obtained by stereoscopic imaging with a plurality of imaging means.

以下、添付図面を用いて、本発明の実施形態について、詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の立体撮像装置を適用したデジタルカメラの一例の外観構成を示す正面斜視図である。図2は、そのデジタルカメラの一例の外観構成を示す背面斜視図である。   FIG. 1 is a front perspective view showing an external configuration of an example of a digital camera to which the stereoscopic imaging apparatus of the present invention is applied. FIG. 2 is a rear perspective view showing an external configuration of an example of the digital camera.

デジタルカメラ10は、複数の撮像手段(図1では二つを例示)を備えており、同一被写体を複数視点(図1では左右二つの視点を例示)から撮影可能となっている。なお、本例では、説明の便宜のため二つの撮像手段を備えた場合を例に説明するが、本発明はこれに限定されない。三つ以上の撮像手段を備えた場合であっても同様に適用可能である。なお、撮像手段(主として撮影光学系)の配置は、横一列でなくてもよく、二次元的に配置されていてもよい。立体撮影又はマルチ視点や全方向の撮影でもよい。   The digital camera 10 includes a plurality of imaging means (two are illustrated in FIG. 1), and the same subject can be photographed from a plurality of viewpoints (two left and right viewpoints are illustrated in FIG. 1). In this example, for convenience of explanation, a case where two imaging units are provided will be described as an example, but the present invention is not limited to this. The present invention can be similarly applied even when three or more imaging units are provided. Note that the arrangement of the imaging means (mainly the imaging optical system) may not be in a horizontal row but may be two-dimensionally arranged. Stereo shooting, multi-viewpoint, or shooting in all directions may be used.

本例のデジタルカメラ10のカメラボディ112は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影光学系11R、11Lと、ストロボ116が設けられている。また、カメラボディ112の上面には、レリーズボタン14、電源/モードスイッチ120、モードダイヤル122等が設けられている。また、カメラボディ112の背面には、図2に示すように、液晶表示装置(LCD)13、ズームボタン126、十字ボタン128、MENU/OKボタン130、DISPボタン132、BACKボタン134等が設けられている。   The camera body 112 of the digital camera 10 of this example is formed in a rectangular box shape, and a pair of photographing optical systems 11R and 11L and a strobe 116 are provided on the front surface thereof as shown in FIG. Yes. On the top surface of the camera body 112, a release button 14, a power / mode switch 120, a mode dial 122, and the like are provided. On the back of the camera body 112, as shown in FIG. 2, a liquid crystal display (LCD) 13, a zoom button 126, a cross button 128, a MENU / OK button 130, a DISP button 132, a BACK button 134, and the like are provided. ing.

左右一対の撮影光学系11R、11Lは、それぞれ沈胴式のズームレンズ(図3の18R、18L)を含んで構成されており、デジタルカメラ10の電源をONすると、カメラボディ112から繰り出される。なお、撮影光学系におけるズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な説明を省略する。   The pair of left and right photographing optical systems 11R and 11L are configured to include retractable zoom lenses (18R and 18L in FIG. 3), respectively, and are fed out from the camera body 112 when the power of the digital camera 10 is turned on. In addition, since the zoom mechanism and the retracting mechanism in the photographing optical system are known techniques, a specific description thereof is omitted here.

LCD13は、かまぼこ状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このLCD13は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、撮影時には、撮像素子で捉えた画像がスルー表示され、電子ファインダとして利用される。   The LCD 13 is a display device such as a color liquid crystal panel in which a so-called lenticular lens having a semi-cylindrical lens group is arranged on the front surface. The LCD 13 is used as an image display unit for displaying captured images, and is used as a GUI during various settings. Further, at the time of shooting, an image captured by the image sensor is displayed through and used as an electronic viewfinder.

レリーズボタン14は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル122又はメニューによる静止画撮影モード選択時)、このレリーズボタン14を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードダイヤル122又はメニューにより動画撮影モード選択時)、このレリーズボタン14を全押しすると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズボタン14を全押ししている間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにもできる。なお、静止画撮影専用のレリーズボタン及び動画撮影専用のレリーズボタンを設けてもよい。   The release button 14 is composed of a two-stroke switch composed of so-called “half press” and “full press”. When the digital camera 10 shoots a still image (for example, when a still image shooting mode is selected by the mode dial 122 or the menu), the release button 14 is pressed halfway to perform shooting preparation processing, that is, AE (Automatic Exposure), AF (Auto Focus) and AWB (Automatic White Balance) processing are performed, and when fully pressed, image shooting / recording processing is performed. Further, during moving image shooting (for example, when the moving image shooting mode is selected with the mode dial 122 or the menu), when the release button 14 is fully pressed, shooting of the moving image is started, and when the release button 14 is fully pressed again, shooting is ended. Note that, depending on the setting, the moving image can be shot while the release button 14 is fully pressed, and the shooting can be terminated when the full press is released. A release button dedicated to still image shooting and a release button dedicated to moving image shooting may be provided.

電源/モードスイッチ120(電源スイッチ及びモードスイッチ)は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替手段として機能する。モードダイヤル122は、撮影モードの設定に用いられる。デジタルカメラ10は、このモードダイヤル122を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定される。   The power / mode switch 120 (power switch and mode switch) functions as a power switch of the digital camera 10 and also functions as a switching unit that switches between the playback mode and the shooting mode of the digital camera 10. The mode dial 122 is used for setting the shooting mode. The digital camera 10 is set to a 2D still image shooting mode for shooting a 2D still image by setting the mode dial 122 to “2D still image position”, and set to “3D still image position”. The 3D still image shooting mode for shooting a 3D still image is set. Furthermore, the 3D moving image shooting mode for shooting a 3D moving image is set by setting the “3D moving image position”.

ズームボタン126は、撮影光学系11R、11Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。十字ボタン128は、上下左右4方向に押圧操作可能に設けられており、各方向の押圧操作に対して、カメラの設定状態に応じた機能が割り当てられる。MENU/OKボタン130は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられる。DISPボタン132は、LCD13の表示内容の切り替え指示等の入力に用いられ、BACKボタン134は入力操作のキャンセル等の指示の入力に用いられる。   The zoom button 126 is used for zoom operations of the photographing optical systems 11R and 11L, and includes a zoom tele button for instructing zooming to the telephoto side and a zoom wide button for instructing zooming to the wide angle side. The cross button 128 is provided so that it can be pressed in four directions, up, down, left, and right, and a function corresponding to the setting state of the camera is assigned to the pressing operation in each direction. The MENU / OK button 130 is used to call a menu screen (MENU function), and to confirm selection contents, execute a process, etc. (OK function). The DISP button 132 is used to input an instruction to switch the display contents of the LCD 13 and the BACK button 134 is used to input an instruction to cancel the input operation.

以下では、各実施形態に分けて、説明する。   Below, it divides into each embodiment and explains.

(第1実施形態)
図3は、第1実施形態におけるデジタルカメラ10の要部を示すブロック図である。
(First embodiment)
FIG. 3 is a block diagram illustrating a main part of the digital camera 10 according to the first embodiment.

デジタルカメラ10は、右眼用の撮影光学系11Rおよび撮像素子29Rを有する右眼用の撮像手段12Rと、左眼用の撮影光学系および撮像素子29Lを有する左眼用の撮像手段12Lを備える。   The digital camera 10 includes a right-eye imaging unit 12R having a right-eye imaging optical system 11R and an imaging element 29R, and a left-eye imaging unit 12L having a left-eye imaging optical system and an imaging element 29L. .

2つの撮影光学系11(11R、11L)は、それぞれ、ズームレンズ18(18R、18L)、フォーカスレンズ19(19R、19L)、および、絞り20(20R、20L)を有する。これらのズームレンズ18、フォーカスレンズ19、および、絞り20は、それぞれ、ズームモータ22(22R、22L)、フォーカスモータ23(23R、23L)、アイリスモータ24(24R、24L)により駆動される。各モータ22、23、24は、ステッピングモータからなり、CPU26に接続されたモータドライバ27(27R、27L)から与えられる駆動パルスにより制御される。   The two photographing optical systems 11 (11R, 11L) include a zoom lens 18 (18R, 18L), a focus lens 19 (19R, 19L), and a diaphragm 20 (20R, 20L), respectively. The zoom lens 18, the focus lens 19, and the diaphragm 20 are driven by a zoom motor 22 (22R, 22L), a focus motor 23 (23R, 23L), and an iris motor 24 (24R, 24L), respectively. Each of the motors 22, 23, and 24 is a stepping motor, and is controlled by a driving pulse given from a motor driver 27 (27 R and 27 L) connected to the CPU 26.

2つの撮影光学系11(11R、11L)の背後には、それぞれ、CCDイメージセンサ(以下単に「CCD」という)29(29R、29L)が配置されている。なお、CCD29の代りに、MOS型のイメージセンサを用いるようにしてもよい。CCD29は、周知のように、複数の光電変換素子が並べられた光電変換面を有し、この光電変換面に撮影光学系11を介して被写体光が入射することにより、被写体像が結像される。CCD29には、CPU26によって制御されるタイミングジェネレータ:TG31(31R、31L)が接続され、このTG31から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度(各光電変換素子の電荷蓄積時間である)が決定される。   CCD image sensors (hereinafter simply referred to as “CCD”) 29 (29R, 29L) are disposed behind the two photographing optical systems 11 (11R, 11L), respectively. Instead of the CCD 29, a MOS type image sensor may be used. As is well known, the CCD 29 has a photoelectric conversion surface on which a plurality of photoelectric conversion elements are arranged. Subject light is incident on the photoelectric conversion surface via the photographing optical system 11 so that a subject image is formed. The A timing generator: TG31 (31R, 31L) controlled by the CPU 26 is connected to the CCD 29, and the shutter speed of the electronic shutter (the charge accumulation time of each photoelectric conversion element) is determined by a timing signal (clock pulse) input from the TG31. Is determined).

CCD29から出力された撮像信号は、アナログ信号処理回路33に入力される。アナログ信号処理回路33は、相関二重サンプリング回路(CDS)34、増幅器(AMP)35、A/D変換器36を有する。CDS34は、撮像信号から各画素の蓄積電荷時間に対応したR、G、Bの画像データを生成する。AMP35は、生成された画像データを増幅する。A/D変換器36は、増幅された画像データをアナログからデジタルに変換する。   The imaging signal output from the CCD 29 is input to the analog signal processing circuit 33. The analog signal processing circuit 33 includes a correlated double sampling circuit (CDS) 34, an amplifier (AMP) 35, and an A / D converter 36. The CDS 34 generates R, G, and B image data corresponding to the accumulated charge time of each pixel from the imaging signal. The AMP 35 amplifies the generated image data. The A / D converter 36 converts the amplified image data from analog to digital.

AMP35は、撮像部12の感度を調節する感度調節手段として機能する。CCD29のISO感度は、AMP35のゲインによって決定される。そして、A/D変換器36から出力されたデジタルの画像データは、データバス38を介して、作業用のメモリであるSDRAM39により一時的に記憶される。   The AMP 35 functions as a sensitivity adjustment unit that adjusts the sensitivity of the imaging unit 12. The ISO sensitivity of the CCD 29 is determined by the gain of the AMP 35. The digital image data output from the A / D converter 36 is temporarily stored in the SDRAM 39, which is a working memory, via the data bus 38.

画像処理回路41は、SDRAM39から画像データを読み出して、階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種画像処理を施し、この画像データを再度SDRAM39に記憶させる。画像処理回路41による画像処理済みの画像データは、スルー画として取得されたものはLCDドライバ42でアナログ信号に変換され、LCD13に表示される。また、レリーズボタン14の全押しに伴い、記録用として取得されたものは圧縮伸張回路43で所定の圧縮形式(例えばJPEG形式)で圧縮された後、メモリカードスロット15を経由して、メモリカード16に記録される。   The image processing circuit 41 reads out the image data from the SDRAM 39, performs various image processing such as gradation conversion, white balance correction, γ correction processing, YC conversion processing, and stores the image data in the SDRAM 39 again. Image data that has been subjected to image processing by the image processing circuit 41 is acquired as a through image, converted into an analog signal by the LCD driver 42, and displayed on the LCD 13. Also, when the release button 14 is fully pressed, what is obtained for recording is compressed by the compression / decompression circuit 43 in a predetermined compression format (for example, JPEG format), and then the memory card via the memory card slot 15. 16 is recorded.

操作部25は、デジタルカメラ10の各種操作を行うためのものであり、図1および図2に示した各種のボタン・スイッチ120〜134から構成されている。   The operation unit 25 is for performing various operations of the digital camera 10 and includes various buttons and switches 120 to 134 shown in FIGS. 1 and 2.

CPU26は、デジタルカメラ10を統括的に制御するために設けられている。CPU26は図示を省略したROMに記憶された各種制御用のプログラムや設定情報などに基づいて、各部を制御する。   The CPU 26 is provided for overall control of the digital camera 10. The CPU 26 controls each unit based on various control programs and setting information stored in a ROM (not shown).

また、CPU26には、AE制御を行うAE制御部45、AF制御を行うAF制御部47、合焦対象の主要被写体に対する視差検出を行う視差検出処理部49、および、主要被写体までの概略距離(概略の被写体距離)を算出する概略距離算出部50が設けられている。   The CPU 26 also includes an AE control unit 45 that performs AE control, an AF control unit 47 that performs AF control, a parallax detection processing unit 49 that performs parallax detection on the main subject to be focused, and an approximate distance to the main subject ( An approximate distance calculation unit 50 for calculating an approximate subject distance) is provided.

AE制御部45は、レリーズボタン14が半押しされた時に、CCD29により得られた画像(撮像画像)を解析して、被写体の輝度情報等に基づき、絞り20の絞り値およびCCD29の電子シャッタのシャッタ速度を算出する。そして、これらの算出結果に基づきAE制御部45は、アイリスモータ24を介して絞り値を制御し、TG31を介してシャッタ速度を制御する。   The AE control unit 45 analyzes the image (captured image) obtained by the CCD 29 when the release button 14 is half-pressed, and based on the luminance information of the subject, the aperture value of the diaphragm 20 and the electronic shutter of the CCD 29 are analyzed. The shutter speed is calculated. Based on these calculation results, the AE control unit 45 controls the aperture value via the iris motor 24 and the shutter speed via the TG 31.

例えば、ふたつの撮影光学系11R、11Lのうち一方の撮影光学系のCCD29Rまたは29Lにより得られた撮像画像(右眼画像または左眼画像)に基づいて、両方の撮影光学系11R、11Lの絞り値およびシャッタ速度を算出する。両方の撮影光学系11Rおよび11Lにより得られた撮像画像(右眼画像および左眼画像)に基づいて、それぞれの撮影光学系11R、11Lの絞り値およびシャッタ速度を算出してもよい。   For example, based on the captured image (right eye image or left eye image) obtained by the CCD 29R or 29L of one of the two imaging optical systems 11R and 11L, the apertures of both the imaging optical systems 11R and 11L Calculate the value and shutter speed. Based on the captured images (right eye image and left eye image) obtained by both the photographing optical systems 11R and 11L, the aperture value and the shutter speed of the respective photographing optical systems 11R and 11L may be calculated.

AF制御部47は、レリーズボタン14が半押しされた時に、フォーカスレンズ19R、19Lを光軸方向OAにて移動させてコントラスト値を算出するAFサーチ制御、および、コントラスト値に基づく合焦レンズ位置にフォーカスレンズ19R、19Lを移動させる合焦制御を行う。ここで、「コントラスト値」は、CCD29R、29Lにより得られた撮像画像に基づいて算出される。「合焦レンズ位置」は、フォーカスレンズ19R、19Lが少なくとも主要被写体に合焦するフォーカスレンズ19R、19Lの位置である。   The AF control unit 47 performs AF search control for calculating the contrast value by moving the focus lenses 19R and 19L in the optical axis direction OA when the release button 14 is half-pressed, and the focusing lens position based on the contrast value. Focusing control for moving the focus lenses 19R, 19L is performed. Here, the “contrast value” is calculated based on the captured images obtained by the CCDs 29R and 29L. The “focus lens position” is the position of the focus lenses 19R and 19L at which the focus lenses 19R and 19L are focused on at least the main subject.

例えば、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、モータドライバ27Rまたは27Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右眼画像または左眼画像)にて、コントラスト値を算出する。そのコントラスト値に基づき、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、モータドライバ27Rおよび27Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。両方の撮影光学系11R、11LにてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。   For example, while moving at least one of the focus lenses 19R and 19L of the two photographic optical systems 11R and 11L by driving the motor driver 27R or 27L, the captured image (right-eye image or 11L) of the photographic optical system 11R or 11L is moved. In the left eye image), the contrast value is calculated. Based on the contrast value, the focus lens positions of the focus lenses 19R and 19L of the two photographing optical systems 11R and 11L are determined, respectively, and the motor drivers 27R and 27L are respectively driven so that the focus lenses 19R and 19L are respectively set. Move to focus lens position. An AF search may be performed in both the photographing optical systems 11R and 11L, and the respective focusing lens positions may be determined.

視差検出処理部49は、SDRAM39に記録された撮像画像(右眼画像および左眼画像に基づいて、主要被写体に対する撮影光学系11R、11L間の視差量を検出する。ここで、「主要被写体」とは、合焦対象の被写体である。   The parallax detection processing unit 49 detects the amount of parallax between the photographing optical systems 11R and 11L with respect to the main subject based on the captured image (right eye image and left eye image) recorded in the SDRAM 39. Here, “main subject” Is a subject to be focused.

図4に示す説明図において、撮影光学系11R、11Lに対して主要被写体が遠距離になるほど、図5(A)に示すように右眼画像中の主要被写体の特定点250Rの位置と左眼画像中の主要被写体の特定点250Lの位置とが一致してくる一方で、撮影光学系11R、11Lに対して主要被写体が近くなるほど、図5(B)に示すように右眼画像中の主要被写体の特定点250Rの位置と左眼画像中の主要被写体の特定点250Lの位置とが、離れてくる。すなわち、被写体距離が大きいほど視差量は小さくなり、被写体距離が小さいほど視差量が大きくなる。視差検出処理部49は、具体的には、視差量として、同一の主要被写体について、右眼画像および左眼画像の両画像間で対応する特定の点(対応点)間の位置の差(対応点間距離)を算出する。言い換えると、右眼画像上の主要被写体の位置と左眼画像上の主要被写体の位置との差分を視差量として算出する。   In the explanatory view shown in FIG. 4, as the main subject becomes farther from the photographing optical systems 11R and 11L, the position of the specific point 250R of the main subject in the right-eye image and the left eye as shown in FIG. While the position of the specific point 250L of the main subject in the image coincides, the closer the main subject is to the photographing optical systems 11R and 11L, the more the main subject in the right-eye image as shown in FIG. The position of the specific point 250R of the subject is separated from the position of the specific point 250L of the main subject in the left eye image. That is, the larger the subject distance, the smaller the parallax amount, and the smaller the subject distance, the larger the parallax amount. Specifically, the parallax detection processing unit 49 uses a difference in position (corresponding points) between specific points (corresponding points) corresponding to both the right eye image and the left eye image for the same main subject as the amount of parallax. (Distance between points) is calculated. In other words, the difference between the position of the main subject on the right eye image and the position of the main subject on the left eye image is calculated as the amount of parallax.

主要被写体(すなわち合焦対象の被写体)は、特に限定されないが、例えば操作部25により顔検出モードが設定されている場合、図6に示すように、撮像画像中の人物Hを主要被写体として、顔検出枠Aの対応点間距離を算出する。例えば、右眼画像と左眼画像とで、符号251の点同士の位置の差、符号252の点同士の位置の差、符号253の点同士の位置の差、および、符号254の点同士の位置の差を求め、これらの差の平均値を視差量として用いる。なお、主要被写体の4点について対応点間距離を求める場合を例に説明したが、少なくとも3点について対応点間距離を求めればよい。   The main subject (that is, the subject to be focused) is not particularly limited. For example, when the face detection mode is set by the operation unit 25, the person H in the captured image is set as the main subject as shown in FIG. The distance between corresponding points in the face detection frame A is calculated. For example, in the right-eye image and the left-eye image, the difference in the positions of the points 251, the difference in the positions of the 252 points, the difference in the positions of the 253 points, and the points of the 254 points A difference in position is obtained, and an average value of these differences is used as the amount of parallax. In addition, although the case where the distance between corresponding points was obtained for four points of the main subject has been described as an example, the distance between corresponding points may be obtained for at least three points.

このような視差検出を行う際に、主要被写体にピントが合っていない状態で視差検出が行われても、顔検出枠が検出できないために、視差検出できない場合がある。このため、本実施形態では、視差検出の際には、主要被写体が被写界深度内に入るように、絞り20の絞り値を大きくして被写界深度を深くする。   When performing such parallax detection, parallax detection may not be possible because the face detection frame cannot be detected even if parallax detection is performed in a state where the main subject is not in focus. For this reason, in the present embodiment, when the parallax is detected, the aperture value of the aperture 20 is increased to increase the depth of field so that the main subject falls within the depth of field.

次に、第1実施形態におけるAF制御部47のAFサーチ制御について説明する。以下では、ふたつの撮影光学系11R、11Lのうち一方を用いてAFサーチ制御を行うものとして、右眼、左眼の別を示す符号R、Lを省略して説明する。   Next, AF search control of the AF control unit 47 in the first embodiment will be described. In the following, description will be made by omitting the symbols R and L indicating the right eye and the left eye, assuming that AF search control is performed using one of the two photographing optical systems 11R and 11L.

フォーカスレンズ19は、少なくとも、最短撮影距離(以下「MOD」という)に合焦するMOD位置と、無限遠(以下「INF」という)に合焦するINF位置との間で移動可能である。AF制御部47は、MOD位置側からINF位置側に向けてフォーカスレンズ19を移動させながらコントラスト値を算出する正方向サーチモードと、INF位置側からMOD位置側に向けてフォーカスレンズ19を移動させながらコントラスト値を算出する逆方向サーチモードを有する。AF制御部47は、フォーカスレンズ19を移動させながら、CCD29及びAFコントラスト値算出部52を駆動し、AFコントラスト値算出部52は、CCD29の撮像によりSDRAM39に記憶される画像の輝度値などに基づいて、AFコントラスト値を逐次算出する。   The focus lens 19 is movable at least between an MOD position that focuses on the shortest shooting distance (hereinafter referred to as “MOD”) and an INF position that focuses on infinity (hereinafter referred to as “INF”). The AF control unit 47 moves the focus lens 19 from the MOD position side toward the INF position side, and moves the focus lens 19 from the INF position side toward the MOD position side. However, it has a reverse search mode for calculating the contrast value. The AF control unit 47 drives the CCD 29 and the AF contrast value calculation unit 52 while moving the focus lens 19, and the AF contrast value calculation unit 52 is based on the luminance value of the image stored in the SDRAM 39 by the imaging of the CCD 29. Thus, the AF contrast value is sequentially calculated.

AF制御部47は、視差が検出されない場合、正方向サーチモードにて、所定レンズ送り量毎に得られるAFコントラスト値を先のAFコントラスト値を比較して、AFコントラスト値が上昇から下降に転じるまでレンズ移動・コントラスト値の算出を行う所謂山登り方式のAFサーチを行う、そして、AF制御部47は、AFコントラスト値が上昇から下降に転じたら、AFコントラスト値のピーク(極大)位置を合焦レンズ位置として決定し、この合焦レンズ位置にフォーカスレンズ19が移動されるようにフォーカスモータ23を制御する。   When no parallax is detected, the AF control unit 47 compares the AF contrast value obtained for each predetermined lens feed amount with the previous AF contrast value in the forward direction search mode, and the AF contrast value changes from rising to falling. The so-called hill-climbing AF search is performed to calculate the lens movement and the contrast value until the AF control value 47 shifts the AF contrast value from rising to falling, and the AF contrast value peak (maximum) position is focused. The lens position is determined, and the focus motor 23 is controlled so that the focus lens 19 is moved to the focus lens position.

一方、視差が検出された場合、本実施形態のAF制御部47は、視差検出処理部49による視差検出結果に基づき、逆方向サーチモードにて、高速化されたAFサーチを行う。   On the other hand, when a parallax is detected, the AF control unit 47 of the present embodiment performs an accelerated AF search in the reverse search mode based on the parallax detection result by the parallax detection processing unit 49.

図7に示すように、絞り値F=a、絞り値F=b(ただしa>b)において、それぞれフォーカスレンズ位置とAFコントラスト値との関係を示す曲線を比較すると、絞り20の絞り値が小さい方(b:点線)は、フォーカスレンズ19の移動量に対するAFコントラスト値の変動量が大きくなるので、被写界深度(ピントの合う範囲)は狭く(浅く)なる。逆に、絞り20の絞り値が大きい方(a:実線)は、フォーカスレンズ19の移動量に対するAFコントラスト値の変動量が小さくなるので、被写界深度は深くなり、被写体が被写界深度内に入る可能性が高くなる。   As shown in FIG. 7, when the aperture value F = a and the aperture value F = b (where a> b) are compared, curves indicating the relationship between the focus lens position and the AF contrast value are compared. On the smaller side (b: dotted line), the variation amount of the AF contrast value with respect to the movement amount of the focus lens 19 becomes large, so that the depth of field (the in-focus range) becomes narrow (shallow). On the contrary, when the aperture value of the aperture 20 is larger (a: solid line), the variation amount of the AF contrast value with respect to the movement amount of the focus lens 19 becomes smaller, so the depth of field becomes deeper and the subject becomes deeper. There is a high possibility of entering.

そこで、例えば本実施形態では、視差検出の際には、絞り20の絞り値(「1」、「1.4」、「2」、「2.8」、「4」、「5.6」、「8」・・・)をAFサーチの際の絞り値よりも1段(2段以上でも可)大きくする。そして、この状態で視差検出を行って視差検出に失敗した場合には、人物Hの顔が被写界深度内に入って視差検出に成功するまで、絞り20の絞り値を1段ずつ大きくする。   Therefore, for example, in the present embodiment, when the parallax is detected, the aperture value of the aperture 20 (“1”, “1.4”, “2”, “2.8”, “4”, “5.6”). , “8”...) Is increased by one step (two or more steps are possible) larger than the aperture value at the time of AF search. If the parallax detection fails in this state and the parallax detection fails, the aperture value of the aperture 20 is increased by one step until the face of the person H enters the depth of field and the parallax detection is successful. .

具体的には、図8(A)に示すように、主要被写体である人物Hが被写界深度内に入っていない場合には、人物Hの顔にピントが合っていないため、視差検出に失敗する。AE制御部(図3の45)は、視差検出処理部49による視差検出が失敗したら、アイリスモータ24を制御して、絞り20の絞り値を1段大きくする(例えば「1.4」→「2」)。次いで、視差検出処理部49は視差検出を再度行う。以下、(B)に示すように、人物Hが被写界深度内に入り、視差検出に成功するまで、上述の処理が繰り返し行われる。   Specifically, as shown in FIG. 8A, when the person H who is the main subject is not within the depth of field, the face of the person H is not in focus, so parallax detection is performed. Fail. When the parallax detection by the parallax detection processing unit 49 fails, the AE control unit (45 in FIG. 3) controls the iris motor 24 to increase the aperture value of the aperture 20 by one level (for example, “1.4” → “ 2 "). Next, the parallax detection processing unit 49 performs parallax detection again. Hereinafter, as shown in (B), the above process is repeated until the person H enters the depth of field and succeeds in detecting the parallax.

なお、視差検出時に絞り20の絞り値を1段ずつ大きくする代りに、例えば絞り値を最初から大きな値に設定してもよいが、絞り値を大きくした場合、つまり、絞り20をある程度以上絞り込んだ場合、絞り20による回折現象によっていわゆる小絞りボケと呼ばれる現象が発生するおそれがある。このため、絞り20を絞り過ぎないようにすることが好ましい。   Instead of increasing the aperture value of the aperture 20 one step at a time when parallax is detected, for example, the aperture value may be set to a large value from the beginning. However, when the aperture value is increased, that is, the aperture 20 is reduced to a certain extent. In this case, a phenomenon called so-called small-aperture blur may occur due to a diffraction phenomenon caused by the diaphragm 20. For this reason, it is preferable not to restrict the diaphragm 20 too much.

絞り20の絞り値が大きくされた場合、つまり、絞り20が絞られた場合には、CCD29に入射する被写体光が減少する。このため、図3において、CPU26は、絞り20の絞り値の増加に応じてAMP35のゲインを上げ、CCD29のISO感度を上げる。これにより、被写体光量の減少による画像の明るさの低下が補正される。   When the aperture value of the aperture 20 is increased, that is, when the aperture 20 is stopped, the subject light incident on the CCD 29 decreases. Therefore, in FIG. 3, the CPU 26 increases the gain of the AMP 35 according to the increase of the aperture value of the aperture 20 and increases the ISO sensitivity of the CCD 29. As a result, a decrease in image brightness due to a decrease in the amount of subject light is corrected.

概略距離算出部50は、視差検出処理部49で算出された視差量に基づいて、人物Hの顔までの概略距離Lsを算出する。そして、本実施形態では、概略距離Lsの算出結果に基づき、フォーカスレンズ19をINF位置からMOD位置に向けて移動させるレンズ移動距離を決定し、決定したレンズ移動距離だけフォーカスレンズ19をINF位置から移動させながらAFサーチを行う。以下、135換算焦点距離300mの撮影光学系11を例に挙げて、フォーカスレンズ19をINF位置からMOD位置に向けて移動させる理由について説明する。   The approximate distance calculation unit 50 calculates an approximate distance Ls to the face of the person H based on the amount of parallax calculated by the parallax detection processing unit 49. In this embodiment, the lens movement distance for moving the focus lens 19 from the INF position toward the MOD position is determined based on the calculation result of the approximate distance Ls, and the focus lens 19 is moved from the INF position by the determined lens movement distance. Perform AF search while moving. Hereinafter, the reason for moving the focus lens 19 from the INF position toward the MOD position will be described by taking the imaging optical system 11 having a 135-converted focal length of 300 m as an example.

図9に示すように、MOD側は被写界深度が浅いため、フォーカスレンズ19の移動量(mm)に対するピント位置(ピント設定距離)の変動量(m)を小さくする必要がある。これに対して、INF側は被写界深度が深いため、フォーカスレンズ19の移動量に対するピント位置の変動量を大きくすることができる。このため、AFサーチを行う場合には、ピント位置の変動量が大きいINF側からサーチを開始することで、AFサーチのサーチ範囲(レンズ移動量)を小さくすることが可能である。   As shown in FIG. 9, since the depth of field is shallow on the MOD side, the fluctuation amount (m) of the focus position (focus setting distance) with respect to the movement amount (mm) of the focus lens 19 needs to be reduced. On the other hand, since the depth of field is deep on the INF side, the fluctuation amount of the focus position with respect to the movement amount of the focus lens 19 can be increased. For this reason, when performing an AF search, the search range (lens movement amount) of the AF search can be reduced by starting the search from the INF side where the variation amount of the focus position is large.

図10に、人物Hの腰から頭まで入るようにカメラ横位置で撮影した条件において、撮影光学系11の「135換算焦点距離」と、人物H(顔)までの距離である「人物距離」と、人物Hまでの距離に対してMOD側からAFサーチを行った場合のレンズ移動量である「MOD〜人物まで」と、これとは逆にINF側からAFサーチを行った場合のレンズ移動量である「INF〜人物まで」との関係を示す。なお、図10において、人物Hの腰から頭までの高さは0.85mである。   FIG. 10 shows that “135 equivalent focal length” of the photographic optical system 11 and “person distance” that is the distance to the person H (face) under the condition that the image is taken from the side of the camera so that the person H enters from the waist to the head. “MOD to person”, which is the amount of lens movement when AF search is performed from the MOD side for the distance to the person H, and conversely, lens movement when AF search is performed from the INF side The relationship between the quantity “from INF to person” is shown. In FIG. 10, the height from the waist to the head of the person H is 0.85 m.

図10において、「レンズ移動量比率」欄には、INF側〜MOD側までのピント合わせに必要なレンズ移動範囲を100%としたときに、「MOD〜人物まで」及び「INF〜人物まで」のそれぞれのレンズ移動量の比率を求めた結果が記入されている。また、各135換算焦点距離別のレンズ移動量比率の結果が図11にグラフ化されている。なお、図11中において、左側が「MOD〜人物まで」のレンズ移動量の比率であり、右側が「INF〜人物まで」のレンズ移動量の比率である。   In FIG. 10, in the “lens movement amount ratio” column, when the lens movement range necessary for focusing from the INF side to the MOD side is 100%, “MOD to person” and “INF to person”. The result of calculating the ratio of the respective lens movement amounts is entered. Further, the result of the lens movement amount ratio for each 135 equivalent focal length is graphed in FIG. In FIG. 11, the lens movement amount ratio “MOD to person” is on the left side, and the lens movement ratio is “INF to person” on the right side.

図10及び図11から明らかなように、想定した(通常想定される)人物距離(135換算焦点距離28mm、人物距離28mmを除く)では、MOD側からINF側に向けてAFサーチを行うよりも、INF側からMOD側に向けてAFサーチを行った方がAFサーチ時間(距離)を短くすることができる。例えば135換算焦点距離が300mmの場合には、従来と比較してAFサーチ時間を約20%に短縮することができる。   As is clear from FIGS. 10 and 11, the assumed (usually assumed) person distance (excluding 135 equivalent focal length 28 mm and person distance 28 mm) is more than performing an AF search from the MOD side toward the INF side. The AF search time (distance) can be shortened by performing the AF search from the INF side toward the MOD side. For example, when the 135 equivalent focal length is 300 mm, the AF search time can be shortened to about 20% compared to the conventional case.

また、AFサーチ時にフォーカスレンズ19をINF位置からMOD位置に向けて移動させることで、AFサーチ時間を短縮(AFを高速化)することができる他に、人物Hの顔のピント位置を検出する前に背景Bのピント位置も検出することができる。その結果、人物を背景の双方にピントが合うようにするなどの撮影者の意図を反映したAF制御が可能となる。   Further, by moving the focus lens 19 from the INF position toward the MOD position at the time of AF search, the AF search time can be shortened (AF speed is increased), and the focus position of the face of the person H is detected. The focus position of the background B can also be detected before. As a result, it is possible to perform AF control that reflects the photographer's intention, such as focusing a person on both the background and the background.

図3にて、視差検出処理部49で視差検出が行われ、概略距離算出部50で人物Hの顔までの概略距離Lsが算出されたら、この概略距離算出結果は、AF制御部47のレンズ移動距離決定部53に入力される。レンズ移動距離決定部53は、入力された概略距離Lsに対して概略距離算出部50による概略距離算出誤差分ΔLs(図12参照)を補正した結果に基づき、AFサーチ時にフォーカスレンズ19をINF位置からMOD位置に向けて移動させるレンズ移動距離LAF(AFサーチ範囲)を決定する。 In FIG. 3, when the parallax detection is performed by the parallax detection processing unit 49 and the approximate distance Ls to the face of the person H is calculated by the approximate distance calculation unit 50, the approximate distance calculation result is obtained as the lens of the AF control unit 47. This is input to the movement distance determination unit 53. The lens movement distance determination unit 53 moves the focus lens 19 to the INF position during AF search based on the result of correcting the approximate distance calculation error ΔLs (see FIG. 12) by the approximate distance calculation unit 50 with respect to the input approximate distance Ls. The lens movement distance L AF (AF search range) to be moved from the position to the MOD position is determined.

ここで、概略距離Lsに対して概略距離算出誤差分ΔLsの補正を行う理由は、概略距離算出部50で算出される概略距離Lsは、実際の距離とは異なっているためである。そして、特に顔認識の傾向として概略距離Lsが実際の距離よりも短く算出された場合に、AFサーチの終了位置が、人物Hの顔に合焦すると推定される推定合焦レンズ位置Ds(図12参照)よりもMOD側になる必要があるためである。また、顔の大きさには個人差があり、特に大人と子供では異なるため、その点を考慮して安全を見込んだレンズ移動量を設定しなければならないという理由もある。この概略距離算出誤差分ΔLsの大きさは、例えば、デジタルカメラの各機種別に一定の大きさでもよいし、算出された概略距離Lsの大きさに応じて変えるようにしてもよい。   Here, the reason why the approximate distance calculation error ΔLs is corrected with respect to the approximate distance Ls is that the approximate distance Ls calculated by the approximate distance calculation unit 50 is different from the actual distance. In particular, when the approximate distance Ls is calculated to be shorter than the actual distance as a tendency of face recognition, the estimated focus lens position Ds (see FIG. This is because it is necessary to be closer to the MOD side than (see 12). In addition, the size of the face varies from person to person, especially for adults and children. Therefore, there is a reason that the lens movement amount considering safety must be set in consideration of this point. The magnitude of the approximate distance calculation error ΔLs may be, for example, a constant magnitude for each model of the digital camera, or may be changed according to the calculated approximate distance Ls.

AF制御部47は、レンズ移動距離決定部53でレンズ移動距離LAFが決定したら、フォーカスモータ23を駆動して、レンズ移動距離LAFだけフォーカスレンズ19をINF位置からMOD位置に向けて移動させながら、CCD29及びAFコントラスト値算出部52を駆動する。AFコントラスト値算出部52は、フォーカスレンズ19の所定レンズ送り量ごとに、AFコントラスト値を逐次取得するAFサーチを行う。 AF control unit 47, when the lens movement distance L AF lens movement distance determination section 53 determines, by driving the focus motor 23, a lens moving distance L AF only focus lens 19 is moved toward the MOD position from the INF position However, the CCD 29 and the AF contrast value calculation unit 52 are driven. The AF contrast value calculation unit 52 performs an AF search for sequentially acquiring AF contrast values for each predetermined lens feed amount of the focus lens 19.

図12中の実線で示されるように、AFサーチにより得られたフォーカスレンズ位置とAFコントラスト値との関係を示す曲線(以下「AFコントラスト曲線」という)には、背景Bに対応するピーク位置P1と、人物Hに対応するピーク位置P2とが存在している。前述のように、レンズ移動距離LAFは、概略距離Lsに対して概略距離算出誤差分ΔLsを補正した(加えた)距離となる。このため、AFサーチの終了位置は、推定合焦レンズ位置Dsやピーク位置P2よりもMOD側となる。なお、図中のDP1は、ピーク位置P1に対応するフォーカスレンズ位置(以下単に「レンズ位置」という)であり、図中のDP2は、ピーク位置P2に対応するレンズ位置である。 As shown by a solid line in FIG. 12, a curve indicating the relationship between the focus lens position obtained by the AF search and the AF contrast value (hereinafter referred to as “AF contrast curve”) has a peak position P1 corresponding to the background B. And a peak position P2 corresponding to the person H exists. As described above, the lens movement distance LAF is a distance obtained by correcting (adding) the approximate distance calculation error ΔLs with respect to the approximate distance Ls. Therefore, the AF search end position is closer to the MOD than the estimated focus lens position Ds and the peak position P2. In the figure, D P1 is a focus lens position (hereinafter simply referred to as “lens position”) corresponding to the peak position P1, and D P2 in the figure is a lens position corresponding to the peak position P2.

AF制御部47は、AFサーチにより得られたAFコントラスト曲線に基づき、最もMOD側のピーク位置、つまり、ピーク位置P2に対応するレンズ位置DP2を人物Hの顔に合焦する合焦レンズ位置として決定する。次いで、AF制御部47は、決定された合焦レンズ位置にフォーカスレンズ19が移動されるように、フォーカスモータ23を制御する。以上で視差が検出された場合のAF制御が完了する。 AF control unit 47, based on the AF contrast curve obtained by the AF search, the most peak position of MOD side, i.e., the focus lens position for focusing the lens position D P2 that corresponds to the peak position P2 to a person's face H Determine as. Next, the AF control unit 47 controls the focus motor 23 so that the focus lens 19 is moved to the determined focus lens position. Thus, the AF control when the parallax is detected is completed.

なお、上記説明では、CCD29により得られた撮像画像中に主要被写体(本例では人物)がひとつしかない場合を例に挙げて説明を行ったが、例えば図13に示すように、撮像画像中に主要被写体がふたつ以上存在してもよい。この場合、視差検出処理部49は、第1の人物H1の顔が存在する領域A1、第2の人物H2の顔が存在する領域A2を検出することで、第1の人物H1の視差量および第2の人物H2の視差量を求める。   In the above description, the case where there is only one main subject (in this example, a person) in the captured image obtained by the CCD 29 has been described as an example. However, for example, as illustrated in FIG. There may be two or more main subjects. In this case, the parallax detection processing unit 49 detects the area A1 where the face of the first person H1 is present and the area A2 where the face of the second person H2 is present. The amount of parallax of the second person H2 is obtained.

概略距離算出部50は、例えば、視差量が最も大きい方、つまり、最も至近側の人物H1を選択し、選択した人物H1の視差量に基づき、前述の概略距離Lsを算出する。以下、主要被写体がひとつの場合と同様にして、レンズ移動距離LAFの決定と、AFサーチとが順に行われる。この場合には、図14に示すように、AFサーチにより得られるAFコントラスト曲線には、背景Bに対応するピーク位置P1、遠い方の人物H2に対応するピーク位置P2と、近い方の人物H1に対応するピーク位置P3とが存在する。 For example, the approximate distance calculation unit 50 selects the person H1 having the largest amount of parallax, that is, the closest person H1, and calculates the above-described approximate distance Ls based on the parallax amount of the selected person H1. Thereafter, the determination of the lens movement distance LAF and the AF search are sequentially performed in the same manner as in the case of one main subject. In this case, as shown in FIG. 14, the AF contrast curve obtained by the AF search includes a peak position P1 corresponding to the background B, a peak position P2 corresponding to the farther person H2, and a closer person H1. And a peak position P3 corresponding to.

前述のように、AF制御部47は、AFコントラスト曲線に基づき、最もMOD側のピーク位置、つまり、ピーク位置P3に対応するレンズ位置DP3を合焦レンズ位置として決定して、決定した合焦レンズ位置にフォーカスレンズ19を移動させる。なお、撮像画像中に主要被写体が3つ以上存在する場合でも同様に、最も視差量が大きい主要被写体の視差量に基づき、概略距離Lsの算出、レンズ移動距離LAFの決定、AFサーチ、フォーカスレンズ19の合焦位置移動が順に行われる。 As described above, the AF control unit 47 determines, based on the AF contrast curve, the peak position closest to the MOD, that is, the lens position DP3 corresponding to the peak position P3 as the in-focus lens position, and determines the determined focus. The focus lens 19 is moved to the lens position. Even when there are three or more main subjects in the captured image, similarly, based on the parallax amount of the main subject having the largest amount of parallax, calculation of the approximate distance Ls, determination of the lens movement distance LAF , AF search, focus The focusing position of the lens 19 is moved in order.

図10は、本発明の合焦制御方法を適用した第1実施形態に係る撮影処理の一例の流れを示すフローチャートである。この処理は、図3のCPU26により、プログラムに従い実行される。   FIG. 10 is a flowchart illustrating an example of a shooting process according to the first embodiment to which the focus control method of the present invention is applied. This process is executed according to the program by the CPU 26 of FIG.

デジタルカメラ10の電源がオンされ、撮影モードに設定されると、LCD13にはスルー画が表示される。   When the power of the digital camera 10 is turned on and the photographing mode is set, a through image is displayed on the LCD 13.

ステップS1にて、CPU26は、レリーズボタン14が半押しされているか否かを判定し、半押しされていないと判定された場合、レリーズボタンが半押しされるまで、待機状態となる。   In step S1, the CPU 26 determines whether or not the release button 14 is half-pressed. If it is determined that the release button 14 is not half-pressed, the CPU 26 is in a standby state until the release button is half-pressed.

レリーズボタンが半押しされたと判定されたら、ステップS2にて、視差検出処理部49による視差検出処理が開始される。この視差検出処理の詳細フローを図16に示す。AE制御部45は、アイリスモータ24を制御して、絞り20の絞り値を1段大きくすることで、被写界深度を深くする(ステップS21)。これにより、人物Hの顔が被写界深度内に入る可能性が高くなる。これと同時に、CPU26は、CCD29に入射する被写体光量の減少による画像の明るさの低下を補正するため、絞り値の増加に応じてAMP35のゲインを上げ、CCD29のISO感度を上げる(ステップS22)。   If it is determined that the release button has been half-pressed, the parallax detection processing by the parallax detection processing unit 49 is started in step S2. The detailed flow of this parallax detection process is shown in FIG. The AE control unit 45 controls the iris motor 24 to increase the aperture value of the aperture 20 by one step, thereby increasing the depth of field (step S21). Thereby, the possibility that the face of the person H falls within the depth of field increases. At the same time, the CPU 26 increases the gain of the AMP 35 and increases the ISO sensitivity of the CCD 29 in accordance with the increase of the aperture value in order to correct the decrease in image brightness due to the decrease in the amount of subject light incident on the CCD 29 (step S22). .

視差検出処理部49は、絞り値およびISO感度の調節がなされた後、SDRAM39に記憶された右眼画像と左眼画像とに基づき、両画像間での人物Hの顔の視差量を算出する(ステップS23)。視差検出に成功したか否かを判定し(ステップS24)、視差検出に失敗した場合には、絞り値が最大値であるか否か判定する(ステップS25)。ここで、絞り値が最大値でない場合には、絞り20の絞り値がさらに1段大きくされるとともに(ステップS26)、CCD29のISO感度が上げられた後(ステップS22)、再度視差検出が行われる(ステップS23)。以下、視差検出に成功するまで上述の処理が繰り返し行われる。そして、絞り値が最大値に設定されても視差検出に失敗した場合には、視差検出不可能と判断される(ステップS27)。すなわち、最終的に視差検出に失敗したと判定される。   The parallax detection processing unit 49 calculates the parallax amount of the face of the person H between the two images based on the right eye image and the left eye image stored in the SDRAM 39 after the aperture value and the ISO sensitivity are adjusted. (Step S23). It is determined whether or not the parallax detection has succeeded (step S24). If the parallax detection has failed, it is determined whether or not the aperture value is the maximum value (step S25). Here, when the aperture value is not the maximum value, the aperture value of the aperture 20 is further increased by one step (step S26), and after the ISO sensitivity of the CCD 29 is increased (step S22), the parallax detection is performed again. (Step S23). Thereafter, the above-described processing is repeated until the parallax detection is successful. If parallax detection fails even when the aperture value is set to the maximum value, it is determined that parallax detection is impossible (step S27). That is, it is finally determined that the parallax detection has failed.

図15のステップS3にて、視差検出処理部49にて視差検出が成功したか否かを判定し、視差検出が成功した場合、すなわち視差量が算出された場合、本実施形態では逆方向AFサーチを行う。   In step S3 of FIG. 15, it is determined whether or not the parallax detection is successful in the parallax detection processing unit 49, and when the parallax detection is successful, that is, when the parallax amount is calculated, in this embodiment, the reverse direction AF Perform a search.

ステップS4にて、概略距離算出部50は、視差量の算出結果に基づいて、人物Hの顔までの概略距離Lsを算出し、この算出結果をレンズ移動距離決定部53に入力する。なお、前述したように、視差検出処理部49により複数の顔が検出された場合には、最も視差量が大きな顔までの概略距離Lsが算出される。そして、ステップS5にて、レンズ移動距離決定部53は、概略距離Lsに対して概略距離算出誤差分ΔLsを補正した結果に基づき、レンズ移動距離LAFを決定する。レンズ移動距離LAFが決定されたら、ステップS6にて、AF制御部47は、フォーカスモータ23を駆動して、レンズ移動距離LAFだけフォーカスレンズ19をINF位置からMOD位置に向けて移動させながら、CCD29及びAFコントラスト値算出部52を駆動させる。これにより、フォーカスレンズ19がレンズ移動距離LAF分だけ移動されるまで、所定レンズ送り量毎にAFコントラスト値を逐次算出するAFサーチが行われる。 In step S <b> 4, the approximate distance calculation unit 50 calculates the approximate distance Ls to the face of the person H based on the calculation result of the parallax amount, and inputs the calculation result to the lens movement distance determination unit 53. As described above, when a plurality of faces are detected by the parallax detection processing unit 49, the approximate distance Ls to the face with the largest amount of parallax is calculated. Then, in step S5, the lens movement distance determination unit 53, based on the result obtained by correcting the approximate distance calculation error of ΔLs respect approximate distance Ls, determines the lens movement distance L AF. When the lens moving distance L AF is determined at step S6, AF control section 47 drives the focus motor 23, while moving toward the MOD position of the lens movement distance L AF only the focus lens 19 from the INF position Then, the CCD 29 and the AF contrast value calculation unit 52 are driven. Thus, an AF search for sequentially calculating the AF contrast value for each predetermined lens feed amount is performed until the focus lens 19 is moved by the lens movement distance LAF .

ステップS7にて、AFサーチが完了したか否か判定し、AFサーチが完了したら、AF制御部47は、AFサーチにより得られたAFコントラスト曲線に基づき、最もMOD側のAFコントラスト値のピーク位置に対応するレンズ位置を合焦レンズ位置として決定する(図12参照)。そして、ステップS8にて、AF制御部47は、フォーカスモータ23を制御して、フォーカスレンズ19を決定した合焦レンズ位置に移動させる。以上で、AF制御が完了する。   In step S7, it is determined whether or not the AF search is completed. When the AF search is completed, the AF control unit 47 determines the peak position of the AF contrast value on the most MOD side based on the AF contrast curve obtained by the AF search. Is determined as the in-focus lens position (see FIG. 12). In step S8, the AF control unit 47 controls the focus motor 23 to move the focus lens 19 to the determined focus lens position. This completes the AF control.

ステップS3にて視差検出に失敗したと判定されたとき、通常の正方向AFサーチを行う。すなわち、ステップS16にて、AF制御部47は、フォーカスモータ23を駆動して、フォーカスレンズ19をMOD位置からINF位置に向けて移動させながら、AFサーチを行う。ステップS17にて、AFサーチが完了したか否かを判定し、AFサーチが完了したら、AF制御部47は、AFコントラスト曲線に基づき、最もMOD側のAFコントラスト値のピーク位置に対応するレンズ位置を合焦レンズ位置として決定する。そして、ステップS18にて、AF制御部47は、フォーカスモータ23を制御して、フォーカスレンズ19を決定した合焦レンズ位置に移動させる。   When it is determined in step S3 that the parallax detection has failed, a normal forward AF search is performed. That is, in step S16, the AF control unit 47 drives the focus motor 23 to perform the AF search while moving the focus lens 19 from the MOD position toward the INF position. In step S17, it is determined whether or not the AF search is completed. When the AF search is completed, the AF control unit 47 determines the lens position corresponding to the peak position of the AF contrast value closest to the MOD based on the AF contrast curve. Is determined as the focus lens position. In step S18, the AF control unit 47 controls the focus motor 23 to move the focus lens 19 to the determined focus lens position.

また、SDRAM39に記憶された画像データが解析されて、被写体の輝度情報等に基づき、最適な撮影条件となるように、絞り20の絞り値、CCD29の電子シャッタ、及びCCD29のISO感度がAE制御部45やCPU26等により算出される(ステップS9)。そして、これらの算出結果に基づき、絞り値、電子シャッタ速度、及びISO感度の制御が行われる(ステップS10)。以上で撮影準備処理が完了する。   Also, the image data stored in the SDRAM 39 is analyzed, and the aperture value of the aperture 20, the electronic shutter of the CCD 29, and the ISO sensitivity of the CCD 29 are controlled by AE so that the optimum shooting conditions are obtained based on the luminance information of the subject. Calculated by the unit 45, the CPU 26, etc. (step S9). Based on these calculation results, the aperture value, electronic shutter speed, and ISO sensitivity are controlled (step S10). This completes the shooting preparation process.

その後、CPU26は、レリーズボタン14が全押しされたか否かを判定する。全押しされていないと判定された場合、全押しされるまで待機状態となる。また、レリーズボタン14が全押しされたと判断されたら、CPU26はCCD29に撮像を実行させる(ステップS11)。CCD29から出力された撮像信号は、アナログ信号処理回路33によりデジタルの画像データに変換される。この画像データは、画像処理回路41、圧縮伸張回路43等により各種画像処理・圧縮処理が施された後、メモリカードスロット15を経由してメモリカード16に記憶される。次の撮影が有るか否かを判定し(ステップS12)、次の撮影が有る場合には、前述の処理を繰り返せばよい。   Thereafter, the CPU 26 determines whether or not the release button 14 has been fully pressed. If it is determined that the button is not fully pressed, the standby state is maintained until the button is fully pressed. If it is determined that the release button 14 has been fully pressed, the CPU 26 causes the CCD 29 to perform imaging (step S11). The imaging signal output from the CCD 29 is converted into digital image data by the analog signal processing circuit 33. The image data is subjected to various image processing / compression processes by the image processing circuit 41, the compression / decompression circuit 43, and the like, and then stored in the memory card 16 via the memory card slot 15. It is determined whether or not there is a next shooting (step S12). If there is a next shooting, the above-described processing may be repeated.

以上のように本実施形態では、視差検出の際に絞り値をAFサーチ時よりも大きくして、被写界深度を深くするようにしたので、被写体が被写界深度内に入る可能性が高くなり、視差検出に成功する確率(視差検出率)を上げることができる。   As described above, in the present embodiment, when the parallax is detected, the aperture value is set to be larger than that in the AF search so that the depth of field is deepened. Therefore, there is a possibility that the subject enters the depth of field. This increases the probability of successfully detecting parallax (parallax detection rate).

また、本実施形態では、絞り値が大きくされた際に、CCD28のISO感度を上げるようにしたので、CCD29に入射する被写体光量の幻想による画像の明るさの低下を補正することができる。   In the present embodiment, when the aperture value is increased, the ISO sensitivity of the CCD 28 is increased, so that it is possible to correct a decrease in image brightness due to the illusion of the amount of subject light incident on the CCD 29.

また、本実施形態では、視差検出結果に基づき決定されたレンズ移動量(レンズ移動距離LAF)だけ、フォーカスレンズ19を合焦位置の変動量が大きいINF位置からMOD位置に向けて移動させながらAFサーチを行うようにしたので、AFサーチ時間を短縮することができる。 In this embodiment, the focus lens 19 is moved from the INF position where the variation amount of the in-focus position is large toward the MOD position by the lens movement amount (lens movement distance L AF ) determined based on the parallax detection result. Since the AF search is performed, the AF search time can be shortened.

また、本実施形態では、視差検出時に複数の主要被写体が検出された場合には、最も視差が大きな主要被写体の視差量に基づき、概略距離Lsを算出するようにしたので、最もMOD側の主要被写体に確実にフォーカスレンズ19を合焦させることができる。   In the present embodiment, when a plurality of main subjects are detected during parallax detection, the approximate distance Ls is calculated based on the parallax amount of the main subject having the largest parallax. The focus lens 19 can be reliably focused on the subject.

(第2実施形態)
次に、本発明を適用した第2実施形態のデジタルカメラの一例について説明する。
(Second Embodiment)
Next, an example of a digital camera according to the second embodiment to which the present invention is applied will be described.

図18に示すように、本実施形態のデジタルカメラは、図3に示した符号26のCPUの代りに符号60のCPUを備える。このCPU60は、基本的にCPU26と同じである。ただし、CPU60は、被写体距離算出部63(第1被写体距離算出手段)が設けられたAF制御部64と、被写界深度演算部65(絞り値算出手段)とを備えている。   As shown in FIG. 18, the digital camera of the present embodiment includes a CPU denoted by reference numeral 60 instead of the CPU denoted by reference numeral 26 shown in FIG. This CPU 60 is basically the same as the CPU 26. However, the CPU 60 includes an AF control unit 64 provided with a subject distance calculation unit 63 (first subject distance calculation unit) and a depth of field calculation unit 65 (aperture value calculation unit).

被写体距離算出部63は、AFサーチにより得られたAFコントラスト値(AFコントラスト曲線)と、各AFコントラスト値が得られた際のフォーカスレンズの位置とに基づいて、主要被写体(本例では人物H)までのほぼ正確な主要被写体距離LAと、副被写体(本例では背景B)までのほぼ正確な副被写体距離LBとを算出する(図19を参照)。これらの算出方法として、例えば被写体距離算出部63は、AFコントラスト曲線のピーク位置P1、P2に対応するレンズ位置DP,DPと、予めCPU60に記憶されている所定の演算式またはデータテーブルとに基づいて、両被写体距離LA、LBを算出する。なお、主要被写体(本例では人物)が複数の場合には、被写体距離算出部63は最もMOD側の主要被写体(人物)までの主要被写体距離LAを求める。両被写体距離LA,LBの算出結果は、被写界深度演算部65に入力される。 The subject distance calculation unit 63 determines the main subject (in this example, the person H based on the AF contrast value (AF contrast curve) obtained by the AF search and the position of the focus lens when each AF contrast value is obtained. ) And a substantially accurate main subject distance LA to the sub-subject (background B in this example) are calculated (see FIG. 19). As these calculation methods, for example, the subject distance calculation unit 63 includes lens positions DP 1 and DP 2 corresponding to the peak positions P 1 and P 2 of the AF contrast curve, and predetermined arithmetic expressions or data tables stored in advance in the CPU 60. Based on the above, both subject distances LA and LB are calculated. When there are a plurality of main subjects (persons in this example), the subject distance calculation unit 63 obtains the main subject distance LA to the main subject (person) on the MOD side. The calculation results of both subject distances LA and LB are input to the depth of field calculation unit 65.

被写界深度演算部65は、図19に示すように、フォーカスレンズ19が主要被写体距離LAにある主要被写体H(人物H)に合焦する合焦レンズ位置において、両被写体距離LA,LBの算出結果に基づき、被写体距離LBの副被写体(背景B)も撮影光学系11の被写界深度(後方被写界深度Lr)内に入るように絞り20の絞り値を被写界深度計算により求める。この被写界深度計算には、後方被写界深度Lrを求めるための周知の下記数1が用いられる。   As shown in FIG. 19, the depth-of-field calculating unit 65 sets the subject distances LA and LB at the focusing lens position where the focus lens 19 focuses on the main subject H (person H) at the main subject distance LA. Based on the calculation result, the aperture value of the aperture 20 is calculated by the depth of field so that the sub-subject (background B) having the subject distance LB is also within the depth of field (rear field depth Lr) of the photographing optical system 11. Ask. For this depth of field calculation, the well-known equation 1 below is used to determine the rear depth of field Lr.

[数1]
Lr=σFL/(f−σFL)
ここで、σはCCD29に結像する際の許容ボケ量を示す許容錯乱円径であり、Fは絞り20の絞り値であり、Lは人物Hまでの距離LAであり、fは撮影光学系11の焦点距離である。
[Equation 1]
Lr = σFL 2 / (f 2 −σFL)
Here, σ is a permissible circle of confusion that indicates the permissible blur amount when forming an image on the CCD 29, F is a diaphragm value of the diaphragm 20, L is a distance LA to the person H, and f is a photographing optical system. 11 focal lengths.

上述のパラメータの中でσ及びfは撮影前に予め分かっている。σは被写界深度演算部65内の図示しないROM等に記憶され、fはAF制御部64より被写界深度演算部65に入力される。そして被写界深度演算部65は、数1のL及びLrに主要被写体距離LA、副被写体距離LBをそれぞれ代入した下記数2より、F(絞り値)を算出する。   Among the above parameters, σ and f are known in advance before photographing. σ is stored in a ROM (not shown) or the like in the depth of field calculation unit 65, and f is input to the depth of field calculation unit 65 from the AF control unit 64. Then, the depth-of-field calculating unit 65 calculates F (aperture value) from the following formula 2 in which the main subject distance LA and the sub-subject distance LB are substituted for L and Lr in formula 1, respectively.

[数2]
LB=σF(LA)/{f−σF(LA)}
上記数2により、フォーカスレンズ19が上述の合焦レンズ位置において副被写体距離LB、つまり背景Bが被写界深度(後方被写界深度Lr)内に入るような絞り値が算出される。背景Bが確実に被写界深度内に入るように安全を見込んだ補正を行うようにしてもよい。算出された絞り値は、AE制御部45に入力される。
[Equation 2]
LB = σF (LA) 2 / {f 2 −σF (LA)}
From the above equation 2, the aperture value is calculated such that the sub-subject distance LB, that is, the background B falls within the depth of field (rear field depth Lr) when the focus lens 19 is at the above-described focusing lens position. You may make it perform the correction | amendment which considered safety | safety so that the background B might enter in the depth of field reliably. The calculated aperture value is input to the AE control unit 45.

AE制御部45は、入力された絞り値に基づきアイリスモータ24を制御して、絞り20の絞り値を調節する。なお、上述したように、絞り20の絞り値が大きくされる場合には、CCD29に入射する被写体光が減少する。このため、CPU60は、視差検出時と同様に絞り20の絞り値の増加に応じてAMP35のゲインを上げて、CCD29のISO感度を上げる。   The AE control unit 45 controls the iris motor 24 based on the input aperture value and adjusts the aperture value of the aperture 20. As described above, when the aperture value of the aperture 20 is increased, the subject light incident on the CCD 29 decreases. For this reason, the CPU 60 increases the ISO sensitivity of the CCD 29 by increasing the gain of the AMP 35 in accordance with the increase of the aperture value of the aperture 20 as in the case of parallax detection.

なお、被写体の輝度値がある所定量よりも低い場合には、前記数2で得られた絞り値では、CCD29の受光量が不足してしまう。このため、CCD29の電子シャッタのシャッタ速度とISO感度とのバランスを考えて絞り値を決定することが好ましい。   When the luminance value of the subject is lower than a predetermined amount, the amount of light received by the CCD 29 is insufficient with the aperture value obtained by Equation 2. For this reason, it is preferable to determine the aperture value in consideration of the balance between the shutter speed of the electronic shutter of the CCD 29 and the ISO sensitivity.

図20は、本発明の合焦制御方法を適用した第2実施形態に係る撮影処理の一例の流れを示すフローチャートである。この処理は、図18のCPU60により、プログラムに従い実行される。   FIG. 20 is a flowchart showing an example of a shooting process according to the second embodiment to which the focus control method of the present invention is applied. This process is executed according to the program by the CPU 60 of FIG.

なお、レリーズボタンが半押しされてから視差検出に成功してAFサーチが完了しフォーカスレンズ19が合焦レンズ位置に移動されるまでの処理の流れ(ステップS101〜S108)、及び、視差検出に失敗した場合の処理の流れ(ステップS116〜S119)は、前述の第1実施形態と同じなので、説明を省略する。   Note that the flow of processing from when the release button is pressed halfway down until the parallax detection is successful, the AF search is completed, and the focus lens 19 is moved to the in-focus lens position (steps S101 to S108), and parallax detection. Since the process flow (steps S116 to S119) in the case of failure is the same as that in the first embodiment described above, description thereof is omitted.

ステップS108にてフォーカスレンズ19が合焦レンズ位置に移動された後、ステップS109にて、AF制御部64の被写体距離算出部63は、AFサーチにより得られたAFコントラスト値(AFコントラスト曲線)と、各AFコントラスト値が得られた際のフォーカスレンズの位置とに基づいて、主要被写体距離LAと、副被写体距離LBとを算出して、これらの算出結果を被写界深度演算部65に入力する。   After the focus lens 19 is moved to the focus lens position in step S108, the subject distance calculation unit 63 of the AF control unit 64 determines the AF contrast value (AF contrast curve) obtained by the AF search in step S109. The main subject distance LA and the sub-subject distance LB are calculated based on the position of the focus lens when each AF contrast value is obtained, and these calculation results are input to the depth-of-field calculating unit 65. To do.

ステップS110にて、被写界深度演算部65は、予め記憶されている許容錯乱円径σと、AF制御部64より入力される撮影光学系11の焦点距離f、及び両被写体距離LA,LBとを上記数式2に代入して、背景Bが撮影光学系11の被写界深度内に入るような絞り20の絞り値を被写界深度計算により求める。絞り値の算出結果は、AE制御部45に入力される。   In step S110, the depth-of-field calculating unit 65, the allowable confusion circle diameter σ stored in advance, the focal length f of the photographing optical system 11 input from the AF control unit 64, and both subject distances LA, LB. And substituting into the above formula 2, the aperture value of the aperture 20 so that the background B falls within the depth of field of the photographing optical system 11 is obtained by depth of field calculation. The aperture value calculation result is input to the AE control unit 45.

ステップS111にて、絞り値が増加される場合に、CPU60は、最適な撮影条件となるようなCCD29のISO感度を算出する。これにより、絞り20の絞り値が大きくされた場合には、CCD29のISO感度が上げられるので、CCD29に入射する被写体光量の減少による画像の明るさの低下が補正される。これと同時に、AE制御部45は、最適な撮影条件となるようなCCD29の電子シャッタのシャッタ速度を算出する。   In step S111, when the aperture value is increased, the CPU 60 calculates the ISO sensitivity of the CCD 29 so that the optimum photographing condition is obtained. Thereby, when the aperture value of the aperture 20 is increased, the ISO sensitivity of the CCD 29 is increased, so that a decrease in image brightness due to a decrease in the amount of subject light incident on the CCD 29 is corrected. At the same time, the AE control unit 45 calculates the shutter speed of the electronic shutter of the CCD 29 so as to obtain the optimum shooting condition.

以下、前記第1実施形態と同様に、絞り値、電子シャッタ速度、及び、ISO感度の制御が行われて(ステップS112)、撮影準備処置が完了する。これ以降の処理(ステップS113〜S114)は、前記第1実施形態を同じであるので、説明は省略する。   Thereafter, similarly to the first embodiment, the aperture value, electronic shutter speed, and ISO sensitivity are controlled (step S112), and the imaging preparation process is completed. Since the subsequent processing (steps S113 to S114) is the same as that in the first embodiment, description thereof will be omitted.

以上のように第2実施形態では、フォーカスレンズ19を合焦レンズ位置に移動させた後、AFサーチの結果に基づいて、主要被写体距離LA及び副被写体距離LBを算出し、この算出結果に基づき背景Bも被写界深度内に入るような絞り値を被写界深度計算により求めるようにしたので、人物Hを撮影する場合に背景Bにもピントを合わせることができる。また、AFサーチ制御は前述の第1実施形態と同じなので、AFサーチ時間を短縮できる等、前述の第1実施形態で説明した効果と同様の効果も得られる。   As described above, in the second embodiment, after the focus lens 19 is moved to the focus lens position, the main subject distance LA and the sub-subject distance LB are calculated based on the result of the AF search, and based on the calculation result. Since the aperture value that allows the background B to fall within the depth of field is obtained by the calculation of the depth of field, the background B can be focused when the person H is photographed. Since the AF search control is the same as that in the first embodiment, the same effects as those described in the first embodiment can be obtained, such as shortening the AF search time.

(第3実施形態)
次に、本発明を適用した第3実施形態のデジタルカメラの一例について説明する。
(Third embodiment)
Next, an example of a digital camera according to a third embodiment to which the present invention is applied will be described.

図21に示すように、本実施形態のデジタルカメラは、図3に示した符号26のCPUの代りに符号70のCPUを備える。このCPU70は、基本的にCPU26と同じである。ただし、CPU70は、被写体距離算出部72(第2被写体距離算出手段)および合焦レンズ位置決定部73(合焦レンズ位置決定手段)が設けられたAF制御部75を備えている。   As shown in FIG. 21, the digital camera of this embodiment includes a CPU denoted by reference numeral 70 instead of the CPU denoted by reference numeral 26 shown in FIG. This CPU 70 is basically the same as the CPU 26. However, the CPU 70 includes an AF control unit 75 provided with a subject distance calculation unit 72 (second subject distance calculation unit) and a focusing lens position determination unit 73 (focusing lens position determination unit).

被写体距離算出部72は、前述の第2実施形態で説明した被写体距離算出部(図18の63)と同じものであり、この被写体距離算出部63と同様にAFサーチの結果に基づき、主要被写体距離LAと、副被写体距離LBとを算出する。これらの算出結果は、合焦レンズ位置決定部73の被写界深度演算回路76に入力される。   The subject distance calculation unit 72 is the same as the subject distance calculation unit (63 in FIG. 18) described in the second embodiment. Based on the result of the AF search, the subject distance calculation unit 63 is the same as the subject distance calculation unit 63. A distance LA and a sub-subject distance LB are calculated. These calculation results are input to the depth-of-field calculation circuit 76 of the focusing lens position determination unit 73.

被写界深度演算回路76は、両被写体距離LA,LBの算出結果に基づき、背景B(副被写体距離LB)も撮影光学系11の被写界深度内に入るような「ピント設定距離」を被写界深度計算により求める。被写界深度計算には、後方被写界深度Lrを求めるための前記数1と、前方被写界深度Lfを求めるための下記数3とが用いられる。   The depth-of-field calculation circuit 76 sets a “focus setting distance” such that the background B (sub-subject distance LB) also falls within the depth of field of the photographing optical system 11 based on the calculation results of both the subject distances LA and LB. Obtained by depth of field calculation. In the depth of field calculation, the above formula 1 for obtaining the rear depth of field Lr and the following formula 3 for obtaining the front depth of field Lf are used.

[数3]
Lf=σFL/(f+σFL)
数1及び数3の各パラメータの中で、許容錯乱円径σ、焦点距離f、及び絞り値Fは撮影前に予め判っている。そして、被写界深度演算回路76は、数3のLfに主要被写体距離LAを代入した数4により、主要被写体距離LA(人物H)以降の距離が被写界深度内となるような「ピント設定距離」L1を算出する(図22参照)。ここで、ピント設定距離L1は、このピント設定距離L1にフォーカスレンズ19を合焦させたとき(以下、必要に応じて「ピントを合わせる」という)に、主要被写体距離LA(人物H)が前方被写界深度Lfに入る距離である。
[Equation 3]
Lf = σFL 2 / (f 2 + σFL)
Among the parameters of Equations 1 and 3, the allowable confusion circle diameter σ, the focal length f, and the aperture value F are known in advance before photographing. Then, the depth-of-field calculation circuit 76 calculates the “focus” so that the distance after the main subject distance LA (person H) is within the depth of field by Expression 4 obtained by substituting the main object distance LA into Lf of Expression 3. A set distance “L1” is calculated (see FIG. 22). Here, the focus set distance L1 is set so that the main subject distance LA (person H) is forward when the focus lens 19 is focused on the focus set distance L1 (hereinafter referred to as “focus” if necessary). This is the distance that enters the depth of field Lf.

[数4]
LA=σF(L1)/{f+σF(L1)}
また、被写界深度演算回路76は、数1のLrに副被写体距離LBを代入した下記数5により、副被写体距離LB(背景B)以内の距離が被写界深度内となるようなピント設定距離L2を算出する(図22参照)。ここで、ピント設定距離L2は、このピント設定距離L2にピントを合わせたときに、副被写体距離LB(背景B)が後方被写界深度Lrに入る距離である。
[Equation 4]
LA = σF (L1) 2 / {f 2 + σF (L1)}
Further, the depth-of-field calculating circuit 76 is configured to focus the distance within the sub-subject distance LB (background B) within the depth of field according to the following formula 5 by substituting the sub-subject distance LB for Lr in formula 1. A set distance L2 is calculated (see FIG. 22). Here, the focus setting distance L2 is a distance at which the sub-subject distance LB (background B) enters the rear depth of field Lr when the focus setting distance L2 is focused.

[数5]
LB=σF(L2)/{f−σF(L2)}
ピント設定距離L1、L2が算出されたら、合焦レンズ位置決定部73は、L1及びL2の大きさを比較する。図22(A)に示すように、L1≧L2の場合には、L1とL2との間のピント設定距離にピントを合わせることで、主要被写体距離LAと副被写体距離LBとの間の全ての被写体が被写界深度内に入る。従って、被写界深度演算回路76は、下記数6に基づき、ピント設定距離L1,L2の平均をとって撮影用ピント設定距離(ピント設定位置)LCを決定する、ここで、図22中の左向き矢印は前方被写界深度の範囲を示すものであり、右向きの矢印は後方被写界深度の範囲を示すものである。
[Equation 5]
LB = σF (L2) 2 / {f 2 −σF (L2)}
When the focus setting distances L1 and L2 are calculated, the focusing lens position determination unit 73 compares the sizes of L1 and L2. As shown in FIG. 22A, in the case of L1 ≧ L2, by focusing on the focus setting distance between L1 and L2, all the distances between the main subject distance LA and the sub subject distance LB are obtained. The subject enters the depth of field. Accordingly, the depth-of-field calculating circuit 76 determines the photographing focus setting distance (focus setting position) LC by taking the average of the focus setting distances L1 and L2 based on the following equation (6). The left-pointing arrow indicates the range of the front depth of field, and the right-pointing arrow indicates the range of the rear depth of field.

[数6]
LC=(L1+L2)/2+L2
なお、図23に示すように、L1=L2となる場合には、許容錯乱円径σの規格限度で、人物Hと背景Bとの双方にピントを合わせることができる。つまり、人物H及び背景Bを共にぎりぎり被写界深度内に入れることができる。ここで、図中の符号DLCは、ピント設定距離LCに対応するレンズ位置(合焦レンズ位置)である。
[Equation 6]
LC = (L1 + L2) / 2 + L2
As shown in FIG. 23, when L1 = L2, it is possible to focus on both the person H and the background B within the limit of the allowable confusion circle diameter σ. That is, both the person H and the background B can be placed within the depth of field. Here, a symbol DLC in the figure is a lens position (focusing lens position) corresponding to the focus setting distance LC.

図22(B)に示すように、L1<L2の場合には、主要被写体距離LAと副被写体距離LBとの間の全ての被写体が被写界深度内に入る解はない。このため、合焦レンズ位置決定部73は、人物にピントが合うようにするため、下記数7に示すように、ピント設定距離L1を撮影用ピント設定距離LCとする。   As shown in FIG. 22B, when L1 <L2, there is no solution in which all subjects between the main subject distance LA and the sub subject distance LB fall within the depth of field. For this reason, the focusing lens position determination unit 73 sets the focus setting distance L1 as the focus setting distance LC for photographing as shown in the following Equation 7 in order to focus on the person.

[数7]
LC=L1
なお、ピントは背景Bよりも人物Hをメインに合わせる必要があるため、前記数6、数7に対して人物Hに重点をおくように重み係数を付け加えてもよい。
[Equation 7]
LC = L1
In addition, since it is necessary to focus the person H on the main rather than the background B, a weighting factor may be added so that the person H is emphasized with respect to the expressions 6 and 7.

撮影用ピント設定距離LCが決定したら、合焦レンズ位置決定部73は、撮影用設定距離LCに対応するフォーカスレンズ19のレンズ位置を合焦レンズ位置として決定する。そして、AF制御部75は、フォーカスモータ23を駆動して、決定された合焦レンズ位置にフォーカスレンズ19を移動させる。   When the shooting focus setting distance LC is determined, the focusing lens position determination unit 73 determines the lens position of the focus lens 19 corresponding to the shooting setting distance LC as the focusing lens position. Then, the AF control unit 75 drives the focus motor 23 to move the focus lens 19 to the determined focus lens position.

図24は、本発明の合焦制御方法を適用した第3実施形態に係る撮影処理の一例の流れを示すフローチャートである。この処理は、図21のCPU70により、プログラムに従い実行される。   FIG. 24 is a flowchart illustrating an example of a shooting process according to the third embodiment to which the focus control method of the present invention is applied. This process is executed according to the program by the CPU 70 of FIG.

なお、レリーズボタンが半押しされてから視差検出に成功してAFサーチが完了するまでの処理の流れ(ステップS201〜S207)、及び、視差検出に失敗した場合の処理の流れ(ステップS217〜S219)は、前述の第1実施形態と同じであるので、説明を省略する。   The process flow from when the release button is pressed halfway down until the parallax detection is successful and the AF search is completed (steps S201 to S207), and the process flow when the parallax detection fails (steps S217 to S219). ) Is the same as in the first embodiment described above, and a description thereof will be omitted.

視差検出に成功してステップS207にてAFサーチ完了と判定したら、ステップS208にて、AF制御部75の被写体距離算出部72は、AFサーチの結果に基づいて、主要被写体距離LAと、副被写体距離LBとを算出して、これらの算出結果を被写界深度演算回路76に入力する。   If the parallax detection is successful and it is determined in step S207 that the AF search is completed, in step S208, the subject distance calculation unit 72 of the AF control unit 75 determines the main subject distance LA and the sub subject based on the result of the AF search. The distance LB is calculated, and these calculation results are input to the depth of field calculation circuit 76.

ステップS209にて、被写界深度演算回路76は、AF制御部75に予め記憶されている許容錯乱円径σ及び焦点距離fと、先に算出された両被写体距離LA,LBと、AE制御部45より入力される絞り20の絞り値Fとを数4、数5に代入して、ピント設定距離L1,L2を被写界深度計算により算出する。   In step S209, the depth-of-field calculating circuit 76 determines the permissible circle of confusion σ and the focal length f stored in advance in the AF control unit 75, the previously calculated both subject distances LA and LB, and AE control. Substituting the aperture value F of the aperture 20 input from the unit 45 into Equations 4 and 5, the focus setting distances L1 and L2 are calculated by depth of field calculation.

ピント設定距離L1、L2が求められたら、ステップS210にて、合焦レンズ位置決定部73は、L1及びL2の大きさを比較して、L1≧L2の場合には、ステップS211にて、上記数6に基づいて、撮影用ピント設定距離LCを算出する。また、L1<L2の場合には、ステップS212にて、前記数7に基づいて、撮影用ピント設定距離LCを算出する。次いで、ステップS213にて、合焦レンズ位置決定部73は、撮影用ピント設定距離LCに対応するレンズ位置を合焦レンズ位置として決定する。AF制御部75は、フォーカスモータ23を駆動して、決定した合焦レンズ位置にフォーカスレンズ19を移動させる。   When the focus setting distances L1 and L2 are obtained, the focus lens position determination unit 73 compares the sizes of L1 and L2 in step S210. Based on the equation 6, the photographing focus setting distance LC is calculated. If L1 <L2, the photographing focus setting distance LC is calculated based on the equation 7 in step S212. Next, in step S213, the focusing lens position determination unit 73 determines the lens position corresponding to the photographing focus setting distance LC as the focusing lens position. The AF control unit 75 drives the focus motor 23 to move the focus lens 19 to the determined focus lens position.

以下、前記第1実施形態と同様に、絞り値、電子シャッタ速度、及びISO感度の制御が行われて(S214)、撮影準備処理が完了する。これ以降の処理(ステップS215〜216)は、前述の第1実施形態と同じであるので説明は省略する。   Thereafter, similarly to the first embodiment, the aperture value, electronic shutter speed, and ISO sensitivity are controlled (S214), and the photographing preparation process is completed. Subsequent processing (steps S215 to 216) is the same as that in the first embodiment described above, and thus description thereof is omitted.

以上のように第3実施形態では、AFサーチの結果に基づいて、主要被写体距離LA及び副被写体距離LBを算出し、さらに、この算出結果に基づき、背景Bが被写界深度内に入る位置まで背景側(INF位置側)に補正された撮影用ピント設定距離LCを被写界深度計算により算出した結果に基づき、フォーカスレンズ19の合焦レンズ位置を決定することで、前述の第2実施形態と同様に、人物Hを撮影する場合に背景Bにもピントを合わせることが可能になる。また、AFサーチ時間を短縮できる等の前述の第1実施形態で説明した効果と同様の効果も得られる。   As described above, in the third embodiment, the main subject distance LA and the sub-subject distance LB are calculated based on the AF search result, and the position where the background B falls within the depth of field is calculated based on the calculation result. By determining the focusing lens position of the focus lens 19 based on the result of calculating the focus setting distance LC for photographing corrected to the background side (INF position side) by the depth of field calculation until the second implementation described above Similarly to the form, when the person H is photographed, the background B can be focused. In addition, the same effects as those described in the first embodiment, such as shortening the AF search time, can be obtained.

(第4実施形態)
次に、本発明を適用した第4実施形態のデジタルカメラの一例について説明する。
(Fourth embodiment)
Next, an example of a digital camera according to a fourth embodiment to which the present invention is applied will be described.

図25に示すように、本実施形態のデジタルカメラは、図3に示した符号26のCPUの代りに符号80のCPUを備える。このCPU80は、基本的にCPU26と同じである。ただし、CPU80は、被写界深度算出部81、AFサーチ開始位置算出部82、レンズ移動幅決定部83が設けられたAF制御部84を備えている。   As shown in FIG. 25, the digital camera of this embodiment includes a CPU denoted by reference numeral 80 in place of the CPU denoted by reference numeral 26 shown in FIG. This CPU 80 is basically the same as the CPU 26. However, the CPU 80 includes an AF control unit 84 provided with a depth of field calculation unit 81, an AF search start position calculation unit 82, and a lens movement width determination unit 83.

被写界深度算出部81は、撮影光学系11の絞り20の絞り値等に基づいて、撮影光学系11の被写界深度を算出する。   The depth of field calculation unit 81 calculates the depth of field of the photographic optical system 11 based on the aperture value of the diaphragm 20 of the photographic optical system 11 and the like.

AFサーチ開始位置算出部82は、概略距離算出部50により算出された主要被写体までの概略距離に基づいて、AFサーチを開始するフォーカスレンズ19の位置を示すAFサーチ開始位置を算出する。本実施形態では、視差検出に成功した場合、フォーカスレンズ19をMOD側からINF側に向けて移動させながらコントラスト値を算出する正方向AFサーチを行う。このAFサーチにて、視差検出に成功した場合には、概略距離Lsに対し概略距離演算誤差分ΔLsを補正した位置DST(図26参照)を、AFサーチ開始位置として、MOD側からINF側に向ってAFサーチ(「視差検出AFサーチ」という)を行う。 Based on the approximate distance to the main subject calculated by the approximate distance calculation unit 50, the AF search start position calculation unit 82 calculates an AF search start position that indicates the position of the focus lens 19 that starts the AF search. In this embodiment, when the parallax detection is successful, the forward AF search for calculating the contrast value while moving the focus lens 19 from the MOD side toward the INF side is performed. If the parallax detection is successful in this AF search, the position D ST (see FIG. 26) obtained by correcting the approximate distance calculation error ΔLs with respect to the approximate distance Ls is set as the AF search start position from the MOD side to the INF side. AF search (referred to as “parallax detection AF search”) is performed.

なお、視差検出に失敗した場合のAFサーチは、第1実施形態と同じであり、MOD位置からINF側に向ってAFサーチ(「通常AFサーチ」という)を行う。   The AF search when the parallax detection fails is the same as in the first embodiment, and an AF search (referred to as “normal AF search”) is performed from the MOD position toward the INF side.

視差検出AFサーチは、通常AFサーチと同様、コントラスト値が上昇から下降に反転する最初のピーク位置を検出する。ただし、視差検出AFサーチでは、主要被写体(人物H)の概略距離に基づいて算出されたAFサーチ開始位置からAFサーチを行うので、人物Hよりも至近距離に物体が存在している場合でも、人物Hに合焦するレンズ位置を確実に検出することが可能である。   Similar to the normal AF search, the parallax detection AF search detects the first peak position where the contrast value reverses from rising to falling. However, in the parallax detection AF search, since the AF search is performed from the AF search start position calculated based on the approximate distance of the main subject (person H), even when an object is present at a closer distance than the person H, It is possible to reliably detect the lens position that focuses on the person H.

また、AFサーチ開始位置は、被写界深度算出部81により算出される被写界深度に基づいて、算出することが、好ましい。この場合、AFサーチ開始位置算出部82は、被写界深度が浅いほど、AFサーチ開始位置を概略距離(主要被写体までの概略距離)に対応するレンズ位置Ds(推定合焦レンズ位置)に近くする。すなわち、被写界深度が浅いほど、AFサーチにおけるフォーカスレンズ19の移動範囲を狭くする。   The AF search start position is preferably calculated based on the depth of field calculated by the depth of field calculation unit 81. In this case, as the depth of field is shallower, the AF search start position calculation unit 82 makes the AF search start position closer to the lens position Ds (estimated focus lens position) corresponding to the approximate distance (the approximate distance to the main subject). To do. That is, as the depth of field is shallower, the movement range of the focus lens 19 in the AF search is narrowed.

レンズ移動幅決定部83は、視差検出に成功した場合、被写界深度算出部81により算出される被写界深度に基づいて、AFサーチ時のフォーカスレンズ19の移動幅(ステップ幅)を決定する。レンズ移動幅決定部83は、被写界深度が深いほど、フォーカスレンズ19の移動幅(すなわちAFサーチ時にAFコントラスト値を算出するごとに移動させるフォーカスレンズ19の位置の間隔)を大きくする。   When the parallax detection is successful, the lens movement width determination unit 83 determines the movement width (step width) of the focus lens 19 during AF search based on the depth of field calculated by the depth of field calculation unit 81. To do. The lens movement width determination unit 83 increases the movement width of the focus lens 19 (that is, the interval between positions of the focus lens 19 to be moved each time an AF contrast value is calculated during AF search) as the depth of field is deeper.

なお、AFサーチは、2つの撮影光学系11(11Rおよび11L)のうち少なくとも一方により取得された画像に基づいて、その一方の撮影光学系のフォーカスレンズ(19Rまたは19L)のみを移動させながらAFコントラスト値を算出してよい。この場合、一方の撮影光学系11のコントラスト曲線(AFコントラスト値)に基づき、2つの撮影光学系11Rおよび11Lの合焦レンズ位置をそれぞれ求めて、2つの撮影光学系11Rおよび11Lのフォーカスレンズ19Rおよび19Lをそれぞれの合焦レンズ位置に移動させる。また、両方の撮影光学系11Rおよび11Lのフォーカスレンズ19Rおよび19Lをともに移動させながら、両方の撮影光学系11Rおよび11LにてそれぞれのAFコントラスト値を算出し、それぞれの合焦レンズ位置を求めてもよい。   The AF search is based on an image acquired by at least one of the two photographing optical systems 11 (11R and 11L) while moving only the focus lens (19R or 19L) of the one photographing optical system. A contrast value may be calculated. In this case, the focusing lens positions of the two photographing optical systems 11R and 11L are obtained based on the contrast curve (AF contrast value) of one photographing optical system 11, respectively, and the focus lens 19R of the two photographing optical systems 11R and 11L. And 19L are moved to the respective focusing lens positions. Further, while moving the focus lenses 19R and 19L of both the photographing optical systems 11R and 11L, the AF contrast values are calculated by both the photographing optical systems 11R and 11L, and the respective focusing lens positions are obtained. Also good.

図27は、本発明の合焦制御方法を適用した第4実施形態に係る撮影処理の一例の流れを示すフローチャートである。この処理は、図25のCPU80により、プログラムに従い実行される。   FIG. 27 is a flowchart showing an example of a shooting process according to the fourth embodiment to which the focus control method of the present invention is applied. This process is executed according to the program by the CPU 80 in FIG.

なお、レリーズボタンが半押しされてから視差検出に成功して主要被写体(人物H)の概略距離を算出するまでの処理の流れ(ステップS301〜S304)、及び、視差検出に失敗した場合の処理の流れ(ステップS316〜S318)は、図15に示した第1実施形態の処理(ステップS1〜S4、および、ステップS16〜S18)と同じなので、説明を省略する。   The flow of processing from when the release button is pressed halfway down until parallax detection is successful and the approximate distance of the main subject (person H) is calculated (steps S301 to S304), and processing when parallax detection fails The flow (steps S316 to S318) is the same as the processing (steps S1 to S4 and steps S16 to S18) of the first embodiment shown in FIG.

主要被写体(本例では人物H)の視差検出に成功した場合、ステップS306にて、AFサーチ開始位置算出部82は、図26に示したように、概略距離Lsに対し概略距離演算誤差分ΔLsを補正した位置DSTを、AFサーチ開始位置として算出する。本例では、主要被写体の被写体距離に対応するレンズ位置DP2(すなわちピーク位置P2に対応するレンズ位置DP2)よりもMOD側にAFサーチ開始位置DSTが位置するようにΔLsが決められている。そして、ステップS308にて、AF制御部84は、フォーカスモータ23を駆動して、フォーカスレンズ19をAFサーチ開始位置DSTからINF位置(無限遠)側に向けて移動させながら、CCD29及びAFコントラスト値算出部52を駆動させる。これにより、所定レンズ送り量(「ステップ幅」)毎にAFコントラスト値を逐次算出するAFサーチが行われる。 If the parallax detection of the main subject (person H in this example) is successful, in step S306, the AF search start position calculator 82 calculates the approximate distance calculation error ΔLs with respect to the approximate distance Ls as shown in FIG. the position D ST with the corrected, calculated as AF search start position. In this example, ΔLs is determined so that the AF search start position D ST is positioned on the MOD side of the lens position D P2 corresponding to the subject distance of the main subject (that is, the lens position D P2 corresponding to the peak position P2 ). Yes. In step S308, the AF control unit 84 drives the focus motor 23 to move the focus lens 19 from the AF search start position DST toward the INF position (infinity) side, and then the CCD 29 and the AF contrast. The value calculation unit 52 is driven. Thereby, an AF search for sequentially calculating an AF contrast value for each predetermined lens feed amount (“step width”) is performed.

ステップS309にて、AFコントラスト値が上昇から下降に反転したか否か、すなわちAFサーチが完了したか否かを判定し、AFサーチが完了したら、ステップS310にて、AF制御部84は、AFサーチにより得られたAFコントラスト曲線に基づき、AFサーチ開始位置DSTに最も近い側のコントラスト値のピーク位置P2に対応するレンズ位置DP2を合焦レンズ位置として決定する(図26参照)。そして、AF制御部84は、フォーカスモータ23を制御して、フォーカスレンズ19を決定した合焦レンズ位置に移動させる。以上で、AF制御が完了する。 In step S309, it is determined whether or not the AF contrast value is reversed from rising to falling, that is, whether or not the AF search is completed. When the AF search is completed, in step S310, the AF control unit 84 performs AF based on the AF contrast curve obtained by the search, determining the lens position D P2 corresponding to the peak position P2 of the contrast values of the side closest to the AF search start position D ST as the in-focus lens position (see Figure 26). Then, the AF control unit 84 controls the focus motor 23 to move the focus lens 19 to the determined focus lens position. This completes the AF control.

図28は、第4実施形態に係る撮影処理の他の例の流れを示すフローチャートである。この処理は、図25のCPU80により、プログラムに従い実行される。   FIG. 28 is a flowchart illustrating another example of the shooting process according to the fourth embodiment. This process is executed according to the program by the CPU 80 in FIG.

図28のステップS305にて、AF制御部84の被写界深度算出部81は、撮影光学系11の絞り20の絞り値等に基づいて、撮影光学系11の被写界深度を算出する。そして、ステップS306にて、AF制御部84のAFサーチ開始位置算出部82は、概略距離Lsおよび被写界深度に基づいて、AFサーチ開始位置DSTを算出する。すなわち、被写界深度を考慮した補正値ΔLsで概略距離Lsを補正してAFサーチ開始位置DSTを算出する。図29に示すように、被写界深度が浅いほど、AFサーチ開始位置DSTを概略距離Lsに対応するレンズ位置Ds(推定合焦レンズ位置)に近くする。すなわち、被写界深度が浅いほど、AFサーチにおけるフォーカスレンズ19の移動範囲を狭くする。 28, the depth of field calculation unit 81 of the AF control unit 84 calculates the depth of field of the photographic optical system 11 based on the aperture value of the diaphragm 20 of the photographic optical system 11 and the like. Then, at step S306, AF search start position calculating section 82 of the AF control unit 84, based on the approximate distance Ls and the depth of field, it calculates the AF search start position D ST. That is, the AF search start position DST is calculated by correcting the approximate distance Ls with the correction value ΔLs considering the depth of field. As shown in FIG. 29, as the depth of field is shallow, closer to the lens position Ds corresponding to AF search start position D ST in approximate distance Ls (estimated focus lens position). That is, as the depth of field is shallower, the movement range of the focus lens 19 in the AF search is narrowed.

他のステップは、図27を用いて説明した通りであり、ここでは説明を省略する。   The other steps are as described with reference to FIG. 27, and the description is omitted here.

図30は、第4実施形態に係る撮影処理の他の例の流れを示すフローチャートである。この処理は、図25のCPU84により、プログラムに従い実行される。   FIG. 30 is a flowchart illustrating another example of the shooting process according to the fourth embodiment. This process is executed according to the program by the CPU 84 in FIG.

図30のS307にて、AF制御部84のレンズ移動幅決定部83は、被写界深度に基づいて、AFサーチ時のフォーカスレンズ19の移動幅(ステップ幅)を決定する。具体的には、被写界深度が深いほど、フォーカスレンズ19の移動幅(すなわちAFコントラスト値を算出するレンズ位置の間隔)を大きくする。   In S307 of FIG. 30, the lens movement width determination unit 83 of the AF control unit 84 determines the movement width (step width) of the focus lens 19 at the time of AF search based on the depth of field. Specifically, as the depth of field is deeper, the movement width of the focus lens 19 (that is, the lens position interval for calculating the AF contrast value) is increased.

他のステップは、図28に示した撮影処理と同じであり、ここでは説明を省略する。   The other steps are the same as the photographing process shown in FIG. 28, and the description thereof is omitted here.

なお、前述の第1〜第4実施形態では、撮像画像中の主要被写体、副被写体としてそれぞれ人物H、背景Bを例に挙げて説明を行ったが、本発明はこれに限定されるものではない。例えば、主要被写体は、人物以外の動物、植物、建物、乗り物などでもよい。この場合は、これらの各種主要被写体の視差も検出可能な視差検出処理部49を設ければよい。また、副被写体も背景いがいの人物、動物、植物、建物、乗り物など何でもよい。   In the first to fourth embodiments described above, the person H and the background B are described as examples of the main subject and the sub-subject in the captured image, respectively, but the present invention is not limited to this. Absent. For example, the main subject may be an animal other than a person, a plant, a building, a vehicle, or the like. In this case, a parallax detection processing unit 49 that can also detect parallax of these various main subjects may be provided. The sub-subject may be anything such as a background person, animal, plant, building, or vehicle.

また、背景Bなどの副被写体を被写界深度内に入れるか否かを選択する選択スイッチを操作部25に設けるようにしてもよい。   In addition, a selection switch for selecting whether or not a sub-subject such as the background B is placed within the depth of field may be provided in the operation unit 25.

また、第1〜第4実施形態では、AE制御時にCCD29のシャッタ速度を電子シャッタで調節するようにしているが、本発明はこれに限るものではなく、機械式のシャッタを用いるようにしてもよい。   In the first to fourth embodiments, the shutter speed of the CCD 29 is adjusted by the electronic shutter at the time of AE control. However, the present invention is not limited to this, and a mechanical shutter may be used. Good.

また、上記第1〜第4実施形態では、デジタルカメラを例に挙げて説明を行ったが、本発明はこれに限定されるものではなく、AFサーチを行ってフォーカスレンズを合焦レンズ位置に移動させるカメラ付き携帯電話、カメラ付きPDA等、各種撮像装置に適用することができる。   In the first to fourth embodiments, the digital camera has been described as an example. However, the present invention is not limited to this, and an AF search is performed to bring the focus lens into the focus lens position. The present invention can be applied to various imaging devices such as a mobile phone with camera and a PDA with camera.

本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。   The present invention is not limited to the examples described in the present specification and the examples illustrated in the drawings, and various design changes and improvements may be made without departing from the spirit of the present invention.

本発明を適用したデジタルカメラの一例の正面斜視図Front perspective view of an example of a digital camera to which the present invention is applied 本発明を適用したデジタルカメラの一例の背面斜視図The rear perspective view of an example of a digital camera to which the present invention is applied 本発明を適用したデジタルカメラの一例のブロック図Block diagram of an example of a digital camera to which the present invention is applied 複数の撮影光学系と被写体距離との関係を示す説明図Explanatory diagram showing the relationship between multiple shooting optical systems and subject distance 被写体距離と視差量との対応関係の説明に用いる説明図Explanatory drawing used to explain the correspondence between subject distance and parallax amount 主要被写体の認識の説明に用いる説明図Explanatory drawing used to explain recognition of main subject 絞り値に応じたフォーカスレンズ位置とAFコントラスト位置との関係の一例を示した説明図Explanatory drawing showing an example of the relationship between the focus lens position and the AF contrast position according to the aperture value 絞り値を大きくすることで視差検出率が上がることを説明するための説明図Explanatory diagram for explaining that the parallax detection rate increases by increasing the aperture value フォーカスレンズの移動量とピント位置との関係の一例を示した説明図Explanatory diagram showing an example of the relationship between the amount of movement of the focus lens and the focus position 焦点距離とレンズ移動量との対応関係の一例を示す図The figure which shows an example of the correspondence of a focal distance and a lens movement amount レンズ移動量比率を焦点距離別に示すグラフGraph showing the lens movement ratio by focal length 第1実施形態におけるAFコントラスト曲線の一例を示す説明図Explanatory drawing which shows an example of AF contrast curve in 1st Embodiment 複数の主要被写体が存在する場合の視差検出の説明に用いる説明図Explanatory drawing used for explanation of parallax detection when there are a plurality of main subjects 複数の主要被写体が検出された場合のコントラスト曲線の一例を示す説明図Explanatory drawing which shows an example of a contrast curve when a plurality of main subjects are detected 第1実施形態における撮影処理の一例の流れを示すフローチャートThe flowchart which shows the flow of an example of the imaging | photography process in 1st Embodiment. 視差検出処理の一例の流れを示すフローチャートFlowchart showing an exemplary flow of parallax detection processing MOD位置からINF位置側に向ってフォーカスレンズを移動させる場合を説明するための説明図Explanatory drawing for demonstrating the case where a focus lens is moved toward the INF position side from a MOD position. 第2実施形態のデジタルカメラのCPUの機能ブロック図Functional block diagram of the CPU of the digital camera of the second embodiment 絞り値を大きくすることで背景も被写界深度内に入ることを説明するための説明図Explanatory diagram for explaining that the background also falls within the depth of field by increasing the aperture value 第2実施形態における撮影処理の一例の流れを示すフローチャートThe flowchart which shows the flow of an example of the imaging | photography process in 2nd Embodiment. 第3実施形態のデジタルカメラのCPUの機能ブロック図Functional block diagram of the CPU of the digital camera of the third embodiment 撮影用ピント設定距離を背景側に補正することで背景も被写界深度内に入ることを説明ための説明図Explanatory diagram for explaining that the background also falls within the depth of field by correcting the focus setting distance for shooting to the background side AFコントラスト曲線の一例を説明するための説明図Explanatory drawing for demonstrating an example of AF contrast curve 第3実施形態における撮影処理の一例の流れを示すフローチャートThe flowchart which shows the flow of an example of the imaging | photography process in 3rd Embodiment. 第4実施形態のデジタルカメラのCPUの機能ブロック図Functional block diagram of the CPU of the digital camera of the fourth embodiment AFサーチ開始点の説明に用いる説明図Explanatory drawing used to explain the AF search start point 第4実施形態における撮影処理の第1の例の流れを示すフローチャートThe flowchart which shows the flow of the 1st example of the imaging | photography process in 4th Embodiment. 第4実施形態における撮影処理の第2の例の流れを示すフローチャートThe flowchart which shows the flow of the 2nd example of the imaging | photography process in 4th Embodiment. 被写界深度とAFサーチ開始点との対応関係の説明に用いる説明図Explanatory drawing used to explain the correspondence between depth of field and AF search start point 第4実施形態における撮影処理の第3の例の流れを示すフローチャートThe flowchart which shows the flow of the 3rd example of the imaging | photography process in 4th Embodiment. 被写界深度とレンズ移動幅との対応関係の説明に用いる説明図Explanatory diagram used to explain the correspondence between depth of field and lens movement width

符号の説明Explanation of symbols

10…デジタルカメラ、11(11R、11L)…撮影光学系、12(12R、12L)…撮像手段、19(19R、19L)…フォーカスレンズ、20(20R、20L)…絞り、26、60、70、80…CPU、29(29R、29L)…CCDイメージセンサ、45…AE制御部、47…AF制御部、49…視差検出処理部、50…概略距離算出部、52…AFコントラスト値算出部、53…レンズ移動距離決定部   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 (11R, 11L) ... Shooting optical system, 12 (12R, 12L) ... Imaging means, 19 (19R, 19L) ... Focus lens, 20 (20R, 20L) ... Aperture, 26, 60, 70 80 ... CPU, 29 (29R, 29L) ... CCD image sensor, 45 ... AE control unit, 47 ... AF control unit, 49 ... parallax detection processing unit, 50 ... approximately distance calculation unit, 52 ... AF contrast value calculation unit, 53. Lens moving distance determining unit

Claims (10)

フォーカスレンズを含む第1の撮影光学系および該第1の撮影光学系を介して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系および該第2の撮影光学系を介して被写体像が結像される第2の撮像素子を有する第2の撮像手段とを備えた立体撮像装置において、
前記第1の撮像素子により取得される第1の画像および前記第2の撮像素子により取得される第2の画像を解析して、前記被写体の前記第1の画像中の位置と前記被写体の前記第2の画像中の位置との差に対応する視差量を検出する視差量検出手段と、
前記視差量に基づき、前記被写体までの概略距離を算出する概略距離算出手段と、
前記概略距離に基づき、前記フォーカスレンズの合焦レンズ位置を求めるための前記フォーカスレンズの移動範囲を決定するレンズ移動範囲決定手段と、
前記移動範囲内にて前記フォーカスレンズを移動させながら、前記第1の画像および前記第2の画像のうち少なくとも一方の画像のコントラスト値を算出するAFサーチを行うAFサーチ制御手段と、
前記AFサーチにより得られた前記コントラスト値に基づき、前記フォーカスレンズが前記被写体に合焦する前記合焦レンズ位置を決定し、決定した前記合焦レンズ位置に前記フォーカスレンズを移動させる合焦制御手段と、
を備えることを特徴とする立体撮像装置。
A first imaging optical system including a focus lens, a first imaging unit having a first imaging element on which a subject image is formed via the first imaging optical system, and a second imaging including a focus lens In a stereoscopic imaging apparatus comprising: an optical system; and a second imaging unit having a second imaging element on which a subject image is formed via the second imaging optical system,
The first image acquired by the first image sensor and the second image acquired by the second image sensor are analyzed, and the position of the subject in the first image and the subject Parallax amount detection means for detecting a parallax amount corresponding to a difference from a position in the second image;
An approximate distance calculating means for calculating an approximate distance to the subject based on the parallax amount;
A lens movement range determining means for determining a movement range of the focus lens for obtaining a focus lens position of the focus lens based on the approximate distance;
An AF search control means for performing an AF search for calculating a contrast value of at least one of the first image and the second image while moving the focus lens within the moving range;
On the basis of the contrast value obtained by the AF search, a focus control unit that determines the focus lens position at which the focus lens focuses on the subject and moves the focus lens to the determined focus lens position. When,
A stereoscopic imaging apparatus comprising:
前記視差量検出手段により視差量を検出するときの前記第1の撮影光学系および前記第2の撮影光学系の絞り値を、前記AFサーチ時の前記撮影光学系の絞り値よりも大きくする第1絞り値調節手段を備えることを特徴とする請求項1に記載の立体撮影装置。   The aperture value of the first imaging optical system and the second imaging optical system when the amount of parallax is detected by the parallax amount detection means is set to be larger than the aperture value of the imaging optical system at the time of the AF search. The stereoscopic photographing apparatus according to claim 1, further comprising a single aperture value adjusting unit. 前記AFサーチ制御手段は、前記視差量検出手段による視差量の検出に失敗したときには、前記フォーカスレンズを最短撮影距離に合焦する最短撮影距離位置側から無限遠に合焦する無限遠位置側に向かう第1の方向にて移動させて前記AFサーチを行う一方で、前記視差量検出手段による視差量の検出に成功したときには、前記フォーカスレンズを前記無限遠位置側から前記最短撮影距離位置側に向かう第2の方向にて移動させて前記AFサーチを行うことを特徴とする請求項1または2に記載の立体撮像装置。   When the parallax amount detection unit fails to detect the parallax amount, the AF search control unit shifts the focus lens from the shortest shooting distance position focusing on the shortest shooting distance to the infinity position side focusing on infinity. While the AF search is performed by moving in the first direction, the focus lens is moved from the infinity position side to the shortest shooting distance position side when the parallax amount detection unit succeeds in detecting the parallax amount. The stereoscopic imaging apparatus according to claim 1, wherein the AF search is performed by moving in a second direction toward the head. 前記概略距離算出手段により算出される前記概略距離に基づいて、前記AFサーチを開始する前記フォーカスレンズの位置を示すAFサーチ開始位置を算出するAFサーチ開始位置算出手段を備え、
前記AFサーチ制御手段は、前記視差量検出手段による視差量の検出に失敗したときには、前記フォーカスレンズを最短撮影距離に合焦する最短撮影距離位置から無限遠に合焦する無限遠位置側に向けて前記フォーカスレンズを移動させて前記AFサーチを行う一方で、前記視差量検出手段による視差量の検出に成功したときには、前記AFサーチ開始位置算出手段により算出された前記AFサーチ開始位置から前記無限遠位置側に向けて前記フォーカスレンズを移動させて前記AFサーチを行うことを特徴とする請求項1または2に記載の立体撮像装置。
An AF search start position calculating means for calculating an AF search start position indicating a position of the focus lens for starting the AF search based on the approximate distance calculated by the approximate distance calculating means;
When the parallax amount detection unit fails to detect the parallax amount, the AF search control unit moves the focus lens from the shortest shooting distance position focusing on the shortest shooting distance to the infinity position side focusing on infinity. The focus lens is moved to perform the AF search, and when the parallax amount detection unit succeeds in detecting the parallax amount, the infinite number of times is determined from the AF search start position calculated by the AF search start position calculation unit. The stereoscopic imaging apparatus according to claim 1, wherein the AF search is performed by moving the focus lens toward a far position.
前記AFサーチ開始位置算出手段は、前記AFサーチに用いる前記撮影光学系の被写界深度が浅いほど前記フォーカスレンズの前記移動範囲を狭くすることを特徴とする請求項4に記載の立体撮像装置。   5. The stereoscopic imaging apparatus according to claim 4, wherein the AF search start position calculation unit narrows the moving range of the focus lens as the depth of field of the photographing optical system used for the AF search is shallower. . 前記AFサーチ制御手段は、前記AFサーチに用いる前記撮影光学系の被写界深度が深いほど、前記AFサーチ時の前記コントラスト値を算出するごとに前記フォーカスレンズを移動させるステップ幅を大きくすることを特徴とする請求項4または5に記載の立体撮像装置。   The AF search control means increases the step width for moving the focus lens each time the contrast value is calculated during the AF search, as the depth of field of the photographing optical system used for the AF search is deeper. The three-dimensional imaging device according to claim 4, wherein: 前記フォーカスレンズが前記合焦レンズ位置に移動されたとき、前記AFサーチにより得られた前記コントラスト値と、前記コントラスト値が得られた前記フォーカスレンズの位置とに基づき、最短撮影距離位置側にある主要被写体までのほぼ正確な主要被写体距離、及び、前記主要被写体の後方にある副被写体までのほぼ正確な副被写体距離を算出する第1被写体距離算出手段と、
前記主要及び前記副被写体距離に基づき、前記副被写体が被写界深度内に入るような前記撮影光学系の絞り値を被写界深度計算により算出する絞り値算出手段と、
前記絞り値算出手段の算出結果に基づき、前記絞り値を調節する第2絞り値調節手段と、
を備えることを特徴とする請求項1ないし6のうちいずれか1項に記載の立体撮像装置。
When the focus lens is moved to the in-focus lens position, it is on the shortest shooting distance position side based on the contrast value obtained by the AF search and the position of the focus lens from which the contrast value is obtained. First subject distance calculation means for calculating a substantially accurate main subject distance to the main subject and a substantially accurate sub subject distance to the sub subject behind the main subject;
Aperture value calculation means for calculating an aperture value of the photographing optical system based on the main and sub-subject distances so that the sub-subject falls within the depth of field by depth-of-field calculation;
Second aperture value adjusting means for adjusting the aperture value based on the calculation result of the aperture value calculating means;
The stereoscopic imaging apparatus according to claim 1, further comprising:
前記AFサーチにより得られた前記コントラスト値と、前記コントラスト値が得られた前記フォーカスレンズの位置とに基づき、最短撮影距離位置側にある主要被写体までのほぼ正確な主要被写体距離、及び、前記主要被写体の後方にある副被写体までのほぼ正確な副被写体距離を算出する第2被写体距離算出手段と、
前記主要及び前記副被写体距離に基づき、前記副被写体が被写界深度内に入る位置まで無限遠位置側に補正されたピント設定距離を被写界深度計算により算出し、算出した前記ピント設定距離に基づき前記合焦レンズ位置を決定する合焦レンズ位置決定手段とを備えることを特徴とする請求項1ないし6のうちいずれか1項に記載の立体撮像装置。
Based on the contrast value obtained by the AF search and the position of the focus lens from which the contrast value was obtained, a substantially accurate main subject distance to the main subject on the shortest shooting distance position side, and the main A second subject distance calculating means for calculating a substantially accurate sub subject distance to a sub subject behind the subject;
Based on the main and sub-subject distances, the focus setting distance corrected to the infinity position side to the position where the sub-subject enters within the depth of field is calculated by the depth-of-field calculation, and the calculated focus setting distance The stereoscopic imaging apparatus according to claim 1, further comprising: a focusing lens position determining unit that determines the focusing lens position based on the focus lens position.
前記視差量検出手段は、前記第1の画像および前記第2の画像に含まれている人物画像に基づいて前記視差量を検出することを特徴とする請求項1ないし8のうちいずれか1項に記載の立体撮像装置。   The parallax amount detection unit detects the parallax amount based on a person image included in the first image and the second image. The three-dimensional imaging device described in 1. フォーカスレンズを含む第1の撮影光学系および該第1の撮影光学系を介して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系および該第2の撮影光学系を介して被写体像が結像される第2の撮像素子を有する第2の撮像手段とを用いて前記フォーカスレンズの合焦制御を行う合焦制御方法であって、
前記第1の撮像素子により取得される第1の画像および前記第2の撮像素子により取得される第2の画像を解析して、前記被写体の前記第1の画像中の位置と前記被写体の前記第2の画像中の位置との差に対応する視差量を検出する視差量検出ステップと、
前記視差量に基づき、前記被写体までの概略距離を算出する概略距離算出ステップと、
前記概略距離に基づき、前記フォーカスレンズの合焦レンズ位置を求めるための前記フォーカスレンズの移動範囲を決定するレンズ移動範囲決定ステップと、
前記移動範囲内にて前記フォーカスレンズを移動させながら、前記第1の画像および前記第2の画像のうち少なくとも一方の画像のコントラスト値を算出するAFサーチを行うAFサーチステップと、
前記AFサーチにより得られた前記コントラスト値に基づき、前記フォーカスレンズが前記被写体に合焦する前記合焦レンズ位置を決定し、決定した前記合焦レンズ位置に前記フォーカスレンズを移動させる合焦ステップと、
を含むことを特徴とする合焦制御方法。
A first imaging optical system including a focus lens, a first imaging unit having a first imaging element on which a subject image is formed via the first imaging optical system, and a second imaging including a focus lens A focus control method for performing focus control of the focus lens using an optical system and a second imaging unit having a second imaging element on which a subject image is formed via the second imaging optical system. There,
The first image acquired by the first image sensor and the second image acquired by the second image sensor are analyzed, and the position of the subject in the first image and the subject A parallax amount detection step of detecting a parallax amount corresponding to a difference from a position in the second image;
An approximate distance calculating step of calculating an approximate distance to the subject based on the parallax amount;
A lens movement range determination step for determining a movement range of the focus lens for determining a focus lens position of the focus lens based on the approximate distance;
An AF search step of performing an AF search for calculating a contrast value of at least one of the first image and the second image while moving the focus lens within the moving range;
A focusing step of determining the focus lens position at which the focus lens focuses on the subject based on the contrast value obtained by the AF search, and moving the focus lens to the determined focus lens position; ,
A focusing control method comprising:
JP2008278728A 2008-10-29 2008-10-29 Stereo imaging device and focus control method Expired - Fee Related JP4995175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008278728A JP4995175B2 (en) 2008-10-29 2008-10-29 Stereo imaging device and focus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008278728A JP4995175B2 (en) 2008-10-29 2008-10-29 Stereo imaging device and focus control method

Publications (2)

Publication Number Publication Date
JP2010107664A true JP2010107664A (en) 2010-05-13
JP4995175B2 JP4995175B2 (en) 2012-08-08

Family

ID=42297172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008278728A Expired - Fee Related JP4995175B2 (en) 2008-10-29 2008-10-29 Stereo imaging device and focus control method

Country Status (1)

Country Link
JP (1) JP4995175B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011152168A1 (en) * 2010-06-04 2011-12-08 富士フイルム株式会社 Stereoscopic imaging digital camera and operation control method for same
WO2011162063A1 (en) * 2010-06-22 2011-12-29 富士フイルム株式会社 Stereoscopic image display device, stereoscopic image display method, stereoscopic image display program, and recording medium
WO2012011341A1 (en) * 2010-07-23 2012-01-26 ソニー株式会社 Imaging device, method for controlling same, and program
JP2012133067A (en) * 2010-12-21 2012-07-12 Samsung Electronics Co Ltd Imaging apparatus
JP2012226247A (en) * 2011-04-22 2012-11-15 Nikon Corp Focus detector and imaging apparatus
JP2013092552A (en) * 2011-10-24 2013-05-16 Toshiba Corp Solid state image pickup device and camera module
US9118907B2 (en) 2011-09-22 2015-08-25 Panasonic Intellectual Property Management Co., Ltd. Imaging device enabling automatic taking of photo when pre-registered object moves into photographer's intended shooting distance
US9523836B2 (en) 2011-09-01 2016-12-20 Panasonic Intellectual Property Management Co., Ltd. Image pickup device and program
EP2570838A4 (en) * 2010-05-14 2018-01-03 FUJIFILM Corporation Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device
JP2018163300A (en) * 2017-03-27 2018-10-18 キヤノン株式会社 Electronic apparatus, imaging device, and control method, and program
WO2021149238A1 (en) * 2020-01-24 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
CN113747042A (en) * 2020-05-29 2021-12-03 杭州海康威视数字技术股份有限公司 Stepping step length control method and method for determining stepping step length of stepping motor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131115A (en) * 2001-10-19 2003-05-08 Minolta Co Ltd Digital camera
JP2004037732A (en) * 2002-07-02 2004-02-05 Nikon Corp Digital camera
JP2006162990A (en) * 2004-12-07 2006-06-22 Fuji Photo Film Co Ltd Stereoscopic image photographing apparatus
JP2007316496A (en) * 2006-05-29 2007-12-06 Canon Inc Imaging apparatus and control method therefor
JP2008187385A (en) * 2007-01-29 2008-08-14 Fujifilm Corp Imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131115A (en) * 2001-10-19 2003-05-08 Minolta Co Ltd Digital camera
JP2004037732A (en) * 2002-07-02 2004-02-05 Nikon Corp Digital camera
JP2006162990A (en) * 2004-12-07 2006-06-22 Fuji Photo Film Co Ltd Stereoscopic image photographing apparatus
JP2007316496A (en) * 2006-05-29 2007-12-06 Canon Inc Imaging apparatus and control method therefor
JP2008187385A (en) * 2007-01-29 2008-08-14 Fujifilm Corp Imaging device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2570838A4 (en) * 2010-05-14 2018-01-03 FUJIFILM Corporation Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device
WO2011152168A1 (en) * 2010-06-04 2011-12-08 富士フイルム株式会社 Stereoscopic imaging digital camera and operation control method for same
WO2011162063A1 (en) * 2010-06-22 2011-12-29 富士フイルム株式会社 Stereoscopic image display device, stereoscopic image display method, stereoscopic image display program, and recording medium
US9332245B2 (en) 2010-06-22 2016-05-03 Fujifilm Corporation Stereoscopic image display device, stereoscopic image display method, and non-transitory computer-readable recording medium
CN102511013A (en) * 2010-07-23 2012-06-20 索尼公司 Imaging device, method for controlling same, and program
WO2012011341A1 (en) * 2010-07-23 2012-01-26 ソニー株式会社 Imaging device, method for controlling same, and program
JP2012027263A (en) * 2010-07-23 2012-02-09 Sony Corp Imaging apparatus, control method and program thereof
KR101805006B1 (en) * 2010-12-21 2018-01-10 삼성전자주식회사 Photographing apparatus and photographing method
JP2012133067A (en) * 2010-12-21 2012-07-12 Samsung Electronics Co Ltd Imaging apparatus
JP2012226247A (en) * 2011-04-22 2012-11-15 Nikon Corp Focus detector and imaging apparatus
US9523836B2 (en) 2011-09-01 2016-12-20 Panasonic Intellectual Property Management Co., Ltd. Image pickup device and program
US9118907B2 (en) 2011-09-22 2015-08-25 Panasonic Intellectual Property Management Co., Ltd. Imaging device enabling automatic taking of photo when pre-registered object moves into photographer's intended shooting distance
US8988591B2 (en) 2011-10-24 2015-03-24 Kabushiki Kaisha Toshiba Solid-state imaging device, camera module, and focus adjustment method of camera module
JP2013092552A (en) * 2011-10-24 2013-05-16 Toshiba Corp Solid state image pickup device and camera module
JP2018163300A (en) * 2017-03-27 2018-10-18 キヤノン株式会社 Electronic apparatus, imaging device, and control method, and program
WO2021149238A1 (en) * 2020-01-24 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
CN113747042A (en) * 2020-05-29 2021-12-03 杭州海康威视数字技术股份有限公司 Stepping step length control method and method for determining stepping step length of stepping motor
CN113747042B (en) * 2020-05-29 2022-11-04 杭州海康威视数字技术股份有限公司 Stepping step length control method and method for determining stepping step length of stepping motor

Also Published As

Publication number Publication date
JP4995175B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP4995175B2 (en) Stereo imaging device and focus control method
JP4732397B2 (en) Imaging apparatus and focus control method thereof
JP5368350B2 (en) Stereo imaging device
US9258545B2 (en) Stereoscopic imaging apparatus
US9077976B2 (en) Single-eye stereoscopic image capturing device
US8823778B2 (en) Imaging device and imaging method
JP5899629B2 (en) Imaging device
JP5449551B2 (en) Image output apparatus, method and program
JP5336662B2 (en) Image processing apparatus, method, and program
JP5571179B2 (en) Stereo imaging device and auto focus adjustment method for stereo imaging device
WO2013038950A1 (en) 3d imaging device
EP2755086A1 (en) Stereoscopic image capture device and method
JP2013160991A (en) Imaging apparatus
JP5580486B2 (en) Image output apparatus, method and program
JP5571257B2 (en) Image processing apparatus, method, and program
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
CN112422811B (en) Lens control apparatus, control method, and storage medium
KR20120068696A (en) Image capturing device and image capturing method
JP2012015620A (en) Solid imaging device
JP5860251B2 (en) Imaging apparatus, control method therefor, and program
JP6592967B2 (en) Focus detection apparatus and imaging apparatus
JP2012044319A (en) Image processing device, image processing method and stereoscopic imaging device
JP6592968B2 (en) Focus detection apparatus and imaging apparatus
JP2021033061A (en) Lens control device and control method therefor
JP2017102215A (en) Focus detection device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees