JP2012133067A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012133067A
JP2012133067A JP2010284092A JP2010284092A JP2012133067A JP 2012133067 A JP2012133067 A JP 2012133067A JP 2010284092 A JP2010284092 A JP 2010284092A JP 2010284092 A JP2010284092 A JP 2010284092A JP 2012133067 A JP2012133067 A JP 2012133067A
Authority
JP
Japan
Prior art keywords
focus position
imaging
focus
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010284092A
Other languages
Japanese (ja)
Inventor
Toshihiro Hamamura
俊宏 濱村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2010284092A priority Critical patent/JP2012133067A/en
Priority to KR1020110125214A priority patent/KR101805006B1/en
Priority to US13/332,643 priority patent/US8760567B2/en
Publication of JP2012133067A publication Critical patent/JP2012133067A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus that can reduce the time required for auto-focusing, in which a user can control the usability such as the time a battery can last or the easiness of framing.SOLUTION: An imaging apparatus includes: a subject distance calculation part 6 for calculating the subject distance based on two images generated by image signals converted by imaging elements 2; and a focal point detection part 7 for detecting a focal point based on a contrast evaluation value of the subject in the image. The focal point detection part 7 is configured so that a pre-input mode for performing at least rough-focusing drive in a state that the user does not input an imaging operation start instruction in an input part, and a post-input mode for performing rough-focusing drive after the user inputs the imaging operation start instruction in the input part can be switched.

Description

本発明は、少なくとも2つの撮像光学系と、各記撮像光学系により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子と、を有した撮像装置に関するものである。   The present invention relates to an imaging apparatus having at least two imaging optical systems and two imaging elements that respectively convert subject images formed by the imaging optical systems into image signals.

撮像素子を用いたデジタルカメラにおいては、被写体へのオートフォーカス(AF、自動ピント合わせ等ともいう)を、前記撮像素子からの画像信号により生成される画像に基づいて行っている。例えば、撮像光学系に設けられたフォーカスレンズをスキャン移動させてフォーカス位置を変更しながら、画像中の被写体のコントラスト評価値が極値となる位置を探し、その極値となったフォーカス位置を合焦位置として検出するコントラストAFと呼ばれる方法がある。   In a digital camera using an image sensor, autofocus (also referred to as AF, automatic focusing) on a subject is performed based on an image generated from an image signal from the image sensor. For example, while scanning the focus lens provided in the imaging optical system and changing the focus position, the position where the contrast evaluation value of the subject in the image becomes the extreme value is searched for, and the focus position at the extreme value is adjusted. There is a method called contrast AF that detects the focal position.

この方法はよい精度で被写体にピントを合わせることができるものの、ピントを合わせるのにかかる時間を短縮するのは以下の理由から難しい。   Although this method can focus on the subject with good accuracy, it is difficult to reduce the time required for focusing for the following reasons.

まず、フォーカスレンズのスキャン速度を速くすれば、合焦位置を検出するまでにかかる時間を短縮できるようにも思えるが、サンプリング速度が固定の場合、スキャン速度が速くなるほど、コントラスト評価値の得られるフォーカス位置の数が減少していまい極値を見逃す可能性が大きくなる。従って、合焦位置を確実に検出できるようにしながら、フォーカスレンズを高速スキャン駆動しようとすると、おのずとそのスキャン速度には限界値が決まってしまうので、スキャン速度を上げることによりピント合わせにかかる時間を短縮するのは難しい。   First, it seems that if the scanning speed of the focus lens is increased, the time required to detect the in-focus position can be shortened. However, when the sampling speed is fixed, the contrast evaluation value can be obtained as the scanning speed increases. As the number of focus positions decreases, the possibility of missing an extreme value increases. Therefore, if you try to drive the focus lens at high speed while ensuring that the in-focus position can be detected reliably, the limit value is naturally determined for the scan speed, so the time required for focusing can be increased by increasing the scan speed. It is difficult to shorten.

また、オートフォーカスを開始した時点でのフォーカス位置に対して、合焦位置はどちら側にあるのかは、しばらくフォーカスレンズを駆動させてコントラスト評価値の増減傾向が分からないと判断できない。つまり、フォーカス位置をどちら向きに変化させればよいのかが開始時点ではわからないので、フォーカスレンズを取りあえずどちらかの向きに駆動するしかない。このため、合焦位置がある方向とは逆向きにフォーカス位置を移動させていた場合には、反転移動させなくてはならない場合もあり、このこともピント合わせにかかる時間が長くなる原因となっている。   Further, it cannot be determined which side the in-focus position is with respect to the focus position at the time when the autofocus is started unless the focus lens is driven for a while and the increase / decrease tendency of the contrast evaluation value is not known. In other words, since it is not known at the start time which direction the focus position should be changed, the focus lens can only be driven in either direction. For this reason, if the focus position is moved in the direction opposite to the direction in which the in-focus position is located, it may be necessary to reverse the movement, which causes a longer time for focusing. ing.

このような問題に対して、特許文献1及び2に示されるような2つの撮像光学系を有した立体撮像装置においては、それぞれの撮像光学系においてコントラストAFを行う際のフォーカスレンズの駆動範囲を半分ずつ分担して、ピント合わせにかかる時間を短縮するように構成されたものがある。   With respect to such a problem, in a stereoscopic imaging apparatus having two imaging optical systems as shown in Patent Documents 1 and 2, the driving range of the focus lens when performing contrast AF in each imaging optical system is set. There are some that are configured to reduce the time required for focusing by sharing half.

また、1つの撮像光学系と外光パッシブセンサとを備えた撮像装置において、外光パッシブセンサにより大まかな被写体距離を算出しておき、その被写体距離から大まかな合焦位置のあるフォーカス位置の範囲を推定し、その範囲のみをスキャン範囲としてコントラストAFを行う撮像装置もある。外光パッシブセンサの場合、別センサのためコストアップ、スペースの問題だけでなく、撮影のための光学系とは別光学系なので、見ている位置や画角が一致していない課題がある。   In addition, in an imaging apparatus having one imaging optical system and an external light passive sensor, a rough subject distance is calculated by the external light passive sensor, and a range of a focus position having a rough focus position from the subject distance There is also an imaging apparatus that performs contrast AF using only the range as a scan range. In the case of an external light passive sensor, there is a problem that the position and the angle of view are not the same because the optical sensor is a separate optical sensor from the optical system for photographing as well as the cost increase and space problems for the separate sensor.

しかしながら、特許文献1に記載された2つの撮像光学系においてコントラストAFの駆動範囲を半分ずつ分担する方法は、フォーカスレンズの駆動する距離が半分になるだけであり、フォーカスレンズの移動速度に関しては従来と同じにするしかなく、ピント合わせにかかる時間を劇的に短縮することは難しい。   However, the method of sharing the contrast AF driving range by half in the two imaging optical systems described in Patent Document 1 only halves the driving distance of the focus lens. It is difficult to dramatically reduce the time required for focusing.

加えて、撮影者のS1(撮影開始)操作前に定期的に距離検出しそれに連携し合焦付近にあらかじめフォーカス駆動しておいてS2(露光開始)操作後に最終的な合焦のためのフォーカス駆動をするように構成されていると、AF時間の短縮は図れるが、撮影者の意図していないフレーミングに反応してしまうなど無駄なフォーカス駆動をしてしまう恐れがありバッテリーの持つ時間が短くなってしまうといった問題や、無駄なフォーカス駆動によりモニタに表示されるスルー画像が見づらくなってしまいフレーミングしにくいといった問題が生じる可能性がある。すなわち、オートフォーカスの高速化と上述したような使い勝手との間にあるトレードオフについて、ユーザが調整できる構成は示されておらず、さらに改良の余地がある。   In addition, the distance is regularly detected before the photographer's S1 (shooting start) operation, and the focus is driven in advance in the vicinity of the in-focus, and the focus for final focusing after the S2 (exposure start) operation. If it is configured to drive, the AF time can be shortened, but it may cause unnecessary focus driving such as reacting to framing that the photographer did not intend, and the battery has a short time There is a possibility that a problem such as becoming difficult or a through image displayed on the monitor becomes difficult to see due to wasteful focus driving and framing is difficult to occur. In other words, a configuration that can be adjusted by the user is not shown for the trade-off between high-speed autofocusing and usability as described above, and there is room for further improvement.

特開2005−70077号公報JP 2005-70077 A 特開2006−162990号公報JP 2006-162990 A

そこで、本発明は上述したような問題点を鑑みてなされたものであり、オートフォーカスにかかる時間を短縮する事が可能であるとともに、バッテリーの持ちやフレーミングのし易さといった使い勝手についてユーザが調節可能な撮像装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and it is possible to reduce the time required for autofocus, and the user can adjust the usability such as holding the battery and ease of framing. An object is to provide a possible imaging device.

すなわち、本発明の撮像装置は、各光軸を所定距離だけ離間させて並列に設けた2つの撮像光学系と、各記撮像光学系により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子と、ユーザが撮像動作開始指令を入力するための入力部と、を備えた撮像装置であって、各撮像素子により変換された画像信号により生成される2つの画像に基づいて、各画像内において同一の被写体について撮像場所からの離間距離である被写体距離を算出する被写体距離算出部と、各撮像光学系のフォーカス位置を光軸に沿って移動させ、複数のフォーカス位置における前記画像中の被写体のコントラスト評価値に基づいて、合焦位置を検出する合焦位置検出部と、を備え、前記合焦位置検出部が、前記被写体距離算出部により算出された被写体距離に基づいて前記フォーカス位置を合焦位置近傍まで移動させるラフフォーカス駆動と、前記ラフフォーカス駆動を実施した後において前記フォーカスレンズを前記合焦位置近傍から前記合焦位置までスキャン移動させるスキャン駆動と、を行うように構成されており、前記合焦位置検出部が、前記入力部に前記ユーザにより撮像動作開始指令が入力されていない状態で少なくともラフフォーカス駆動を行う入力前モードと、前記入力部に前記ユーザにより撮像動作開始指令が入力された後にラフフォーカス駆動を行う入力後モードと、を切り替え可能に構成されていることを特徴とする。   That is, the image pickup apparatus of the present invention includes two image pickup optical systems provided in parallel with each optical axis being separated by a predetermined distance, and two object images formed by the image pickup optical systems are converted into image signals, respectively. An imaging device including an imaging device and an input unit for a user to input an imaging operation start command, wherein each image is generated based on two images generated by image signals converted by the imaging devices. A subject distance calculation unit that calculates a subject distance that is a separation distance from the imaging location for the same subject, and a focus position of each imaging optical system is moved along the optical axis, and a plurality of focus positions in the image An in-focus position detecting unit that detects an in-focus position based on a contrast evaluation value of the object, wherein the in-focus position detecting unit calculates the object calculated by the object distance calculating unit. Rough focus drive for moving the focus position to the vicinity of the focus position based on separation, and scan drive for scanning the focus lens from the focus position to the focus position after the rough focus drive is performed. The in-focus mode detection unit performs at least a rough focus drive in a state where an imaging operation start command is not input by the user to the input unit, and the input unit Further, it is possible to switch between a post-input mode in which rough focus driving is performed after an imaging operation start command is input by the user.

また、本発明の撮像方法は、各光軸を所定距離だけ離間させて並列に設けた2つの撮像光学系と、各記撮像光学系により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子と、ユーザが撮像動作開始指令を入力するための入力部と、を備えた撮像装置を用いた撮像方法であって、各撮像素子により変換された画像信号により生成される2つの画像に基づいて、各画像内において同一の被写体について撮像場所からの離間距離である被写体距離を算出する被写体距離算出ステップと、各撮像光学系のフォーカス位置を移動させ、複数のフォーカス位置における前記画像中の被写体のコントラスト評価値に基づいて、合焦位置を検出する合焦位置検出ステップと、を備え、前記合焦位置検出ステップが、前記被写体距離算出ステップにおいて算出された被写体距離に基づいて前記フォーカス位置を合焦位置近傍まで移動させるラフフォーカス駆動ステップと、前記ラフフォーカス駆動を実施した後において前記フォーカス位置を前記合焦位置近傍から前記合焦位置までスキャン移動させるスキャン駆動ステップと、を含み、前記合焦位置検出ステップが、前記入力部に前記ユーザにより撮像動作開始指令が入力されていない状態で少なくともラフフォーカス駆動ステップを行う入力前モードと、前記入力部に前記ユーザにより撮像動作開始指令が入力された後にラフフォーカス駆動ステップを行う入力後モードと、を切り替える切替ステップとを備えることを特徴とする。   In addition, the imaging method of the present invention includes two imaging optical systems provided in parallel with each optical axis being separated by a predetermined distance, and two subject images formed by the imaging optical systems, each of which is converted into an image signal. An imaging method using an imaging device including an imaging device and an input unit for a user to input an imaging operation start command, wherein two images generated by an image signal converted by each imaging device Based on the subject distance calculating step for calculating a subject distance that is a distance from the imaging location for the same subject in each image, and by moving the focus position of each imaging optical system, An in-focus position detecting step for detecting an in-focus position based on a contrast evaluation value of the object, wherein the in-focus position detecting step includes the object distance calculating step. A rough focus driving step for moving the focus position to the vicinity of the in-focus position based on the subject distance calculated in step (b), and after performing the rough focus driving, the focus position is changed from the vicinity of the in-focus position to the in-focus position. A pre-input mode in which the focus position detecting step performs at least a rough focus driving step in a state where an imaging operation start command is not input to the input unit by the user; And a switching step for switching between a post-input mode in which a rough focus driving step is performed after an imaging operation start command is input by the user to the input unit.

このようなものであれば、ユーザが入力前モードと入力後モードとを切替可能に構成してあるので、例えば被写体の動きまわるものであり、消費電力よりもピントが合うまでにかかる時間をできる限り短くすることを優先したい場合には、前記合焦位置検出部を前記入力前モードにして常に合焦位置近傍にフォーカスレンズ位置があるようにしてオートフォーカスを最高速化したり、それほどフォーカス速度は必要なく、消費電力やフレーミングのためのスルー画像の画質を優先したい場合には前記合掌位置検出部を入力後モードにしたりすることができる。すなわち、オートフォーカスの高速化とそれに伴って現れるトレードオフの問題について、ユーザが目的に応じてそれぞれの調整を行うことが可能となる。   In such a case, since the user can switch between the pre-input mode and the post-input mode, for example, the subject moves around, and the time required for focusing can be increased rather than the power consumption. If you want to give priority to shortening as much as possible, set the in-focus position detector to the pre-input mode so that the focus lens position is always near the in-focus position to maximize autofocus, If it is not necessary and priority is given to the power consumption and the quality of the through image for framing, the palm position detection unit can be set to the post-input mode. That is, it becomes possible for the user to make adjustments according to the purpose with respect to the speeding up of autofocus and the trade-off problem that appears along with it.

また、被写体距離算出部は、2つの撮像光学系を用いてレンズのスキャン移動を行わずに、画像だけで被写体距離を算出してほぼ合焦位置を推定することができるので、前記合焦位置検出部は、フォーカス位置の駆動方向を誤ることがないとともに、ごくわずかな範囲についてフォーカス位置をスキャン移動させるだけで正確な合焦位置を検出することができる。従って、コントラストAFによる合焦位置検出にかかる時間を劇的に短縮する事が可能となる。   Further, the subject distance calculation unit can calculate the subject distance from only the image and estimate the in-focus position without performing the lens scan movement using the two imaging optical systems. The detection unit does not make a mistake in the driving direction of the focus position, and can detect an accurate in-focus position only by scanning the focus position for a very small range. Accordingly, it is possible to dramatically reduce the time required for detecting the in-focus position by contrast AF.

さらに、前記被写体距離算出部による被写体距離の算出は、2つの撮像光学系を利用して行うように構成されているので、例えば外光パッシブセンサといった測定用のセンサを別途設ける必要がなく部品数の増加によるコストアップを招かない。しかも、2つの撮像光学系を用いているので、別途センサ等の観測光学系を設けた際に生じるパララックスやズーミングに関する問題が原理的に生じ得ない。   Furthermore, the calculation of the subject distance by the subject distance calculation unit is configured to be performed using two imaging optical systems, so there is no need to separately provide a measurement sensor such as an external light passive sensor. The cost increase due to the increase of In addition, since two image pickup optical systems are used, problems relating to parallax and zooming that occur when an observation optical system such as a sensor is separately provided cannot occur in principle.

前記被写体距離算出部による被写体距離の算出のための具体的な態様としては、前記被写体距離算出部が、2つの撮像素子上にそれぞれ形成された被写体像の各光軸からの距離、又は、各撮像光学系により同時に撮像された各画像中の被写体の相対位置関係に基づいて前記被写体距離を算出するように構成されたものが挙げられる。   As a specific aspect for the calculation of the subject distance by the subject distance calculation unit, the subject distance calculation unit may measure the distance from each optical axis of the subject image formed on each of the two imaging elements, or There is one configured to calculate the subject distance based on the relative positional relationship between the subjects in the images simultaneously captured by the imaging optical system.

前記合焦位置検出部により、フォーカス位置が合焦位置側へと駆動される際の方向を間違うことなく決定するための具体的な態様としては、前記合焦位置検出部が、前記被写体距離算出部により算出された被写体距離と、現在のフォーカス位置の位置とに基づいて、前記フォーカス位置の駆動方向を決定するように構成されたものが挙げられる。   As a specific mode for the focus position detection unit to determine the direction in which the focus position is driven toward the focus position side without making a mistake, the focus position detection unit may calculate the subject distance. And the driving direction of the focus position is determined based on the subject distance calculated by the unit and the current focus position.

入力前モードと入力後モードとで、オートフォーカスの速度と電力消費量等のバランスを取るための具体的な方法としては、前記合焦位置検出部が、前記入力前モードと前記入力後モードにおけるラフフォーカス駆動の駆動速度を異ならせて設定されているものが挙げられる。   As a specific method for balancing autofocus speed, power consumption, etc. in the pre-input mode and the post-input mode, the in-focus position detection unit can be used in the pre-input mode and the post-input mode. Examples include those set with different driving speeds for rough focus driving.

モニタに表示されるスルー画像の画質をある程度保ち、フレーミングしやくするとともに、撮影開始前にほぼピント位置の近傍に撮像光学系のフォーカス位置がある状態を保つには、前記入力前モードでの駆動速度は前記入力後モードでの駆動速度よりも遅く設定されているものであればよい。   Drive in the pre-input mode to maintain the image quality of the through image displayed on the monitor to some extent and make framing easier and keep the focus position of the imaging optical system near the focus position before shooting. The speed should just be set slower than the drive speed in the post-input mode.

前記入力部により撮影動作開始指令を入力した時点でほぼ待ち時間なく撮影ができるとともに、撮影開始前においてレンズが無駄に駆動することによる消費電力の増加等を防ぐことができるようにするには、前記合焦位置検出部が、前記入力前モードにおいてはラフフォーカス駆動のみを行うように構成されたものであればよい。   In order to be able to shoot with almost no waiting time when inputting a shooting operation start command by the input unit, and to prevent an increase in power consumption due to the lens driving unnecessarily before starting shooting, The in-focus position detection unit may be configured to perform only rough focus driving in the pre-input mode.

このように、本発明の撮像装置によれば、前記合焦位置検出部が入力前モードと入力後モードという2つのモードで動作させることができるので、オートフォーカスの速度を最優先にする場合と、オートフォーカスの速度はある程度の高速化でよく、消費電力やフレーミングのしやすさといった使い勝手に関する要素を優先する場合とを、ユーザが適宜選択し、調節することが可能となる。   As described above, according to the imaging apparatus of the present invention, since the in-focus position detection unit can be operated in two modes, the pre-input mode and the post-input mode, The autofocus speed may be increased to some extent, and the user can appropriately select and adjust the case where priority is given to the elements related to usability such as power consumption and ease of framing.

本発明の一実施形態に係る撮像装置を示す模式的前方斜視図。1 is a schematic front perspective view showing an imaging apparatus according to an embodiment of the present invention. 同実施形態における撮像装置を示す模式的後方斜視図。The typical back perspective view showing the imaging device in the embodiment. 同実施形態における撮像装置全体の電気的構成を示す機能ブロック図。FIG. 2 is a functional block diagram illustrating an electrical configuration of the entire imaging apparatus according to the embodiment. 同実施形態におけるオートフォーカスに関する構成の機能ブロック図。The functional block diagram of the structure regarding the autofocus in the embodiment. 同実施形態における被写体距離を測定する原理を説明するための概念図。The conceptual diagram for demonstrating the principle which measures the to-be-photographed object distance in the embodiment. 同実施形態における評価値検出領域の一例を示す模式図。The schematic diagram which shows an example of the evaluation value detection area | region in the embodiment. 被写体距離を測定するための別の方法を説明する模式図。The schematic diagram explaining another method for measuring a to-be-photographed object distance. 同実施形態におけるコントラストAF中のフォーカスレンズの動作を示す概念図。The conceptual diagram which shows operation | movement of the focus lens in contrast AF in the embodiment. 同実施形態における入力後モードでの動作を示すフローチャート。The flowchart which shows the operation | movement in the after-input mode in the embodiment. 同実施形態における入力前モードでの動作を示すフローチャート。The flowchart which shows the operation | movement in the mode before input in the same embodiment.

本発明の一実施形態について図面を参照しながら説明する。   An embodiment of the present invention will be described with reference to the drawings.

本実施形態の撮像装置100は、立体画像を撮像するためのものであって、図1の前方斜視図に示すように、前面には電源オン時において撮像光学系1を保持する鏡筒が2つ並んで突出するように設けている他、ストロボ装置38等が設けてある。なお、これらの鏡筒は電源オフ時には内部に収容されるようにしてある。また、図2の後方斜視図に示すように背面には撮像された画像を立体視するためのモニタ35と、各種操作に用いられる操作キー53等が設けてある。前記モニタ35は例えば、パララックスバリア式の3Dモニタである。そして上面には、シャッターレリーズ操作を行うために用いられるシャッタボタン51と、撮影モードを切り替えるためのモードダイヤル52が設けてある。   The imaging apparatus 100 according to the present embodiment is for capturing a stereoscopic image. As shown in the front perspective view of FIG. 1, two lens barrels that hold the imaging optical system 1 are provided on the front surface when the power is turned on. In addition to being provided so as to protrude side by side, a strobe device 38 and the like are provided. These lens barrels are housed inside when the power is off. Further, as shown in the rear perspective view of FIG. 2, a monitor 35 for stereoscopically viewing the captured image and operation keys 53 used for various operations are provided on the back surface. The monitor 35 is, for example, a parallax barrier type 3D monitor. On the upper surface, a shutter button 51 used for performing a shutter release operation and a mode dial 52 for switching a photographing mode are provided.

すなわち、本撮像装置100は、各光軸14を所定距離だけ離間させて並列に設けた2つの撮像光学系1と、各記撮像光学系1により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子2と、を備え、2つの撮像光学系1により同時に撮像することで、視差のある2つの画像を生成できるようにしてある。これらの視差のある2つの画像に基づいて前記モニタ35において立体表示される立体画像が生成されるようにしてある。   That is, the imaging apparatus 100 converts two imaging optical systems 1 in which the optical axes 14 are spaced apart from each other by a predetermined distance and the subject image formed by the imaging optical systems 1 to image signals. Two imaging elements 2 are provided, and two images with parallax can be generated by simultaneously capturing images with the two imaging optical systems 1. A stereoscopic image that is stereoscopically displayed on the monitor 35 is generated based on these two images having parallax.

図3は、本実施形態の撮像装置100の電気的な構成を機能ブロックとして示すものである。図3に示すように、2つの撮像光学系1、2つの撮像素子2、画像信号処理回路31、VRAM32、評価値算出回路33、表示画像処理回路34、モニタ35、圧縮処理回路36、記録メディア37、CPU41、メモリ42、43、等が協業して、いわゆるデジタルカメラとしての機能を発揮するように構成してある。以下に各部について説明する。   FIG. 3 shows an electrical configuration of the imaging apparatus 100 of the present embodiment as a functional block. As shown in FIG. 3, two image pickup optical systems 1, two image pickup devices 2, an image signal processing circuit 31, a VRAM 32, an evaluation value calculation circuit 33, a display image processing circuit 34, a monitor 35, a compression processing circuit 36, and a recording medium 37, the CPU 41, the memories 42, 43, and the like cooperate to exhibit a function as a so-called digital camera. Each part will be described below.

2つの撮像光学系1において共通する構成について説明する。なお、2つの撮像光学系1及び撮像素子2について区別が必要な場合には立体画像を構成する左側画像を生成するための撮像光学系1には第1、立体画像を構成する右側画像を生成するための撮像光学系1には第2を付けて区別するものとする。各撮像光学系1はそれぞれの光軸14が平行となるように、人間の両目の視差と略同じ程度の距離だけ離間させて並列に設けてある。そして前記撮像光学系1は、光軸14に沿って外側から順に、ズームレンズ11、絞り12、フォーカスレンズ13の順で並べて構成してあり、前記フォーカスレンズ13の後ろ側に前記撮像素子2が設けてある。前記撮像素子2としては、例えばCCD型やCMOS型のイメージセンサが用いられる。   A configuration common to the two imaging optical systems 1 will be described. When it is necessary to distinguish between the two image pickup optical systems 1 and the image pickup device 2, the image pickup optical system 1 for generating the left image forming the stereoscopic image generates the first right image forming the stereoscopic image. The imaging optical system 1 for doing so is distinguished by attaching a second. The respective imaging optical systems 1 are provided in parallel so as to be separated from each other by a distance substantially the same as the parallax of human eyes so that the respective optical axes 14 are parallel to each other. The imaging optical system 1 is configured by arranging the zoom lens 11, the diaphragm 12, and the focus lens 13 in this order from the outside along the optical axis 14, and the imaging element 2 is behind the focus lens 13. It is provided. As the imaging device 2, for example, a CCD type or CMOS type image sensor is used.

前記絞り12にはアイリスモータが接続されており、AE(Auto Exposure)動作時に絞り12値を変化させて光束を制限して露出量を制御するために用いられる。また前記フォーカスレンズ13にはレンズモータが接続されており、AF(Auto Focus)動作時に当該フォーカスレンズ13を撮像光学系1の光軸14に沿って移動させることにより、撮像光学系1のフォーカス位置を制御してピント調整を行うように構成してある。   An iris motor is connected to the diaphragm 12 and is used to control the exposure amount by limiting the luminous flux by changing the value of the diaphragm 12 during the AE (Auto Exposure) operation. In addition, a lens motor is connected to the focus lens 13, and the focus lens 13 is moved along the optical axis 14 of the imaging optical system 1 during an AF (Auto Focus) operation, so that the focus position of the imaging optical system 1 is reached. Is adjusted to adjust the focus.

前記撮像素子2は、前記撮像光学系1により結像された被写体像を画像信号に変化するものである。当該撮像素子2には、タイミングジェネレータ21(TG)が接続してあり、TG21により前記撮像素子2の光電荷蓄積、転送動作が制御される。なお、前記絞り12、前記フォーカスレンズ13はドライバ15、16を介して、前記撮像素子2はタイミングジェネレータ21(TG)を介して、CPU41により制御される。   The image pickup device 2 changes the subject image formed by the image pickup optical system 1 into an image signal. A timing generator 21 (TG) is connected to the image sensor 2, and photocharge accumulation and transfer operations of the image sensor 2 are controlled by the TG 21. The diaphragm 12 and the focus lens 13 are controlled by a CPU 41 via drivers 15 and 16, and the image sensor 2 is controlled by a CPU 41 via a timing generator 21 (TG).

前記撮像素子2から出力された画像信号は、相関二重サンプリング回路(CDS)及び増幅器(AMP)22、A/Dコンバータ(ADC)23、の順で入力され、アナログデータからデジタルデータへと変換される。デジタルデータに変換された画像信号は、画像コントローラ24が入出力をコントロールする。前記画像信号は、画像信号処理回路31に入力され、階調変換、ホワイトバランス補正、γ補正処理等が施され、第1撮像光学系1により撮像された第1画像と、第2撮像光学系1により撮像された第2画像として、VRAM32の所定領域A、Bにそれぞれ別々に一次的に記憶される。このVRAM32に記憶されている各画像は所定周期ごとに更新される。具体的には前記タイミングジェネレータ21により撮像素子2が1/30秒(1フレーム)ごとに露光及び画像信号の出力が繰り返されるのに合わせて更新される。   The image signal output from the imaging device 2 is input in the order of a correlated double sampling circuit (CDS), an amplifier (AMP) 22, and an A / D converter (ADC) 23, and converted from analog data to digital data. Is done. The image controller 24 controls input / output of the image signal converted into digital data. The image signal is input to the image signal processing circuit 31 and subjected to gradation conversion, white balance correction, γ correction processing, etc., and the first image picked up by the first image pickup optical system 1 and the second image pickup optical system As a second image picked up by 1, they are temporarily stored separately in predetermined areas A and B of the VRAM 32, respectively. Each image stored in the VRAM 32 is updated at predetermined intervals. More specifically, the timing generator 21 updates the image pickup device 2 as exposure and image signal output are repeated every 1/30 seconds (one frame).

前記評価値算出回路33は、VRAM32に記憶された第1及び第2画像の各々からAF評価値及びAE評価値等を算出するものである。AF評価値とは、本実施形態では2つの画像の位相差評価値と、コントラスト評価値に相当するものである。位相差評価値は、後述する被写体距離の算出において用いられるものである。またコントラスト評価値は、前記各画像の所定領域(例えば、図6に示す線で囲まれた複数の領域)について、輝度値の高周波成分を積算することにより算出されたものである。すなわち、隣接する画素間のコントラスト(輝度差)を所定領域内について足し合わせたものである。また、AE評価値とは、各画像データの所定領域について輝度値を積算することで算出され、画像の明るさを表すものである。コントラスト評価値、AE評価値はそれぞれ後述するAF動作及びAE動作において用いられる。   The evaluation value calculation circuit 33 calculates an AF evaluation value, an AE evaluation value, and the like from each of the first and second images stored in the VRAM 32. In the present embodiment, the AF evaluation value corresponds to a phase difference evaluation value of two images and a contrast evaluation value. The phase difference evaluation value is used in the calculation of the subject distance described later. The contrast evaluation value is calculated by accumulating high-frequency components of luminance values for a predetermined region (for example, a plurality of regions surrounded by a line shown in FIG. 6) of each image. That is, the contrast (brightness difference) between adjacent pixels is added in a predetermined area. The AE evaluation value is calculated by integrating the luminance value for a predetermined area of each image data, and represents the brightness of the image. The contrast evaluation value and the AE evaluation value are respectively used in an AF operation and an AE operation which will be described later.

前記表示画像処理回路34は、VRAM32に記憶されている第1及び第2画像に基づいてLCDモニタ35において立体表示するための立体画像を合成するものである。前記モードダイヤル52により撮影モードが選択されており、LCDモニタ35がビューファインダとして使用される際には、前記表示画像処理回路34によって合成された立体画像が、LCDドライバ351を介してLCDモニタ35にスルー画像として表示される。また、モードによっては立体合成画像を用いずに、前記VRAM32に記憶されている画像をそのままLCDモニタ35に表示するようにしても構わない。   The display image processing circuit 34 synthesizes a stereoscopic image for stereoscopic display on the LCD monitor 35 based on the first and second images stored in the VRAM 32. When the photographing mode is selected by the mode dial 52 and the LCD monitor 35 is used as a viewfinder, a stereoscopic image synthesized by the display image processing circuit 34 is displayed via the LCD driver 351 on the LCD monitor 35. Displayed as a through image. Further, depending on the mode, the image stored in the VRAM 32 may be displayed as it is on the LCD monitor 35 without using the stereoscopic composite image.

前記圧縮処理回路36は、VRAM32に記憶された第1及び第2画像に対して、JPEG方式等の圧縮形式により圧縮処理を施すものである。メディアコントーラ371は、圧縮処理回路36によって圧縮処理された各画像をメモリ42、43カード等の記録メディア37に保存する。また、モードダイヤル52によりビューモードが選択されている場合には、この記録メディア37に保存されている第1及び第2画像に基づいて、前記表示画像処理回路34により生成された立体画像が前記モニタ35により表示される。   The compression processing circuit 36 performs compression processing on the first and second images stored in the VRAM 32 using a compression format such as the JPEG method. The media controller 371 stores each image compressed by the compression processing circuit 36 in a recording medium 37 such as a memory 42 or 43 card. Further, when the view mode is selected by the mode dial 52, the stereoscopic image generated by the display image processing circuit 34 based on the first and second images stored in the recording medium 37 is Displayed on the monitor 35.

前記モニタ35はLCDモニタであり、その詳細な構造は図示しないが、その表面にパララックスバリア表示層を備えている。モニタ35は、立体表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その仮想の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで立体視を可能とする。   The monitor 35 is an LCD monitor and has a parallax barrier display layer on its surface, although its detailed structure is not shown. When performing the stereoscopic display, the monitor 35 generates a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch on the parallax barrier display layer. Stereoscopic viewing is possible by alternately arranging strip-shaped image fragments showing left and right images on the surface.

前記CPU41は、撮像装置100の全体の動作を統括的に制御するものである。CPU41には、前述のシャッタボタン51、モードダイヤル52、各種操作キー53の他、不揮発性メモリ43が接続されている。   The CPU 41 controls the overall operation of the imaging apparatus 100 in an integrated manner. In addition to the shutter button 51, mode dial 52, and various operation keys 53, the CPU 41 is connected to a nonvolatile memory 43.

前記シャッタボタン51は請求項での入力部に相当するものであり、2段押のスイッチ構造となっている。シャッタボタン51がユーザにより軽く押圧(半押し)されると、撮像準備動作が開始される。本実施形態では、後述するようにシャッタボタン51が半押しになった時点で全てのAF動作が開始される入力後モードと、シャッタボタン51が半押しとなる前に、AF動作の一部が既に開始されている入力前モードとがある。このモードの切り替えは例えば、モードダイヤル52等や設定画面で切り換えるようにしてある。シャッタボタン51が強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1及び第2画像がVRAM32から記録メディア37に転送されて記憶される。   The shutter button 51 corresponds to an input unit in claims, and has a two-stage push switch structure. When the shutter button 51 is lightly pressed (half pressed) by the user, an imaging preparation operation is started. In the present embodiment, as will be described later, a post-input mode in which all AF operations are started when the shutter button 51 is half-pressed, and a part of the AF operation is performed before the shutter button 51 is half-pressed. There is a pre-input mode that has already started. For example, the mode is switched on the mode dial 52 or the setting screen. When the shutter button 51 is strongly pressed (fully pressed), shooting processing is performed, and the first and second images for one screen are transferred from the VRAM 32 to the recording medium 37 and stored.

前記前記不揮発性メモリ43には、各種制御用のプログラムや設定情報等が記憶されている。しかして、前記CPU41、SDRAM42、不揮発性メモリ43、各種回路等が協業してプログラムや設定情報に基づき、少なくとも、被写体距離算出部6、合焦位置検出部7としての機能を発揮するように構成してある。これらの各部はオートフォーカスに関する動作を司るものであり、撮像装置100を簡略化してオートフォーカスに関する構成について記載した機能ブロック図は図4のようになる。   The nonvolatile memory 43 stores various control programs and setting information. Thus, the CPU 41, the SDRAM 42, the nonvolatile memory 43, various circuits, and the like cooperate to configure at least the functions of the subject distance calculation unit 6 and the focus position detection unit 7 based on the program and setting information. It is. Each of these units controls an operation related to autofocus, and a functional block diagram illustrating a configuration related to autofocus by simplifying the imaging apparatus 100 is as shown in FIG.

前記被写体距離算出部6は、各撮像素子2により変換された画像信号により生成される2つの画像に基づいて、各画像内において同一の被写体について撮像場所からの離間距離である被写体距離を算出するように構成してある。   The subject distance calculation unit 6 calculates a subject distance, which is a distance from the imaging location, for the same subject in each image, based on the two images generated from the image signals converted by each imaging element 2. It is constituted as follows.

被写体距離は以下のような三角側距の原理に基づいて測定されるものであり、図5に示すように2つの撮像光学系1がある場合、それぞれの撮像光学系1には視差があるため、撮像光学系1から被写体までの距離に応じて、前記撮像素子2上で結像する位置にずれが生じる。ここで、視差の大きさである各撮像光学系1の光軸14間距離をB、撮像光学系1の主点から撮像素子2までの距離をf、ある被写体が第1撮像素子2に対して結像している結像位置が前記第1撮像光学系1の光軸14に対してずれている量をD1、同じく第2撮像素子2に結像し、第2撮像光学系1の光軸14に対してずれている量をD2、撮像光学系1の主点から被写体までの距離をLとすると、三角形の相似条件等から、L=Bf/(D1+D2)で被写体距離を算出することができる。ここで、fとBに関しては撮像装置100の設定情報等から既知の値であるので、D1+D2を求めればよい。このD1+D2は各撮像光学系1及び撮像素子2により撮像され、前記VRAM32に記憶されている第1及び第2画像について前記評価値算出回路33により比較が行われ、被写体の結像位置が検出されることによりD1+D2が算出される。そして、この情報に基づいて前記評価値算出回路33から被写体距離が出力される。具体的には前記評価値算出回路33においては、図7の各画像中で3つの四角枠で囲まれた領域にある被写体についてD1+D2を算出し、それに基づいて各領域にある被写体の被写体距離を算出する。例えば、図6の右側の四角枠領域内にある背景の被写体距離は15m、中央部の領域の被写体である人物の顔の被写体距離は、3.0m、左側の領域にある被写体である樹の幹の被写体距離は3.3mというようにそれぞれの領域ごとの被写体距離が出力される。   The subject distance is measured on the basis of the principle of triangular side distance as follows, and when there are two imaging optical systems 1 as shown in FIG. 5, each imaging optical system 1 has parallax. In accordance with the distance from the imaging optical system 1 to the subject, a shift occurs in the position where the image is formed on the imaging element 2. Here, the distance between the optical axes 14 of each imaging optical system 1 that is the magnitude of parallax is B, the distance from the principal point of the imaging optical system 1 to the imaging element 2 is f, and a certain subject is relative to the first imaging element 2. The amount of the image formation position where the image is formed is deviated from the optical axis 14 of the first image pickup optical system 1, and the image of the second image pickup optical system 1 is imaged on the second image pickup device 2. When the amount of deviation from the axis 14 is D2 and the distance from the principal point of the imaging optical system 1 to the subject is L, the subject distance is calculated from L = Bf / (D1 + D2) from the similarity condition of the triangle. Can do. Here, since f and B are known values from the setting information of the imaging apparatus 100, D1 + D2 may be obtained. This D1 + D2 is imaged by each imaging optical system 1 and imaging element 2, and the evaluation value calculation circuit 33 compares the first and second images stored in the VRAM 32 to detect the imaging position of the subject. Thus, D1 + D2 is calculated. Based on this information, the evaluation value calculation circuit 33 outputs the subject distance. Specifically, the evaluation value calculation circuit 33 calculates D1 + D2 for a subject in an area surrounded by three square frames in each image of FIG. 7, and based on this, calculates the subject distance of the subject in each area. calculate. For example, the subject distance of the background in the square frame area on the right side of FIG. 6 is 15 m, the subject distance of the face of the person who is the subject in the center area is 3.0 m, and the object distance in the left area is The subject distance for each region is output such that the subject distance of the trunk is 3.3 m.

なお、被写体距離を算出する方法は前述したものに限られず、例えば図7(a)に示すような第1画像と第2画像を、図7(b)の右側のように単純に重ね合わせるのではなく、図7(b)の右側に示すように第1画像及び第2画像を合焦位置において重ね合わせることにより生じる、画像中の各被写体のずれ量から撮像素子2での結像位置のずれ量D1+D2を算出することもでき、そのように評価値算出回路33を構成しても構わない。   Note that the method for calculating the subject distance is not limited to that described above. For example, the first image and the second image shown in FIG. 7A are simply superimposed as shown on the right side of FIG. 7B. Instead, as shown on the right side of FIG. 7B, the imaging position on the image sensor 2 is determined from the amount of shift of each subject in the image, which is generated by superimposing the first image and the second image at the in-focus position. The deviation amount D1 + D2 can also be calculated, and the evaluation value calculation circuit 33 may be configured as such.

前記合焦位置検出部7は、各撮像光学系1のフォーカス位置を移動させ、複数のフォーカス位置における前記画像中の被写体のコントラスト評価値に基づいて、合焦位置を検出するものである。具体的には、前記フォーカスレンズ13を走査した際に前記評価値算出回路33から得られるコントラスト評価値が極値となる点を被写体に合焦した位置として検出し、その位置へと各フォーカスレンズ13を移動させて、フォーカス位置を前記合焦位置に一致させるように構成してある。   The focus position detection unit 7 moves the focus position of each imaging optical system 1 and detects the focus position based on the contrast evaluation value of the subject in the image at a plurality of focus positions. Specifically, when the focus lens 13 is scanned, a point at which the contrast evaluation value obtained from the evaluation value calculation circuit 33 becomes an extreme value is detected as a position focused on the subject, and each focus lens is moved to that position. 13 is moved so that the focus position matches the in-focus position.

さらに前記合焦位置検出部7は、前記被写体距離算出部6により算出された被写体距離に基づいて前記フォーカス位置を合焦位置近傍まで高速移動させるラフフォーカス駆動と、前記ラフフォーカス駆動を実施した後において前記フォーカス位置を前記合焦位置近傍から前記合焦位置まで低速スキャン移動させるスキャン駆動と、を行うように構成してある。具体的には、まず、前記被写体距離算出部6により算出された3つ領域の被写体距離から、合焦するべき被写体を判定するための多点アルゴリズムに基づいて、合焦させる被写体を決定する。本実施形態の多点アルゴリズムでは、一番近い被写体に合焦させるように決められているが、その他の基準に基づいて合焦被写体を決定するものであっても構わない。例えば、被写体が人であるかどうか等のその他の条件を考慮しても構わない。合焦させる被写体が決定されるとその被写体の被写体距離から合焦位置が算出され、その合焦位置近傍にフォーカス位置が移動するように前記フォーカスレンズ13を高速で駆動させるラフフォーカス駆動を行うようにしてある。その後、合焦位置近傍から合焦位置まではコントラストAFによる合焦位置検出を行うために低速スキャン駆動を行うものである。合焦位置を検出するにはコントラスト評価値が極値(ピーク)となる位置を検出する必要があるので、スキャン駆動では一度極値を超えるまで前記フォーカスレンズ13を移動させた後に、検出された合焦位置まで高速移動で合焦位置にフォーカスレンズ13を移動させるようにしてある。   Further, the focus position detection unit 7 performs rough focus driving for moving the focus position to the vicinity of the focus position at high speed based on the subject distance calculated by the subject distance calculation unit 6 and after performing the rough focus drive. And the scan driving for moving the focus position at a low speed from the focus position to the focus position. Specifically, first, a subject to be focused is determined based on a multipoint algorithm for determining a subject to be focused from the subject distances of the three regions calculated by the subject distance calculation unit 6. In the multi-point algorithm of the present embodiment, it is determined to focus on the closest subject, but the focused subject may be determined based on other criteria. For example, other conditions such as whether or not the subject is a person may be considered. When the subject to be focused is determined, the focus position is calculated from the subject distance of the subject, and rough focus driving is performed to drive the focus lens 13 at high speed so that the focus position moves in the vicinity of the focus position. It is. Thereafter, from the vicinity of the in-focus position to the in-focus position, low-speed scan driving is performed in order to detect the in-focus position by contrast AF. Since it is necessary to detect the position where the contrast evaluation value becomes an extreme value (peak) in order to detect the in-focus position, the focus lens 13 is detected after moving the focus lens 13 until the extreme value is exceeded once in scan driving. The focus lens 13 is moved to the in-focus position by high-speed movement to the in-focus position.

このように前記被写体距離算出部6により合焦すべき被写体の被写体距離が算出してあり、予め合焦位置をほぼ特定することができるので、コントラストAFにより合焦位置を探す際に前記フォーカスレンズ13を駆動する方向を誤らない。また、合焦位置近傍まではコントラストAF用のスキャン駆動に比べて高速で前記フォーカスレンズ13を駆動させることができ、ごく限られた領域のみについて低速でフォーカスレンズ13をスキャン駆動することができる。従って、オートフォーカスにかかる時間を劇的に短縮することができる。   In this way, the subject distance of the subject to be focused is calculated by the subject distance calculation unit 6, and the focus position can be almost specified in advance. Therefore, when the focus position is searched by contrast AF, the focus lens 13 is driven in the correct direction. Further, the focus lens 13 can be driven at a higher speed than the contrast AF scan drive up to the vicinity of the in-focus position, and the focus lens 13 can be scan-driven at a low speed only in a very limited region. Therefore, the time required for autofocus can be dramatically shortened.

また、前記合焦位置検出部7は、モードダイヤル52のモード設定によって、入力部であるシャッタボタン51が前記ユーザにより半押しにされておらず、撮像動作開始指令が入力されていない状態で少なくともラフフォーカス駆動を行う入力前モードと、前記入力部に前記ユーザによりシャッタボタン51が半押しにされ、撮像動作開始指令が入力された後にラフフォーカス駆動を行う入力後モードと、を切り替え可能に構成してある。加えて、前記入力前モードと、前記入力後モードでは、ラフフォーカス駆動におけるフォーカスレンズ13の移動速度を異ならせてある。具体的には、前記入力前モードでの駆動速度は、前記入力後モードにおける駆動速度よりも遅く設定してある。   The in-focus position detection unit 7 is at least in a state in which the shutter button 51 as an input unit is not half-pressed by the user and the imaging operation start command is not input by the mode setting of the mode dial 52. It is possible to switch between a pre-input mode in which rough focus driving is performed and a post-input mode in which rough focus driving is performed after the shutter button 51 is half-pressed by the user and an imaging operation start command is input to the input unit. It is. In addition, in the pre-input mode and the post-input mode, the moving speed of the focus lens 13 in the rough focus drive is different. Specifically, the drive speed in the pre-input mode is set slower than the drive speed in the post-input mode.

以上のように構成された撮像装置100の動作について図9のフローチャートを参照しながら説明する。まず、モードダイヤル52により前記合焦位置検出部7のモードが入力後モードに選択されている状態での動作について電源起動から撮像終了までの流れで説明する。   The operation of the imaging apparatus 100 configured as described above will be described with reference to the flowchart of FIG. First, an operation in a state where the mode of the in-focus position detection unit 7 is selected as the post-input mode by the mode dial 52 will be described with reference to a flow from power activation to the end of imaging.

まず、電源が入れられると(ステップS1)、各撮像素子2への露光が開始され、それにより生成された各画像がVRAM32に記憶される。これらの画像を前記評価値算出回路33が読み出し(ステップS2)、AE評価値を算出する(ステップS3)。このAE評価値が適正な値となるための適正露光制御値が算出され(ステップS4)、前記絞り12に対してその露光量となるようにアイリスモータのドライバに設定値が設定される(ステップS5)。その後、適正露光となった状態の画像に基づいて前記表示画像処理回路34により生成される立体画像がモニタ35に表示される(ステップS6)。ここで、モードダイヤル52により入力後モードが選択されているので、前記被写体距離算出部6、前記合焦位置検出部7はユーザによりシャッタスイッチが半押しされるまで待機している。   First, when the power is turned on (step S1), exposure to each image sensor 2 is started, and each image generated thereby is stored in the VRAM 32. The evaluation value calculation circuit 33 reads these images (step S2) and calculates an AE evaluation value (step S3). A proper exposure control value for the AE evaluation value to be a proper value is calculated (step S4), and a set value is set in the driver of the iris motor so that the exposure amount for the stop 12 is set (step S4). S5). Thereafter, a stereoscopic image generated by the display image processing circuit 34 based on the image in the state of proper exposure is displayed on the monitor 35 (step S6). Here, since the post-input mode is selected by the mode dial 52, the subject distance calculation unit 6 and the focus position detection unit 7 are on standby until the shutter switch is half-pressed by the user.

次に、ユーザによりシャッタボタン51が半押しされた場合には(ステップS7)、前記被写体距離算出部6が、新たに撮像素子2に露光され、生成された画像をVRAM32から読み出し(ステップS8)、2つの画像から被写体距離を位相差演算により算出する(ステップS9)。その後、前記合焦位置検出部7は、多点アルゴリズムに基づいて、前記被写体距離算出部6から出力される複数の被写体の被写体距離に基づいてどの被写体を合焦被写体とするかを決定する(ステップS10)。そして、前記合焦位置検出部7は、前記合焦被写体の被写体距離に基づいて、前記フォーカスレンズ13を駆動するべき方向を決定し、その後合焦被写体に合焦する合焦位置の近傍で所定距離離れた手前の位置までラフフォーカス駆動によりフォーカスレンズ13を高速移動させる(ステップS11)。   Next, when the shutter button 51 is half-pressed by the user (step S7), the subject distance calculation unit 6 is newly exposed to the image sensor 2, and the generated image is read from the VRAM 32 (step S8). The subject distance is calculated from the two images by phase difference calculation (step S9). Thereafter, the focus position detection unit 7 determines which subject is to be a focused subject based on the subject distances of a plurality of subjects output from the subject distance calculation unit 6 based on a multipoint algorithm ( Step S10). The focus position detection unit 7 determines a direction in which the focus lens 13 should be driven based on the subject distance of the focused subject, and then determines a predetermined position near the focus position where the focused subject is focused. The focus lens 13 is moved at a high speed by rough focus driving to a position at a distance away (step S11).

前記合焦位置の手前まで前記フォーカスレンズ13が移動すると、前記合焦位置検出部7の動作がコントラストAF用の動作に切り替わる。まず、スキャン駆動によりフォーカス位置を変化させ、新たに撮像素子2に露光され、VRAM32に記憶される新たな画像を読み出す(ステップS12)。その後前記評価値算出回路33により算出されるコントラスト評価値を取得しつづけ(ステップS13)、現在取得したコントラスト評価値と前回取得したコントラスト評価値とを比較して増加傾向が終了したかどうかによってピーク判定を行う(ステップ14)。増加傾向が続いており、ピークでは無いと判断された場合は(ステップS15)、フォーカスレンズ13を移動させつづけ、前記コントラスト評価値が減少に転じ、フォーカスレンズ13の位置が合焦位置を超えたと判断されるまでこの判定が繰り返される。コントラスト評価値にピークがあった場合には、そのピークのあった位置から合焦位置が算出され(ステップS16)その後、前記合焦位置検出部7は、フォーカスレンズ13の移動方向を反転させて、当該フォーカスレンズ13を合焦位置まで高速移動させる(ステップS17)。   When the focus lens 13 is moved to a position before the in-focus position, the operation of the in-focus position detection unit 7 is switched to an operation for contrast AF. First, the focus position is changed by scan driving, and a new image that is newly exposed to the image sensor 2 and stored in the VRAM 32 is read (step S12). Thereafter, the contrast evaluation value calculated by the evaluation value calculation circuit 33 is continuously acquired (step S13), and the peak value is determined depending on whether or not the increasing tendency is completed by comparing the currently acquired contrast evaluation value with the previously acquired contrast evaluation value. A determination is made (step 14). If it is determined that the peak continues to increase and is not a peak (step S15), the focus lens 13 continues to move, the contrast evaluation value starts to decrease, and the position of the focus lens 13 exceeds the in-focus position. This determination is repeated until it is determined. If there is a peak in the contrast evaluation value, a focus position is calculated from the position where the peak is present (step S16). Thereafter, the focus position detection unit 7 reverses the moving direction of the focus lens 13. Then, the focus lens 13 is moved to the in-focus position at high speed (step S17).

ここで、ユーザによりシャッタスイッチの半押しが解除された場合には、ステップS2へと戻り(ステップS18)、シャッタスイッチが全押しされた場合には(ステップS19)、その合焦位置で撮影が実行される(ステップS20)。   If the half-press of the shutter switch is released by the user, the process returns to step S2 (step S18). If the shutter switch is fully pressed (step S19), shooting is performed at the in-focus position. It is executed (step S20).

次に、入力前モードが選択されている場合について、図10のフローチャートを参照しながら説明する。入力前モードがモードダイヤル52により選択されている場合には、前記被写体距離算出部6及び前記合焦位置検出部7の動作が一部異なる以外は、前述した入力後モードにおける動作と入力前モードの動作は略同じである。そこで、異なっている部分のみ詳述することにする。   Next, the case where the pre-input mode is selected will be described with reference to the flowchart of FIG. When the pre-input mode is selected by the mode dial 52, the operation in the post-input mode and the pre-input mode are the same except that the operations of the subject distance calculation unit 6 and the focus position detection unit 7 are partially different. The operation is substantially the same. Therefore, only the different parts will be described in detail.

入力前モードが選択されている場合、入力前モードのステップSS1からステップSS6までは、入力後モードでのステップS1からステップS6までは同じである。入力前モードの場合、入力後モードにおけるステップS8からステップS11までをユーザによりシャッタスイッチが半押しされるまでの間に行っている点が異なる。   When the pre-input mode is selected, steps SS1 to SS6 in the pre-input mode are the same from steps S1 to S6 in the post-input mode. In the pre-input mode, the difference is that steps S8 to S11 in the post-input mode are performed until the shutter switch is half-pressed by the user.

すなわち、図10に示すように前記被写体距離算出部6が、新たに撮像素子2に露光され、生成された画像をVRAM32から読み出し(ステップSS7)、2つの画像から被写体距離を位相差演算により算出する(ステップSS8)。その後、前記合焦位置検出部7は、多点アルゴリズムに基づいて、前記被写体距離算出部6から出力される複数の被写体の被写体距離に基づいてどの被写体を合焦被写体とするかを決定する(ステップSS9)。そして、前記合焦位置検出部7は、前記合焦被写体の被写体距離に基づいて、前記フォーカスレンズ13を駆動するべき方向を決定し、その後合焦被写体に合焦する合焦位置の近傍で所定距離離れた手前の位置までラフフォーカス駆動によりフォーカスレンズ13を高速移動させる(ステップSS10)。ステップSS10までの動作はユーザによりシャッタスイッチが半押しされるまで繰り返されることになるので、常にフォーカスレンズ13は、被写体に対して合焦する合焦位置近傍にある状態が保たれることになる。この際、フォーカスレンズ13の移動速度が速すぎると、モニタ35に表示される画像の品位が低下したり、常にフォーカスレンズ13を駆動し続けることによる電力消費量が増加したりすることを低減するために、前記入力後モードに比べて、この入力前モードではラフフォーカス駆動の駆動速度を遅く設定してある。   That is, as shown in FIG. 10, the subject distance calculation unit 6 newly exposes the image sensor 2, reads the generated image from the VRAM 32 (step SS7), and calculates the subject distance from the two images by phase difference calculation. (Step SS8). Thereafter, the focus position detection unit 7 determines which subject is to be a focused subject based on the subject distances of a plurality of subjects output from the subject distance calculation unit 6 based on a multipoint algorithm ( Step SS9). The focus position detection unit 7 determines a direction in which the focus lens 13 should be driven based on the subject distance of the focused subject, and then determines a predetermined position near the focus position where the focused subject is focused. The focus lens 13 is moved at a high speed by rough focus driving to a position at a distance away (step SS10). Since the operation up to Step SS10 is repeated until the shutter switch is half-pressed by the user, the focus lens 13 is always kept in the vicinity of the in-focus position where the subject is focused. . At this time, if the moving speed of the focus lens 13 is too fast, the quality of the image displayed on the monitor 35 is reduced, and the power consumption due to the continuous driving of the focus lens 13 is reduced. Therefore, compared with the post-input mode, the driving speed of rough focus driving is set slower in this pre-input mode.

次に、ユーザによりシャッタスイッチが半押しにされた場合には(ステップSS11)、前記合焦位置検出部7がすぐにコントラストAFによる合焦動作を開始する。なお、入力前モードにおけるステップSS12からステップSS20に関しては、入力後モードでのステップS2からステップS20と同じであるので説明を省略する。   Next, when the shutter switch is half-pressed by the user (step SS11), the in-focus position detector 7 immediately starts the in-focus operation by contrast AF. Note that Steps SS12 to SS20 in the pre-input mode are the same as Steps S2 to S20 in the post-input mode, and thus description thereof is omitted.

ここで、シャッタスイッチが押される前の状態において、フォーカスレンズ13の位置は合焦位置の近傍に保たれているので、スキャン駆動するべき範囲は狭く、瞬時にフォーカスレンズ13を合焦位置に移動させることができる。つまり、入力前モードに設定しておけば、ユーザがシャッタスイッチを半押しする前に略合焦した状態であり、半押しするとすぐに合焦させることができるので、動きの速い被写体等でも容易に焦点を合わせることができる。逆に入力後モードに設定しておけば、最速のフォーカス速度ではないものの、省電力であり、かつ、モニタ35に表示されるスルー画像の品位を良いものとすることができ、じっくりとフレーミングする場合や、撮像装置100の稼働時間を長くしたい場合に適している。   Here, since the position of the focus lens 13 is maintained in the vicinity of the in-focus position before the shutter switch is pressed, the range to be scanned is narrow and the focus lens 13 is instantaneously moved to the in-focus position. Can be made. In other words, if the pre-input mode is set, the user is in focus before half-pressing the shutter switch, and can be focused immediately after half-pressing. Can focus on. On the contrary, if the post-input mode is set, although it is not the fastest focus speed, it is power saving and the quality of the through image displayed on the monitor 35 can be improved, and framing is performed slowly. This is suitable for a case where the operating time of the imaging apparatus 100 is to be extended.

このように前記合焦位置検出部7が入力後モードと入力前モードとを切り替え可能に構成してあるので、フォーカス速度と使い勝手に関してユーザが適宜バランスをとることができる。   As described above, since the in-focus position detection unit 7 is configured to be able to switch between the post-input mode and the pre-input mode, the user can appropriately balance the focus speed and the usability.

その他の実施形態について説明する。   Other embodiments will be described.

前記実施形態では、前記入力後モードと入力前モードではラフフォーカス駆動の速度を異ならせていたが、その他のパラメータを異ならせていてもよい。例えば、前記被写体距離算出部が被写体距離を算出する周期を入力前モードにおいては、前記入力後モードに比べて長くし、合焦位置近傍へフォーカスレンズが駆動される頻度を少なくしてもよい。このようにすれば、駆動速度が同じであったとしても、フォーカスレンズが細かく駆動されることによる消費電力の増加を防ぐことができる。   In the embodiment, the speed of rough focus driving is different in the post-input mode and the pre-input mode, but other parameters may be different. For example, the period in which the subject distance calculation unit calculates the subject distance may be longer in the pre-input mode than in the post-input mode, and the frequency with which the focus lens is driven near the in-focus position may be reduced. In this way, even if the driving speed is the same, it is possible to prevent an increase in power consumption due to fine driving of the focus lens.

前記実施形態では、入力前モードでは、ラフフォーカス駆動までしか行っていなかったが、最もフォーカス速度を優先するのであれば、スキャン駆動まで行うように構成して、常に被写体に合焦した状態を保つようにしても構わない。   In the above-described embodiment, only the rough focus drive is performed in the pre-input mode. However, if priority is given to the focus speed, the scan drive is configured so that the subject is always focused. It doesn't matter if you do.

前記実施形態にて説明した、被写体距離の算出方法及びコントラスト評価値の算出方法は一例であって、その他の方法で算出するものであっても構わない。また、前記実施形態では立体撮像を行うための撮像装置であったが、例えば、片側の撮像光学系だけを用いて通常の平面画像を撮像できるモードがあっても構わない。   The subject distance calculation method and the contrast evaluation value calculation method described in the above embodiment are merely examples, and other methods may be used. In the above-described embodiment, the imaging apparatus is used to perform stereoscopic imaging. However, for example, there may be a mode in which a normal planar image can be captured using only one imaging optical system.

前記実施形態では、フォーカスレンズのみを駆動して被写体に合焦するようにしていたが、ズームレンズを駆動して合焦するようにしても構わない。前記実施形態ではフォーカスレンズの移動と、フォーカス位置の移動は1対1に対応していたが、撮像光学系としてフォーカスしている位置を移動させるものであればどのような駆動系を用いても構わない。   In the above embodiment, only the focus lens is driven to focus on the subject, but the zoom lens may be driven to focus. In the above embodiment, the movement of the focus lens and the movement of the focus position correspond one-to-one. However, any drive system can be used as long as it moves the focused position as the imaging optical system. I do not care.

その他、本発明の趣旨に反しない限りにおいて、様々な変形や実施形態の組み合わせを行っても構わない。   In addition, various modifications and combinations of embodiments may be performed without departing from the spirit of the present invention.

100・・・撮像装置
1 ・・・撮像光学系
2 ・・・撮像素子
6 ・・・被写体距離算出部
7 ・・・合焦位置検出部
51 ・・・入力部(シャッタスイッチ)
DESCRIPTION OF SYMBOLS 100 ... Imaging device 1 ... Imaging optical system 2 ... Imaging element 6 ... Subject distance calculation part 7 ... Focus position detection part 51 ... Input part (shutter switch)

Claims (12)

各光軸を所定距離だけ離間させて並列に設けた2つの撮像光学系と、各記撮像光学系により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子と、ユーザが撮像動作開始指令を入力するための入力部と、を備えた撮像装置であって、
各撮像素子により変換された画像信号により生成される2つの画像に基づいて、各画像内において同一の被写体について撮像場所からの離間距離である被写体距離を算出する被写体距離算出部と、
各撮像光学系のフォーカス位置を移動させ、複数のフォーカス位置における前記画像中の被写体のコントラスト評価値に基づいて、合焦位置を検出する合焦位置検出部と、を備え、
前記合焦位置検出部が、前記被写体距離算出部により算出された被写体距離に基づいて前記フォーカス位置を合焦位置近傍まで移動させるラフフォーカス駆動と、前記ラフフォーカス駆動を実施した後において前記フォーカス位置を前記合焦位置近傍から前記合焦位置までスキャン移動させるスキャン駆動と、を行うように構成されており、
前記合焦位置検出部が、前記入力部に前記ユーザにより撮像動作開始指令が入力されていない状態で少なくともラフフォーカス駆動を行う入力前モードと、前記入力部に前記ユーザにより撮像動作開始指令が入力された後にラフフォーカス駆動を行う入力後モードと、を切り替え可能に構成されていることを特徴とする撮像装置。
Two image pickup optical systems provided in parallel with each optical axis being separated by a predetermined distance, two image pickup elements for converting subject images formed by each image pickup optical system into image signals, and a user starts an image pickup operation An input device for inputting a command, and an imaging device comprising:
A subject distance calculation unit that calculates a subject distance that is a separation distance from the imaging location for the same subject in each image based on two images generated by the image signal converted by each imaging element;
A focus position detection unit that moves the focus position of each imaging optical system and detects the focus position based on the contrast evaluation value of the subject in the image at a plurality of focus positions; and
The focus position detection unit moves the focus position to the vicinity of the focus position based on the subject distance calculated by the subject distance calculation unit, and the focus position after performing the rough focus drive. And a scan drive that scans and moves from the vicinity of the in-focus position to the in-focus position, and
The in-focus position detection unit inputs at least a rough focus drive in a state where an imaging operation start command is not input by the user to the input unit, and an imaging operation start command is input by the user to the input unit An image pickup apparatus configured to be able to switch between a post-input mode in which rough focus driving is performed after being performed.
前記被写体距離算出部が、2つの撮像素子上にそれぞれ形成された被写体像の各光軸からの距離、又は、各撮像光学系により同時に撮像された各画像中の被写体の相対位置関係に基づいて前記被写体距離を算出するように構成された請求項1記載の撮像装置。   The subject distance calculation unit is based on the distance from each optical axis of the subject image formed on each of the two imaging elements or the relative positional relationship of the subject in each image simultaneously captured by each imaging optical system. The imaging apparatus according to claim 1, wherein the imaging apparatus is configured to calculate the subject distance. 前記合焦位置検出部が、前記被写体距離算出部により算出された被写体距離と、現在のフォーカス位置とに基づいて、前記フォーカス位置の駆動方向を決定するように構成された請求項1又は2記載の撮像装置。   The focus position detection unit is configured to determine a drive direction of the focus position based on the subject distance calculated by the subject distance calculation unit and a current focus position. Imaging device. 前記合焦位置検出部が、前記入力前モードと前記入力後モードにおけるラフフォーカス駆動の駆動速度を異ならせて設定されている請求項1、2又は3記載の撮像装置。   The imaging apparatus according to claim 1, wherein the in-focus position detection unit is set with different driving speeds of rough focus driving in the pre-input mode and the post-input mode. 前記入力前モードでの駆動速度は前記入力後モードでの駆動速度よりも遅く設定されている請求項1、2、3又は4記載の撮像装置。   The imaging apparatus according to claim 1, wherein the driving speed in the pre-input mode is set slower than the driving speed in the post-input mode. 前記合焦位置検出部が、前記入力前モードにおいてはラフフォーカス駆動のみを行うように構成された請求項1、2、3、4又は5記載の撮像装置。   The imaging apparatus according to claim 1, wherein the focus position detection unit is configured to perform only rough focus driving in the pre-input mode. 各光軸を所定距離だけ離間させて並列に設けた2つの撮像光学系と、各記撮像光学系により形成される被写体像をそれぞれ画像信号に変換する2つの撮像素子と、ユーザが撮像動作開始指令を入力するための入力部と、を備えた撮像装置を用いた撮像方法であって、
各撮像素子により変換された画像信号により生成される2つの画像に基づいて、各画像内において同一の被写体について撮像場所からの離間距離である被写体距離を算出する被写体距離算出ステップと、
各撮像光学系のフォーカス位置を移動させ、複数のフォーカス位置における前記画像中の被写体のコントラスト評価値に基づいて、合焦位置を検出する合焦位置検出ステップと、を備え、
前記合焦位置検出ステップが、前記被写体距離算出ステップにおいて算出された被写体距離に基づいて前記フォーカス位置を合焦位置近傍まで移動させるラフフォーカス駆動ステップと、前記ラフフォーカス駆動を実施した後において前記フォーカス位置を前記合焦位置近傍から前記合焦位置までスキャン移動させるスキャン駆動ステップと、を含み、
前記合焦位置検出ステップが、前記入力部に前記ユーザにより撮像動作開始指令が入力されていない状態で少なくともラフフォーカス駆動ステップを行う入力前モードと、前記入力部に前記ユーザにより撮像動作開始指令が入力された後にラフフォーカス駆動ステップを行う入力後モードと、を切り替える切替ステップとを備えることを特徴とする撮像方法。
Two image pickup optical systems provided in parallel with each optical axis being separated by a predetermined distance, two image pickup elements for converting subject images formed by each image pickup optical system into image signals, and a user starts an image pickup operation An imaging method using an imaging device including an input unit for inputting a command,
A subject distance calculating step for calculating a subject distance, which is a distance from the imaging location, for the same subject in each image, based on two images generated by the image signal converted by each imaging element;
A focus position detecting step of moving a focus position of each imaging optical system and detecting a focus position based on a contrast evaluation value of a subject in the image at a plurality of focus positions;
The focus position detecting step moves the focus position to the vicinity of the focus position based on the subject distance calculated in the subject distance calculating step, and the focus after the rough focus drive is performed. A scan driving step of moving the position from the vicinity of the in-focus position to the in-focus position, and
The in-focus position detection step includes a pre-input mode in which at least a rough focus driving step is performed in a state where an imaging operation start command is not input by the user to the input unit, and an imaging operation start command is input by the user to the input unit. An imaging method comprising: a switching step for switching between a post-input mode in which a rough focus driving step is performed after input.
前記被写体距離算出ステップにおいて、2つの撮像素子上にそれぞれ形成された被写体像の各光軸からの距離、又は、各撮像光学系により同時に撮像された各画像中の被写体の相対位置関係に基づいて前記被写体距離を算出する請求項7記載の撮像方法。   In the subject distance calculation step, based on the distance from each optical axis of the subject image formed on each of the two imaging elements, or the relative positional relationship of the subject in each image simultaneously captured by each imaging optical system. The imaging method according to claim 7, wherein the subject distance is calculated. 前記合焦位置検出ステップにおいて、前記被写体距離算出ステップにおいて算出された被写体距離と、現在のフォーカス位置とに基づいて、前記フォーカス位置の駆動方向を決定する請求項7又は8記載の撮像方法。   The imaging method according to claim 7 or 8, wherein, in the focus position detecting step, a driving direction of the focus position is determined based on the subject distance calculated in the subject distance calculating step and a current focus position. 前記合焦位置検出ステップが、前記入力前モードと前記入力後モードにおけるラフフォーカス駆動ステップの駆動速度を異ならせて設定されている請求項7、8又は9記載の撮像方法。   10. The imaging method according to claim 7, 8 or 9, wherein the in-focus position detecting step is set with different driving speeds of a rough focus driving step in the pre-input mode and the post-input mode. 前記入力前モードでの駆動速度は前記入力後モードでの駆動速度よりも遅く設定されている請求項7、8、9又は10記載の撮像方法。   11. The imaging method according to claim 7, wherein the driving speed in the pre-input mode is set slower than the driving speed in the post-input mode. 前記合焦位置検出ステップにおいて、前記入力前モードにおいてはラフフォーカス駆動ステップのみを行うように構成された請求項7、8、9、10又は11記載の撮像装置。   The imaging apparatus according to claim 7, 8, 9, 10 or 11, wherein, in the in-focus position detecting step, only a rough focus driving step is performed in the pre-input mode.
JP2010284092A 2010-12-21 2010-12-21 Imaging apparatus Pending JP2012133067A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010284092A JP2012133067A (en) 2010-12-21 2010-12-21 Imaging apparatus
KR1020110125214A KR101805006B1 (en) 2010-12-21 2011-11-28 Photographing apparatus and photographing method
US13/332,643 US8760567B2 (en) 2010-12-21 2011-12-21 Photographing apparatus and method to reduce auto-focus time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010284092A JP2012133067A (en) 2010-12-21 2010-12-21 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012133067A true JP2012133067A (en) 2012-07-12

Family

ID=46648755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010284092A Pending JP2012133067A (en) 2010-12-21 2010-12-21 Imaging apparatus

Country Status (2)

Country Link
JP (1) JP2012133067A (en)
KR (1) KR101805006B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102602A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Stereoscopic imaging device, stereoscopic imaging system, control method of stereoscopic imaging device, program, and storage medium
JP2016090911A (en) * 2014-11-10 2016-05-23 キヤノン株式会社 Control device, imaging apparatus, imaging system, lens device, control method, program, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231055A (en) * 1999-02-10 2000-08-22 Nikon Corp Automatic focusing camera
JP2005010515A (en) * 2003-06-19 2005-01-13 Olympus Corp Automatic focusing device and electronic imaging apparatus
JP2006030370A (en) * 2004-07-13 2006-02-02 Sony Corp Imaging unit
JP2006053593A (en) * 2005-10-31 2006-02-23 Fuji Photo Film Co Ltd Automatic focus adjusting device and method
JP2007041046A (en) * 2005-07-29 2007-02-15 Eastman Kodak Co Imaging apparatus
JP2010107664A (en) * 2008-10-29 2010-05-13 Fujifilm Corp Stereoscopic imaging apparatus and focusing control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5464771B2 (en) * 2003-10-15 2014-04-09 キヤノン株式会社 Imaging apparatus and focus control method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231055A (en) * 1999-02-10 2000-08-22 Nikon Corp Automatic focusing camera
JP2005010515A (en) * 2003-06-19 2005-01-13 Olympus Corp Automatic focusing device and electronic imaging apparatus
JP2006030370A (en) * 2004-07-13 2006-02-02 Sony Corp Imaging unit
JP2007041046A (en) * 2005-07-29 2007-02-15 Eastman Kodak Co Imaging apparatus
JP2006053593A (en) * 2005-10-31 2006-02-23 Fuji Photo Film Co Ltd Automatic focus adjusting device and method
JP2010107664A (en) * 2008-10-29 2010-05-13 Fujifilm Corp Stereoscopic imaging apparatus and focusing control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102602A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Stereoscopic imaging device, stereoscopic imaging system, control method of stereoscopic imaging device, program, and storage medium
JP2016090911A (en) * 2014-11-10 2016-05-23 キヤノン株式会社 Control device, imaging apparatus, imaging system, lens device, control method, program, and storage medium
US10257408B2 (en) 2014-11-10 2019-04-09 Canon Kabushiki Kaisha Control apparatus that determines focal points of a plurality of optical systems, image pickup apparatus, image pickup system, lens apparatus, control method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
KR101805006B1 (en) 2018-01-10
KR20120070493A (en) 2012-06-29

Similar Documents

Publication Publication Date Title
EP1684503B1 (en) Camera and autofocus control method therefor
JP3992992B2 (en) Subject image acquisition device
JP5322783B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
US8988579B2 (en) Imaging apparatus
JP2004109690A (en) Camera system and camera
US8760567B2 (en) Photographing apparatus and method to reduce auto-focus time
JP2010015024A (en) Image pickup apparatus, control method thereof, program and storage medium
JP2011133521A (en) Camera
JP5896763B2 (en) Optical instrument and method for autofocusing
US20110164868A1 (en) Method and apparatus for applying multi-autofocusing (af) using contrast af
KR20120106307A (en) Auto focusing apparatus
JP2017103601A (en) Focus detector and camera
US20090167931A1 (en) Imaging device
US8737831B2 (en) Digital photographing apparatus and method that apply high-speed multi-autofocusing (AF)
JP6234016B2 (en) Focus adjustment device, imaging device, and control method thereof
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
KR101805006B1 (en) Photographing apparatus and photographing method
KR20120068696A (en) Image capturing device and image capturing method
JP2011048265A (en) Focus detection device and focus detection method
JP6624789B2 (en) Focus control device, control method thereof, control program, and imaging device
JP5420034B2 (en) Imaging apparatus, control method therefor, program, and storage medium
KR101634249B1 (en) auto focusing apparatus and auto focusing method
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2015087558A (en) Imaging apparatus, imaging system, method of controlling imaging apparatus, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150414