JP2005148249A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2005148249A
JP2005148249A JP2003383283A JP2003383283A JP2005148249A JP 2005148249 A JP2005148249 A JP 2005148249A JP 2003383283 A JP2003383283 A JP 2003383283A JP 2003383283 A JP2003383283 A JP 2003383283A JP 2005148249 A JP2005148249 A JP 2005148249A
Authority
JP
Japan
Prior art keywords
imaging optical
control
optical unit
focusing
optical systems
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003383283A
Other languages
Japanese (ja)
Inventor
Yoji Horii
洋史 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003383283A priority Critical patent/JP2005148249A/en
Publication of JP2005148249A publication Critical patent/JP2005148249A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera in which a photographing operation can be sped up by shortening a processing period needed for photographing. <P>SOLUTION: The camera includes an optical unit 13A and an optical unit 13B which can be AF controlled independently and fetch image information showing a subject image from different positions. A first detection circuit 34A and a second detection circuit 34B corresponding to the optical unit 13A and an optical unit 13B, respectively, detect contrast values indicating degrees to which the optical units are focused based upon the image information fetched via the corresponding optical units. When the AF control is exerted, the AF operations of the optical units are independently controlled at the same time. At this time, the final focused states of the respective optical units are determined based on the contrast values detected by the first detection circuit 34A and the second detection circuit 34B. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための複数の撮像光学系を備えたカメラに関する。   The present invention relates to a camera that is configured to be capable of focusing control and includes a plurality of imaging optical systems for acquiring image information indicating a subject image from different positions.

近年、立体画像に対する関心が高まっており、互いに異なる2位置に設けられた2つのカメラユニットを用いて右目用の画像及び左目用の画像を取得することにより立体画像が撮影可能なカメラが実用化されている。   In recent years, interest in stereoscopic images has increased, and a camera that can capture stereoscopic images by acquiring right-eye images and left-eye images using two camera units provided at two different positions has been put into practical use. Has been.

この種のカメラでは、各カメラユニット間の視差に起因して、各カメラユニットにより得られた画像間で合焦状態にずれが生じてしまうことがあり、これらの画像に基づいて生成した立体画像情報が不適切なものになり、当該立体画像情報により示される画像の立体視が困難になってしまう恐れもある。   In this type of camera, due to the parallax between the camera units, there may be a shift in the in-focus state between the images obtained by the camera units. A stereoscopic image generated based on these images There is a possibility that the information becomes inappropriate and it is difficult to stereoscopically view the image indicated by the stereoscopic image information.

この点に鑑みて、特許文献1には、左目用及び右目用の撮像情報を得るための2つのレンズ系を備えると共に、各レンズ系に係るフォーカス位置、視線方向角度等の情報に基づき各レンズ系に対して共通の被写体を含む合焦検出範囲を演算し、演算された合焦検出範囲で合焦制御を行うようにした技術が開示されている。
特開平8−194274号公報
In view of this point, Patent Document 1 includes two lens systems for obtaining left-eye and right-eye imaging information, and each lens based on information such as a focus position and a line-of-sight direction angle related to each lens system. A technique is disclosed in which a focus detection range including a common subject is calculated for the system, and focus control is performed in the calculated focus detection range.
JP-A-8-194274

ところで、合焦制御を行う機能を有するカメラにおいては、当該合焦制御に要する時間の短縮が望まれている。合焦制御に要する時間が長いと、撮影時における操作感が悪いだけでなく、シャッターチャンスを逃す場合もあるからである。   By the way, in a camera having a function for performing focus control, it is desired to reduce the time required for the focus control. This is because if the time required for focusing control is long, not only the operational feeling during photographing is bad, but also a photo opportunity may be missed.

しかしながら、上記特許文献1の技術では、当該合焦制御に要する時間の短縮に関しては何ら考慮されていないため、合焦制御動作を必ずしも高速に行なえるとは限らない、という問題点があった。   However, the technique of Patent Document 1 has a problem in that the focus control operation cannot always be performed at high speed because no consideration is given to the reduction of the time required for the focus control.

本発明は上記問題点を解決するためになされたものであり、合焦制御に要する時間を短縮することができるカメラを提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a camera that can reduce the time required for focusing control.

上記目的を達成するために、請求項1記載のカメラは、各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための複数の撮像光学系と、各々前記複数の撮像光学系に1対1で対応すると共に、対応する撮像光学系を介して取得された画像情報に基づいて当該撮像光学系における合焦の程度を示す物理量を検出する複数の検出手段と、合焦制御を行なう際に、前記複数の撮像光学系の合焦動作を各々同時かつ独立に制御すると共に、このとき前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系の最終的な合焦状態を決定する制御手段と、を備えている。   In order to achieve the above object, each of the cameras according to claim 1 is configured to be capable of focusing control, and has a plurality of imaging optical systems for acquiring image information indicating subject images from different positions, and A plurality of detection units that correspond to the plurality of imaging optical systems on a one-to-one basis and detect a physical quantity indicating a degree of focusing in the imaging optical system based on image information acquired through the corresponding imaging optical system. And controlling the focusing operations of the plurality of imaging optical systems simultaneously and independently when performing focusing control, and the plurality of imaging optics based on the physical quantities detected by the plurality of detection means at this time Control means for determining the final focusing state of the system.

請求項1に記載のカメラには、各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報が取得される複数の撮像光学系が備えられており、各撮像光学系を介して取得された複数の画像情報により立体撮影が可能となっている。   The camera according to claim 1 is provided with a plurality of imaging optical systems configured to be capable of focusing control and acquiring image information indicating subject images from different positions. Stereo imaging can be performed using a plurality of pieces of image information acquired via.

また、本発明に係るカメラでは、各々前記複数の撮像光学系に1対1で対応する複数の検出手段により、対応する撮像光学系を介して取得された画像情報に基づいて当該撮像光学系における合焦の程度を示す物理量が検出される。   In the camera according to the present invention, each of the plurality of imaging optical systems has a one-to-one correspondence with the plurality of imaging optical systems based on image information acquired via the corresponding imaging optical system. A physical quantity indicating the degree of focusing is detected.

ここで、本発明では、制御手段により、合焦制御を行なう際に、前記複数の撮像光学系の合焦動作が各々同時かつ独立に制御されると共に、このとき前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系の最終的な合焦状態が決定される。   Here, in the present invention, when the focusing control is performed by the control means, the focusing operations of the plurality of imaging optical systems are simultaneously and independently controlled, and at this time, detected by the plurality of detection means. Based on the physical quantity, final focusing states of the plurality of imaging optical systems are determined.

すなわち、本発明に係るカメラでは、複数の撮像光学系を合焦動作させることによって、最終的な合焦状態を決定するために用いる物理量を各検出手段から同時に得るようにしており、この結果として合焦制御に要する時間を短縮することができるようにしている。   That is, in the camera according to the present invention, the physical quantity used to determine the final in-focus state is obtained simultaneously from each detection unit by performing the focusing operation of the plurality of imaging optical systems, and as a result, The time required for focusing control can be shortened.

このように、請求項1に記載のカメラは、各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための複数の撮像光学系を備え、各々前記複数の撮像光学系に1対1で対応する複数の検出手段により、対応する撮像光学系を介して取得された画像情報に基づいて当該撮像光学系における合焦の程度を示す物理量を検出し、合焦制御を行なう際に、前記複数の撮像光学系の合焦動作を各々同時かつ独立に制御すると共に、このとき前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系の最終的な合焦状態を決定しているので、合焦制御に要する時間を短縮することができる。   As described above, the camera according to claim 1 is configured so as to be capable of focusing control, and includes a plurality of imaging optical systems for acquiring image information indicating subject images from different positions, and each of the plurality of imaging optical systems. A physical quantity indicating the degree of focusing in the imaging optical system is detected on the basis of image information acquired via the corresponding imaging optical system by a plurality of detection means corresponding to the imaging optical system on a one-to-one basis. When performing the focus control, the focusing operations of the plurality of imaging optical systems are controlled simultaneously and independently, and at the same time, the final operation of the plurality of imaging optical systems is performed based on the physical quantities detected by the plurality of detection units. Since the in-focus state is determined, the time required for focusing control can be shortened.

なお、請求項1に記載の制御手段は、請求項2に記載の発明のように、前記合焦動作として、前記複数の撮像光学系を互いに異なる範囲において焦点位置を変化させるように制御すると共に、これに応じて前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系に同一の最終的な合焦状態を決定することが好ましい。これにより、同時かつ独立に、合焦動作可能な複数の撮像光学系により焦点位置を変化させる範囲を分担して行なえるので、従来のように各撮像光学系により全ての範囲において焦点位置を変化させる場合と比較して、合焦制御に要する時間を、より短縮することができる。   The control means according to claim 1 controls the plurality of imaging optical systems to change the focal positions in different ranges as the focusing operation, as in the invention according to claim 2. Accordingly, it is preferable to determine the same final in-focus state for the plurality of imaging optical systems based on the physical quantities detected by the plurality of detection units. As a result, it is possible to share the range in which the focal position is changed by a plurality of imaging optical systems capable of focusing at the same time and independently, so that the focal position can be changed in all ranges by each imaging optical system as in the past. Compared with the case of making it, the time required for focusing control can be further shortened.

さらに、請求項2に記載の制御手段は、請求項3に記載の発明のように、前記互いに異なる範囲を、焦点位置が変更可能な範囲を前記撮像光学系の数で等分割して得られた複数の範囲としてもよい。これにより、焦点位置を変更させる範囲を均等に複数の撮像光学系により分担することができ、各撮像光学系の合焦動作期間を均等にすることができるので、合焦制御に要する時間のバラツキの発生を抑制することができる。   Further, as in the invention described in claim 3, the control means described in claim 2 is obtained by equally dividing the different ranges from each other and the range in which the focal position can be changed by the number of the imaging optical systems. A plurality of ranges may be used. As a result, the range in which the focus position is changed can be equally shared by the plurality of imaging optical systems, and the focusing operation period of each imaging optical system can be equalized, so that the time required for focusing control varies. Can be suppressed.

また、請求項2又は請求項3に記載の制御手段は、請求項4に記載の発明のように、前記複数の検出手段により検出された何れかの物理量が合焦したことを示す量に達した時点で、当該物理量が検出された焦点位置を前記最終的な合焦状態として決定するようにしてもよい。これにより、焦点位置が変更可能な全ての範囲についての物理量の検出が終了するのを待たずに最終的な合焦状態を決定できるため、合焦制御に要する時間を、より短縮することができる。   The control means according to claim 2 or claim 3 reaches an amount indicating that any of the physical quantities detected by the plurality of detection means is in focus as in the invention according to claim 4. At that time, the focal position where the physical quantity is detected may be determined as the final focused state. As a result, the final focus state can be determined without waiting for the detection of the physical quantity for all ranges in which the focus position can be changed, so that the time required for focus control can be further shortened. .

一方、請求項2又は請求項3に記載の制御手段は、請求項5に記載の発明のように、前記複数の撮像光学系を、対応する前記範囲の全域について焦点位置を変化させ、これに応じて前記複数の検出手段により検出された物理量のうち、最も合焦の程度が高い物理量が検出された焦点位置を前記最終的な合焦状態として決定するようにしてもよい。これにより、カメラからの距離が各々異なる複数の被写体が含まれる場合等、合焦状態が誤判定されることを防止することができ、より高精度に合焦制御を行なうことができる。   On the other hand, as in the invention described in claim 5, the control means described in claim 2 or claim 3 changes the focal position of the plurality of imaging optical systems over the entire corresponding range. Accordingly, the focal position where the physical quantity with the highest degree of focus among the physical quantities detected by the plurality of detection means may be determined as the final focused state. Accordingly, it is possible to prevent the in-focus state from being erroneously determined, for example, when a plurality of subjects having different distances from the camera are included, and focus control can be performed with higher accuracy.

以上説明したように、本発明に係るカメラは、各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための複数の撮像光学系を備え、各々前記複数の撮像光学系に1対1で対応する複数の検出手段により、対応する撮像光学系を介して取得された画像情報に基づいて当該撮像光学系における合焦の程度を示す物理量を検出し、合焦制御を行なう際に、前記複数の撮像光学系の合焦動作を各々同時かつ独立に制御すると共に、このとき前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系の最終的な合焦状態を決定しているので、合焦制御に要する時間を短縮することができる、という優れた効果を有する。   As described above, the camera according to the present invention is configured to be capable of focusing control, and includes a plurality of imaging optical systems for acquiring image information indicating subject images from different positions, and each of the plurality of imaging optical systems. A physical quantity indicating the degree of focusing in the imaging optical system is detected on the basis of image information acquired via the corresponding imaging optical system by a plurality of detection means corresponding to the imaging optical system on a one-to-one basis. When performing the focus control, the focusing operations of the plurality of imaging optical systems are controlled simultaneously and independently, and at the same time, the final operation of the plurality of imaging optical systems is performed based on the physical quantities detected by the plurality of detection units. Since the in-focus state is determined, it has an excellent effect that the time required for in-focus control can be shortened.

以下、図面を参照して、発明を実施するための最良の形態について詳細に説明する。なお、ここでは、本発明を立体静止画像及び通常(2次元)の静止画像の撮影を行う機能を有するデジタル電子スチルカメラ(以下、単に「デジタルカメラ」という。)に適用した場合について説明する。
(第1の実施の形態)
まず、図1を参照して、本実施の形態に係るデジタルカメラ10の外観上の構成を説明する。同図に示すように、デジタルカメラ10の正面には、各々被写体像を結像させるための一対のレンズ12A及びレンズ12Bと、撮影する被写体の構図を決定するために用いられるファインダ70と、が備えられている。
The best mode for carrying out the invention will be described below in detail with reference to the drawings. Here, a case where the present invention is applied to a digital electronic still camera (hereinafter simply referred to as “digital camera”) having a function of capturing a stereoscopic still image and a normal (two-dimensional) still image will be described.
(First embodiment)
First, an external configuration of the digital camera 10 according to the present embodiment will be described with reference to FIG. As shown in the figure, on the front of the digital camera 10, there are a pair of lenses 12A and 12B for forming a subject image, and a viewfinder 70 used for determining the composition of the subject to be photographed. Is provided.

また、デジタルカメラ10の上面には、撮影を実行する際に撮影者によって押圧操作されるレリーズボタン(所謂シャッター)52Aと、電源スイッチ52Eと、が備えられている。   On the top surface of the digital camera 10, a release button (so-called shutter) 52A that is pressed by a photographer when performing shooting and a power switch 52E are provided.

なお、本実施の形態に係るレリーズボタン52Aは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。   Note that the release button 52A according to the present embodiment is in a state where it is pressed down to an intermediate position (hereinafter referred to as “half-pressed state”) and a state where it is pressed down to a final pressed position that exceeds the intermediate position (hereinafter referred to as “herein”) It is configured to be able to detect a two-stage pressing operation of “fully pressed state”.

そして、本実施の形態に係るデジタルカメラ10では、後述する撮影モードが設定されている場合にレリーズボタン52Aを半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF(Auto Focus、自動合焦)機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。   In the digital camera 10 according to the present embodiment, when the shooting mode to be described later is set, the release button 52A is pressed halfway to activate the AE (Automatic Exposure) function to expose the exposure state ( After the shutter speed and aperture state are set, the AF (Auto Focus) function is activated to control the focus, and then exposure (shooting) is performed when the shutter button is fully pressed.

一方、デジタルカメラ10の背面には、前述のファインダ70の接眼部と、撮影によって得られたデジタル画像データにより示される被写体像や各種メニュー画面、メッセージ等を表示するための液晶ディスプレイ(以下、「LCD」という。)30と、立体の静止画像の撮影を行うモードである立体撮影モード、2次元の静止画像の撮影を行うモードである通常撮影モード及び撮影によって得られたデジタル画像データにより示される被写体像をLCD30に表示(再生)するモードである再生モードの何れかのモードに設定するために操作されるモード切替スイッチ52Bと、十字カーソルボタン52Cと、撮影時に被写体像のズーミング(拡大及び縮小)を行うときに操作されるズームスイッチ52Dと、が備えられている。   On the other hand, on the back of the digital camera 10, a liquid crystal display (hereinafter referred to as “the eyepiece” of the finder 70 and a subject image, various menu screens, messages, etc. indicated by the digital image data obtained by photographing). “LCD”) 30, a stereoscopic shooting mode that is a mode for shooting a three-dimensional still image, a normal shooting mode that is a mode for shooting a two-dimensional still image, and digital image data obtained by shooting. The subject image to be displayed (reproduced) on the LCD 30, a mode changeover switch 52 </ b> B that is operated to set any one of the playback modes, a cross-cursor button 52 </ b> C, and zooming of the subject image during shooting. Zoom switch 52D that is operated when performing (reduction).

また、十字カーソルボタン52Cは、LCD30の表示領域における上・下・左・右の4方向の移動方向を示す4つの矢印キー及び当該4つの矢印キーの中央部に位置された決定キーの合計5つのキーを含んで構成されている。また、ズームスイッチ52Dは、同図の‘T’の位置に対応し、かつ被写体像を拡大するときに操作されるテレ・スイッチと、同図の‘W’の位置に対応し、かつ被写体像を縮小するときに操作されるワイド・スイッチと、により構成されている。   The cross-cursor button 52C has a total of five arrow keys indicating four movement directions of up, down, left, and right in the display area of the LCD 30, and a determination key positioned at the center of the four arrow keys. Consists of two keys. The zoom switch 52D corresponds to the position of “T” in the figure and is operated when enlarging the subject image, corresponds to the position of “W” in the figure, and corresponds to the subject image. And a wide switch that is operated when the image is reduced.

一方、デジタルカメラ10の側面には、撮影によって得られたデジタル画像データが記録可能な記録メディア(ここでは、当該デジタル画像データが画像ファイルとして記録される記録メディア。)を装着することができるスロットSLが設けられている。   On the other hand, on the side of the digital camera 10, a slot in which a recording medium capable of recording digital image data obtained by photographing (here, a recording medium on which the digital image data is recorded as an image file) can be mounted. SL is provided.

次に、図2を参照して、本実施の形態に係るデジタルカメラ10の電気系の構成を説明する。   Next, the configuration of the electrical system of the digital camera 10 according to the present embodiment will be described with reference to FIG.

同図に示すように、デジタルカメラ10は、前述のレンズ12Aを含んで構成された光学ユニット13Aと、レンズ12Aの光軸後方に配設されたCCD(電荷結合素子)14Aと、相関二重サンプリング回路(以下、「CDS」という。)16Aと、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)18Aと、を含んで構成された第1撮像系88Aを備えている。また、デジタルカメラ10は、前述のレンズ12Bを含んで構成された光学ユニット13Bと、レンズ12Bの光軸後方に配設されたCCD14Bと、CDS16Bと、ADC18Bと、を含んで構成された第2撮像系88Bを備えている。   As shown in the figure, the digital camera 10 includes an optical unit 13A configured to include the lens 12A described above, a CCD (charge coupled device) 14A disposed behind the optical axis of the lens 12A, and a correlated double. A first circuit configured to include a sampling circuit (hereinafter referred to as “CDS”) 16A and an analog / digital converter (hereinafter referred to as “ADC”) 18A that converts an input analog signal into digital data. An imaging system 88A is provided. The digital camera 10 includes a second optical unit 13B configured to include the lens 12B described above, a CCD 14B disposed behind the optical axis of the lens 12B, a CDS 16B, and an ADC 18B. An imaging system 88B is provided.

すなわち、本実施の形態に係るデジタルカメラ10は、互いに同様の構成とされた第1撮像系88A及び第2撮像系88Bの2つの撮像系を備えており、これらを用いることによって立体撮影を可能としている。なお、通常撮影モードが設定されており、通常の2次元の撮影を行う際には、第1撮像系88A及び第2撮像系88Bの何れか一方が選択的に用いられる。   That is, the digital camera 10 according to the present embodiment includes two imaging systems, the first imaging system 88A and the second imaging system 88B, which have the same configuration as each other, and can be used for stereoscopic shooting by using them. It is said. Note that the normal shooting mode is set, and when performing normal two-dimensional shooting, one of the first imaging system 88A and the second imaging system 88B is selectively used.

第1撮像系88Aにおいて、CCD14Aの出力端はCDS16Aの入力端に、CDS16Aの出力端はADC18Aの入力端に、各々接続されている。同様に、第2撮像系88Bにおいても、CCD14Bの出力端はCDS16Bの入力端に、CDS16Bの出力端はADC18Bの入力端に、各々接続されている。   In the first imaging system 88A, the output end of the CCD 14A is connected to the input end of the CDS 16A, and the output end of the CDS 16A is connected to the input end of the ADC 18A. Similarly, in the second imaging system 88B, the output end of the CCD 14B is connected to the input end of the CDS 16B, and the output end of the CDS 16B is connected to the input end of the ADC 18B.

ここで、CDS16A及びCDS16Bによる相関二重サンプリング処理は、固体撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、固体撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理である。   Here, the correlated double sampling processing by the CDS 16A and the CDS 16B is included in the output signal for each pixel of the solid-state image sensor for the purpose of reducing noise (particularly thermal noise) included in the output signal of the solid-state image sensor. This process is to obtain accurate pixel data by taking the difference between the feedthrough component level and the pixel signal component level.

一方、デジタルカメラ10は、ADC18A及びADC18Cの各々の出力端に入力端が接続されると共に、所定容量のラインバッファを内蔵し、入力されたデジタル画像データを後述する第2メモリ40の所定領域に直接記憶させる制御を行う画像入力コントローラ20と、通常撮影モードが設定されている際に、適用されている第1撮像系88A及び第2撮像系88Bの何れか一方によって取得されたデジタル画像データに対して各種画像処理を施す画像信号処理回路22と、立体撮影モードが設定されている際に、第1撮像系88A及び第2撮像系88Bの双方によって取得された2つのデジタル画像データに対して各種画像処理を施して合成する立体画像信号処理回路23と、所定の圧縮形式でデジタル画像データに対して圧縮処理を施す一方、圧縮処理されたデジタル画像データに対して圧縮形式に応じた形式で伸張処理を施す圧縮・伸張処理回路24と、を備えている。   On the other hand, the digital camera 10 has input terminals connected to the output terminals of the ADC 18A and ADC 18C and has a built-in line buffer of a predetermined capacity, and the input digital image data is stored in a predetermined area of the second memory 40 described later. Digital image data acquired by one of the first imaging system 88A and the second imaging system 88B applied when the image input controller 20 that performs direct storage control and the normal imaging mode is set. The image signal processing circuit 22 that performs various image processing on the two digital image data acquired by both the first imaging system 88A and the second imaging system 88B when the stereoscopic imaging mode is set. Stereoscopic image signal processing circuit 23 that performs various image processing and synthesis, and compression processing for digital image data in a predetermined compression format Subjecting one, and a compression and decompression circuit 24 for performing expansion processing in the format specified by the compression format for compressed digital image data.

また、デジタルカメラ10は、デジタル画像データにより示される画像やメニュー画面等をLCD30に表示させるための信号を生成してLCD30に供給する一方、LCD30に表示させる画像を示す映像信号(本実施の形態では、NTSC信号)を生成してビデオ出力端子OUTに出力するビデオ/LCDエンコーダ28と、を備えている。   In addition, the digital camera 10 generates a signal for displaying an image, a menu screen, or the like indicated by the digital image data on the LCD 30 and supplies the signal to the LCD 30, while a video signal indicating the image to be displayed on the LCD 30 (the present embodiment). The video / LCD encoder 28 generates an NTSC signal and outputs it to the video output terminal OUT.

また、デジタルカメラ10は、デジタルカメラ10全体の動作を司るCPU(中央演算処理装置)32と、AF機能を働かせるために必要とされる物理量を検出するAF検出回路34を含んで構成されている。当該AF検出回路34は、上記物理量としてCCD14Aによる撮像によって得られた画像のコントラスト値を検出する第1検出回路43Aと、上記物理量としてCCD14Bによる撮像によって得られた画像のコントラスト値を検出する第2検出回路43Bと、を備えており、CCD14A及びCCD14Bによる撮像によって得られた各画像のコントラスト値をそれぞれ同時に検出可能に構成されている。   The digital camera 10 includes a CPU (Central Processing Unit) 32 that controls the operation of the entire digital camera 10 and an AF detection circuit 34 that detects a physical quantity required to operate the AF function. . The AF detection circuit 34 detects a contrast value of an image obtained by imaging with the CCD 14A as the physical quantity, and detects a contrast value of an image obtained by imaging with the CCD 14B as the physical quantity. And a detection circuit 43B, which are configured to be capable of simultaneously detecting the contrast values of the respective images obtained by imaging by the CCD 14A and the CCD 14B.

さらに、デジタルカメラ10は、AE機能及びAWB(Automatic White Balance)機能を働かせるために必要とされる物理量(本実施の形態では、撮影に用いられているCCD14A及びCCD14Bの少なくとも一方による撮像によって得られた画像の明るさを示す量(以下、「測光データ」という。))を検出するAE・AWB検出回路36と、CPU32による各種処理の実行時のワークエリア等として用いられるSDRAM(Synchronous Dynamic Random Access Memory)により構成された第1メモリ38と、主として撮影により得られたデジタル画像データを記憶するVRAM(Video RAM)により構成された第2メモリ40と、を含んで構成されている。   Further, the digital camera 10 is obtained by imaging with at least one of the CCD 14A and the CCD 14B used for photographing in the present embodiment (physical quantities required for operating the AE function and the AWB (Automatic White Balance) function). An AE / AWB detection circuit 36 that detects an amount indicating the brightness of the image (hereinafter referred to as “photometric data”), and an SDRAM (Synchronous Dynamic Random Access) used as a work area when the CPU 32 executes various processes. The first memory 38 is configured by a memory, and the second memory 40 is configured by a VRAM (Video RAM) that mainly stores digital image data obtained by photographing.

また、デジタルカメラ10は、スロットSLに装着された記録メディア43をデジタルカメラ10でアクセス可能とするためのメディアコントローラ42と、スピーカ72と、スピーカ72によって外部に音声情報を出力するための処理を行う音声出力処理部46と、2系統設けられたマイク(ステレオマイク)とアンプ84を介して入力された音声情報を示すアナログ信号をデジタルカメラ10において取り扱うことのできるデジタル音声データに変換する等の処理を行う音声入力処理部82と、を含んで構成されている。   Also, the digital camera 10 performs processing for outputting audio information to the outside by the media controller 42 for making the recording medium 43 mounted in the slot SL accessible by the digital camera 10, the speaker 72, and the speaker 72. An analog signal indicating audio information input via an audio output processing unit 46 to be performed, a microphone (stereo microphone) provided in two systems, and an amplifier 84 is converted into digital audio data that can be handled by the digital camera 10. And a voice input processing unit 82 that performs processing.

以上の画像入力コントローラ20、画像信号処理回路22、立体画像信号処理回路23、圧縮・伸張処理回路24、ビデオ/LCDエンコーダ28、CPU32、AF検出回路34、AE・AWB検出回路36、第1メモリ38、第2メモリ40、メディアコントローラ42、音声出力処理部46、及び音声入力処理部82は、各々システムバスBUSを介して相互に接続されている。   The image input controller 20, image signal processing circuit 22, stereoscopic image signal processing circuit 23, compression / decompression processing circuit 24, video / LCD encoder 28, CPU 32, AF detection circuit 34, AE / AWB detection circuit 36, first memory 38, the second memory 40, the media controller 42, the audio output processing unit 46, and the audio input processing unit 82 are connected to each other via the system bus BUS.

従って、CPU32は、画像入力コントローラ20、画像信号処理回路22、立体画像信号処理回路23、圧縮・伸張処理回路24、及びビデオ/LCDエンコーダ28の各々の作動の制御と、AF検出回路34及びAE・AWB検出回路36により検出された物理量の取得と、第1メモリ38、第2メモリ40、及び記録メディア43へのアクセスと、音声出力処理部46を介したスピーカ72による音声情報の出力と、マイク、アンプ84及び音声入力処理部82を介した音声情報の入力と、を各々行うことができる。   Therefore, the CPU 32 controls the operations of the image input controller 20, the image signal processing circuit 22, the stereoscopic image signal processing circuit 23, the compression / decompression processing circuit 24, and the video / LCD encoder 28, and the AF detection circuit 34 and the AE. Acquisition of the physical quantity detected by the AWB detection circuit 36, access to the first memory 38, the second memory 40, and the recording medium 43, output of audio information by the speaker 72 via the audio output processing unit 46, Audio information can be input via the microphone, the amplifier 84, and the audio input processing unit 82, respectively.

一方、第1撮像系88Aには、主としてCCD14Aを駆動させるためのタイミング信号を生成してCCD14Aに供給するタイミングジェネレータ48Aが設けられており、当該タイミングジェネレータ48Aの入力端はCPU32に、出力端はCCD14Aに、各々接続されており、CCD14Aの駆動は、CPU32によりタイミングジェネレータ48Aを介して制御される。   On the other hand, the first imaging system 88A is provided with a timing generator 48A that mainly generates a timing signal for driving the CCD 14A and supplies the timing signal to the CCD 14A. The input end of the timing generator 48A is connected to the CPU 32, and the output end is Each is connected to the CCD 14A, and the drive of the CCD 14A is controlled by the CPU 32 via the timing generator 48A.

更に、CPU32は第1撮像系88Aに設けられたモータ駆動部50Aの入力端に接続され、モータ駆動部50Aの出力端は光学ユニット13Aに備えられた焦点調整モータ、ズームモータ及び絞り駆動モータに接続されている。   Further, the CPU 32 is connected to an input end of a motor drive unit 50A provided in the first imaging system 88A, and an output end of the motor drive unit 50A is connected to a focus adjustment motor, a zoom motor, and an aperture drive motor provided in the optical unit 13A. It is connected.

すなわち、本実施の形態に係る光学ユニット13Aに含まれるレンズ12Aは複数枚のレンズを有し、焦点距離の変更(変倍)が可能なズームレンズとして構成されており、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ、ズームモータ及び絞り駆動モータは含まれるものであり、焦点調整モータ、ズームモータ及び絞り駆動モータは各々CPU32の制御下でモータ駆動部50Aから供給された駆動信号によって駆動される。   That is, the lens 12A included in the optical unit 13A according to the present embodiment has a plurality of lenses and is configured as a zoom lens that can change (magnify) the focal length. I have. The lens drive mechanism includes the focus adjustment motor, the zoom motor, and the aperture drive motor. The focus adjustment motor, the zoom motor, and the aperture drive motor are each supplied with a drive signal supplied from the motor drive unit 50A under the control of the CPU 32. Driven by.

CPU32は、光学ズーム倍率を変更する際にはズームモータを駆動制御して光学ユニット13Aに含まれるレンズ12Aの焦点距離を変化させる。   When changing the optical zoom magnification, the CPU 32 drives and controls the zoom motor to change the focal length of the lens 12A included in the optical unit 13A.

また、CPU32は、CCD14Aによる撮像によって得られた画像のコントラストが最大となるように上記焦点調整モータを駆動制御することによって合焦制御を行う。すなわち、本実施の形態に係るデジタルカメラ10では、合焦制御として、読み取られた画像のコントラストが最大となるようにレンズの位置を設定する、所謂TTL(Through The Lens)方式を採用している。   Further, the CPU 32 performs focusing control by driving and controlling the focus adjustment motor so that the contrast of an image obtained by imaging by the CCD 14A is maximized. In other words, the digital camera 10 according to the present embodiment employs a so-called TTL (Through The Lens) method in which the lens position is set so that the contrast of the read image is maximized as the focus control. .

なお、第2撮像系88Bにも、第1撮像系88Aのものと同一の構成とされたタイミングジェネレータ48B及びモータ駆動部50Bが備えられており、第1撮像系88Aと同様に、これらを介してCPU32により、CCD14Bの駆動と、光学ユニット13Bに備えられた不図示のレンズ駆動機構に含まれる焦点調整モータ、ズームモータ及び絞り駆動モータの駆動と、が制御される。また、本実施の形態では、光学ユニット13A及び光学ユニット13Bの焦点位置の変更可能な範囲が共通とされている。   Note that the second imaging system 88B is also provided with a timing generator 48B and a motor drive unit 50B having the same configuration as that of the first imaging system 88A. The CPU 32 controls driving of the CCD 14B and driving of a focus adjustment motor, a zoom motor, and an aperture driving motor included in a lens driving mechanism (not shown) provided in the optical unit 13B. In the present embodiment, the range in which the focal positions of the optical unit 13A and the optical unit 13B can be changed is shared.

更に、前述したレリーズボタン52A、モード切替スイッチ52B、十字カーソルボタン52C、ズームスイッチ52D、及び電源スイッチ52Eの各種ボタン類及びスイッチ類(図2では、「操作部52」と総称。)はCPU32に接続されており、CPU32は、これらのボタン類及びスイッチ類に対する操作状態を常時把握できる。   Further, the release button 52A, the mode switch 52B, the cross cursor button 52C, the zoom switch 52D, and the various buttons and switches (generally referred to as “operation unit 52” in FIG. 2) of the power switch 52E are stored in the CPU 32. Connected, the CPU 32 can always grasp the operation state of these buttons and switches.

また、本実施の形態に係るデジタルカメラ10には、電源回路54と電池56が備えられており、電源回路54は、CPU32による制御の下に、電池56から入力された電力に基づいて適切な作動用の電力を生成して各部に供給する。なお、錯綜を回避するために、同図では、電源回路54から電力が供給される各部への接続線の図示を省略している。   In addition, the digital camera 10 according to the present embodiment includes a power supply circuit 54 and a battery 56, and the power supply circuit 54 is appropriate based on the power input from the battery 56 under the control of the CPU 32. Electric power for operation is generated and supplied to each part. In order to avoid complications, connection lines to the respective parts to which power is supplied from the power supply circuit 54 are not shown in the figure.

更に、本実施の形態に係るデジタルカメラ10には、クロックジェネレータ80が備えられており、クロックジェネレータ80は、CPU32による制御の下に適切なクロック信号を生成して各部に供給する。なお、錯綜を回避するために、同図では、クロックジェネレータ80からクロック信号が供給される各部への接続線の図示を省略している。   Furthermore, the digital camera 10 according to the present embodiment is provided with a clock generator 80. The clock generator 80 generates an appropriate clock signal under the control of the CPU 32 and supplies it to each unit. In order to avoid complications, connection lines to the respective parts to which the clock signal is supplied from the clock generator 80 are omitted in FIG.

次に、本実施の形態に係るデジタルカメラ10の作用を説明する。まず、立体撮影モードが設定されている場合のデジタルカメラ10の全体的な動作について説明する。   Next, the operation of the digital camera 10 according to the present embodiment will be described. First, the overall operation of the digital camera 10 when the stereoscopic shooting mode is set will be described.

まず、第1撮像系88Aにおいて、CCD14Aによる被写体像の光学ユニット13Aを介した撮像が行なわれ、被写体像を示す信号がCCD14AからCDS16Aに順次出力される。   First, in the first imaging system 88A, the subject image is picked up by the CCD 14A via the optical unit 13A, and a signal indicating the subject image is sequentially output from the CCD 14A to the CDS 16A.

CDS16Aは、CCD14Aから入力された信号に対して相関二重サンプリング処理を施し、これによって得られたR(赤)、G(緑)、B(青)のアナログ画像信号を順次ADC18Aに出力する。   The CDS 16A performs correlated double sampling processing on the signal input from the CCD 14A and sequentially outputs analog image signals of R (red), G (green), and B (blue) obtained thereby to the ADC 18A.

そして、ADC18Aは、CDS16Aから入力されたR、G、Bのアナログ画像信号を各々12ビットのR、G、B信号(デジタル画像データ)に変換して画像入力コントローラ20に出力する。   The ADC 18A converts the R, G, and B analog image signals input from the CDS 16A into 12-bit R, G, and B signals (digital image data) and outputs the converted signals to the image input controller 20.

この第1撮像系88Aの動作に並行して、第2撮像系88Bにおいても、CCD14Bによる被写体像の光学ユニット13Bを介した撮像が行なわれて当該被写体像を示す信号がCCD14BからCDS16Bに順次出力され、CDS16Bにより、CCD14Bから入力された信号に対して相関二重サンプリング処理を施し、これによって得られたR、G、Bのアナログ画像信号を順次ADC18Bに出力し、ADC18Bは、CDS16Bから入力されたR、G、Bのアナログ画像信号を各々12ビットのR、G、B信号(デジタル画像データ)に変換して画像入力コントローラ20に出力する。   In parallel with the operation of the first image pickup system 88A, the second image pickup system 88B also picks up the subject image by the CCD 14B via the optical unit 13B, and sequentially outputs a signal indicating the subject image from the CCD 14B to the CDS 16B. The CDS 16B performs correlated double sampling processing on the signal input from the CCD 14B and sequentially outputs the R, G, B analog image signals to the ADC 18B. The ADC 18B is input from the CDS 16B. The R, G, B analog image signals are converted into 12-bit R, G, B signals (digital image data), respectively, and output to the image input controller 20.

画像入力コントローラ20は内蔵しているラインバッファにADC18A及びADC18Bから順次入力される2画像分のデジタル画像データを蓄積して一旦第2メモリ40の所定領域に格納する。   The image input controller 20 accumulates digital image data for two images sequentially input from the ADC 18 </ b> A and ADC 18 </ b> B in a built-in line buffer and temporarily stores them in a predetermined area of the second memory 40.

第2メモリ40の所定領域に格納された2画像分のデジタル画像データは、CPU32による制御下で立体画像信号処理回路23によって読み出され、これらにAE・AWB検出回路36により検出された物理量(測光データ)に応じたデジタルゲインをかけることでホワイトバランス調整を行なうと共に、ガンマ処理及びシャープネス処理を行なって8ビットのデジタル画像データを生成し、更にYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)を生成し、これら2画像分のYC信号を立体画像信号処理回路23により合成して立体画像を示すYC信号を生成し、当該YC信号を第2メモリ40の上記所定領域とは異なる領域に格納する。   Digital image data for two images stored in a predetermined area of the second memory 40 is read out by the stereoscopic image signal processing circuit 23 under the control of the CPU 32, and the physical quantity (detected by the AE / AWB detection circuit 36 ( The white balance is adjusted by applying a digital gain corresponding to the photometric data), gamma processing and sharpness processing are performed to generate 8-bit digital image data, and further YC signal processing is performed to obtain the luminance signal Y and chroma signal. Cr and Cb (hereinafter referred to as “YC signal”) are generated, YC signals for these two images are combined by the stereoscopic image signal processing circuit 23 to generate a YC signal indicating a stereoscopic image, and the YC signal is 2 Stored in an area different from the predetermined area of the memory 40.

ここで、立体画像信号処理回路23では、第1撮像系88A及び第2撮像系88Bにより得られたYC信号を、それぞれ右目用、左目用の画像を示すYC信号として認識し、これら2画像分のYC信号に基づいて、立体画像を示すYC信号を生成する。   Here, the stereoscopic image signal processing circuit 23 recognizes the YC signals obtained by the first imaging system 88A and the second imaging system 88B as YC signals indicating the images for the right eye and the left eye, respectively. A YC signal indicating a stereoscopic image is generated based on the YC signal.

なお、LCD30は、各撮像系による連続的な撮像によって得られた動画像(スルー画像)を表示してファインダとして使用することができるものとして構成されているが、このようにLCD30をファインダとして使用する場合には、第2メモリの所定領域に格納された立体画像を示すYC信号を、ビデオ/LCDエンコーダ28を介して順次LCD30に出力する。これによってLCD30にスルー画像が表示されることになる。   The LCD 30 is configured to display a moving image (through image) obtained by continuous imaging by each imaging system and can be used as a finder. In this way, the LCD 30 is used as a finder. In this case, the YC signal indicating the stereoscopic image stored in the predetermined area of the second memory is sequentially output to the LCD 30 via the video / LCD encoder 28. As a result, a through image is displayed on the LCD 30.

ここで、レリーズボタン52Aがユーザによって半押し状態とされたタイミングで、各撮像系において前述したようにAE機能が働いて露出状態が設定された後、AF機能が働いて合焦制御され、その後、引き続き全押し状態とされたタイミングで、その時点で第2メモリ40に格納されているYC信号を、圧縮・伸張処理回路24によって所定の圧縮形式(本実施の形態では、JPEG形式)で圧縮した後にメディアコントローラ42を介して記録メディア43に記録する。   Here, at the timing when the release button 52A is half-pressed by the user, after the AE function is activated and the exposure state is set in each imaging system as described above, the AF function is activated and focus control is performed. The YC signal stored in the second memory 40 at that time is then fully pressed, and is compressed in a predetermined compression format (in this embodiment, JPEG format) by the compression / decompression processing circuit 24. After that, recording is performed on the recording medium 43 via the media controller 42.

なお、通常撮影モードが設定されている場合のデジタルカメラ10の動作は、立体画像信号処理回路23に代えて、画像信号処理回路22により、予め選択された撮像系によって得られたデジタル画像データのみに対して各種画像信号処理を施してYC信号を生成し、当該YC信号を第2メモリ40に格納する点を除いて、上述した立体撮影モードが設定されている場合の動作と略同様であるので、ここでの説明は省略する。   Note that the operation of the digital camera 10 when the normal shooting mode is set is such that only the digital image data obtained by the imaging system previously selected by the image signal processing circuit 22 instead of the stereoscopic image signal processing circuit 23 is used. Is substantially the same as the above-described operation in the case where the stereoscopic shooting mode is set, except that a YC signal is generated by performing various image signal processing on the image and the YC signal is stored in the second memory 40. Therefore, explanation here is omitted.

ところで、本実施の形態に係るデジタルカメラ10では、立体撮影モードが設定されている場合のAF制御は、通常撮影モードが設定されている場合とは異なる制御が行われる。   By the way, in the digital camera 10 according to the present embodiment, the AF control when the stereoscopic shooting mode is set is different from the control when the normal shooting mode is set.

すなわち、通常撮影モードが設定されている場合には、撮影に用いられる撮像系に設けられている光学ユニット(光学ユニット13A又は光学ユニット13B)のみがAF制御の対象となるため、当該光学ユニットに設けられているレンズ系による焦点位置の変更可能な範囲がAF制御の対象範囲となる。   That is, when the normal shooting mode is set, only the optical unit (the optical unit 13A or the optical unit 13B) provided in the imaging system used for shooting is subject to AF control. The range in which the focal position can be changed by the lens system provided is the target range for AF control.

これに対し、立体撮影モードが設定されている場合には、AF制御に要する時間を短縮するために、第1撮像系88A及び第2撮像系88Bの双方の撮像系が撮影に用いられる点を利用して、各撮像系に設けられた光学ユニット13A及び光学ユニット13Bの2つの光学ユニットにより、互いに異なるAF制御範囲においてAF動作を行うようにし、これに応じて第1検出回路34A及び第2検出回路34Bにより検出された物理量(ここでは、コントラスト値)に基づいて、光学ユニット13A及び光学ユニット13Bに同一(共通)の最終的な合焦状態を決定するようにしている。   On the other hand, when the stereoscopic shooting mode is set, in order to shorten the time required for AF control, both the first imaging system 88A and the second imaging system 88B are used for shooting. By using the two optical units of the optical unit 13A and the optical unit 13B provided in each imaging system, an AF operation is performed in different AF control ranges, and the first detection circuit 34A and the second detection circuit 34A are controlled accordingly. Based on the physical quantity (here, the contrast value) detected by the detection circuit 34B, the same (common) final in-focus state is determined for the optical unit 13A and the optical unit 13B.

具体的には、一例として図3に示すように、光学ユニット13A及び光学ユニット13Bに共通とされた焦点位置の変更可能な範囲を2つに等分割し、一方の範囲を光学ユニット13AのAF制御範囲に、他方の範囲を光学ユニット13BのAF制御範囲に、それぞれ分担させて各範囲内においてAF動作を各々同時かつ独立に行うように制御すると共に、これに応じてAF検出回路34により順次検出される各撮像系毎のコントラスト値に基づいて、光学ユニット13A及び光学ユニット13Bに同一の最終的な合焦状態を決定する。   Specifically, as shown in FIG. 3 as an example, the range in which the focal position that can be changed common to the optical unit 13A and the optical unit 13B is equally divided into two, and one of the ranges is AF of the optical unit 13A. The control range and the other range are allotted to the AF control range of the optical unit 13B, respectively, and control is performed so that AF operations are performed simultaneously and independently in each range, and the AF detection circuit 34 sequentially in response thereto. Based on the detected contrast value for each imaging system, the same final in-focus state is determined for the optical unit 13A and the optical unit 13B.

以下、図4を参照して、立体撮影モードが設定されている場合に実行されるAF制御処理について更に具体的に説明する。なお、図4は、このときCPU32において実行されるAF制御処理プログラムの処理の流れを示すフローチャートである。   Hereinafter, the AF control process executed when the stereoscopic shooting mode is set will be described more specifically with reference to FIG. FIG. 4 is a flowchart showing the flow of processing of the AF control processing program executed by the CPU 32 at this time.

まず、ステップ100では、モータ駆動部50A、50Bを各々同時かつ独立に制御して、光学ユニット13A及び光学ユニット13Bによる予め定められたAF制御範囲内での焦点位置の変更を開始することによって各光学ユニットによるAF動作を開始し、次のステップ102では、当該AF動作に応じて第1検出回路34A及び第2検出回路34Bにより順次検出される焦点位置に応じたコントラスト値の取得及び当該コントラスト値の対応する焦点位置と関連付けた第1メモリ38への記録を開始する。   First, in step 100, each of the motor driving units 50A and 50B is controlled simultaneously and independently to start changing the focal position within a predetermined AF control range by the optical unit 13A and the optical unit 13B. The AF operation by the optical unit is started, and in the next step 102, the acquisition of the contrast value according to the focus position sequentially detected by the first detection circuit 34A and the second detection circuit 34B according to the AF operation and the contrast value Recording to the first memory 38 associated with the corresponding focal position is started.

なお本実施の形態では、一例として図3に示すように、各光学ユニットの焦点位置を対応するAF制御範囲の一端側から他端側に向けて(図3に矢印で示す向きで)所定速度で変更することにより上記AF動作を行なうようにしている。   In this embodiment, as shown in FIG. 3 as an example, the focal position of each optical unit is set at a predetermined speed from one end side to the other end side of the corresponding AF control range (in the direction indicated by the arrow in FIG. 3). Thus, the AF operation is performed by changing the above.

このとき、AF検出回路34により検出されるコントラスト値は、一般に、焦点位置の変化に応じて上に凸の形状とされた曲線を描くように変化する傾向にあり、合焦した状態において最大値を示すことになる。   At this time, the contrast value detected by the AF detection circuit 34 generally tends to change so as to draw an upwardly convex curve in accordance with the change of the focal position, and the maximum value in a focused state. Will be shown.

そこで、次のステップ104では、記録されたコントラスト値のピークが検出されたか否かを判定し、当該判定が肯定判定となるまで各光学ユニットによるAF動作を継続する。その後、ピークが検出された時点でステップ106に移行して、各光学ユニットによるAF動作及び物理量の記録を終了し、その後にステップ108に移行する。   Therefore, in the next step 104, it is determined whether or not the peak of the recorded contrast value has been detected, and the AF operation by each optical unit is continued until the determination is affirmative. After that, when a peak is detected, the process proceeds to step 106, the AF operation and physical quantity recording by each optical unit is finished, and then the process proceeds to step 108.

ステップ108では、コントラスト値のピークが検出された焦点位置を最終的な合焦状態として決定すると共に、焦点位置がコントラスト値のピークに対応する焦点位置近傍にある一方の光学ユニットについて、その焦点位置がピークに対応する焦点位置となるように微調整を行なうように制御する。   In step 108, the focal position where the peak of the contrast value is detected is determined as the final in-focus state, and the focal position of one optical unit in the vicinity of the focal position corresponding to the peak of the contrast value is determined. Is controlled so as to be finely adjusted so that the focus position corresponds to the peak.

次のステップ110では、モータ駆動部を介して他方の光学ユニットの焦点位置が一方の焦点位置となるように制御し、その後に本AF制御処理プログラムを終了する。   In the next step 110, control is performed so that the focal position of the other optical unit becomes one focal position via the motor drive unit, and then the AF control processing program is terminated.

以上詳細に説明したように、本第1の実施の形態によれば、各々AF制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための光学ユニット13A及び光学ユニット13Bを備え、各々光学ユニット13A及び光学ユニット13Bに1対1で対応する第1検出回路34A及び第2検出回路34Bにより、対応する光学ユニットを介して取得された画像情報に基づいて当該光学ユニットにおける合焦の程度を示すコントラスト値を検出し、AF制御を行なう際に、各光学ユニットのAF動作を各々同時かつ独立に制御すると共に、このとき第1検出回路34A及び第2検出回路34Bにより検出されたコントラスト値に基づいて各光学ユニットの最終的な合焦状態を決定しているので、AF制御に要する時間を短縮することができる。   As described above in detail, according to the first embodiment, each of the optical unit 13A and the optical unit is configured to be able to perform AF control and to acquire image information indicating a subject image from different positions. 13B, and the optical unit 13A and the optical unit 13B respectively corresponding to the optical unit 13A on a one-to-one basis by the first detection circuit 34A and the second detection circuit 34B based on the image information acquired via the corresponding optical unit. When the contrast value indicating the degree of in-focus is detected and AF control is performed, the AF operation of each optical unit is controlled simultaneously and independently. At this time, the first detection circuit 34A and the second detection circuit 34B Since the final focus state of each optical unit is determined based on the detected contrast value, when AF control is required It is possible to shorten the.

また、本第1の実施の形態によれば、前記合焦動作として、光学ユニット13A及び光学ユニット13Bを互いに異なる範囲において焦点位置を変化させるように制御すると共に、これに応じて第1検出回路34A及び第2検出回路34Bにより検出されたコントラスト値に基づいて光学ユニット13A及び光学ユニット13Bに同一の最終的な合焦位置を決定しているので、同時かつ独立に、AF動作可能な光学ユニット13A及び光学ユニット13Bにより焦点位置を変化させる範囲を分担して行なえるので、従来のように各光学ユニットにより全ての範囲において焦点位置を変化させる場合と比較して、合焦制御に要する時間を、より短縮することができる。   Further, according to the first embodiment, as the focusing operation, the optical unit 13A and the optical unit 13B are controlled to change the focal position in different ranges, and the first detection circuit is correspondingly controlled. Since the same final in-focus position is determined for the optical unit 13A and the optical unit 13B based on the contrast values detected by the 34A and the second detection circuit 34B, the optical unit capable of AF operation simultaneously and independently Since the range in which the focal position is changed by the optical unit 13A and the optical unit 13B can be shared, the time required for focusing control can be compared with the conventional case where the focal position is changed in the entire range by each optical unit. , Can be shortened more.

さらに、本第1の実施の形態によれば、前記互いに異なる範囲を、焦点位置が変更可能な範囲を用いる光学ユニットの数で等分割して得られた複数の範囲としているので、焦点位置を変更させる範囲を均等に複数の撮像光学系により分担することができ、各光学ユニットのAF動作期間を均等にすることができるので、AF制御に要する時間のバラツキの発生を抑制することができる。   Furthermore, according to the first embodiment, the different ranges are a plurality of ranges obtained by equally dividing the number of optical units using a range in which the focus position can be changed. The range to be changed can be equally shared by a plurality of imaging optical systems, and the AF operation period of each optical unit can be equalized, so that occurrence of variations in time required for AF control can be suppressed.

また、本第1の実施の形態によれば、前記第1検出回路34A及び第2検出回路34Bにより検出された何れかのコントラスト値が合焦したことを示す量に達した時点で、当該コントラスト値が検出された焦点位置を前記最終的な合焦状態として決定するので、焦点位置が変更可能な全ての範囲についてのコントラスト値の検出が終了するのを待たずに最終的な合焦状態を決定できるため、AF制御に要する時間を、より短縮することができる。
(第2の実施の形態)
上記第1の実施の形態では、各光学ユニットによるそれぞれ異なるAF制御範囲でのAF動作を同時に行ない、これに応じて第1検出回路34A及び第2検出回路34Bの何れかにより検出されたコントラスト値がピークとなった時点で、当該ピークが検出された焦点位置を最終的な合焦状態であるものとして決定する場合の形態例について説明したが、この形態では、合焦制御の対象となる画像におけるコントラスト値の検出対象とする領域内にデジタルカメラ10からの距離がそれぞれ異なる複数の被写体像が含まれている場合には、合焦制御が適切に行なえないことも考えられる。
Further, according to the first embodiment, when one of the contrast values detected by the first detection circuit 34A and the second detection circuit 34B reaches an amount indicating the in-focus state, the contrast Since the focus position where the value is detected is determined as the final focus state, the final focus state is not waited until the detection of the contrast value for all the ranges where the focus position can be changed is completed. Since it can be determined, the time required for AF control can be further shortened.
(Second Embodiment)
In the first embodiment, the contrast values detected by either the first detection circuit 34A or the second detection circuit 34B according to the simultaneous AF operations in the different AF control ranges by the optical units are performed. In the embodiment, the focus position where the peak is detected is determined to be determined to be in the final focused state at the time when becomes the peak. In the case where a plurality of subject images having different distances from the digital camera 10 are included in a region for which a contrast value is to be detected, focusing control may not be performed properly.

すなわち、コントラスト値が上記複数の被写体像に応じた局所的なピークを有することもあるためであり、この場合、AF動作開始後にコントラスト値がはじめてピークとなった焦点位置を最終的な合焦状態として決定することは必ずしも適切であるとは限らない。   That is, the contrast value may have a local peak corresponding to the plurality of subject images. In this case, the focal position where the contrast value first peaks after the AF operation starts is determined as the final focused state. It is not always appropriate to determine as

そこで、本第2の実施の形態では、このような場合であっても適切な合焦制御を高速に行なうために、焦点位置の変更可能な範囲の全域についてのコントラスト値に基づいて最終的な合焦状態を決定する場合の形態例について説明する。   Therefore, in the second embodiment, in order to perform appropriate focusing control at high speed even in such a case, a final determination is made based on the contrast values for the entire range of the focus position changeable range. An example of a mode for determining the in-focus state will be described.

なお、本第2の実施の形態に係るデジタルカメラの構成は、上述した第1の実施の形態に係るデジタルカメラ10の構成(図1及び図2参照)と同様であるので、ここでの説明を省略し、以下、図5を参照して、立体撮影モードが設定されている場合に実行されるAF制御処理について更に具体的に説明する。   The configuration of the digital camera according to the second embodiment is the same as the configuration of the digital camera 10 according to the first embodiment described above (see FIGS. 1 and 2). Hereinafter, the AF control process executed when the stereoscopic shooting mode is set will be described more specifically with reference to FIG.

なお、図5は、このときCPU32において実行されるAF制御処理プログラムの処理の流れを示すフローチャートである。また、同図において、図3に示すフローチャートと同様の処理を行うステップについては同一のステップ番号を付し、ここでの説明を省略する。   FIG. 5 is a flowchart showing the flow of processing of the AF control processing program executed by the CPU 32 at this time. Also, in the figure, the same step numbers are assigned to steps that perform the same processing as in the flowchart shown in FIG.

ステップ105では、全ての光学ユニットによるAF動作の終了待ちを行い、次のステップ107にて、AF検出回路34から検出されて記録されたコントラスト値のうち、最大値となったコントラスト値に対応する焦点位置を最終的な合焦状態として決定し、その後にステップ111に移行する。   In step 105, the completion of the AF operation by all the optical units is waited, and in the next step 107, the contrast value detected and recorded from the AF detection circuit 34 corresponds to the maximum contrast value. The focal position is determined as the final in-focus state, and then the process proceeds to step 111.

ステップ111では、モータ駆動部50A及びモータ駆動部50Bを介して各光学ユニットの焦点位置が上記ステップ107で決定した焦点位置となるように制御し、その後に本AF制御処理プログラムを終了する。   In step 111, control is performed so that the focal position of each optical unit becomes the focal position determined in step 107 via the motor driving unit 50A and the motor driving unit 50B, and then the present AF control processing program is terminated.

以上詳細に説明したように、本第2の実施の形態によれば、各々AF制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための光学ユニット13A及び光学ユニット13Bを備え、各々光学ユニット13A及び光学ユニット13Bに1対1で対応する第1検出回路34A及び第2検出回路34Bにより、対応する光学ユニットを介して取得された画像情報に基づいて当該光学ユニットにおける合焦の程度を示すコントラスト値を検出し、AF制御を行なう際に、各光学ユニットのAF動作を各々同時かつ独立に制御すると共に、このとき第1検出回路34A及び第2検出回路34Bにより検出されたコントラスト値に基づいて各光学ユニットの最終的な合焦状態を決定しているので、AF制御に要する時間を短縮することができる。   As described above in detail, according to the second embodiment, each of the optical unit 13A and the optical unit is configured to be able to perform AF control and acquire image information indicating a subject image from different positions. 13B, and the optical unit 13A and the optical unit 13B respectively corresponding to the optical unit 13A on a one-to-one basis by the first detection circuit 34A and the second detection circuit 34B based on the image information acquired via the corresponding optical unit. When the contrast value indicating the degree of in-focus is detected and AF control is performed, the AF operation of each optical unit is controlled simultaneously and independently. At this time, the first detection circuit 34A and the second detection circuit 34B Since the final focus state of each optical unit is determined based on the detected contrast value, when AF control is required It is possible to shorten the.

また、本第2の実施の形態によれば、前記合焦動作として、光学ユニット13A及び光学ユニット13Bを互いに異なる範囲において焦点位置を変化させるように制御すると共に、これに応じて第1検出回路34A及び第2検出回路34Bにより検出されたコントラスト値に基づいて光学ユニット13A及び光学ユニット13Bに同一の最終的な合焦位置を決定しているので、同時かつ独立に、AF動作可能な光学ユニット13A及び光学ユニット13Bにより焦点位置を変化させる範囲を分担して行なえるので、従来のように各光学ユニットにより全ての範囲において焦点位置を変化させる場合と比較して、合焦制御に要する時間を、より短縮することができる。   Further, according to the second embodiment, as the focusing operation, the optical unit 13A and the optical unit 13B are controlled to change the focal position in different ranges, and the first detection circuit is accordingly changed. Since the same final in-focus position is determined for the optical unit 13A and the optical unit 13B based on the contrast values detected by the 34A and the second detection circuit 34B, the optical unit capable of AF operation simultaneously and independently Since the range in which the focal position is changed by the optical unit 13A and the optical unit 13B can be shared, the time required for focusing control can be compared with the conventional case where the focal position is changed in the entire range by each optical unit. , Can be shortened more.

さらに、本第2の実施の形態によれば、前記互いに異なる範囲を、焦点位置が変更可能な範囲を用いる光学ユニットの数で等分割して得られた複数の範囲としているので、焦点位置を変更させる範囲を均等に複数の撮像光学系により分担することができ、各光学ユニットのAF動作期間を均等にすることができるので、AF制御に要する時間のバラツキの発生を抑制することができる。   Furthermore, according to the second embodiment, the different ranges are a plurality of ranges obtained by equally dividing the number of optical units using a range in which the focus position can be changed. The range to be changed can be equally shared by a plurality of imaging optical systems, and the AF operation period of each optical unit can be equalized, so that occurrence of variations in time required for AF control can be suppressed.

また、本第2の実施の形態によれば、光学ユニット13A及び光学ユニット13Bを、対応する前記範囲の全域について焦点位置を変化させ、これに応じて第1検出回路34A及び第2検出回路34Bにより検出されたコントラスト値のうち、最も合焦の程度が高いコントラスト値が検出された焦点位置を前記最終的な合焦状態として決定するので、カメラからの距離が各々異なる複数の被写体が含まれる場合等、合焦状態が誤判定されることを防止することができ、より高精度にAF制御を行なうことができる。   Further, according to the second embodiment, the optical unit 13A and the optical unit 13B change the focal position for the entire corresponding range, and the first detection circuit 34A and the second detection circuit 34B are changed accordingly. The focus position where the contrast value with the highest degree of focusing is detected is determined as the final focusing state among the detected contrast values, and thus a plurality of subjects with different distances from the camera are included. In such a case, it is possible to prevent the in-focus state from being erroneously determined, and it is possible to perform AF control with higher accuracy.

なお、上記各実施の形態では、立体撮影モードが設定されている場合にのみ2つの光学ユニットを用いてAF制御を行なうものとして説明したが、本発明はこれに限定されるものではなく、通常撮影モードが設定されている場合にも2つの光学ユニットを用いてAF制御を行なうようにすることもできる。これにより、通常撮影モードが設定されている場合においてもAF制御に要する時間を短縮することができる。なお、通常撮影モードが設定されている場合には、実際に画像情報を取得する光学ユニットだけを最終的な合焦状態となる焦点位置に合わせればよい(図4のステップ110、図5のステップ111参照)。   In each of the above-described embodiments, it has been described that the AF control is performed using the two optical units only when the stereoscopic shooting mode is set. However, the present invention is not limited to this, and is usually Even when the shooting mode is set, AF control can be performed using two optical units. Thereby, even when the normal shooting mode is set, the time required for AF control can be shortened. If the normal shooting mode is set, only the optical unit that actually acquires the image information needs to be adjusted to the focal position where the final in-focus state is obtained (step 110 in FIG. 4, step in FIG. 5). 111).

また、上記各実施の形態では、上記合焦制御処理において各光学ユニットのAF動作を、図3に示すように、当該範囲における同じ端部に向けて(図3に矢印で示す向きで)行なうものとして説明したが、本発明はこれに限定されるものではなく、図6(A)に示すように、第1撮像系88Aは一端から、第2撮像系88Bは他端から焦点位置の変更可能な範囲の中央に向けて行なうようにしてもよい。この場合、各光学ユニットの焦点位置が互いに近づいていくことになるため、光学ユニットの焦点位置を最終的な合焦状態となる焦点位置に合わせる動作を速やかに行なうことができる。これによりさらにAF制御に要する時間を短縮することができる。   Further, in each of the above-described embodiments, the AF operation of each optical unit is performed toward the same end portion in the range (in the direction indicated by the arrow in FIG. 3) as shown in FIG. The present invention is not limited to this, but as shown in FIG. 6A, the first imaging system 88A changes its focal position from one end, and the second imaging system 88B changes its focal position from the other end. You may make it carry out toward the center of the possible range. In this case, since the focal positions of the optical units are close to each other, the operation of adjusting the focal position of the optical unit to the final focal position can be quickly performed. As a result, the time required for AF control can be further reduced.

また、本実施の実施の形態で説明したフローチャート(図4及び図5参照)の処理の流れは一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Moreover, it is needless to say that the processing flow of the flowcharts (see FIGS. 4 and 5) described in the present embodiment is an example, and can be appropriately changed without departing from the gist of the present invention.

さらに、以上のデジタルカメラ10の構成(図1、図2参照)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Further, the above-described configuration of the digital camera 10 (see FIGS. 1 and 2) is an example, and it goes without saying that the configuration can be appropriately changed without departing from the gist of the present invention.

例えば、本実施の実施の形態では、光学ユニットを2系統備えた場合について説明したが、本発明はこれに限定されるものではなく、3系統以上の光学系ユニットを備えたカメラについても適用することができる。なお、光学系ユニットを3系統備えている場合、図6(B)に示すように、合焦制御を行なう際に焦点距離の変更可能な範囲を3等分してそれぞれの範囲を各光学ユニット(光学ユニットA、光学ユニットB、光学ユニットC)に分担させてもよい。   For example, in this embodiment, the case where two optical units are provided has been described. However, the present invention is not limited to this, and the present invention is also applicable to a camera including three or more optical system units. be able to. When three optical system units are provided, as shown in FIG. 6B, the range in which the focal length can be changed when performing focusing control is divided into three equal parts, and the respective ranges are assigned to the respective optical units. (Optical unit A, optical unit B, optical unit C) may be shared.

また、上記各実施の形態では、モード切換スイッチ52Bの操作によりデジタルカメラのモードが立体撮影モード、通常撮影モード及び再生モードの何れかが設定されるものとして説明したが、モード切換スイッチの操作によりデジタルカメラを撮影モード及び再生モードの何れかに設定するようにし、さらに立体画像を取扱う立体画像モードと通常の画像を取扱う通常画像モードの何れかを設定するためのスイッチを別途設けてもよい。このように構成した場合、デジタルカメラは、これらのスイッチの操作状態に応じて、立体画像撮影モード、通常画像撮影モード、立体画像再生モード及び通常画像再生モードの何れかのモードで動作することになる。   In each of the above embodiments, the mode of the digital camera has been described as being set to any one of the 3D shooting mode, the normal shooting mode, and the playback mode by operating the mode switch 52B. The digital camera may be set to either the shooting mode or the playback mode, and a switch for setting either a stereoscopic image mode for handling a stereoscopic image or a normal image mode for handling a normal image may be separately provided. In such a configuration, the digital camera operates in any one of the three-dimensional image shooting mode, the normal image shooting mode, the three-dimensional image reproduction mode, and the normal image reproduction mode according to the operation state of these switches. Become.

さらに、上記各実施の形態では、本発明をデジタルカメラに適用した場合について説明したが、本発明はデジタルカメラに限定されるものではなく、銀鉛写真フィルムを用いるカメラにも適用することもできる。   Further, in each of the above embodiments, the case where the present invention is applied to a digital camera has been described. However, the present invention is not limited to a digital camera, and can also be applied to a camera using a silver-lead photographic film. .

実施の形態に係るデジタルカメラの外観を示す外観図である。It is an external view which shows the external appearance of the digital camera which concerns on embodiment. 実施の形態に係るデジタルカメラの電気系の構成を示すブロック図である。It is a block diagram which shows the structure of the electric system of the digital camera which concerns on embodiment. 各光学ユニットのAF制御範囲を一例として示す模式図である。It is a schematic diagram which shows the AF control range of each optical unit as an example. 第1の実施の形態に係るCPUにより実行されるAF制御処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of AF control processing program performed by CPU which concerns on 1st Embodiment. 第2の実施の形態に係るCPUにより実行されるAF処理制御プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of AF process control program performed by CPU which concerns on 2nd Embodiment. 各光学ユニットのAF制御範囲及びAF動作を一例として示す模式図である。It is a schematic diagram which shows the AF control range and AF operation | movement of each optical unit as an example.

符号の説明Explanation of symbols

10 デジタルカメラ
13A、13B 光学ユニット(撮像光学系)
32 CPU(制御手段)
34A 第1検出回路(検出手段)
34B 第2検出回路(検出手段)
10 Digital camera 13A, 13B Optical unit (imaging optical system)
32 CPU (control means)
34A First detection circuit (detection means)
34B Second detection circuit (detection means)

Claims (5)

各々合焦制御可能に構成されると共に、互いに異なる位置から被写体像を示す画像情報を取得するための複数の撮像光学系と、
各々前記複数の撮像光学系に1対1で対応すると共に、対応する撮像光学系を介して取得された画像情報に基づいて当該撮像光学系における合焦の程度を示す物理量を検出する複数の検出手段と、
合焦制御を行なう際に、前記複数の撮像光学系の合焦動作を各々同時かつ独立に制御すると共に、このとき前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系の最終的な合焦状態を決定する制御手段と、
を備えたカメラ。
A plurality of imaging optical systems configured to be capable of focusing control and acquiring image information indicating subject images from different positions;
A plurality of detections that respectively correspond to the plurality of imaging optical systems on a one-to-one basis and detect physical quantities indicating the degree of focusing in the imaging optical system based on image information acquired through the corresponding imaging optical system Means,
When performing focusing control, the focusing operations of the plurality of imaging optical systems are controlled simultaneously and independently, and at the same time, based on the physical quantities detected by the plurality of detecting means, the plurality of imaging optical systems Control means for determining the final in-focus state;
With a camera.
前記制御手段は、前記合焦動作として、前記複数の撮像光学系を互いに異なる範囲において焦点位置を変化させるように制御すると共に、これに応じて前記複数の検出手段により検出された物理量に基づいて前記複数の撮像光学系に同一の最終的な合焦状態を決定する
請求項1に記載のカメラ。
The control unit controls the plurality of imaging optical systems to change the focal position in different ranges as the focusing operation, and based on the physical quantity detected by the plurality of detection units according to the control. The camera according to claim 1, wherein the same final in-focus state is determined for the plurality of imaging optical systems.
前記互いに異なる範囲を、焦点位置が変更可能な範囲を前記撮像光学系の数で等分割して得られた複数の範囲とした
請求項2に記載のカメラ。
The camera according to claim 2, wherein the different ranges are a plurality of ranges obtained by equally dividing a range in which a focal position can be changed by the number of the imaging optical systems.
前記制御手段は、前記複数の検出手段により検出された何れかの物理量が合焦したことを示す量に達した時点で、当該物理量が検出された焦点位置を前記最終的な合焦状態として決定する
請求項2又は請求項3に記載のカメラ。
The control means determines the focal position at which the physical quantity is detected as the final in-focus state when reaching a quantity indicating that any physical quantity detected by the plurality of detection means is in focus. The camera according to claim 2 or 3.
前記制御手段は、前記複数の撮像光学系を、対応する前記範囲の全域について焦点位置を変化させ、これに応じて前記複数の検出手段により検出された物理量のうち、最も合焦の程度が高い物理量が検出された焦点位置を前記最終的な合焦状態として決定する
請求項2又は請求項3に記載のカメラ。
The control unit changes the focal position of the plurality of imaging optical systems for the entire range of the corresponding range, and according to this, the degree of focusing is the highest among the physical quantities detected by the plurality of detection units. The camera according to claim 2, wherein a focal position where a physical quantity is detected is determined as the final focused state.
JP2003383283A 2003-11-13 2003-11-13 Camera Pending JP2005148249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003383283A JP2005148249A (en) 2003-11-13 2003-11-13 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003383283A JP2005148249A (en) 2003-11-13 2003-11-13 Camera

Publications (1)

Publication Number Publication Date
JP2005148249A true JP2005148249A (en) 2005-06-09

Family

ID=34692046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003383283A Pending JP2005148249A (en) 2003-11-13 2003-11-13 Camera

Country Status (1)

Country Link
JP (1) JP2005148249A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030962A (en) * 2011-07-28 2013-02-07 Canon Inc Multi-eye imaging device, imaging method, and program
US9100567B2 (en) 2011-11-16 2015-08-04 Panasonic Intellectual Property Management Co., Ltd. Imaging device comprising two optical systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030962A (en) * 2011-07-28 2013-02-07 Canon Inc Multi-eye imaging device, imaging method, and program
US9100567B2 (en) 2011-11-16 2015-08-04 Panasonic Intellectual Property Management Co., Ltd. Imaging device comprising two optical systems

Similar Documents

Publication Publication Date Title
JP4497912B2 (en) Camera and zoom control method of camera
JP5595499B2 (en) Monocular stereoscopic imaging device
US20110018970A1 (en) Compound-eye imaging apparatus
JP5474234B2 (en) Monocular stereoscopic imaging apparatus and control method thereof
TWI514847B (en) Image processing device, image processing method, and recording medium
JP5415170B2 (en) Compound eye imaging device
JP5231771B2 (en) Stereo imaging device
JP2011075675A (en) Compound-eye imaging apparatus
JP2002112095A (en) Digital still camera
JP2012222495A (en) Image processor, image processing method, and program
JP2006162990A (en) Stereoscopic image photographing apparatus
JP5100410B2 (en) Imaging apparatus and control method thereof
JP2009033544A (en) Photographic device and control method of photographic device, and program
JP2007225897A (en) Focusing position determination device and method
JP2006217505A (en) Photographing device
JP4136958B2 (en) Digital camera and digital camera control method
JP2005202037A (en) Stereo camera
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2005039401A (en) Camera and photographing method of stereoscopic image
JP2005148249A (en) Camera
JP4227030B2 (en) Camera and camera control method
JP2005045511A (en) Stereoscopic photographing device and its control method
JP2005037517A (en) Stereoscopic camera
JP4335750B2 (en) Imaging apparatus and photographing aspect ratio confirmation method
JP2006033752A (en) Digital camera