JP4533735B2 - Stereo imaging device - Google Patents

Stereo imaging device Download PDF

Info

Publication number
JP4533735B2
JP4533735B2 JP2004354543A JP2004354543A JP4533735B2 JP 4533735 B2 JP4533735 B2 JP 4533735B2 JP 2004354543 A JP2004354543 A JP 2004354543A JP 2004354543 A JP2004354543 A JP 2004354543A JP 4533735 B2 JP4533735 B2 JP 4533735B2
Authority
JP
Japan
Prior art keywords
parallax
search
value
evaluation value
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004354543A
Other languages
Japanese (ja)
Other versions
JP2006162990A (en
Inventor
謙治 星野
正明 織本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004354543A priority Critical patent/JP4533735B2/en
Publication of JP2006162990A publication Critical patent/JP2006162990A/en
Application granted granted Critical
Publication of JP4533735B2 publication Critical patent/JP4533735B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Diaphragms For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Description

本発明は、複数の撮像部を備えてなるデジタルカメラ等の立体画像撮影装置に関するものである。     The present invention relates to a stereoscopic image photographing apparatus such as a digital camera provided with a plurality of imaging units.

近年、デジタルカメラが広く普及している。デジタルカメラは、撮影レンズ、絞り、及びイメージセンサ等からなる撮像部を備え、撮像部によって取得された画像データはデジタル化されてメモリカードなどの情報記録媒体に記録される。イメージセンサは、撮影レンズによって結像される被写体像を光電変換するCCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型などの固体撮像装置によって構成されている。   In recent years, digital cameras have become widespread. The digital camera includes an imaging unit including a photographing lens, a diaphragm, an image sensor, and the like, and image data acquired by the imaging unit is digitized and recorded on an information recording medium such as a memory card. The image sensor is configured by a solid-state imaging device such as a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type that photoelectrically converts a subject image formed by a photographing lens.

このようなデジタルカメラのなかには、第1及び第2の2つの撮像部を備え、立体視用の2つの画像を取得することのできる2眼式のものがある(例えば、下記特許文献1、2参照)。この2眼式デジタルカメラは、各撮像部によって同一の被写体を同時に撮影して右眼用画像及び左眼用画像の視差の異なる2種類の画像を取得する。立体視用のディスプレイを用いて、取得された右眼用画像を右眼、左眼用画像を左眼に導くことにより、立体表示が実現される。
特開2001−281754号公報 特開2001−142166号公報
Among such digital cameras, there are two-lens cameras that include first and second imaging units and can acquire two images for stereoscopic viewing (for example, Patent Documents 1 and 2 below). reference). In this two-lens digital camera, the same subject is simultaneously photographed by each imaging unit, and two types of images with different parallaxes are obtained for the right-eye image and the left-eye image. By using a stereoscopic display, the acquired right-eye image is guided to the right eye and the left-eye image is guided to the left eye, thereby realizing stereoscopic display.
JP 2001-281754 A JP 2001-142166 A

しかしながら、特許文献1及び2には、2眼式デジタルカメラの撮影時における自動ピント合わせ(AF:Auto Focus)の具体的な動作方法は開示されていない。2眼式デジタルカメラの2つの撮像部は、同一の被写体を同時に撮影するものであるから、各々が独立してAF動作を行うことは時間的に非効率である。   However, Patent Documents 1 and 2 do not disclose a specific operation method of automatic focusing (AF) at the time of photographing with a twin-lens digital camera. Since the two image capturing units of the twin-lens digital camera capture the same subject at the same time, it is inefficient in time to perform the AF operation independently of each other.

本発明は、上記課題を解決するためになされたものであり、複数の撮像部を備え、短時間に効率よくAF動作を行うことができる立体画像撮影装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a stereoscopic image capturing apparatus that includes a plurality of imaging units and can perform an AF operation efficiently in a short time.

上記目的を達成するために、本発明の立体画像撮影装置は、光軸に沿って近点から遠点までの範囲を移動する第1フォーカスレンズを有する第1撮像部と、光軸に沿って近点から遠点までの範囲を移動する第2フォーカスレンズを有する第2撮像部とによって得られる各画像データから輝度値の高周波成分を積算してAF評価値を算出し、前記AF評価値がほぼ最大となる位置に前記第1及び第2フォーカスレンズを位置決めするAF動作を行う立体画像撮影装置において、前記AF動作において、前記第1及び第2フォーカスレンズを同時に駆動し、所定の送り量ごとに前記AF評価値を算出し、前記AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定することを特徴とするものである。   In order to achieve the above object, a stereoscopic image capturing apparatus of the present invention includes a first imaging unit having a first focus lens that moves in a range from a near point to a far point along an optical axis, and an optical axis. The AF evaluation value is calculated by integrating the high-frequency component of the luminance value from each image data obtained by the second imaging unit having the second focus lens moving in the range from the near point to the far point, and the AF evaluation value is In a stereoscopic image photographing apparatus that performs an AF operation for positioning the first and second focus lenses at a position that is substantially maximum, in the AF operation, the first and second focus lenses are simultaneously driven, and each predetermined feed amount is obtained. The AF evaluation value is calculated, and the other focus lens is set at the position of the focus lens where the maximum value of the AF evaluation value is detected first.

なお、前記AF動作において、前記第1及び第2フォーカスレンズの一方を近点から遠点へ向けて駆動し、他方を遠点から近点へ向けて駆動することが好ましい。   In the AF operation, it is preferable that one of the first and second focus lenses is driven from the near point to the far point and the other is driven from the far point to the near point.

また、前記AF動作において、前記第1及び第2フォーカスレンズの一方の移動開始位置を近点又は遠点とし、他方の移動開始位置を近点と遠点との間として、双方をともに同方向へ移動させることも好適である。   In the AF operation, one movement start position of the first and second focus lenses is set as a near point or a far point, and the other movement start position is set between the near point and the far point, and both are in the same direction. It is also suitable to move to.

また、前記第1及び第2フォーカスレンズの光軸間距離が可変であって、前記AF動作において、前記光軸間距離に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。   Further, the distance between the optical axes of the first and second focus lenses is variable, and in the AF operation, the movement start position and the movement direction of the first and second focus lenses are set according to the distance between the optical axes. It is also suitable to determine.

また、前記第1及び第2フォーカスレンズの光軸間角度が可変であって、前記AF動作において、前記光軸間角度に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。   Further, the angle between the optical axes of the first and second focus lenses is variable, and in the AF operation, the movement start position and the movement direction of the first and second focus lenses are set according to the angle between the optical axes. It is also suitable to determine.

また、前記第1及び第2撮像部によって得られる各画像データから被写体の視差を算出する視差算出手段を有し、前記AF動作において、前記視差算出手段によって算出された視差に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。   Further, the image processing apparatus includes a parallax calculation unit that calculates a parallax of a subject from each image data obtained by the first and second imaging units, and the first operation is performed according to the parallax calculated by the parallax calculation unit in the AF operation. It is also preferable to determine the movement start position and movement direction of the second focus lens.

また、前記AF動作において、前記第1及び第2撮像部の一方を近点又は遠点の一方から他方へ向けて駆動し、第1送り量ごとに前記AF評価値を算出して最大値を検出した後、この最大値が得られたフォーカスレンズの位置を含むように決定した範囲内に限って前記第1及び第2撮像部の双方を駆動し、前記第1送り量より小さい第2送り量ごと前記AF評価値を算出して最大値を検出することも好適である。   In the AF operation, one of the first and second imaging units is driven from one of the near point or the far point toward the other, and the AF evaluation value is calculated for each first feed amount to obtain the maximum value. After the detection, both the first and second imaging units are driven only within a range determined to include the position of the focus lens where the maximum value is obtained, and the second feed smaller than the first feed amount. It is also preferable to detect the maximum value by calculating the AF evaluation value for each amount.

また、前記AF動作において、前記第1及び第2撮像部の一方を所定位置から近点及び遠点の方向へ微動させ、前記AF評価値が増大する方向にフォーカスレンズを移動させて前記AF評価値の最大値を検出した後、この最大値が得られたフォーカスレンズの位置を含むように決定した範囲内に限って前記第1及び第2撮像部の双方を駆動し、所定の送り量ごと前記AF評価値を算出して最大値を検出することも好適である。   Further, in the AF operation, one of the first and second imaging units is finely moved from a predetermined position toward a near point and a far point, and a focus lens is moved in a direction in which the AF evaluation value increases, thereby performing the AF evaluation. After detecting the maximum value, both the first and second imaging units are driven only within a range determined so as to include the position of the focus lens from which the maximum value was obtained, for each predetermined feed amount. It is also preferable to detect the maximum value by calculating the AF evaluation value.

さらに、前記第1及び第2撮像部は光束を制限する第1及び第2絞りをそれぞれ備え、前記第1及び第2絞りの開口値をそれぞれ異なる値に設定した後、各開口値を変えながら測光を行い、最適値を先に検出した絞りの開口値に他方の絞りの開口値を設定することも好適である。   Furthermore, the first and second imaging units include first and second diaphragms for restricting light beams, respectively, and the aperture values of the first and second diaphragms are set to different values, and then the aperture values are changed. It is also preferable to perform photometry and set the aperture value of the other aperture to the aperture value of the aperture for which the optimum value has been detected first.

本発明の立体画像撮影装置は、AF動作において、第1及び第2フォーカスレンズを同時に駆動し、所定の送り量ごとにAF評価値を算出し、AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定するので、短時間に効率よくAF動作を完了することができる。   The stereoscopic image capturing apparatus according to the present invention drives the first and second focus lenses simultaneously in the AF operation, calculates an AF evaluation value for each predetermined feed amount, and detects the maximum AF evaluation value first. Since the other focus lens is set at the lens position, the AF operation can be completed efficiently in a short time.

図1において、本発明の第1実施形態を適用した立体カメラ1の前面には、第1撮像部2aを保持する第1鏡筒3a、第2撮像部2bを保持する第2鏡筒3bが組み込まれているほか、ストロボ装置4などが露呈している。第1及び第2鏡筒3a,3bは、第1及び第2撮像部2a,2bのレンズ光軸L1,L2が平行となるように、水平方向に一定間隔を保って並設されている。第1及び第2鏡筒3a,3bは、撮影時には図中実線で示すようにカメラ本体から前方に繰り出し、電源オフ時又は画像再生時には図中点線で示すようにカメラ本体内に沈胴する。また、立体カメラ1の上面には、シャッタレリーズ操作に用いられるシャッタボタン5が設けられている。   In FIG. 1, on the front surface of the stereoscopic camera 1 to which the first embodiment of the present invention is applied, a first lens barrel 3 a that holds the first imaging unit 2 a and a second lens barrel 3 b that holds the second imaging unit 2 b. In addition to being incorporated, the strobe device 4 and the like are exposed. The first and second lens barrels 3a and 3b are arranged in parallel in the horizontal direction at a constant interval so that the lens optical axes L1 and L2 of the first and second imaging units 2a and 2b are parallel to each other. The first and second lens barrels 3a and 3b are extended forward from the camera body as shown by a solid line in the drawing at the time of photographing, and retracted into the camera body as shown by a dotted line in the drawing when the power is turned off or when an image is reproduced. Further, a shutter button 5 used for a shutter release operation is provided on the upper surface of the stereoscopic camera 1.

図2において、立体カメラ1の背面には、ズームボタン6、メニューボタン7、カーソルボタン8等からなる入力操作部9と、LCD(Liquid Crystal Display)10とが設けられている。入力操作部9の適宜操作により、電源のオン/オフ、各種モード(撮影モード,再生モード等)の切り替え、ズーミングなどが行われる。LCD10は、パララックスバリア式、或いはレンチキュラーレンズ式の3Dモニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの立体表示を行う。   In FIG. 2, an input operation unit 9 including a zoom button 6, a menu button 7, a cursor button 8, and the like and an LCD (Liquid Crystal Display) 10 are provided on the back of the stereoscopic camera 1. By appropriately operating the input operation unit 9, the power is turned on / off, various modes (shooting mode, playback mode, etc.) are switched, zooming, and the like are performed. The LCD 10 is a 3D monitor of a parallax barrier type or a lenticular lens type, and is used as an electronic viewfinder at the time of image shooting, and performs stereoscopic display of image data obtained by shooting at the time of image reproduction.

図3は、立体カメラ1の電気的構成を示す。第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11、第1絞り12、第1フォーカスレンズ13、及び第1イメージセンサ14によって構成されている。第1ズームレンズ11にはレンズモータ15、第1絞り12にはアイリスモータ16、第1フォーカスレンズ13にはレンズモータ17が接続されており、また、第1イメージセンサ14にはタイミングジェネレータ(TG)18が接続されている。モータ15〜17、及びTG18の動作はCPU19によって制御される。   FIG. 3 shows an electrical configuration of the stereoscopic camera 1. The first imaging unit 2a includes a first zoom lens 11, a first diaphragm 12, a first focus lens 13, and a first image sensor 14 arranged along the lens optical axis L1. A lens motor 15 is connected to the first zoom lens 11, an iris motor 16 is connected to the first diaphragm 12, a lens motor 17 is connected to the first focus lens 13, and a timing generator (TG) is connected to the first image sensor 14. ) 18 is connected. The operations of the motors 15 to 17 and the TG 18 are controlled by the CPU 19.

レンズモータ15は、入力操作部9からのズーム操作に応じて、第1ズームレンズ11をレンズ光軸L1に沿ってNEAR側(繰り出し側)、或いはINF側(繰り込み側)に移動させ、ズーム倍率を変化させる。アイリスモータ16は、AE(Auto Exposure)動作時に第1絞り12の開口値(絞り値)を変化させて光束を制限し、露出調整を行う。レンズモータ17は、AF(Auto Focus)動作時に第1フォーカスレンズ13をレンズ光軸L1に沿ってNEAR側、或いはINF側に移動させて合焦位置を変え、ピント調整を行う。   The lens motor 15 moves the first zoom lens 11 along the lens optical axis L1 to the NEAR side (feed-out side) or the INF side (retract-side) according to the zoom operation from the input operation unit 9, and the zoom magnification. To change. The iris motor 16 performs exposure adjustment by changing the aperture value (aperture value) of the first diaphragm 12 to limit the light beam during AE (Auto Exposure) operation. The lens motor 17 moves the first focus lens 13 to the NEAR side or the INF side along the lens optical axis L1 during AF (Auto Focus) operation to change the focus position and perform focus adjustment.

第1イメージセンサ14は、第1ズームレンズ11、第1絞り12、及び第1フォーカスレンズ13によって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14の光電荷蓄積・転送動作は、TG18によって制御され、TG18から入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14は、撮影モード時には、1画面分の画像信号を所定周期ごとに取得し、順次、相関二重サンプリング回路(CDS)28に入力する。   The first image sensor 14 receives subject light imaged by the first zoom lens 11, the first diaphragm 12, and the first focus lens 13, and accumulates photocharges corresponding to the amount of received light in the light receiving element. The photocharge accumulation / transfer operation of the first image sensor 14 is controlled by the TG 18, and the electronic shutter speed (photocharge accumulation time) is determined by a timing signal (clock pulse) input from the TG 18. The first image sensor 14 acquires an image signal for one screen at a predetermined period and sequentially inputs it to the correlated double sampling circuit (CDS) 28 in the photographing mode.

第2撮像部2bは、第1撮像部2aと同一の構成であり、レンズモータ24が接続された第2ズームレンズ20、アイリスモータ25が接続された第2絞り21、レンズモータ26が接続された第2フォーカスレンズ22、及びタイミングジェネレータ(TG)27が接続された第2イメージセンサ23によって構成されている。モータ24〜26、及びTG27の動作はCPU19によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1及び第2イメージセンサ14,23として、CCD型やCMOS型のイメージセンサが用いられる。   The second imaging unit 2b has the same configuration as the first imaging unit 2a. The second zoom lens 20 to which the lens motor 24 is connected, the second diaphragm 21 to which the iris motor 25 is connected, and the lens motor 26 are connected. The second focus lens 22 and a second image sensor 23 to which a timing generator (TG) 27 is connected. The operations of the motors 24 to 26 and the TG 27 are controlled by the CPU 19. The first imaging unit 2a and the second imaging unit 2b basically operate in conjunction with each other, but can also be operated individually. Incidentally, as the first and second image sensors 14 and 23, CCD type or CMOS type image sensors are used.

第1及び第2イメージセンサ14,23から出力された撮像信号は、相関二重サンプリング回路(CDS)28に入力される。CDS28は、第1及び第2イメージセンサ14,23の各受光素子の蓄積電荷量に正確に対応したR,G,Bの画像データを増幅器(AMP)29に入力する。AMP29は、入力された画像データを増幅し、A/D変換器30に入力する。A/D変換器30は、入力された画像データをアナログからデジタルに変換する。CDS28、AMP29、A/D変換器30を通して、第1イメージセンサ14の撮像信号は第1画像データ(右眼用画像データ)として、第2イメージセンサ23の撮像信号は第2画像データ(左眼用画像データ)として出力される。   The imaging signals output from the first and second image sensors 14 and 23 are input to a correlated double sampling circuit (CDS) 28. The CDS 28 inputs R, G, B image data accurately corresponding to the accumulated charge amount of each light receiving element of the first and second image sensors 14, 23 to the amplifier (AMP) 29. The AMP 29 amplifies the input image data and inputs it to the A / D converter 30. The A / D converter 30 converts the input image data from analog to digital. Through the CDS 28, the AMP 29, and the A / D converter 30, the imaging signal of the first image sensor 14 is the first image data (right eye image data), and the imaging signal of the second image sensor 23 is the second image data (left eye data). Image data).

画像信号処理回路31は、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器30から入力された第1及び第2画像データに施す。フレームメモリ32は、画像信号処理回路31で各種画像処理が施された第1及び第2画像データを一時的に格納する。   The image signal processing circuit 31 performs various image processing such as gradation conversion, white balance correction, and γ correction processing on the first and second image data input from the A / D converter 30. The frame memory 32 temporarily stores the first and second image data subjected to various image processing by the image signal processing circuit 31.

評価値算出回路33は、フレームメモリ32に格納された第1及び第2画像データの各々からAF評価値及びAE評価値を算出する。AF評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値及びAE評価値は、後述する撮影準備処理時に実行されるAF動作及びAE動作においてそれぞれ使用される。   The evaluation value calculation circuit 33 calculates an AF evaluation value and an AE evaluation value from each of the first and second image data stored in the frame memory 32. The AF evaluation value is calculated by integrating high-frequency components of the luminance value for the entire region or predetermined region (for example, the central portion) of each image data, and represents the sharpness of the image. The high-frequency component of the luminance value is a sum of luminance differences (contrast) between adjacent pixels in a predetermined area. Further, the AE evaluation value is calculated by integrating the luminance values over the entire area or a predetermined area (for example, the central portion) of each image data, and represents the brightness of the image. The AF evaluation value and the AE evaluation value are respectively used in an AF operation and an AE operation that are executed during an imaging preparation process described later.

立体画像処理回路34は、フレームメモリ32に格納されている第1及び第2画像データを、LCD10が立体表示を行うための立体画像データに合成する。撮影モード時にLCD10が電子ビューファインダとして使用される際には、立体画像処理回路34によって合成された立体画像データが、LCDドライバ35を介してLCD10にスルー画として表示される。   The stereoscopic image processing circuit 34 combines the first and second image data stored in the frame memory 32 with stereoscopic image data for the LCD 10 to perform stereoscopic display. When the LCD 10 is used as an electronic viewfinder in the shooting mode, the stereoscopic image data synthesized by the stereoscopic image processing circuit 34 is displayed on the LCD 10 as a through image via the LCD driver 35.

圧縮伸張処理回路36は、フレームメモリ32に記憶された第1及び第2画像データに対して、JPEG方式等の圧縮形式により圧縮処理を施す。メディアコントローラ37は、圧縮伸張処理回路36によって圧縮処理された各画像データをメモリカード等の記録メディア38に記録させる。   The compression / decompression processing circuit 36 performs compression processing on the first and second image data stored in the frame memory 32 in a compression format such as the JPEG method. The media controller 37 records each image data compressed by the compression / decompression processing circuit 36 on a recording medium 38 such as a memory card.

このようにして記録メディア38に記録された第1及び第2画像データをLCD10に再生表示する場合、記録メディア38の各画像データは、メディアコントローラ37によって読み出され、圧縮伸張処理回路36によって伸張処理が行われ、立体画像処理回路34によって立体画像データに変換された後、LCDドライバ35を介してLCD10に再生画像として表示される。   When the first and second image data thus recorded on the recording medium 38 are reproduced and displayed on the LCD 10, each image data on the recording medium 38 is read by the media controller 37 and decompressed by the compression / decompression processing circuit 36. After being processed and converted into stereoscopic image data by the stereoscopic image processing circuit 34, it is displayed as a reproduced image on the LCD 10 via the LCD driver 35.

LCD10の詳細な構造は図示しないが、LCD10は、その表面にパララックスバリア表示層を備えている。LCD10は、立体表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで立体視を可能にする。   Although the detailed structure of the LCD 10 is not shown, the LCD 10 includes a parallax barrier display layer on the surface thereof. The LCD 10 generates a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch on the parallax barrier display layer when performing stereoscopic display, and an image display surface below the parallax barrier. The strip-shaped image fragments showing the left and right images are alternately arranged and displayed to enable stereoscopic viewing.

CPU19は、立体カメラ1の全体の動作を統括的に制御する。CPU19には、前述のシャッタボタン5、入力操作部9のほか、不揮発性メモリであるEEPROM39が接続されている。EEPROM39は、各種制御用のプログラムや設定情報などを格納している。CPU19は、このプログラムや設定情報に基づいて各種処理を実行する。   The CPU 19 comprehensively controls the overall operation of the stereoscopic camera 1. In addition to the shutter button 5 and the input operation unit 9 described above, an EEPROM 39 that is a nonvolatile memory is connected to the CPU 19. The EEPROM 39 stores various control programs and setting information. The CPU 19 executes various processes based on this program and setting information.

シャッタボタン5は2段押しのスイッチ構造となっている。撮影モード中に、シャッタボタン5が軽く押圧(半押し)されると、AF動作及びAE動作が行われ撮影準備処理がなされる。この状態でさらにシャッタボタン5が強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1及び第2画像データがフレームメモリ32から記録メディア38に転送されて記録される。   The shutter button 5 has a two-stage push switch structure. When the shutter button 5 is lightly pressed (half-pressed) during the shooting mode, an AF operation and an AE operation are performed, and a shooting preparation process is performed. In this state, when the shutter button 5 is further pressed (fully pressed), shooting processing is performed, and the first and second image data for one screen are transferred from the frame memory 32 to the recording medium 38 and recorded. .

詳しくは後述するが、AF動作は、CPU19がレンズモータ17,26を制御して第1及び第2フォーカスレンズ13,22をそれぞれ所定方向に移動させながら、順次に得られる第1及び第2画像データの各々から評価値算出回路33が算出したAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、評価値算出回路33が算出したAE評価値に基づいて、CPU19がアイリスモータ18,27及びTG18,27を制御し、第1及び第2絞り12,21の開口値、及び第1及び第2イメージセンサ14,23の電子シャッタ速度を設定することによりなされる。   As will be described in detail later, in the AF operation, the CPU 19 controls the lens motors 17 and 26 to move the first and second focus lenses 13 and 22 in predetermined directions, respectively, and the first and second images obtained sequentially. This is done by obtaining the maximum AF evaluation value calculated by the evaluation value calculation circuit 33 from each piece of data. In the AE operation, after the AF operation is completed, the CPU 19 controls the iris motors 18 and 27 and the TGs 18 and 27 based on the AE evaluation value calculated by the evaluation value calculation circuit 33, and the first and second apertures 12 and 21 are controlled. And the electronic shutter speeds of the first and second image sensors 14 and 23 are set.

次に、本発明の作用について図4〜図6を用いて説明を行う。図4は、立体カメラ1が備える撮影モードの動作を示す。入力操作部9の操作により、立体カメラ1の電源が投入されて撮影モードに設定されると、シャッタボタン5が半押しされたか否かを検出する待機状態となる(ステップS100)。このとき、LCD10にはスルー画が表示される。撮影者が被写体のフレーミングを行い、シャッタボタン5を半押しすると、AF動作が開始し(ステップS101)、まず第1及び第2フォーカスレンズ13,22が図5に示すサーチ開始位置(移動開始位置)に設定される(ステップS102)。第1フォーカスレンズ13のサーチ開始位置はNEAR端(位置Pn(近点))に設定され、第2フォーカスレンズ22のサーチ開始位置はINF端(位置Pi(遠点))に設定される。なお、第1及び第2フォーカスレンズ13,22は、それぞれNEAR端からINF端までの範囲を移動する。   Next, the operation of the present invention will be described with reference to FIGS. FIG. 4 shows the operation of the shooting mode provided in the stereoscopic camera 1. When the power of the stereoscopic camera 1 is turned on and the photographing mode is set by the operation of the input operation unit 9, a standby state is detected in which it is detected whether or not the shutter button 5 is half-pressed (step S100). At this time, a through image is displayed on the LCD 10. When the photographer frames the subject and presses the shutter button 5 halfway, the AF operation starts (step S101). First, the first and second focus lenses 13 and 22 are moved to the search start positions (movement start positions) shown in FIG. ) Is set (step S102). The search start position of the first focus lens 13 is set to the NEAR end (position Pn (near point)), and the search start position of the second focus lens 22 is set to the INF end (position Pi (far point)). Note that the first and second focus lenses 13 and 22 each move in a range from the NEAR end to the INF end.

この後、AFサーチが実行される(ステップS103)。第1フォーカスレンズ13はレンズ光軸L1に沿って図中矢印A方向へ移動され、第2フォーカスレンズ22はレンズ光軸L2に沿って図中矢印B方向へ移動される。このとき、第1及び第2フォーカスレンズ13,22は等速度で移動され、送り量d(図6参照)だけ移動されるごとに上記第1及び第2画像データのAF評価値が算出される(ステップ104)。なお、送り量dは、NEAR端からINF端までの間でAF評価値の算出点が十分な数だけ得られるように設定される。   Thereafter, an AF search is executed (step S103). The first focus lens 13 is moved in the direction of arrow A in the figure along the lens optical axis L1, and the second focus lens 22 is moved in the direction of arrow B in the figure along the lens optical axis L2. At this time, the first and second focus lenses 13 and 22 are moved at a constant speed, and the AF evaluation values of the first and second image data are calculated each time the first and second focus lenses 13 and 22 are moved by the feed amount d (see FIG. 6). (Step 104). The feed amount d is set so that a sufficient number of AF evaluation value calculation points can be obtained between the NEAR end and the INF end.

第1及び第2フォーカスレンズ13,22が同じ位置にある場合、第1及び第2画像データのAF評価値はほぼ同一である。第1及び第2画像データのAF評価値が例えば図6のグラフに従う場合、AF評価値が最大となる位置(ピーク位置)Pmは、INF端側に位置しているため、矢印B方向へAFサーチを行う第2撮像部2bが、矢印A方向へAFサーチを行う第1撮像部2aより先にAF評価値の最大値を検出することとなる。なお、この最大値の検出は、AF評価値の増減により判定される。   When the first and second focus lenses 13 and 22 are at the same position, the AF evaluation values of the first and second image data are almost the same. When the AF evaluation values of the first and second image data follow the graph of FIG. 6, for example, the position (peak position) Pm at which the AF evaluation value is maximized is located on the INF end side, and therefore AF in the direction of arrow B The second imaging unit 2b that performs the search detects the maximum AF evaluation value before the first imaging unit 2a that performs the AF search in the direction of arrow A. The detection of the maximum value is determined by increasing or decreasing the AF evaluation value.

このようにして、第1撮像部2a又は第2撮像部2bのいずれか一方がAF評価値の最大値を検出したとき(ステップS105のYes)、AFサーチは終了し、第1及び第2フォーカスレンズ13,22はその場に停止される(ステップ106)。このとき、AF評価値の最大値を検出した撮像部(図6の例では第2撮像部2b)のフォーカスレンズはピーク位置Pmに停止されているが、他方の撮像部(図6の例では第1撮像部2a)のフォーカスレンズはピーク位置Pmには停止されていない。この後、該他方の撮像部のフォーカスレンズを移動させてピーク位置Pmに設定すると(ステップS107)、AF動作が終了する(ステップS108)。   In this way, when either the first imaging unit 2a or the second imaging unit 2b detects the maximum value of the AF evaluation value (Yes in step S105), the AF search ends, and the first and second focus The lenses 13 and 22 are stopped on the spot (step 106). At this time, the focus lens of the imaging unit (the second imaging unit 2b in the example of FIG. 6) that has detected the maximum AF evaluation value is stopped at the peak position Pm, but the other imaging unit (in the example of FIG. 6). The focus lens of the first imaging unit 2a) is not stopped at the peak position Pm. Thereafter, when the focus lens of the other imaging unit is moved and set to the peak position Pm (step S107), the AF operation ends (step S108).

AF動作が終了すると、続いてAE動作が開始され(ステップS109)、ピーク位置Pmで取得される第1及び第2画像データからAE評価値が算出される。このAE評価値に基づいて露出量が決定され(ステップS110)、第1及び第2絞り12,21の開口値、及び第1及び第2イメージセンサ14,23の電子シャッタ速度が設定されるとAE動作は終了する(ステップS111)。この後、シャッタボタン5が全押しされたか否かを検出する待機状態となる(ステップS112)。シャッタボタン5が全押しされると、撮影が実行され、このとき取得された1画面分の第1及び第2画像データが記録メディア38に記録される(ステップS113)。   When the AF operation is completed, the AE operation is subsequently started (step S109), and the AE evaluation value is calculated from the first and second image data acquired at the peak position Pm. When the exposure amount is determined based on the AE evaluation value (step S110), the aperture values of the first and second diaphragms 12 and 21 and the electronic shutter speeds of the first and second image sensors 14 and 23 are set. The AE operation ends (step S111). Thereafter, a standby state is detected for detecting whether or not the shutter button 5 has been fully pressed (step S112). When the shutter button 5 is fully pressed, shooting is performed, and the first and second image data for one screen acquired at this time is recorded on the recording medium 38 (step S113).

なお、上記第1実施形態では、図5に示すように、第1フォーカスレンズ13のサーチ開始位置をNEAR端、第2フォーカスレンズ22のサーチ開始位置をINF端としたが、本発明はこれに限られるものではなく、上記とは逆に、第1フォーカスレンズ13のサーチ開始位置をINF端、第2フォーカスレンズ22のサーチ開始位置をNEAR端としてもよい。   In the first embodiment, as shown in FIG. 5, the search start position of the first focus lens 13 is the NEAR end, and the search start position of the second focus lens 22 is the INF end. The search start position of the first focus lens 13 may be the INF end, and the search start position of the second focus lens 22 may be the NEAR end, contrary to the above.

以上のように、本発明の第1実施形態を適用した立体カメラ1は、AF動作時において、第1及び第2フォーカスレンズ13,22の一方のサーチ開始位置をNEAR端、他方のサーチ開始位置をINF端に設定した後、それぞれを互いに逆方向に動かしてAFサーチを行うので、短時間に効率よくAF動作を完了することができる。   As described above, in the stereoscopic camera 1 to which the first embodiment of the present invention is applied, during the AF operation, one search start position of the first and second focus lenses 13 and 22 is the NEAR end, and the other search start position. Since the AF search is performed by moving each in the opposite direction after setting the INF end, the AF operation can be completed efficiently in a short time.

また、上記第1実施形態では、時に第1及び第2フォーカスレンズ13,22を互いに逆方向に動かしてAFサーチを行うようにしたが、これに代えて、第1及び第2フォーカスレンズ13,22を同一方向に動かしてAFサーチを行っても、以下に示すように上記と同様な効果が得られる場合がある。   In the first embodiment, the first and second focus lenses 13 and 22 are sometimes moved in opposite directions to perform the AF search. Instead, the first and second focus lenses 13 and 22 are replaced with each other. Even if the AF search is performed by moving 22 in the same direction, the same effect as described above may be obtained as described below.

次に、図7及び図8を用いて本発明の第2実施形態を説明する。第2実施形態は、第1及び第2フォーカスレンズ13,22を同一方向に動かしてAFサーチを行うようにしたものであり、サーチ開始位置が上記第1実施形態とは異なる。同図では、第1フォーカスレンズ13のサーチ開始位置をNEAR端、第2フォーカスレンズ22のサーチ開始位置をNEAR端から距離δだけずらした位置(位置Pn+σ)とし、サーチ方向をともにINF端側へ向けて同一方向(図中矢印A,B)としている。なお、ずれ量σは、NEAR端からINF端までの半分の距離とすることが好ましい。   Next, a second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, an AF search is performed by moving the first and second focus lenses 13 and 22 in the same direction, and the search start position is different from that in the first embodiment. In the figure, the search start position of the first focus lens 13 is the NEAR end, the search start position of the second focus lens 22 is a position shifted by a distance δ from the NEAR end (position Pn + σ), and both search directions are toward the INF end side. In the same direction (arrows A and B in the figure). The shift amount σ is preferably a half distance from the NEAR end to the INF end.

第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向以外の動作は上記第1実施形態と同一である。第1及び第2画像データのAF評価値が図8のグラフに示すようになる場合には、第2撮像部2bが先にピーク位置Pmを検出する。一方、ピーク位置Pmが位置Pnと位置Pn+σとの間に位置する場合には、第1撮像部2aが先にピーク位置Pmを検出する。このように、本発明の第2実施形態は、上記第1実施形態と同様に、AFサーチ時に第1及び第2撮像部2a,2bのいずれか一方が先にピーク位置Pmを検出するので、短時間に効率よくAF動作を完了することができる。   The operations other than the search start position and search direction of the first and second focus lenses 13 and 22 are the same as those in the first embodiment. When the AF evaluation values of the first and second image data are as shown in the graph of FIG. 8, the second imaging unit 2b first detects the peak position Pm. On the other hand, when the peak position Pm is located between the position Pn and the position Pn + σ, the first imaging unit 2a first detects the peak position Pm. As described above, in the second embodiment of the present invention, as in the first embodiment, one of the first and second imaging units 2a and 2b detects the peak position Pm first during the AF search. The AF operation can be completed efficiently in a short time.

なお、上記第2実施形態では、図8に示すように、第1及び第2フォーカスレンズ13,22のサーチ開始位置を設定したが、このサーチ開始位置を互いに逆にしてもよい。また、上記第2実施形態では、AFサーチ時に第1及び第2フォーカスレンズ13,22をINF端側からNEAR端側へ移動させるようにしたが、NEAR端側からINF端側へ移動させるようにしてもよい。   In the second embodiment, the search start positions of the first and second focus lenses 13 and 22 are set as shown in FIG. 8, but the search start positions may be reversed. In the second embodiment, the first and second focus lenses 13 and 22 are moved from the INF end side to the NEAR end side during the AF search, but are moved from the NEAR end side to the INF end side. May be.

次に、図9を用いて本発明の第3実施形態を説明する。第3実施形態では、第1及び第2鏡筒3a,3bのいずれか一方がレール等によってスライド自在に構成されており、レンズ光軸L1,L2を平行に保ったまま光軸間距離(基線長)Wが可変である。この光軸間距離Wの大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。同図では、第1鏡筒3aがスライド自在となっており、第1鏡筒3aの変位量を検出するための電圧デコーダ40が設けられている。電圧デコーダ40の検出結果(すなわち光軸間距離W)はCPU19へ送信される。   Next, a third embodiment of the present invention will be described with reference to FIG. In the third embodiment, either one of the first and second lens barrels 3a and 3b is configured to be slidable by a rail or the like, and the distance between the optical axes (base line) while keeping the lens optical axes L1 and L2 in parallel. Long) W is variable. The search start positions and search directions of the first and second focus lenses 13 and 22 are determined according to the magnitude of the optical axis distance W. Other configurations are the same as those in the first embodiment. In the figure, the first lens barrel 3a is slidable, and a voltage decoder 40 for detecting the amount of displacement of the first lens barrel 3a is provided. The detection result of the voltage decoder 40 (that is, the optical axis distance W) is transmitted to the CPU 19.

撮影者は、被写体までの概略距離を判断して、第1鏡筒3aを手動でスライドさせる。通常、被写体が遠い場合には光軸間距離Wが小さく、被写体距離が近い場合には光軸間距離Wが大きく設定される。CPU19は、電圧デコーダ40によって検出された光軸間距離Wが所定の長さSより大きいか否かを判定し、光軸間距離Wが長さSより小さい(W<S)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、光軸間距離Wが長さSより大きい(W>S)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。   The photographer determines the approximate distance to the subject and manually slides the first lens barrel 3a. Usually, when the subject is far away, the optical axis distance W is small, and when the subject distance is short, the optical axis distance W is set large. The CPU 19 determines whether or not the optical axis distance W detected by the voltage decoder 40 is larger than a predetermined length S. If the optical axis distance W is smaller than the length S (W <S), The search start positions of the first and second focus lenses 13 and 22 are both set to the NEAR end, the search direction is the direction from the NEAR end toward the INF end, and the optical axis distance W is greater than the length S (W> S), the search start positions of the first and second focus lenses 13 and 22 are both set to the INF end, and the search direction is the direction from the INF end toward the NEAR end.

W<Sの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にW<Sの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。   When W <S, the peak position Pm of the AF evaluation value is positioned on the NEAR end side. Conversely, when W <S, the peak position Pm of the AF evaluation value is positioned on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.

なお、上記第3実施形態では、第1鏡筒3aをスライド自在としたが、これに代えて、第2鏡筒3bをスライド自在としてもよく、また、第1及び第2鏡筒3a,3bをともにスライド自在としてもよい。   In the third embodiment, the first lens barrel 3a is slidable. Alternatively, the second lens barrel 3b may be slidable, and the first and second lens barrels 3a, 3b may be slidable. Both may be slidable.

次に、図10を用いて本発明の第4実施形態を説明する。第4実施形態では、第1及び第2鏡筒3a,3bのいずれか一方がヒンジ等によって回動自在に構成されており、光軸間角度(輻輳角)θが可変である。この光軸間角度θの大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。同図では、第1鏡筒3aが回動自在となっており、第1鏡筒3aの回動角を検出するための角度デコーダ41が設けられている。角度デコーダ41の検出結果(すなわち光軸間角度θ)はCPU19へ送信される。   Next, a fourth embodiment of the present invention will be described with reference to FIG. In the fourth embodiment, one of the first and second lens barrels 3a and 3b is configured to be rotatable by a hinge or the like, and the angle between the optical axes (convergence angle) θ is variable. The search start positions and search directions of the first and second focus lenses 13 and 22 are determined in accordance with the magnitude of the optical axis angle θ. Other configurations are the same as those of the first embodiment. In the figure, the first lens barrel 3a is rotatable, and an angle decoder 41 for detecting the rotation angle of the first lens barrel 3a is provided. The detection result of the angle decoder 41 (that is, the optical axis angle θ) is transmitted to the CPU 19.

撮影者は、被写体までの概略距離を判断して、第1鏡筒3aを手動で回動させる。通常、被写体が遠い場合には光軸間角度θが小さく、被写体距離が近い場合には光軸間角度θが大きく設定される。CPU19は、角度デコーダ41によって検出された光軸間角度θが所定の角度Δより大きいか否かを判定し、光軸間角度θが角度Δより大きい(θ>Δ)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、光軸間角度θが角度Δより小さい(θ<Δ)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。   The photographer determines the approximate distance to the subject and manually rotates the first lens barrel 3a. Usually, when the subject is far, the optical axis angle θ is small, and when the subject distance is short, the optical axis angle θ is set large. The CPU 19 determines whether or not the optical axis angle θ detected by the angle decoder 41 is larger than a predetermined angle Δ, and when the optical axis angle θ is larger than the angle Δ (θ> Δ), the first is performed. When the search start position of both the second focus lenses 13 and 22 is set to the NEAR end, the search direction is the direction from the NEAR end toward the INF end, and the optical axis angle θ is smaller than the angle Δ (θ <Δ). In this case, the search start positions of the first and second focus lenses 13 and 22 are both set to the INF end, and the search direction is the direction from the INF end toward the NEAR end.

θ>Δの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にθ<Δの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。   When θ> Δ, the peak position Pm of the AF evaluation value is located on the NEAR end side. Conversely, when θ <Δ, the peak position Pm of the AF evaluation value is located on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.

なお、上記第4実施形態では、第1鏡筒3aを回動自在としたが、これに代えて、第2鏡筒3bを回動自在としてもよく、また、第1及び第2鏡筒3a,3bをともに回動自在としてもよい。   In the fourth embodiment, the first lens barrel 3a is rotatable. Alternatively, the second lens barrel 3b may be rotatable, and the first and second lens barrels 3a. , 3b may be rotatable.

次に、図11〜図13を用いて本発明の第5実施形態を説明する。第5実施形態では、図11に示すように、フレームメモリ32に格納された第1及び第2画像データから特徴抽出を行い、被写体の視差を求める視差算出回路42が設けられている。この視差の大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。被写体43が被写体43に対して図12に示すような位置関係にあるとする。AF動作開始時(図4のステップS101)には、図13に示すような第1及び第2画像データがフレームメモリ32に格納される。視差算出回路42は、この第1及び第2画像データから被写体43の特徴部(顔や胴体等)を抽出し、その水平位置の差異から被写体視差Pを算出する(同図の場合、視差P=X2−X1)。被写体視差Pは、CPU19へ送信される。   Next, a fifth embodiment of the present invention will be described with reference to FIGS. In the fifth embodiment, as shown in FIG. 11, a parallax calculation circuit 42 that performs feature extraction from the first and second image data stored in the frame memory 32 and obtains the parallax of the subject is provided. The search start positions and search directions of the first and second focus lenses 13 and 22 are determined according to the magnitude of the parallax. Other configurations are the same as those in the first embodiment. Assume that the subject 43 is in a positional relationship as shown in FIG. When the AF operation is started (step S101 in FIG. 4), the first and second image data as shown in FIG. The parallax calculation circuit 42 extracts the characteristic part (face, trunk, etc.) of the subject 43 from the first and second image data, and calculates the subject parallax P from the difference in the horizontal position (in the case of FIG. = X2-X1). The subject parallax P is transmitted to the CPU 19.

CPU19は、視差算出回路42によって算出された被写体視差Pが所定の視差αより大きいか否かを判定し、被写体視差Pが視差αより大きい(P>α)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、被写体視差Pが視差αより小さい(P<α)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。   The CPU 19 determines whether or not the subject parallax P calculated by the parallax calculation circuit 42 is larger than the predetermined parallax α. If the subject parallax P is larger than the parallax α (P> α), the first and second When the search start positions of the focus lenses 13 and 22 are both set to the NEAR end, the search direction is the direction from the NEAR end toward the INF end, and the subject parallax P is smaller than the parallax α (P <α), the first The search start positions of the second focus lenses 13 and 22 are both set to the INF end, and the search direction is the direction from the INF end toward the NEAR end.

P>αの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にP<αの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。   When P> α, the peak position Pm of the AF evaluation value is positioned on the NEAR end side. Conversely, when P <α, the peak position Pm of the AF evaluation value is positioned on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.

次に、図14を用いて本発明の第6実施形態を説明する。第6実施形態では、AF動作開始時にまず第1及び第2撮像部2a,2bのいずれか一方が比較的大きな第1送り量d1でAFサーチ(以下、AFラフサーチと呼ぶ)を行い、AF評価値の概略ピーク位置Pm’を検出した後、第1及び第2撮像部2a,2bの両方を用いて、第1送り量d1より小さな第2送り量d2でAFサーチ(以下、AF詳細サーチと呼ぶ)を行うことにより、AF評価値のより正確なピーク位置Pmを検出するように構成されている。   Next, a sixth embodiment of the present invention will be described with reference to FIG. In the sixth embodiment, at the start of the AF operation, one of the first and second imaging units 2a and 2b first performs AF search (hereinafter referred to as AF rough search) with a relatively large first feed amount d1, and AF evaluation is performed. After the approximate peak position Pm ′ of the value is detected, an AF search (hereinafter referred to as an AF detailed search) is performed with a second feed amount d2 smaller than the first feed amount d1, using both the first and second imaging units 2a and 2b. ), The more accurate peak position Pm of the AF evaluation value is detected.

撮影モードは、第1実施形態の図4のフローチャートに代えて、図14のフローチャートに従う。図14のフローチャートは、ステップS202〜ステップS205以外は図4のフローチャートと同一である。AF動作が開始されると(ステップS201)、第1フォーカスレンズ13がNEAR端に設定され、INF端側へ向かって第1送り量d1でAFラフサーチが行われる(ステップS202)。これにより、図15(A)に示すように、概略ピーク位置Pm’が検出される。そして、検出された概略ピーク位置Pm’を含むようにAF詳細サーチのサーチ範囲Rが決定される(ステップS203)。サーチ範囲Rは、同図に示すように、位置Pm’−d1から位置Pm’+d1の範囲に設定される。   The shooting mode follows the flowchart of FIG. 14 instead of the flowchart of FIG. 4 of the first embodiment. The flowchart in FIG. 14 is the same as the flowchart in FIG. 4 except for steps S202 to S205. When the AF operation is started (step S201), the first focus lens 13 is set to the NEAR end, and the AF rough search is performed with the first feed amount d1 toward the INF end side (step S202). Thereby, as shown in FIG. 15A, the approximate peak position Pm 'is detected. Then, the search range R of the AF detailed search is determined so as to include the detected approximate peak position Pm '(step S203). As shown in the figure, the search range R is set to a range from the position Pm′−d1 to the position Pm ′ + d1.

この後、第1及び第2フォーカスレンズ13,22のサーチ開始位置がサーチ範囲RのNEAR端側(位置Pm’−d1)に設定され(ステップS204)、サーチ範囲R内をINF側へ向かって第2送り量d2でAF詳細サーチが行われる(ステップS205)。そして、前述と同様な手順により、図15(B)に示すように、より正確なピーク位置Pmが検出される(ステップS206,S207)。   Thereafter, the search start positions of the first and second focus lenses 13 and 22 are set to the NEAR end side (position Pm′−d1) of the search range R (step S204), and the search range R is moved toward the INF side. An AF detailed search is performed with the second feed amount d2 (step S205). Then, by the same procedure as described above, a more accurate peak position Pm is detected as shown in FIG. 15B (steps S206 and S207).

このように、本発明の第6実施形態は、1つの撮像部がAFラフサーチを行った後、限定された領域を全ての撮像部がAF詳細サーチを行うので、短時間に効率よくAF動作を完了することができることのほか、AFサーチを行う時間を実質的に短くし、全体の消費電力を低下させることができる。   As described above, in the sixth embodiment of the present invention, after one imaging unit performs AF rough search, all the imaging units perform AF detailed search on a limited area, so that AF operation can be efficiently performed in a short time. In addition to being able to be completed, the time for performing the AF search can be substantially shortened, and the overall power consumption can be reduced.

なお、上記第6実施形態では、第1撮像部2aがAFラフサーチを行うようにしたが、これに代えて、第2撮像部2bがAFラフサーチを行うようにしてもよい。また、AFラフサーチのサーチ開始位置をNEAR端としたが、これをINF端としてもよい。また、AF詳細サーチ時のサーチ開始位置を第1及び第2フォーカスレンズ13,22ともにサーチ範囲RのNEAR端側としたが、これをサーチ範囲RのINF端側としてもよく、さらには、第1及び第2フォーカスレンズ13,22の一方をサーチ範囲RのNEAR端側、他方をサーチ範囲RのINF端側としてもよい。   In the sixth embodiment, the first imaging unit 2a performs the AF rough search. Instead, the second imaging unit 2b may perform the AF rough search. Further, although the search start position of the AF rough search is set as the NEAR end, this may be set as the INF end. Further, although the search start position at the time of the AF detailed search is set to the NEAR end side of the search range R for both the first and second focus lenses 13 and 22, this may be set to the INF end side of the search range R. One of the first and second focus lenses 13 and 22 may be the NEAR end side of the search range R, and the other may be the INF end side of the search range R.

次に、図16を用いて本発明の第7実施形態を説明する。第7実施形態は、上記第6実施形態のAFラフサーチに代えて、コンティニュアスAFサーチを用いるようにしたものである。図16のフローチャートは、ステップS302以外は図14のフローチャートと同一である。ステップS302において、第1及び第2撮像部2a,2bのうち、第1撮像部2aのみが動作を行う。第1撮像部2aは、所定の位置から第1フォーカスレンズ13をNEAR端側及びINF端側へ微動させた後、AF評価値が高くなる方向へ第1フォーカスレンズ13を動かすことにより概略ピーク位置Pm’が検出される。   Next, a seventh embodiment of the present invention will be described with reference to FIG. In the seventh embodiment, a continuous AF search is used in place of the AF rough search of the sixth embodiment. The flowchart in FIG. 16 is the same as the flowchart in FIG. 14 except for step S302. In step S302, only the first imaging unit 2a among the first and second imaging units 2a and 2b operates. The first imaging unit 2a finely moves the first focus lens 13 from a predetermined position to the NEAR end side and the INF end side, and then moves the first focus lens 13 in a direction in which the AF evaluation value increases, thereby approximately the approximate peak position. Pm ′ is detected.

概略ピーク位置Pm’が検出されると、AF詳細サーチのサーチ範囲Rが決定され(ステップS303)、第1及び第2フォーカスレンズ13,22が所定のサーチ開始位置に設定され(ステップS304)、サーチ範囲R内をAF詳細サーチが行われる(ステップS305)。そして、前述と同様な手順により、より正確なピーク位置Pmが検出される(ステップS306,S307)。   When the approximate peak position Pm ′ is detected, the search range R of the AF detailed search is determined (step S303), the first and second focus lenses 13 and 22 are set to predetermined search start positions (step S304), An AF detailed search is performed within the search range R (step S305). Then, a more accurate peak position Pm is detected by the same procedure as described above (steps S306 and S307).

このように、本発明の第7実施形態は、1つの撮像部がコンティニュアスAFサーチを行った後、限定された領域を全ての撮像部がAF詳細サーチを行うので、短時間に効率よくAF動作を完了することができることのほか、AFサーチを行う時間を実質的に短くし、全体の消費電力を低下させることができる。   As described above, in the seventh embodiment of the present invention, after one imaging unit performs a continuous AF search, all the imaging units perform an AF detailed search on a limited area, so that it is efficient in a short time. In addition to being able to complete the AF operation, the time for performing the AF search can be substantially shortened, and the overall power consumption can be reduced.

次に、図17を用いて本発明の第8実施形態を説明する。上記第1〜7実施形態におけるAE動作を同図に示す手順で行うようにしてもよい。AE動作が開始すると、第1絞り12の開口値が最大(開放絞り状態)に設定され、第2絞り21の開口値が最小(小絞り状態)に設定さる(ステップS400)。続いて、第1絞り12の開口値を減少させながら、かつ第2絞り21を増加させながらAE評価値を算出して測光を行い(ステップS403)、第1撮像部2a又は第2撮像部2bのいずれか一方が最適なAE評価値(最適値)を検出したとき(ステップS403のYes)、開口値の増減は停止される。この後、最適値を検出しなかった他方の撮像部の絞りを、最適値を検出した撮像部の絞りの開口値に設定し(ステップS404)、AE動作が終了する。なお、上記ステップS401において、上記とは逆に、第1絞り12の開口値を最小、第2絞り21の開口値を最大と設定してもよい。   Next, an eighth embodiment of the present invention will be described with reference to FIG. The AE operation in the first to seventh embodiments may be performed according to the procedure shown in FIG. When the AE operation starts, the aperture value of the first aperture 12 is set to the maximum (open aperture state), and the aperture value of the second aperture 21 is set to the minimum (small aperture state) (step S400). Subsequently, while the aperture value of the first diaphragm 12 is decreased and the second diaphragm 21 is increased, the AE evaluation value is calculated to perform photometry (step S403), and the first imaging unit 2a or the second imaging unit 2b. When either of these detects the optimal AE evaluation value (optimum value) (Yes in step S403), the increase / decrease in the aperture value is stopped. Thereafter, the aperture of the other imaging unit that has not detected the optimal value is set to the aperture value of the aperture of the imaging unit that has detected the optimal value (step S404), and the AE operation ends. In step S401, contrary to the above, the aperture value of the first diaphragm 12 may be set to the minimum, and the aperture value of the second diaphragm 21 may be set to the maximum.

このように、本発明の第8実施形態は、第1及び第2絞り12,21の一方が開放絞り状態から小絞り状態へ、他方が小絞り状態から開放絞り状態へ開口値を変えながらAE評価値を算出するようにしたので、短時間に効率よくAE動作を完了することができる。   Thus, in the eighth embodiment of the present invention, one of the first and second apertures 12 and 21 changes the aperture value from one open aperture state to the small aperture state and the other changes the aperture value from the small aperture state to the open aperture state. Since the evaluation value is calculated, the AE operation can be completed efficiently in a short time.

なお、上記第1〜8実施形態では、立体カメラ1に第1及び第2撮像部2a,2bの2つの撮像部を設けるようにしたが、3つ以上の撮像部を設けるようにしてもよい。また、本発明の立体画像撮影装置として、静止画の撮影を行うデジタルスチルカメラを例示したが、これに限定されず、動画の撮影を行うデジタルビデオカメラなどにも本発明を適用することができる。   In the first to eighth embodiments, the stereoscopic camera 1 is provided with the two imaging units, the first and second imaging units 2a and 2b. However, three or more imaging units may be provided. . In addition, although the digital still camera that captures a still image is illustrated as the stereoscopic image capturing device of the present invention, the present invention is not limited thereto, and the present invention can also be applied to a digital video camera that captures a moving image. .

立体カメラの前面側の外観図である。It is an external view of the front side of a stereoscopic camera. 立体カメラの背面側の外観図である。It is an external view of the back side of a stereoscopic camera. 立体カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of a stereo camera. 撮影モードの動作を示すフローチャートである。It is a flowchart which shows operation | movement of imaging | photography mode. AF動作時の第1及び第2フォーカスレンズの動作を説明する図である。It is a figure explaining the operation | movement of the 1st and 2nd focus lens at the time of AF operation | movement. 所定の送り量ごとに得られるAF評価値の一例を示すグラフである。It is a graph which shows an example of AF evaluation value obtained for every predetermined feed amount. 本発明の第2実施形態を示す概略構成図である。It is a schematic block diagram which shows 2nd Embodiment of this invention. 本発明の第2実施形態で得られるAF評価値の一例を示すグラフである。It is a graph which shows an example of AF evaluation value obtained by a 2nd embodiment of the present invention. 本発明の第3実施形態を示す概略構成図である。It is a schematic block diagram which shows 3rd Embodiment of this invention. 本発明の第4実施形態を示す概略構成図である。It is a schematic block diagram which shows 4th Embodiment of this invention. 本発明の第5実施形態を示すブロック図である。It is a block diagram which shows 5th Embodiment of this invention. 立体カメラで被写体が撮影される様子を示す図である。It is a figure which shows a mode that a to-be-photographed object is image | photographed with a stereo camera. 撮影によって得られる第1及び第2画像データを示す図である。It is a figure which shows the 1st and 2nd image data obtained by imaging | photography. 本発明の第6実施形態を示すフローチャートである。It is a flowchart which shows 6th Embodiment of this invention. 本発明の第6実施形態で得られるAF評価値の一例を示すグラフである。It is a graph which shows an example of AF evaluation value obtained in a 6th embodiment of the present invention. 本発明の第7実施形態を示すフローチャートである。It is a flowchart which shows 7th Embodiment of this invention. 本発明の第8実施形態を示すフローチャートである。It is a flowchart which shows 8th Embodiment of this invention.

符号の説明Explanation of symbols

1 立体カメラ
2a 第1撮像部
2b 第2撮像部
3a 第1鏡筒
3b 第2鏡筒
10 LCD
11 第1ズームレンズ
12 第1絞り
13 第1フォーカスレンズ
14 第1イメージセンサ
19 CPU
20 第2ズームレンズ
12 第2絞り
22 第2フォーカスレンズ
23 第2イメージセンサ
32 フレームメモリ
33 評価値算出回路
34 立体画像処理回路
40 位置デコーダ
41 角度デコーダ
42 視差算出回路
DESCRIPTION OF SYMBOLS 1 Stereo camera 2a 1st imaging part 2b 2nd imaging part 3a 1st lens barrel 3b 2nd lens barrel 10 LCD
11 First Zoom Lens 12 First Aperture 13 First Focus Lens 14 First Image Sensor 19 CPU
20 second zoom lens 12 second aperture 22 second focus lens 23 second image sensor 32 frame memory 33 evaluation value calculation circuit 34 stereoscopic image processing circuit 40 position decoder 41 angle decoder 42 parallax calculation circuit

Claims (4)

光軸に沿って近点から遠点までの範囲を移動する第1フォーカスレンズを有する第1撮像部と、光軸に沿って近点から遠点までの範囲を移動する第2フォーカスレンズを有する第2撮像部とによって得られる各画像データから輝度値の高周波成分を積算してAF評価値を算出し、前記AF評価値がほぼ最大となる位置に前記第1及び第2フォーカスレンズを位置決めするAF動作を行う立体画像撮影装置において、
前記AF動作において、前記第1及び第2フォーカスレンズを同時に駆動するとともに、所定の送り量ごとに前記AF評価値を算出し、前記AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定する制御手段と、
前記第1及び第2撮像部によって得られる各画像データから被写体の視差を算出する視差算出手段とを備え、
前記制御手段は、前記視差算出手段によって算出された視差に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することを特徴とする立体画像撮影装置。
A first imaging unit having a first focus lens that moves in the range from the near point to the far point along the optical axis; and a second focus lens that moves in the range from the near point to the far point along the optical axis. An AF evaluation value is calculated by integrating high-frequency components of luminance values from each image data obtained by the second imaging unit, and the first and second focus lenses are positioned at a position where the AF evaluation value is substantially maximum. In a stereoscopic image capturing apparatus that performs an AF operation,
In the AF operation, the first and second focus lenses are simultaneously driven, the AF evaluation value is calculated for each predetermined feed amount, and the maximum value of the AF evaluation value is detected at the position of the focus lens previously detected. Control means for setting the other focus lens ;
Parallax calculating means for calculating the parallax of the subject from each image data obtained by the first and second imaging units,
The stereoscopic image capturing apparatus , wherein the control means determines a movement start position and a movement direction of the first and second focus lenses according to the parallax calculated by the parallax calculation means .
前記制御手段は、前記視差算出手段によって算出された被写体の視差が所定値より大きい場合には、前記第1及び第2フォーカスレンズの移動開始位置をともに近点とするとともに、移動方向を近点から遠点に向かう方向とし、前記視差算出手段によって算出された被写体の視差が所定値より小さい場合には、前記第1及び第2フォーカスレンズの移動開始位置をともに遠点とするとともに、移動方向を遠点から近点に向かう方向とすることを特徴とする請求項1記載の立体画像撮影装置。When the parallax of the subject calculated by the parallax calculation unit is greater than a predetermined value, the control unit sets the movement start positions of the first and second focus lenses as near points and sets the movement direction as a near point. When the parallax of the subject calculated by the parallax calculation means is smaller than a predetermined value, the movement start positions of the first and second focus lenses are both set as the far point and the movement direction. The stereoscopic image capturing apparatus according to claim 1, wherein a direction from a far point to a near point is set. 前記視差算出手段は、前記各画像データから被写体の特徴部を抽出し、その位置の差異から該被写体の視差を算出することを特徴とする請求項1または2記載の立体画像撮影装置。The stereoscopic image capturing apparatus according to claim 1, wherein the parallax calculation unit extracts a feature portion of the subject from each of the image data, and calculates the parallax of the subject from a difference in position. 前記第1及び第2撮像部は光束を制限する第1及び第2絞りをそれぞれ備え、前記第1及び第2絞りの開口値をそれぞれ異なる値に設定した後、各開口値を変えながら測光を行い、最適値を先に検出した絞りの開口値に他方の絞りの開口値を設定することを特徴とする請求項1ないしいずれか記載の立体画像撮影装置。 The first and second imaging units include first and second diaphragms for restricting light beams, respectively, and the aperture values of the first and second diaphragms are set to different values, and then photometry is performed while changing each aperture value. performed, the three-dimensional image photographing apparatus in accordance with claim 1, characterized in that to set the aperture value of the other diaphragm aperture value of the aperture obtained by detecting the optimum value previously 3.
JP2004354543A 2004-12-07 2004-12-07 Stereo imaging device Expired - Fee Related JP4533735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004354543A JP4533735B2 (en) 2004-12-07 2004-12-07 Stereo imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004354543A JP4533735B2 (en) 2004-12-07 2004-12-07 Stereo imaging device

Publications (2)

Publication Number Publication Date
JP2006162990A JP2006162990A (en) 2006-06-22
JP4533735B2 true JP4533735B2 (en) 2010-09-01

Family

ID=36665087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004354543A Expired - Fee Related JP4533735B2 (en) 2004-12-07 2004-12-07 Stereo imaging device

Country Status (1)

Country Link
JP (1) JP4533735B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11092797B2 (en) 2017-05-01 2021-08-17 Olympus Corporation Endoscopic image capturing device

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5015634B2 (en) * 2007-03-02 2012-08-29 富士フイルム株式会社 Imaging system, imaging method and program
JP5144469B2 (en) * 2008-10-29 2013-02-13 富士フイルム株式会社 Imaging apparatus and control method thereof
JP4995175B2 (en) * 2008-10-29 2012-08-08 富士フイルム株式会社 Stereo imaging device and focus control method
JP5185097B2 (en) 2008-12-19 2013-04-17 富士フイルム株式会社 Imaging apparatus and in-focus position determination method
JP2010249941A (en) * 2009-04-13 2010-11-04 Sony Corp Three-dimensional imaging apparatus
JP5426262B2 (en) * 2009-07-17 2014-02-26 富士フイルム株式会社 Compound eye imaging device
JP5425554B2 (en) 2009-07-27 2014-02-26 富士フイルム株式会社 Stereo imaging device and stereo imaging method
JP2011075675A (en) 2009-09-29 2011-04-14 Fujifilm Corp Compound-eye imaging apparatus
KR101616422B1 (en) * 2009-12-23 2016-04-28 삼성전자주식회사 Method and apparatus for processing the digital image by using fast AF
JP5413184B2 (en) * 2009-12-24 2014-02-12 ソニー株式会社 Camera system and camera control method
CN102822740B (en) * 2010-03-25 2015-09-30 富士胶片株式会社 Stereoscopic imaging apparatus and for automatically regulating the method for the focus of stereoscopic imaging apparatus
CN102893196B (en) * 2010-05-14 2014-05-28 富士胶片株式会社 Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device
JP2012027263A (en) * 2010-07-23 2012-02-09 Sony Corp Imaging apparatus, control method and program thereof
US8836767B2 (en) 2010-12-17 2014-09-16 Samsung Electronics Co., Ltd Imaging apparatus and imaging method
JP2012128298A (en) * 2010-12-17 2012-07-05 Samsung Electronics Co Ltd Imaging apparatus and imaging method
US8760567B2 (en) 2010-12-21 2014-06-24 Samsung Electronics Co., Ltd. Photographing apparatus and method to reduce auto-focus time
JP5383639B2 (en) 2010-12-22 2014-01-08 セイコープレシジョン株式会社 Blade driving device and optical apparatus
WO2013031227A1 (en) * 2011-09-01 2013-03-07 パナソニック株式会社 Image pickup device and program
JP2013109010A (en) 2011-11-17 2013-06-06 Canon Inc Stereoscopic image photographing system
JP6124684B2 (en) * 2013-05-24 2017-05-10 キヤノン株式会社 Imaging device, control method thereof, and control program
JP6083335B2 (en) * 2013-06-26 2017-02-22 株式会社ソシオネクスト Imaging apparatus, selection method, and selection program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152193A (en) * 1984-01-20 1985-08-10 Japan Atom Power Co Ltd:The Automatic operation type stereo television set
JPH03252638A (en) * 1990-03-02 1991-11-11 Canon Inc Exchange lens system
JPH05158102A (en) * 1991-12-06 1993-06-25 Nikon Corp Photographing information setting device for camera
JPH0767023A (en) * 1993-08-26 1995-03-10 Canon Inc Compound eye type image pickup device
JPH08172571A (en) * 1994-12-19 1996-07-02 Sony Corp Image pickup device
JPH08251625A (en) * 1995-03-07 1996-09-27 Olympus Optical Co Ltd Optical device for photographing stereoscopic video
JPH1023467A (en) * 1996-07-04 1998-01-23 Tokyo Electric Power Co Inc:The Stereoscopic image device
JP2004120527A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Twin-lens digital camera
JP2004207774A (en) * 2002-02-22 2004-07-22 Fuji Photo Film Co Ltd Digital camera

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152193A (en) * 1984-01-20 1985-08-10 Japan Atom Power Co Ltd:The Automatic operation type stereo television set
JPH03252638A (en) * 1990-03-02 1991-11-11 Canon Inc Exchange lens system
JPH05158102A (en) * 1991-12-06 1993-06-25 Nikon Corp Photographing information setting device for camera
JPH0767023A (en) * 1993-08-26 1995-03-10 Canon Inc Compound eye type image pickup device
JPH08172571A (en) * 1994-12-19 1996-07-02 Sony Corp Image pickup device
JPH08251625A (en) * 1995-03-07 1996-09-27 Olympus Optical Co Ltd Optical device for photographing stereoscopic video
JPH1023467A (en) * 1996-07-04 1998-01-23 Tokyo Electric Power Co Inc:The Stereoscopic image device
JP2004207774A (en) * 2002-02-22 2004-07-22 Fuji Photo Film Co Ltd Digital camera
JP2004120527A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Twin-lens digital camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11092797B2 (en) 2017-05-01 2021-08-17 Olympus Corporation Endoscopic image capturing device

Also Published As

Publication number Publication date
JP2006162990A (en) 2006-06-22

Similar Documents

Publication Publication Date Title
JP4533735B2 (en) Stereo imaging device
TWI514847B (en) Image processing device, image processing method, and recording medium
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP5415170B2 (en) Compound eye imaging device
JP2011045039A (en) Compound-eye imaging apparatus
JP4764854B2 (en) Imaging apparatus, image reproducing apparatus, imaging method, system, and program
JP2011075675A (en) Compound-eye imaging apparatus
JP5216640B2 (en) Imaging apparatus and method
US20110050856A1 (en) Stereoscopic imaging apparatus
JP2009094724A (en) Imaging apparatus
JP2006162991A (en) Stereoscopic image photographing apparatus
JP2010204483A (en) Imaging apparatus, method and program
US20070195190A1 (en) Apparatus and method for determining in-focus position
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP4767904B2 (en) Imaging apparatus and imaging method
JP4949717B2 (en) In-focus position determining apparatus and method
JP3551932B2 (en) Distance measuring device and imaging device using the same
JP4046276B2 (en) Digital camera
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2008244991A (en) Imaging apparatus and imaging method
JP2009092961A (en) Focusing position control device, focusing position control method, and focusing position control program
JPH09181954A (en) Electronic still camera and method for focus-controlling the same
JP2010134291A (en) Image capturing apparatus and method for controlling the same
EP3145172B1 (en) Image capturing device and still image generating method
JP2007226141A (en) Photographing device and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Ref document number: 4533735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees