JP4533735B2 - Stereo imaging device - Google Patents
Stereo imaging device Download PDFInfo
- Publication number
- JP4533735B2 JP4533735B2 JP2004354543A JP2004354543A JP4533735B2 JP 4533735 B2 JP4533735 B2 JP 4533735B2 JP 2004354543 A JP2004354543 A JP 2004354543A JP 2004354543 A JP2004354543 A JP 2004354543A JP 4533735 B2 JP4533735 B2 JP 4533735B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- search
- value
- evaluation value
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Diaphragms For Cameras (AREA)
- Automatic Focus Adjustment (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Lens Barrels (AREA)
Description
本発明は、複数の撮像部を備えてなるデジタルカメラ等の立体画像撮影装置に関するものである。 The present invention relates to a stereoscopic image photographing apparatus such as a digital camera provided with a plurality of imaging units.
近年、デジタルカメラが広く普及している。デジタルカメラは、撮影レンズ、絞り、及びイメージセンサ等からなる撮像部を備え、撮像部によって取得された画像データはデジタル化されてメモリカードなどの情報記録媒体に記録される。イメージセンサは、撮影レンズによって結像される被写体像を光電変換するCCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型などの固体撮像装置によって構成されている。 In recent years, digital cameras have become widespread. The digital camera includes an imaging unit including a photographing lens, a diaphragm, an image sensor, and the like, and image data acquired by the imaging unit is digitized and recorded on an information recording medium such as a memory card. The image sensor is configured by a solid-state imaging device such as a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type that photoelectrically converts a subject image formed by a photographing lens.
このようなデジタルカメラのなかには、第1及び第2の2つの撮像部を備え、立体視用の2つの画像を取得することのできる2眼式のものがある(例えば、下記特許文献1、2参照)。この2眼式デジタルカメラは、各撮像部によって同一の被写体を同時に撮影して右眼用画像及び左眼用画像の視差の異なる2種類の画像を取得する。立体視用のディスプレイを用いて、取得された右眼用画像を右眼、左眼用画像を左眼に導くことにより、立体表示が実現される。
しかしながら、特許文献1及び2には、2眼式デジタルカメラの撮影時における自動ピント合わせ(AF:Auto Focus)の具体的な動作方法は開示されていない。2眼式デジタルカメラの2つの撮像部は、同一の被写体を同時に撮影するものであるから、各々が独立してAF動作を行うことは時間的に非効率である。 However, Patent Documents 1 and 2 do not disclose a specific operation method of automatic focusing (AF) at the time of photographing with a twin-lens digital camera. Since the two image capturing units of the twin-lens digital camera capture the same subject at the same time, it is inefficient in time to perform the AF operation independently of each other.
本発明は、上記課題を解決するためになされたものであり、複数の撮像部を備え、短時間に効率よくAF動作を行うことができる立体画像撮影装置を提供することを目的としている。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a stereoscopic image capturing apparatus that includes a plurality of imaging units and can perform an AF operation efficiently in a short time.
上記目的を達成するために、本発明の立体画像撮影装置は、光軸に沿って近点から遠点までの範囲を移動する第1フォーカスレンズを有する第1撮像部と、光軸に沿って近点から遠点までの範囲を移動する第2フォーカスレンズを有する第2撮像部とによって得られる各画像データから輝度値の高周波成分を積算してAF評価値を算出し、前記AF評価値がほぼ最大となる位置に前記第1及び第2フォーカスレンズを位置決めするAF動作を行う立体画像撮影装置において、前記AF動作において、前記第1及び第2フォーカスレンズを同時に駆動し、所定の送り量ごとに前記AF評価値を算出し、前記AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定することを特徴とするものである。 In order to achieve the above object, a stereoscopic image capturing apparatus of the present invention includes a first imaging unit having a first focus lens that moves in a range from a near point to a far point along an optical axis, and an optical axis. The AF evaluation value is calculated by integrating the high-frequency component of the luminance value from each image data obtained by the second imaging unit having the second focus lens moving in the range from the near point to the far point, and the AF evaluation value is In a stereoscopic image photographing apparatus that performs an AF operation for positioning the first and second focus lenses at a position that is substantially maximum, in the AF operation, the first and second focus lenses are simultaneously driven, and each predetermined feed amount is obtained. The AF evaluation value is calculated, and the other focus lens is set at the position of the focus lens where the maximum value of the AF evaluation value is detected first.
なお、前記AF動作において、前記第1及び第2フォーカスレンズの一方を近点から遠点へ向けて駆動し、他方を遠点から近点へ向けて駆動することが好ましい。 In the AF operation, it is preferable that one of the first and second focus lenses is driven from the near point to the far point and the other is driven from the far point to the near point.
また、前記AF動作において、前記第1及び第2フォーカスレンズの一方の移動開始位置を近点又は遠点とし、他方の移動開始位置を近点と遠点との間として、双方をともに同方向へ移動させることも好適である。 In the AF operation, one movement start position of the first and second focus lenses is set as a near point or a far point, and the other movement start position is set between the near point and the far point, and both are in the same direction. It is also suitable to move to.
また、前記第1及び第2フォーカスレンズの光軸間距離が可変であって、前記AF動作において、前記光軸間距離に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。 Further, the distance between the optical axes of the first and second focus lenses is variable, and in the AF operation, the movement start position and the movement direction of the first and second focus lenses are set according to the distance between the optical axes. It is also suitable to determine.
また、前記第1及び第2フォーカスレンズの光軸間角度が可変であって、前記AF動作において、前記光軸間角度に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。 Further, the angle between the optical axes of the first and second focus lenses is variable, and in the AF operation, the movement start position and the movement direction of the first and second focus lenses are set according to the angle between the optical axes. It is also suitable to determine.
また、前記第1及び第2撮像部によって得られる各画像データから被写体の視差を算出する視差算出手段を有し、前記AF動作において、前記視差算出手段によって算出された視差に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することも好適である。 Further, the image processing apparatus includes a parallax calculation unit that calculates a parallax of a subject from each image data obtained by the first and second imaging units, and the first operation is performed according to the parallax calculated by the parallax calculation unit in the AF operation. It is also preferable to determine the movement start position and movement direction of the second focus lens.
また、前記AF動作において、前記第1及び第2撮像部の一方を近点又は遠点の一方から他方へ向けて駆動し、第1送り量ごとに前記AF評価値を算出して最大値を検出した後、この最大値が得られたフォーカスレンズの位置を含むように決定した範囲内に限って前記第1及び第2撮像部の双方を駆動し、前記第1送り量より小さい第2送り量ごと前記AF評価値を算出して最大値を検出することも好適である。 In the AF operation, one of the first and second imaging units is driven from one of the near point or the far point toward the other, and the AF evaluation value is calculated for each first feed amount to obtain the maximum value. After the detection, both the first and second imaging units are driven only within a range determined to include the position of the focus lens where the maximum value is obtained, and the second feed smaller than the first feed amount. It is also preferable to detect the maximum value by calculating the AF evaluation value for each amount.
また、前記AF動作において、前記第1及び第2撮像部の一方を所定位置から近点及び遠点の方向へ微動させ、前記AF評価値が増大する方向にフォーカスレンズを移動させて前記AF評価値の最大値を検出した後、この最大値が得られたフォーカスレンズの位置を含むように決定した範囲内に限って前記第1及び第2撮像部の双方を駆動し、所定の送り量ごと前記AF評価値を算出して最大値を検出することも好適である。 Further, in the AF operation, one of the first and second imaging units is finely moved from a predetermined position toward a near point and a far point, and a focus lens is moved in a direction in which the AF evaluation value increases, thereby performing the AF evaluation. After detecting the maximum value, both the first and second imaging units are driven only within a range determined so as to include the position of the focus lens from which the maximum value was obtained, for each predetermined feed amount. It is also preferable to detect the maximum value by calculating the AF evaluation value.
さらに、前記第1及び第2撮像部は光束を制限する第1及び第2絞りをそれぞれ備え、前記第1及び第2絞りの開口値をそれぞれ異なる値に設定した後、各開口値を変えながら測光を行い、最適値を先に検出した絞りの開口値に他方の絞りの開口値を設定することも好適である。 Furthermore, the first and second imaging units include first and second diaphragms for restricting light beams, respectively, and the aperture values of the first and second diaphragms are set to different values, and then the aperture values are changed. It is also preferable to perform photometry and set the aperture value of the other aperture to the aperture value of the aperture for which the optimum value has been detected first.
本発明の立体画像撮影装置は、AF動作において、第1及び第2フォーカスレンズを同時に駆動し、所定の送り量ごとにAF評価値を算出し、AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定するので、短時間に効率よくAF動作を完了することができる。 The stereoscopic image capturing apparatus according to the present invention drives the first and second focus lenses simultaneously in the AF operation, calculates an AF evaluation value for each predetermined feed amount, and detects the maximum AF evaluation value first. Since the other focus lens is set at the lens position, the AF operation can be completed efficiently in a short time.
図1において、本発明の第1実施形態を適用した立体カメラ1の前面には、第1撮像部2aを保持する第1鏡筒3a、第2撮像部2bを保持する第2鏡筒3bが組み込まれているほか、ストロボ装置4などが露呈している。第1及び第2鏡筒3a,3bは、第1及び第2撮像部2a,2bのレンズ光軸L1,L2が平行となるように、水平方向に一定間隔を保って並設されている。第1及び第2鏡筒3a,3bは、撮影時には図中実線で示すようにカメラ本体から前方に繰り出し、電源オフ時又は画像再生時には図中点線で示すようにカメラ本体内に沈胴する。また、立体カメラ1の上面には、シャッタレリーズ操作に用いられるシャッタボタン5が設けられている。
In FIG. 1, on the front surface of the stereoscopic camera 1 to which the first embodiment of the present invention is applied, a
図2において、立体カメラ1の背面には、ズームボタン6、メニューボタン7、カーソルボタン8等からなる入力操作部9と、LCD(Liquid Crystal Display)10とが設けられている。入力操作部9の適宜操作により、電源のオン/オフ、各種モード(撮影モード,再生モード等)の切り替え、ズーミングなどが行われる。LCD10は、パララックスバリア式、或いはレンチキュラーレンズ式の3Dモニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの立体表示を行う。
In FIG. 2, an input operation unit 9 including a
図3は、立体カメラ1の電気的構成を示す。第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11、第1絞り12、第1フォーカスレンズ13、及び第1イメージセンサ14によって構成されている。第1ズームレンズ11にはレンズモータ15、第1絞り12にはアイリスモータ16、第1フォーカスレンズ13にはレンズモータ17が接続されており、また、第1イメージセンサ14にはタイミングジェネレータ(TG)18が接続されている。モータ15〜17、及びTG18の動作はCPU19によって制御される。
FIG. 3 shows an electrical configuration of the stereoscopic camera 1. The
レンズモータ15は、入力操作部9からのズーム操作に応じて、第1ズームレンズ11をレンズ光軸L1に沿ってNEAR側(繰り出し側)、或いはINF側(繰り込み側)に移動させ、ズーム倍率を変化させる。アイリスモータ16は、AE(Auto Exposure)動作時に第1絞り12の開口値(絞り値)を変化させて光束を制限し、露出調整を行う。レンズモータ17は、AF(Auto Focus)動作時に第1フォーカスレンズ13をレンズ光軸L1に沿ってNEAR側、或いはINF側に移動させて合焦位置を変え、ピント調整を行う。
The
第1イメージセンサ14は、第1ズームレンズ11、第1絞り12、及び第1フォーカスレンズ13によって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14の光電荷蓄積・転送動作は、TG18によって制御され、TG18から入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14は、撮影モード時には、1画面分の画像信号を所定周期ごとに取得し、順次、相関二重サンプリング回路(CDS)28に入力する。
The
第2撮像部2bは、第1撮像部2aと同一の構成であり、レンズモータ24が接続された第2ズームレンズ20、アイリスモータ25が接続された第2絞り21、レンズモータ26が接続された第2フォーカスレンズ22、及びタイミングジェネレータ(TG)27が接続された第2イメージセンサ23によって構成されている。モータ24〜26、及びTG27の動作はCPU19によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1及び第2イメージセンサ14,23として、CCD型やCMOS型のイメージセンサが用いられる。
The
第1及び第2イメージセンサ14,23から出力された撮像信号は、相関二重サンプリング回路(CDS)28に入力される。CDS28は、第1及び第2イメージセンサ14,23の各受光素子の蓄積電荷量に正確に対応したR,G,Bの画像データを増幅器(AMP)29に入力する。AMP29は、入力された画像データを増幅し、A/D変換器30に入力する。A/D変換器30は、入力された画像データをアナログからデジタルに変換する。CDS28、AMP29、A/D変換器30を通して、第1イメージセンサ14の撮像信号は第1画像データ(右眼用画像データ)として、第2イメージセンサ23の撮像信号は第2画像データ(左眼用画像データ)として出力される。
The imaging signals output from the first and
画像信号処理回路31は、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器30から入力された第1及び第2画像データに施す。フレームメモリ32は、画像信号処理回路31で各種画像処理が施された第1及び第2画像データを一時的に格納する。
The image
評価値算出回路33は、フレームメモリ32に格納された第1及び第2画像データの各々からAF評価値及びAE評価値を算出する。AF評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値及びAE評価値は、後述する撮影準備処理時に実行されるAF動作及びAE動作においてそれぞれ使用される。
The evaluation
立体画像処理回路34は、フレームメモリ32に格納されている第1及び第2画像データを、LCD10が立体表示を行うための立体画像データに合成する。撮影モード時にLCD10が電子ビューファインダとして使用される際には、立体画像処理回路34によって合成された立体画像データが、LCDドライバ35を介してLCD10にスルー画として表示される。
The stereoscopic
圧縮伸張処理回路36は、フレームメモリ32に記憶された第1及び第2画像データに対して、JPEG方式等の圧縮形式により圧縮処理を施す。メディアコントローラ37は、圧縮伸張処理回路36によって圧縮処理された各画像データをメモリカード等の記録メディア38に記録させる。
The compression /
このようにして記録メディア38に記録された第1及び第2画像データをLCD10に再生表示する場合、記録メディア38の各画像データは、メディアコントローラ37によって読み出され、圧縮伸張処理回路36によって伸張処理が行われ、立体画像処理回路34によって立体画像データに変換された後、LCDドライバ35を介してLCD10に再生画像として表示される。
When the first and second image data thus recorded on the
LCD10の詳細な構造は図示しないが、LCD10は、その表面にパララックスバリア表示層を備えている。LCD10は、立体表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで立体視を可能にする。
Although the detailed structure of the
CPU19は、立体カメラ1の全体の動作を統括的に制御する。CPU19には、前述のシャッタボタン5、入力操作部9のほか、不揮発性メモリであるEEPROM39が接続されている。EEPROM39は、各種制御用のプログラムや設定情報などを格納している。CPU19は、このプログラムや設定情報に基づいて各種処理を実行する。
The
シャッタボタン5は2段押しのスイッチ構造となっている。撮影モード中に、シャッタボタン5が軽く押圧(半押し)されると、AF動作及びAE動作が行われ撮影準備処理がなされる。この状態でさらにシャッタボタン5が強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1及び第2画像データがフレームメモリ32から記録メディア38に転送されて記録される。
The
詳しくは後述するが、AF動作は、CPU19がレンズモータ17,26を制御して第1及び第2フォーカスレンズ13,22をそれぞれ所定方向に移動させながら、順次に得られる第1及び第2画像データの各々から評価値算出回路33が算出したAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、評価値算出回路33が算出したAE評価値に基づいて、CPU19がアイリスモータ18,27及びTG18,27を制御し、第1及び第2絞り12,21の開口値、及び第1及び第2イメージセンサ14,23の電子シャッタ速度を設定することによりなされる。
As will be described in detail later, in the AF operation, the
次に、本発明の作用について図4〜図6を用いて説明を行う。図4は、立体カメラ1が備える撮影モードの動作を示す。入力操作部9の操作により、立体カメラ1の電源が投入されて撮影モードに設定されると、シャッタボタン5が半押しされたか否かを検出する待機状態となる(ステップS100)。このとき、LCD10にはスルー画が表示される。撮影者が被写体のフレーミングを行い、シャッタボタン5を半押しすると、AF動作が開始し(ステップS101)、まず第1及び第2フォーカスレンズ13,22が図5に示すサーチ開始位置(移動開始位置)に設定される(ステップS102)。第1フォーカスレンズ13のサーチ開始位置はNEAR端(位置Pn(近点))に設定され、第2フォーカスレンズ22のサーチ開始位置はINF端(位置Pi(遠点))に設定される。なお、第1及び第2フォーカスレンズ13,22は、それぞれNEAR端からINF端までの範囲を移動する。
Next, the operation of the present invention will be described with reference to FIGS. FIG. 4 shows the operation of the shooting mode provided in the stereoscopic camera 1. When the power of the stereoscopic camera 1 is turned on and the photographing mode is set by the operation of the input operation unit 9, a standby state is detected in which it is detected whether or not the
この後、AFサーチが実行される(ステップS103)。第1フォーカスレンズ13はレンズ光軸L1に沿って図中矢印A方向へ移動され、第2フォーカスレンズ22はレンズ光軸L2に沿って図中矢印B方向へ移動される。このとき、第1及び第2フォーカスレンズ13,22は等速度で移動され、送り量d(図6参照)だけ移動されるごとに上記第1及び第2画像データのAF評価値が算出される(ステップ104)。なお、送り量dは、NEAR端からINF端までの間でAF評価値の算出点が十分な数だけ得られるように設定される。
Thereafter, an AF search is executed (step S103). The
第1及び第2フォーカスレンズ13,22が同じ位置にある場合、第1及び第2画像データのAF評価値はほぼ同一である。第1及び第2画像データのAF評価値が例えば図6のグラフに従う場合、AF評価値が最大となる位置(ピーク位置)Pmは、INF端側に位置しているため、矢印B方向へAFサーチを行う第2撮像部2bが、矢印A方向へAFサーチを行う第1撮像部2aより先にAF評価値の最大値を検出することとなる。なお、この最大値の検出は、AF評価値の増減により判定される。
When the first and
このようにして、第1撮像部2a又は第2撮像部2bのいずれか一方がAF評価値の最大値を検出したとき(ステップS105のYes)、AFサーチは終了し、第1及び第2フォーカスレンズ13,22はその場に停止される(ステップ106)。このとき、AF評価値の最大値を検出した撮像部(図6の例では第2撮像部2b)のフォーカスレンズはピーク位置Pmに停止されているが、他方の撮像部(図6の例では第1撮像部2a)のフォーカスレンズはピーク位置Pmには停止されていない。この後、該他方の撮像部のフォーカスレンズを移動させてピーク位置Pmに設定すると(ステップS107)、AF動作が終了する(ステップS108)。
In this way, when either the
AF動作が終了すると、続いてAE動作が開始され(ステップS109)、ピーク位置Pmで取得される第1及び第2画像データからAE評価値が算出される。このAE評価値に基づいて露出量が決定され(ステップS110)、第1及び第2絞り12,21の開口値、及び第1及び第2イメージセンサ14,23の電子シャッタ速度が設定されるとAE動作は終了する(ステップS111)。この後、シャッタボタン5が全押しされたか否かを検出する待機状態となる(ステップS112)。シャッタボタン5が全押しされると、撮影が実行され、このとき取得された1画面分の第1及び第2画像データが記録メディア38に記録される(ステップS113)。
When the AF operation is completed, the AE operation is subsequently started (step S109), and the AE evaluation value is calculated from the first and second image data acquired at the peak position Pm. When the exposure amount is determined based on the AE evaluation value (step S110), the aperture values of the first and
なお、上記第1実施形態では、図5に示すように、第1フォーカスレンズ13のサーチ開始位置をNEAR端、第2フォーカスレンズ22のサーチ開始位置をINF端としたが、本発明はこれに限られるものではなく、上記とは逆に、第1フォーカスレンズ13のサーチ開始位置をINF端、第2フォーカスレンズ22のサーチ開始位置をNEAR端としてもよい。
In the first embodiment, as shown in FIG. 5, the search start position of the
以上のように、本発明の第1実施形態を適用した立体カメラ1は、AF動作時において、第1及び第2フォーカスレンズ13,22の一方のサーチ開始位置をNEAR端、他方のサーチ開始位置をINF端に設定した後、それぞれを互いに逆方向に動かしてAFサーチを行うので、短時間に効率よくAF動作を完了することができる。
As described above, in the stereoscopic camera 1 to which the first embodiment of the present invention is applied, during the AF operation, one search start position of the first and
また、上記第1実施形態では、時に第1及び第2フォーカスレンズ13,22を互いに逆方向に動かしてAFサーチを行うようにしたが、これに代えて、第1及び第2フォーカスレンズ13,22を同一方向に動かしてAFサーチを行っても、以下に示すように上記と同様な効果が得られる場合がある。
In the first embodiment, the first and
次に、図7及び図8を用いて本発明の第2実施形態を説明する。第2実施形態は、第1及び第2フォーカスレンズ13,22を同一方向に動かしてAFサーチを行うようにしたものであり、サーチ開始位置が上記第1実施形態とは異なる。同図では、第1フォーカスレンズ13のサーチ開始位置をNEAR端、第2フォーカスレンズ22のサーチ開始位置をNEAR端から距離δだけずらした位置(位置Pn+σ)とし、サーチ方向をともにINF端側へ向けて同一方向(図中矢印A,B)としている。なお、ずれ量σは、NEAR端からINF端までの半分の距離とすることが好ましい。
Next, a second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, an AF search is performed by moving the first and
第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向以外の動作は上記第1実施形態と同一である。第1及び第2画像データのAF評価値が図8のグラフに示すようになる場合には、第2撮像部2bが先にピーク位置Pmを検出する。一方、ピーク位置Pmが位置Pnと位置Pn+σとの間に位置する場合には、第1撮像部2aが先にピーク位置Pmを検出する。このように、本発明の第2実施形態は、上記第1実施形態と同様に、AFサーチ時に第1及び第2撮像部2a,2bのいずれか一方が先にピーク位置Pmを検出するので、短時間に効率よくAF動作を完了することができる。
The operations other than the search start position and search direction of the first and
なお、上記第2実施形態では、図8に示すように、第1及び第2フォーカスレンズ13,22のサーチ開始位置を設定したが、このサーチ開始位置を互いに逆にしてもよい。また、上記第2実施形態では、AFサーチ時に第1及び第2フォーカスレンズ13,22をINF端側からNEAR端側へ移動させるようにしたが、NEAR端側からINF端側へ移動させるようにしてもよい。
In the second embodiment, the search start positions of the first and
次に、図9を用いて本発明の第3実施形態を説明する。第3実施形態では、第1及び第2鏡筒3a,3bのいずれか一方がレール等によってスライド自在に構成されており、レンズ光軸L1,L2を平行に保ったまま光軸間距離(基線長)Wが可変である。この光軸間距離Wの大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。同図では、第1鏡筒3aがスライド自在となっており、第1鏡筒3aの変位量を検出するための電圧デコーダ40が設けられている。電圧デコーダ40の検出結果(すなわち光軸間距離W)はCPU19へ送信される。
Next, a third embodiment of the present invention will be described with reference to FIG. In the third embodiment, either one of the first and second lens barrels 3a and 3b is configured to be slidable by a rail or the like, and the distance between the optical axes (base line) while keeping the lens optical axes L1 and L2 in parallel. Long) W is variable. The search start positions and search directions of the first and
撮影者は、被写体までの概略距離を判断して、第1鏡筒3aを手動でスライドさせる。通常、被写体が遠い場合には光軸間距離Wが小さく、被写体距離が近い場合には光軸間距離Wが大きく設定される。CPU19は、電圧デコーダ40によって検出された光軸間距離Wが所定の長さSより大きいか否かを判定し、光軸間距離Wが長さSより小さい(W<S)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、光軸間距離Wが長さSより大きい(W>S)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。
The photographer determines the approximate distance to the subject and manually slides the
W<Sの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にW<Sの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。 When W <S, the peak position Pm of the AF evaluation value is positioned on the NEAR end side. Conversely, when W <S, the peak position Pm of the AF evaluation value is positioned on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.
なお、上記第3実施形態では、第1鏡筒3aをスライド自在としたが、これに代えて、第2鏡筒3bをスライド自在としてもよく、また、第1及び第2鏡筒3a,3bをともにスライド自在としてもよい。
In the third embodiment, the
次に、図10を用いて本発明の第4実施形態を説明する。第4実施形態では、第1及び第2鏡筒3a,3bのいずれか一方がヒンジ等によって回動自在に構成されており、光軸間角度(輻輳角)θが可変である。この光軸間角度θの大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。同図では、第1鏡筒3aが回動自在となっており、第1鏡筒3aの回動角を検出するための角度デコーダ41が設けられている。角度デコーダ41の検出結果(すなわち光軸間角度θ)はCPU19へ送信される。
Next, a fourth embodiment of the present invention will be described with reference to FIG. In the fourth embodiment, one of the first and second lens barrels 3a and 3b is configured to be rotatable by a hinge or the like, and the angle between the optical axes (convergence angle) θ is variable. The search start positions and search directions of the first and
撮影者は、被写体までの概略距離を判断して、第1鏡筒3aを手動で回動させる。通常、被写体が遠い場合には光軸間角度θが小さく、被写体距離が近い場合には光軸間角度θが大きく設定される。CPU19は、角度デコーダ41によって検出された光軸間角度θが所定の角度Δより大きいか否かを判定し、光軸間角度θが角度Δより大きい(θ>Δ)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、光軸間角度θが角度Δより小さい(θ<Δ)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。
The photographer determines the approximate distance to the subject and manually rotates the
θ>Δの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にθ<Δの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。 When θ> Δ, the peak position Pm of the AF evaluation value is located on the NEAR end side. Conversely, when θ <Δ, the peak position Pm of the AF evaluation value is located on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.
なお、上記第4実施形態では、第1鏡筒3aを回動自在としたが、これに代えて、第2鏡筒3bを回動自在としてもよく、また、第1及び第2鏡筒3a,3bをともに回動自在としてもよい。
In the fourth embodiment, the
次に、図11〜図13を用いて本発明の第5実施形態を説明する。第5実施形態では、図11に示すように、フレームメモリ32に格納された第1及び第2画像データから特徴抽出を行い、被写体の視差を求める視差算出回路42が設けられている。この視差の大きさに応じて、第1及び第2フォーカスレンズ13,22のサーチ開始位置、及びサーチ方向が決定されるようになっている。この他の構成は上記第1実施形態と同一である。被写体43が被写体43に対して図12に示すような位置関係にあるとする。AF動作開始時(図4のステップS101)には、図13に示すような第1及び第2画像データがフレームメモリ32に格納される。視差算出回路42は、この第1及び第2画像データから被写体43の特徴部(顔や胴体等)を抽出し、その水平位置の差異から被写体視差Pを算出する(同図の場合、視差P=X2−X1)。被写体視差Pは、CPU19へ送信される。
Next, a fifth embodiment of the present invention will be described with reference to FIGS. In the fifth embodiment, as shown in FIG. 11, a
CPU19は、視差算出回路42によって算出された被写体視差Pが所定の視差αより大きいか否かを判定し、被写体視差Pが視差αより大きい(P>α)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにNEAR端に設定し、サーチ方向をNEAR端からINF端方向へ向かう方向とし、被写体視差Pが視差αより小さい(P<α)場合には、第1及び第2フォーカスレンズ13,22のサーチ開始位置をともにINF端に設定し、サーチ方向をINF端からNEAR端方向へ向かう方向とする。
The
P>αの場合にはAF評価値のピーク位置PmはNEAR端側に位置し、逆にP<αの場合にはAF評価値のピーク位置PmはINF端側に位置するので、上記サーチ開始位置及びサーチ方向の設定により、早期にピーク位置Pmを検出することができ、短時間に効率よくAF動作を完了することができる。 When P> α, the peak position Pm of the AF evaluation value is positioned on the NEAR end side. Conversely, when P <α, the peak position Pm of the AF evaluation value is positioned on the INF end side. By setting the position and the search direction, the peak position Pm can be detected at an early stage, and the AF operation can be completed efficiently in a short time.
次に、図14を用いて本発明の第6実施形態を説明する。第6実施形態では、AF動作開始時にまず第1及び第2撮像部2a,2bのいずれか一方が比較的大きな第1送り量d1でAFサーチ(以下、AFラフサーチと呼ぶ)を行い、AF評価値の概略ピーク位置Pm’を検出した後、第1及び第2撮像部2a,2bの両方を用いて、第1送り量d1より小さな第2送り量d2でAFサーチ(以下、AF詳細サーチと呼ぶ)を行うことにより、AF評価値のより正確なピーク位置Pmを検出するように構成されている。
Next, a sixth embodiment of the present invention will be described with reference to FIG. In the sixth embodiment, at the start of the AF operation, one of the first and
撮影モードは、第1実施形態の図4のフローチャートに代えて、図14のフローチャートに従う。図14のフローチャートは、ステップS202〜ステップS205以外は図4のフローチャートと同一である。AF動作が開始されると(ステップS201)、第1フォーカスレンズ13がNEAR端に設定され、INF端側へ向かって第1送り量d1でAFラフサーチが行われる(ステップS202)。これにより、図15(A)に示すように、概略ピーク位置Pm’が検出される。そして、検出された概略ピーク位置Pm’を含むようにAF詳細サーチのサーチ範囲Rが決定される(ステップS203)。サーチ範囲Rは、同図に示すように、位置Pm’−d1から位置Pm’+d1の範囲に設定される。
The shooting mode follows the flowchart of FIG. 14 instead of the flowchart of FIG. 4 of the first embodiment. The flowchart in FIG. 14 is the same as the flowchart in FIG. 4 except for steps S202 to S205. When the AF operation is started (step S201), the
この後、第1及び第2フォーカスレンズ13,22のサーチ開始位置がサーチ範囲RのNEAR端側(位置Pm’−d1)に設定され(ステップS204)、サーチ範囲R内をINF側へ向かって第2送り量d2でAF詳細サーチが行われる(ステップS205)。そして、前述と同様な手順により、図15(B)に示すように、より正確なピーク位置Pmが検出される(ステップS206,S207)。
Thereafter, the search start positions of the first and
このように、本発明の第6実施形態は、1つの撮像部がAFラフサーチを行った後、限定された領域を全ての撮像部がAF詳細サーチを行うので、短時間に効率よくAF動作を完了することができることのほか、AFサーチを行う時間を実質的に短くし、全体の消費電力を低下させることができる。 As described above, in the sixth embodiment of the present invention, after one imaging unit performs AF rough search, all the imaging units perform AF detailed search on a limited area, so that AF operation can be efficiently performed in a short time. In addition to being able to be completed, the time for performing the AF search can be substantially shortened, and the overall power consumption can be reduced.
なお、上記第6実施形態では、第1撮像部2aがAFラフサーチを行うようにしたが、これに代えて、第2撮像部2bがAFラフサーチを行うようにしてもよい。また、AFラフサーチのサーチ開始位置をNEAR端としたが、これをINF端としてもよい。また、AF詳細サーチ時のサーチ開始位置を第1及び第2フォーカスレンズ13,22ともにサーチ範囲RのNEAR端側としたが、これをサーチ範囲RのINF端側としてもよく、さらには、第1及び第2フォーカスレンズ13,22の一方をサーチ範囲RのNEAR端側、他方をサーチ範囲RのINF端側としてもよい。
In the sixth embodiment, the
次に、図16を用いて本発明の第7実施形態を説明する。第7実施形態は、上記第6実施形態のAFラフサーチに代えて、コンティニュアスAFサーチを用いるようにしたものである。図16のフローチャートは、ステップS302以外は図14のフローチャートと同一である。ステップS302において、第1及び第2撮像部2a,2bのうち、第1撮像部2aのみが動作を行う。第1撮像部2aは、所定の位置から第1フォーカスレンズ13をNEAR端側及びINF端側へ微動させた後、AF評価値が高くなる方向へ第1フォーカスレンズ13を動かすことにより概略ピーク位置Pm’が検出される。
Next, a seventh embodiment of the present invention will be described with reference to FIG. In the seventh embodiment, a continuous AF search is used in place of the AF rough search of the sixth embodiment. The flowchart in FIG. 16 is the same as the flowchart in FIG. 14 except for step S302. In step S302, only the
概略ピーク位置Pm’が検出されると、AF詳細サーチのサーチ範囲Rが決定され(ステップS303)、第1及び第2フォーカスレンズ13,22が所定のサーチ開始位置に設定され(ステップS304)、サーチ範囲R内をAF詳細サーチが行われる(ステップS305)。そして、前述と同様な手順により、より正確なピーク位置Pmが検出される(ステップS306,S307)。
When the approximate peak position Pm ′ is detected, the search range R of the AF detailed search is determined (step S303), the first and
このように、本発明の第7実施形態は、1つの撮像部がコンティニュアスAFサーチを行った後、限定された領域を全ての撮像部がAF詳細サーチを行うので、短時間に効率よくAF動作を完了することができることのほか、AFサーチを行う時間を実質的に短くし、全体の消費電力を低下させることができる。 As described above, in the seventh embodiment of the present invention, after one imaging unit performs a continuous AF search, all the imaging units perform an AF detailed search on a limited area, so that it is efficient in a short time. In addition to being able to complete the AF operation, the time for performing the AF search can be substantially shortened, and the overall power consumption can be reduced.
次に、図17を用いて本発明の第8実施形態を説明する。上記第1〜7実施形態におけるAE動作を同図に示す手順で行うようにしてもよい。AE動作が開始すると、第1絞り12の開口値が最大(開放絞り状態)に設定され、第2絞り21の開口値が最小(小絞り状態)に設定さる(ステップS400)。続いて、第1絞り12の開口値を減少させながら、かつ第2絞り21を増加させながらAE評価値を算出して測光を行い(ステップS403)、第1撮像部2a又は第2撮像部2bのいずれか一方が最適なAE評価値(最適値)を検出したとき(ステップS403のYes)、開口値の増減は停止される。この後、最適値を検出しなかった他方の撮像部の絞りを、最適値を検出した撮像部の絞りの開口値に設定し(ステップS404)、AE動作が終了する。なお、上記ステップS401において、上記とは逆に、第1絞り12の開口値を最小、第2絞り21の開口値を最大と設定してもよい。
Next, an eighth embodiment of the present invention will be described with reference to FIG. The AE operation in the first to seventh embodiments may be performed according to the procedure shown in FIG. When the AE operation starts, the aperture value of the
このように、本発明の第8実施形態は、第1及び第2絞り12,21の一方が開放絞り状態から小絞り状態へ、他方が小絞り状態から開放絞り状態へ開口値を変えながらAE評価値を算出するようにしたので、短時間に効率よくAE動作を完了することができる。
Thus, in the eighth embodiment of the present invention, one of the first and
なお、上記第1〜8実施形態では、立体カメラ1に第1及び第2撮像部2a,2bの2つの撮像部を設けるようにしたが、3つ以上の撮像部を設けるようにしてもよい。また、本発明の立体画像撮影装置として、静止画の撮影を行うデジタルスチルカメラを例示したが、これに限定されず、動画の撮影を行うデジタルビデオカメラなどにも本発明を適用することができる。
In the first to eighth embodiments, the stereoscopic camera 1 is provided with the two imaging units, the first and
1 立体カメラ
2a 第1撮像部
2b 第2撮像部
3a 第1鏡筒
3b 第2鏡筒
10 LCD
11 第1ズームレンズ
12 第1絞り
13 第1フォーカスレンズ
14 第1イメージセンサ
19 CPU
20 第2ズームレンズ
12 第2絞り
22 第2フォーカスレンズ
23 第2イメージセンサ
32 フレームメモリ
33 評価値算出回路
34 立体画像処理回路
40 位置デコーダ
41 角度デコーダ
42 視差算出回路
DESCRIPTION OF SYMBOLS 1
11
20
Claims (4)
前記AF動作において、前記第1及び第2フォーカスレンズを同時に駆動するとともに、所定の送り量ごとに前記AF評価値を算出し、前記AF評価値の最大値を先に検出したフォーカスレンズの位置に、他方のフォーカスレンズを設定する制御手段と、
前記第1及び第2撮像部によって得られる各画像データから被写体の視差を算出する視差算出手段とを備え、
前記制御手段は、前記視差算出手段によって算出された視差に応じて前記第1及び第2フォーカスレンズの移動開始位置及び移動方向を決定することを特徴とする立体画像撮影装置。 A first imaging unit having a first focus lens that moves in the range from the near point to the far point along the optical axis; and a second focus lens that moves in the range from the near point to the far point along the optical axis. An AF evaluation value is calculated by integrating high-frequency components of luminance values from each image data obtained by the second imaging unit, and the first and second focus lenses are positioned at a position where the AF evaluation value is substantially maximum. In a stereoscopic image capturing apparatus that performs an AF operation,
In the AF operation, the first and second focus lenses are simultaneously driven, the AF evaluation value is calculated for each predetermined feed amount, and the maximum value of the AF evaluation value is detected at the position of the focus lens previously detected. Control means for setting the other focus lens ;
Parallax calculating means for calculating the parallax of the subject from each image data obtained by the first and second imaging units,
The stereoscopic image capturing apparatus , wherein the control means determines a movement start position and a movement direction of the first and second focus lenses according to the parallax calculated by the parallax calculation means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004354543A JP4533735B2 (en) | 2004-12-07 | 2004-12-07 | Stereo imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004354543A JP4533735B2 (en) | 2004-12-07 | 2004-12-07 | Stereo imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006162990A JP2006162990A (en) | 2006-06-22 |
JP4533735B2 true JP4533735B2 (en) | 2010-09-01 |
Family
ID=36665087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004354543A Expired - Fee Related JP4533735B2 (en) | 2004-12-07 | 2004-12-07 | Stereo imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4533735B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11092797B2 (en) | 2017-05-01 | 2021-08-17 | Olympus Corporation | Endoscopic image capturing device |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5015634B2 (en) * | 2007-03-02 | 2012-08-29 | 富士フイルム株式会社 | Imaging system, imaging method and program |
JP5144469B2 (en) * | 2008-10-29 | 2013-02-13 | 富士フイルム株式会社 | Imaging apparatus and control method thereof |
JP4995175B2 (en) * | 2008-10-29 | 2012-08-08 | 富士フイルム株式会社 | Stereo imaging device and focus control method |
JP5185097B2 (en) | 2008-12-19 | 2013-04-17 | 富士フイルム株式会社 | Imaging apparatus and in-focus position determination method |
JP2010249941A (en) * | 2009-04-13 | 2010-11-04 | Sony Corp | Three-dimensional imaging apparatus |
JP5426262B2 (en) * | 2009-07-17 | 2014-02-26 | 富士フイルム株式会社 | Compound eye imaging device |
JP5425554B2 (en) | 2009-07-27 | 2014-02-26 | 富士フイルム株式会社 | Stereo imaging device and stereo imaging method |
JP2011075675A (en) | 2009-09-29 | 2011-04-14 | Fujifilm Corp | Compound-eye imaging apparatus |
KR101616422B1 (en) * | 2009-12-23 | 2016-04-28 | 삼성전자주식회사 | Method and apparatus for processing the digital image by using fast AF |
JP5413184B2 (en) * | 2009-12-24 | 2014-02-12 | ソニー株式会社 | Camera system and camera control method |
CN102822740B (en) * | 2010-03-25 | 2015-09-30 | 富士胶片株式会社 | Stereoscopic imaging apparatus and for automatically regulating the method for the focus of stereoscopic imaging apparatus |
CN102893196B (en) * | 2010-05-14 | 2014-05-28 | 富士胶片株式会社 | Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device |
JP2012027263A (en) * | 2010-07-23 | 2012-02-09 | Sony Corp | Imaging apparatus, control method and program thereof |
US8836767B2 (en) | 2010-12-17 | 2014-09-16 | Samsung Electronics Co., Ltd | Imaging apparatus and imaging method |
JP2012128298A (en) * | 2010-12-17 | 2012-07-05 | Samsung Electronics Co Ltd | Imaging apparatus and imaging method |
US8760567B2 (en) | 2010-12-21 | 2014-06-24 | Samsung Electronics Co., Ltd. | Photographing apparatus and method to reduce auto-focus time |
JP5383639B2 (en) | 2010-12-22 | 2014-01-08 | セイコープレシジョン株式会社 | Blade driving device and optical apparatus |
WO2013031227A1 (en) * | 2011-09-01 | 2013-03-07 | パナソニック株式会社 | Image pickup device and program |
JP2013109010A (en) | 2011-11-17 | 2013-06-06 | Canon Inc | Stereoscopic image photographing system |
JP6124684B2 (en) * | 2013-05-24 | 2017-05-10 | キヤノン株式会社 | Imaging device, control method thereof, and control program |
JP6083335B2 (en) * | 2013-06-26 | 2017-02-22 | 株式会社ソシオネクスト | Imaging apparatus, selection method, and selection program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60152193A (en) * | 1984-01-20 | 1985-08-10 | Japan Atom Power Co Ltd:The | Automatic operation type stereo television set |
JPH03252638A (en) * | 1990-03-02 | 1991-11-11 | Canon Inc | Exchange lens system |
JPH05158102A (en) * | 1991-12-06 | 1993-06-25 | Nikon Corp | Photographing information setting device for camera |
JPH0767023A (en) * | 1993-08-26 | 1995-03-10 | Canon Inc | Compound eye type image pickup device |
JPH08172571A (en) * | 1994-12-19 | 1996-07-02 | Sony Corp | Image pickup device |
JPH08251625A (en) * | 1995-03-07 | 1996-09-27 | Olympus Optical Co Ltd | Optical device for photographing stereoscopic video |
JPH1023467A (en) * | 1996-07-04 | 1998-01-23 | Tokyo Electric Power Co Inc:The | Stereoscopic image device |
JP2004120527A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Twin-lens digital camera |
JP2004207774A (en) * | 2002-02-22 | 2004-07-22 | Fuji Photo Film Co Ltd | Digital camera |
-
2004
- 2004-12-07 JP JP2004354543A patent/JP4533735B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60152193A (en) * | 1984-01-20 | 1985-08-10 | Japan Atom Power Co Ltd:The | Automatic operation type stereo television set |
JPH03252638A (en) * | 1990-03-02 | 1991-11-11 | Canon Inc | Exchange lens system |
JPH05158102A (en) * | 1991-12-06 | 1993-06-25 | Nikon Corp | Photographing information setting device for camera |
JPH0767023A (en) * | 1993-08-26 | 1995-03-10 | Canon Inc | Compound eye type image pickup device |
JPH08172571A (en) * | 1994-12-19 | 1996-07-02 | Sony Corp | Image pickup device |
JPH08251625A (en) * | 1995-03-07 | 1996-09-27 | Olympus Optical Co Ltd | Optical device for photographing stereoscopic video |
JPH1023467A (en) * | 1996-07-04 | 1998-01-23 | Tokyo Electric Power Co Inc:The | Stereoscopic image device |
JP2004207774A (en) * | 2002-02-22 | 2004-07-22 | Fuji Photo Film Co Ltd | Digital camera |
JP2004120527A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Twin-lens digital camera |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11092797B2 (en) | 2017-05-01 | 2021-08-17 | Olympus Corporation | Endoscopic image capturing device |
Also Published As
Publication number | Publication date |
---|---|
JP2006162990A (en) | 2006-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4533735B2 (en) | Stereo imaging device | |
TWI514847B (en) | Image processing device, image processing method, and recording medium | |
TWI459126B (en) | Image processing device capable of generating a wide-range image, image processing method and recording medium | |
JP5415170B2 (en) | Compound eye imaging device | |
JP2011045039A (en) | Compound-eye imaging apparatus | |
JP4764854B2 (en) | Imaging apparatus, image reproducing apparatus, imaging method, system, and program | |
JP2011075675A (en) | Compound-eye imaging apparatus | |
JP5216640B2 (en) | Imaging apparatus and method | |
US20110050856A1 (en) | Stereoscopic imaging apparatus | |
JP2009094724A (en) | Imaging apparatus | |
JP2006162991A (en) | Stereoscopic image photographing apparatus | |
JP2010204483A (en) | Imaging apparatus, method and program | |
US20070195190A1 (en) | Apparatus and method for determining in-focus position | |
JP2011217311A (en) | Imaging apparatus and method of controlling the same | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP4949717B2 (en) | In-focus position determining apparatus and method | |
JP3551932B2 (en) | Distance measuring device and imaging device using the same | |
JP4046276B2 (en) | Digital camera | |
JP5366693B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2008244991A (en) | Imaging apparatus and imaging method | |
JP2009092961A (en) | Focusing position control device, focusing position control method, and focusing position control program | |
JPH09181954A (en) | Electronic still camera and method for focus-controlling the same | |
JP2010134291A (en) | Image capturing apparatus and method for controlling the same | |
EP3145172B1 (en) | Image capturing device and still image generating method | |
JP2007226141A (en) | Photographing device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20070105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100526 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4533735 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |