JP2005134621A - Focus detector of camera - Google Patents
Focus detector of camera Download PDFInfo
- Publication number
- JP2005134621A JP2005134621A JP2003370247A JP2003370247A JP2005134621A JP 2005134621 A JP2005134621 A JP 2005134621A JP 2003370247 A JP2003370247 A JP 2003370247A JP 2003370247 A JP2003370247 A JP 2003370247A JP 2005134621 A JP2005134621 A JP 2005134621A
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical system
- focus
- camera
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、例えばデジタルカメラやビデオカメラ等に用いられるカメラの焦点検出装置に関するものである。 The present invention relates to a camera focus detection device used for, for example, a digital camera or a video camera.
従来、デジタルカメラやビデオカメラ等の撮像装置においては、撮像素子の出力信号の高周波成分が最大になる位置に撮影レンズを駆動して被写体にピントを合わせる、所謂山登り方式による焦点検出が広く採用されている。しかしながら、この方式は、撮影レンズを駆動しながら被写体にピントを合わせる方式である為、合焦状態に至るまでに比較的時間がかかるという問題がある。これに対して、三角測距方式や位相差方式による焦点検出は、被写体までの距離やピントのずれ量を求めることができる為、迅速な焦点検出が可能であり、特に速写性能が要求されるスチルカメラに向いた方式である。 Conventionally, in an imaging apparatus such as a digital camera or a video camera, focus detection by a so-called hill-climbing method, in which a photographing lens is driven to a position where the high-frequency component of an output signal of an imaging element is maximized to focus on a subject, has been widely adopted. ing. However, since this method focuses on the subject while driving the photographic lens, there is a problem that it takes a relatively long time to reach the in-focus state. On the other hand, the focus detection by the triangulation method or the phase difference method can obtain the distance to the subject and the amount of focus shift, so that it is possible to detect the focus quickly, and particularly high speed performance is required. This method is suitable for still cameras.
ここで、特許文献1では、2つの瞳を具備する焦点検出用絞り板を撮影レンズの光路に配設し、遮蔽板で瞳を交互に隠蔽して左像信号Lと右像信号Rを撮像素子からそれぞれ読み出し、上記左像信号Lと右像信号Rの相対的な位置ズレに基づいて焦点状態を検出する撮像装置に関する技術が開示されている。
Here, in
さらに、特許文献2では、撮影画面上の複数の焦点検出領域に到達する被写体光束を分割結像し、焦点検出領域毎に一組の光像を形成する焦点検出用光学系を設け、この一組の光像毎に光電変換を行う複数の光電変換手段の出力レベルに応じて電荷蓄積時間を個別に制御し、上記複数の光電変換手段の出力から焦点情報を算出する焦点検出装置に関する技術が開示されている。
Further,
また、特許文献3では、基線長離れた2つのレンズ系からそれぞれ入射する同一被写体からの反射光を受光する一対の固体撮像素子を設け、上記一対の固体撮像素子の撮像面に結像する一対の画像中の任意の位置を指定し、三角測量法を利用したアルゴリズムにより被写体の前記位置指定点までの距離を求めることができるデジタル電子スチルカメラに関する技術が開示されている。
しかしながら、特許文献1に記載の技術では、1つの撮像素子のみで焦点検出が可能になるものの、撮影レンズに遮蔽板を設ける必要がある為、通常の撮影レンズを使うことができない。従って、特にレンズ交換式の撮影レンズを用いる一眼レフカメラでは、レンズの互換性を損ないユーザーに大きな負担を与えるという問題がある。
However, although the technique described in
さらに、特許文献2に記載の技術では、焦点検出領域が限られた位置にしかピントを合わせることができないという問題がある。
Furthermore, the technique described in
また、特許文献3に記載の技術では、一対の撮影光学系及び撮像素子が同じ構成であるため、撮影光学系及び撮像素子が高性能高機能なものであるとカメラのコストが高くなるばかりかカメラが大きくなりすぎるという問題がある。
Further, in the technique described in
本発明は、簡単な構成で被写体の任意の領域にピントを合わせることが可能なカメラの焦点検出装置を提供することを目的とする。 An object of the present invention is to provide a focus detection device for a camera that can focus on an arbitrary area of a subject with a simple configuration.
上記目的を達成するために、本発明の第1の態様では、撮影に用いる第1の二次元撮像素子で撮像される第1画像と、基線長方向がカメラの水平面と所定の角度をもって配置された第2の二次元撮像素子で撮像される第2画像に基づいて三角測距の原理に基づいて焦点を検出するカメラの焦点検出装置であって、上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら、上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段とを備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置が提供される。この第1の態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。 In order to achieve the above object, in the first aspect of the present invention, the first image picked up by the first two-dimensional image pickup device used for shooting and the baseline length direction are arranged at a predetermined angle with the horizontal plane of the camera. A focus detection device for a camera that detects a focal point based on a principle of triangulation based on a second image captured by the second two-dimensional image sensor, and the reference set in the first image Based on the correlation amount calculation means for calculating the position of the reference image that matches the reference image set in the second image while shifting the image by a predetermined pitch in the baseline length direction, and based on the output of the correlation amount calculation means Distance calculating means for detecting a distance to a subject, the long side direction of the first two-dimensional image sensor is parallel to the horizontal plane of the camera, and the long side direction of the second two-dimensional image sensor is the base line Characterized by matching with the long direction Focus detecting apparatus for a camera is provided. According to the first aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.
本発明の第2の態様では、上記第1の態様において、上記第2の二次元撮像素子は、カメラの把持部よりも上面に配置されていることを特徴とするカメラの焦点検出装置が提供される。この第2の態様によれば、第2の二次元撮像素子に到達する被写体光束が遮られないので、確実に被写体の任意の位置に焦点を合わせることが可能である。 According to a second aspect of the present invention, there is provided a camera focus detection device according to the first aspect, wherein the second two-dimensional imaging element is disposed on an upper surface of the camera grip. Is done. According to the second aspect, since the subject luminous flux reaching the second two-dimensional imaging device is not blocked, it is possible to reliably focus on an arbitrary position of the subject.
本発明の第3の態様では、上記第1の態様において、上記基準像に対応する画像データのアドレスを上記基線長方向に回転変換する変換手段を更に有することを特徴とするカメラの焦点検出装置が提供される。この第3の態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。 According to a third aspect of the present invention, in the first aspect, the camera focus detection apparatus further comprises conversion means for rotationally converting the address of the image data corresponding to the reference image in the baseline length direction. Is provided. According to the third aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.
本発明によれば、簡単な構成で被写体の任意の領域にピントを合わせることが可能なカメラの焦点検出装置を提供することができる。 According to the present invention, it is possible to provide a focus detection device for a camera that can focus on an arbitrary region of a subject with a simple configuration.
以下、図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
[第1の実施の形態]
図1には、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の構成例を示し説明する。図1に示されるように、撮像装置1は、撮影光学系としての、ズームレンズ2及びフォーカスレンズ3を有している。光線は、これらレンズ2,3、絞り4を通過して、CCD等の撮像素子5の受光面に結像される。この撮像素子5で光電変換された信号は、撮像回路6に入力され、当該撮像回路6により映像信号が生成される。そして、この映像信号は、A/D変換器7によってデジタルの映像信号(画像データ)に変換され、メモリ8に一時的に記憶される。メモリ8に格納された画像データは、所定の画面レート(例えば1/30秒)で読み出され、D/A変換器9でアナログの映像信号に変換される。液晶表示素子(以下、LCDと略記する)10では、このアナログの映像信号に基づく被写体像の表示がなされる。
[First Embodiment]
FIG. 1 shows and describes a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first embodiment of the present invention. As shown in FIG. 1, the
操作スイッチ(以下、操作SWと略記する)24に含まれるレリーズスイッチを操作して記録操作を行った場合には、メモリ8の画像データは圧縮/伸張回路11の圧縮回路で圧縮された後、記録用メモリ12に記憶される。また、再生操作が行われた場合には、記録用メモリ12に圧縮されて記憶されたデータは、圧縮/伸張回路11の伸張回路で伸張された後、メモリ8に一時的に記憶され、D/A変換器9でアナログの映像信号に変換される。LCD10では、このアナログの映像信号に基づく再生画像の表示がなされる。
When a recording operation is performed by operating a release switch included in an operation switch (hereinafter abbreviated as operation SW) 24, the image data in the
ここで、LCD10では、その表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示する(図2参照)。即ち、LCD10では、撮影光学系のズームレンズ2のズーム値に応じて変化する三角測距可能な視野を示す指標201を、CCD5で撮像された画像と重ねて表示することができるので、当該指標201により、三角測距可能な領域を容易に確認することができる。仮に、操作SW24等の操作により、三角測距が可能な視野を示す指標201の外(測距が不能な領域)に、測距領域が指示された場合には、所謂山登り方式に基づきAFがなされる。
Here, the
A/D変換器7によってA/D変換された画像データは、オート露出処理回路(以下、AE処理回路と略記する)13とオートフォーカス処理回路(以下、AF処理回路と略記する)14に入力される。AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、CPU15に出力する。また、AF処理回路14は、1フレーム(1画面)分の画像データの輝度成分に高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分等に対応したAF評価値を算出し、CPU15に出力する。
Image data A / D converted by the A /
一方、撮影光学系の光軸と基線長Lだけ隔てて配置されたオートフォーカス専用の光学系(以下、AF光学系と称する)であるフォーカスレンズ102を経た光線は、絞り103を通過して、CCD等の撮像素子104に被写体像を結ぶ。この撮像素子104で光電変換された信号は撮像回路105に入力され、当該撮像回路105により、映像信号が生成される。そして、この映像信号は、A/D変換器106によってデジタルの映像信号(画像データ)に変換され、メモリ107に一時的に格納される。
On the other hand, a light beam that has passed through a
AF処理回路108では、上記撮影光学系に基づき得られ上記メモリ8に記憶されている画像データと、上記AF光学系に基づき得られ上記メモリ107に記憶されている画像データを用いて、所謂三角測距の原理に基づき測距領域選択回路113により選択された被写体までの距離を求める。この測距領域選択回路113は、カメラの操作者により手動で選択するものでも、公知の視線検出装置により選択するものでもよい。上記三角測距の原理に基づき得られた被写体距離情報を基に撮影光学系のフォーカスレンズ102を合焦位置に駆動した後、被写体に対する合焦精度を高める為に必要に応じて又は毎回のフォーカスレンズ102の合焦駆動の度に、最終的なピント位置の調整を所謂山登り方式により行う。この為に、AF処理回路108は、1フレーム(1画面)分の画像データの輝度成分における高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分量等に対応したAF評価値を算出し、CPU100に出力する。
The
CPU100には、タイミングジェネレータ(以下、TG回路と略記する)109から画面レートに同期した所定のタイミング信号が入力される。CPU100は、このタイミング信号に同期して、各種の制御動作を行う。また、このTG回路109のタイミング信号は、撮像回路105にも入力される。また、TG回路109は、所定のタイミングでCCD104を駆動するように、CCDドライバ110を制御する。
A predetermined timing signal synchronized with the screen rate is input to the
CPU15には、TG回路16から画面レートに同期した所定のタイミング信号が入力される。CPU15は、このタイミング信号に同期して、各種の制御動作を行う。このTG回路16のタイミング信号は、撮像回路6にも入力される。撮像回路6は、このタイミング信号に同期して、色信号の分離等の各種処理を行う。また、このTG回路16は、所定のタイミングでCCD5を駆動するようにCCDドライバ17を制御する。
A predetermined timing signal synchronized with the screen rate is input from the
CPU15は、第1乃至第3のモータドライブ回路18乃至20のそれぞれを制御することで、第1乃至第3のモータ21乃至23を介して、絞り4、フォーカスレンズ3、ズームレンズ2の駆動を制御する。つまり、CPU15は、AE評価値を基に、第1のモータドライブ回路18を制御して、第1のモータ21を回転駆動して、絞り4の絞り量を適正な値に調整する、即ちオート露出制御を行う。
The
また、CPU15は、CPU100と接続され、当該CPU100から三角測距の原理に基づく距離データを受信して、この距離データに基づき、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、フォーカスレンズ3を駆動して、合焦状態に設定する。しかしながら、一般的には、撮像素子5のコントラストが最大になる位置にフォーカスレンズ3を駆動する山登り方式に基づき制御した方が精度が向上する。そこで、上記三角測距の原理に基づきフォーカスレンズを駆動した後に、必要に応じて、AF評価値を基に、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、AF処理回路14からのAF評価値を得る。そして、こうして得られたAF評価値に基づき、CPU15は、そのAF評価値が最大となるレンズ位置にフォーカスレンズ3を駆動して、合焦状態に設定する、即ちオートフォーカスを行う。
The
但し、上記山登り方式の制御には比較的時間がかかるので、上記山登り方式に基づくフォーカスレンズ3の駆動は省略してもよいことは勿論である。
However, since it takes a relatively long time to control the hill-climbing method, it goes without saying that the driving of the
また、CPU15には、例えば電気的に書換可能で不揮発性の読み出し専用メモリとしてのEEPROM25が接続されており、このEEPROM25にはCPU15を介して各種の制御等を行うプログラムや、各種の動作を行うのに使用されるデータや、後述する撮像素子5と撮像素子104の結像位置の関係を知るための情報や、撮像素子5と撮像素子104の撮像面の明るさを補正する為の情報等が格納されている。これら情報は、撮像装置1の電源がONされた場合等に読み出されて使用される。尚、CPU15は、電池26の電圧を検出して、所定の電圧値以下になった事を検出した場合、電池26の残量が少ない旨の表示や電池の充電或いは交換等を促す表示をLCD10にて行う。
The
尚、撮像素子104の撮像面サイズは撮像素子5の撮像面サイズに比べて小さくてもよく、撮像素子104の画素数は撮像素子5の画素数に比べて少なくてもよい。これによれば、AF用に安価な撮像素子を用いることができるので、コストが安くなる。
Note that the image pickup surface size of the
また、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることができる。 Further, since the photographing optical system is also used for triangulation, parallax does not occur, and a subject in an arbitrary region can be accurately focused.
ここで、図3を参照して、本発明の第1の実施の形態に係る焦点検出装置に関連する測距原理を説明する。これは、後述する実施の形態にも共通する。 Here, with reference to FIG. 3, the principle of distance measurement related to the focus detection apparatus according to the first embodiment of the present invention will be described. This is common to the embodiments described later.
図3において、撮影光学系M1とAF光学系M2は、基線用Lだけ隔てて配設されている。撮影光学系M1の撮像素子5に対する焦点距離はf1、AF光学系M2の撮像素子104に対する焦点距離はf2である。更に、被写体Oの像の撮影光学系M1の光軸からのずれはΔL1であり、AF光学系の光軸からのずれはΔL2であり、被写体Oまでの距離はRである。このような場合、次式(1)が成立する。
In FIG. 3, the photographing optical system M1 and the AF optical system M2 are disposed apart from each other by a base line L. The focal length of the imaging optical system M1 with respect to the
R/L1=f1/ΔL1
R/L2=f2/ΔL2
L=L1+L2
L/R=(1/f1)・(ΔL1+(f1/f2)・ΔL2) ・・・(1)
即ち、この(1)式より、像Oの撮影光学系M1の光軸からのずれΔL1及びAF光学系M2の光軸からのずれΔL2、上記両光学系M1,M2の焦点距離f1,f2、及び基線長Lが定まれば、被写体までの距離Rが求まることが分かる。
R / L1 = f1 / ΔL1
R / L2 = f2 / ΔL2
L = L1 + L2
L / R = (1 / f1) · (ΔL1 + (f1 / f2) · ΔL2) (1)
That is, from this equation (1), the deviation ΔL1 of the image O from the optical axis of the photographing optical system M1 and the deviation ΔL2 from the optical axis of the AF optical system M2, the focal lengths f1, f2 of both the optical systems M1, M2, If the base line length L is determined, the distance R to the subject can be found.
以下、図4のフローチャートを参照して、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の動作を詳細に説明する。 Hereinafter, the operation of the imaging apparatus employing the focus detection apparatus according to the first embodiment of the present invention will be described in detail with reference to the flowchart of FIG.
操作SW24に含まれるパワースイッチがオンされ、電源投入されると、CPU15やCPU100がパワーオンリセットされ、本動作に入ることとなる。
When the power switch included in the
先ず、AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、当該AE評価値をCPU15に出力する(ステップS1)。続いて、CPU15は、操作SW24に含まれるレリーズスイッチの初段の第1のレリーズ(以下、1stレリーズと称する)が行われたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS2)。
First, the
このステップS2で1stレリーズが行われていれば、CPU100は、測距領域選択回路113により選択された測距領域の位置を読み込む(ステップS3)。
If the first release is performed in step S2, the
次いで、CPU100は、サブルーチン“三角測距AF”をコールし、三角測距の原理に基づき被写体までの距離を求める(ステップS4)。尚、このサブルーチン“三角測距AF”による三角測距の動作については、図5を参照して後述する。
Next, the
このステップS4で被写体までの距離が求まると、CPU15は、この被写体までの距離に基づいてフォーカスレンズ3を合焦位置まで駆動する(ステップS5)。
When the distance to the subject is obtained in step S4, the
続いて、CPU15は、1stレリーズが解除されたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS6)。1stレリーズ解除されたならば、CPU15は、操作SW24に含まれるレリーズスイッチの次段の第2のレリーズ(以下、2ndレリーズと称する)が行われたかどうかを判断し(ステップS7)、2ndレリーズが行われてなければJ1に分岐する。一方、上記ステップS7で、2ndレリーズが行われていれば、次にCPU15はAE評価値を基にオート露出制御を行い(ステップS8)、こうして一連の撮影動作を終了する。
Subsequently, the
次に、図5のフローチャートを参照して、図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明する。 Next, the subroutine “triangulation AF” executed in step S4 of FIG. 4 will be described in detail with reference to the flowchart of FIG.
撮影光学系のフォーカスレンズ3の位置が合焦位置から大きくはずれていると、絞り開口が大きくなるほど像がボケるため正確にズレ量を求めるのが難しくなる。
If the position of the
この為に、CPU15は、ズレ量の演算に先立ち、撮影光学系の絞り4を予め決めた所定の値に絞り込む(ステップS11)。撮影レンズが合焦位置から大きく外れていても、比較的鮮明な画像が結像されるので、正確にズレ量を求める上で効果的である。
For this purpose, the
また、撮影光学系の絞り値は、AF光学系の絞り103と等しいことが望ましい。
Further, it is desirable that the aperture value of the photographing optical system is equal to that of the
これは、撮影光学系により結像される像とAF光学系により結像される像のぼけと照度分布を等しくして、ズレ量を正確に求める為である。すなわち、このように撮影光学系の絞り値を設定すれば、撮影光学系により結像される像とAF光学系に結像される像のぼけと照度分布が近似するので、正確にズレ量を求める上で効果的である。 This is because the blur and illuminance distribution of the image formed by the photographing optical system and the image formed by the AF optical system are made equal to obtain the amount of deviation accurately. That is, if the aperture value of the photographic optical system is set in this way, the blur and illuminance distribution of the image formed by the photographic optical system and the image formed by the AF optical system are approximated. It is effective in seeking.
次いで、CPU15,100は、AE処理回路13で求めたAE評価値を基に撮像素子5と撮像素子104の露光を行い、画像データを取得する(ステップS12)。
Next, the
そして、CPU100は、サブルーチン“ΔL1,ΔL2演算”により、撮影光学系により結像された測距領域の画像の撮影光学系の光軸中心からのズレであるΔL1と、AF光学系に結像された上記測距領域の画像に対応する画像のAF光学系の光軸中心からのズレであるΔL2を演算するようにAF処理回路108を制御する(ステップS13)。このサブルーチン“ΔL1,ΔL2演算”については、図14を参照して後に詳述する。こうして、CPU100は、上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS14)、このサブルーチン“三角測距AF”からリターンする。
Then, the
ここで、図6,7を参照して、像のズレ量を求める相関演算の原理について説明する。 Here, with reference to FIGS. 6 and 7, the principle of the correlation calculation for obtaining the image shift amount will be described.
先ず、図6(a)は、測距領域選択回路113によって選択された第1測距領域の撮像素子5の画素の配列を示す。1つの画素のサイズはH1×W1とする。この第1測距領域内の所定範囲P1の像を基準像とする。この基準像の重心位置から撮影光学系の光軸までの距離をΔL1とする。そして、上記基準像の撮影光学系の光軸から基線長方向にi番目の画素の出力をS(i)とする。
First, FIG. 6A shows an array of pixels of the
一方、図6(b)は、上記第1測距領域に対応するAF光学系によって結像される像の第2測距領域の画素の配列を示す。1つの画素のサイズはH2×W2とする。この第2測距領域の中に上記基準像と同じ画素数からなる参照像P2を設定し、この参照像のAF光学系の中心から基線長方向にj番目の出力をC(j)とする。 On the other hand, FIG. 6B shows an arrangement of pixels in the second distance measuring area of an image formed by the AF optical system corresponding to the first distance measuring area. The size of one pixel is H2 × W2. A reference image P2 having the same number of pixels as that of the reference image is set in the second ranging area, and a jth output from the center of the AF optical system of the reference image in the base line length direction is C (j). .
そして、対応する画素の出力の差の絶対値の和をとり、これをA(m)とし、相関量とする。この場合、次式(2)が成立する。
ここで、iとは基準部の最初の画素の番号であり、jは参照部の最初の画素の番号である。また、kは基準部及び参照部の最初の画素から数えてk番目の画素を意味する。 Here, i is the number of the first pixel in the reference portion, and j is the number of the first pixel in the reference portion. Further, k means the kth pixel counted from the first pixel of the standard part and the reference part.
参照部はj+nに、更に左右に±m程度の余裕を見込む。 The reference portion expects a margin of about ± m on the left and right in j + n.
ここで、参照部のデータに付いているmはCPU15の内部で、基準部のデータ番号は固定し、参照部のデータ番号を1個ずつ送っていく操作の為に付けられている。
Here, m attached to the data of the reference part is attached to the
そして、mを順次1からpまで変えながら上記相関量A(m)を求め、当該相関量A(m)が最小値をとるとき基準部と参照部の像が一致するものとして、基準部と参照部の像の相対的な距離を求める。尚、上記相関量A(m)は最小1画素毎の値である為、基準部と参照部の像の相対的な距離の精度も1画素が限界となる。 Then, the correlation amount A (m) is obtained while sequentially changing m from 1 to p, and when the correlation amount A (m) takes the minimum value, the images of the reference portion and the reference portion coincide with each other. The relative distance of the image of the reference part is obtained. Since the correlation amount A (m) is a value for each minimum pixel, the accuracy of the relative distance between the image of the reference portion and the reference portion is limited to one pixel.
そこで、図7に示すように、相関量A(m)が最小値をとる前後の相関量の幾何学的な関係から補間により1画素ピッチ以下の高い精度の相対的な距離を求める。この補間によると、経験的に1/10画素以下の高い精度で基準部と参照部の像の相対的な距離を求めることが可能である。尚、この補間演算自体は公知のものであるが、以下、簡単に説明すると、図7において、相関量A(m)の3番目に小さな値A(1)と最小値A(2)を直線で結び、この直線と水平線のなす角度θが、相関量A(m)の2番目に小さな値A(3)を通る直線と上記水平線となす角度θと等しくなるようにしたとき、上記2つの直線の交差する点のズレ量mを求めるものである。 Therefore, as shown in FIG. 7, a relative distance with high accuracy of one pixel pitch or less is obtained by interpolation from the geometric relationship of the correlation amount before and after the correlation amount A (m) takes the minimum value. According to this interpolation, it is possible to empirically determine the relative distance between the image of the reference portion and the reference portion with a high accuracy of 1/10 pixel or less. This interpolation calculation itself is known, but will be briefly described below. In FIG. 7, the third smallest value A (1) and the minimum value A (2) of the correlation amount A (m) are represented by a straight line. When the angle θ between the straight line and the horizontal line is made equal to the angle θ between the straight line passing through the second smallest value A (3) of the correlation amount A (m) and the horizontal line, the above two The amount of deviation m of the points where the straight lines intersect is obtained.
ところで、本願発明の第1の実施の形態において、基準像と参照像とで相関演算を行い精度の高いズレ量を求めるためには、以下の「第1乃至第3の条件」を満たす必要がある。 By the way, in the first embodiment of the present invention, in order to perform a correlation operation between the reference image and the reference image and obtain a highly accurate deviation amount, it is necessary to satisfy the following “first to third conditions”. is there.
これは、他の実施の形態についても共通する考え方である。 This is the same concept for other embodiments.
より詳細には、「第1の条件」とは、基準像の基線長方向の中心線を被写体上に投影したラインと参照像の基線長方向の中心線を被写体上に投影したラインとが一致することである。そして、「第2の条件」とは、単位画素の光電変換部に投影される被写体面上の面積及び形状が同じであることである。更に、「第3の条件」とは、同一被写体に対応する画像データのレベルが同じであることである。以下、これら第1乃至第3の条件を満たす為の具体的解決手段について更に詳細に述べる。 More specifically, the “first condition” is the same as the line in which the center line in the baseline length direction of the reference image is projected onto the subject and the line in which the center line in the baseline length direction of the reference image is projected onto the subject. It is to be. The “second condition” is that the area and shape on the subject surface projected onto the photoelectric conversion unit of the unit pixel are the same. Furthermore, the “third condition” is that the levels of image data corresponding to the same subject are the same. Hereinafter, specific means for satisfying these first to third conditions will be described in more detail.
(第1の条件)
第1の条件を満たすための具体的解決手段について説明する。
(First condition)
Specific means for satisfying the first condition will be described.
撮影光学系の光軸上の無限大の位置にスポット光(光源)を配置する。撮影光学系の焦点距離と絞り値をそれぞれf1、F1の値に設定し、このときの撮像素子5の画素データを読み出して上記スポット光が撮像素子5の撮像面に結像する座標位置P1(Px1,Py1)を検出する。同様に、撮像素子104の画素データを読み出して上記スポット光が撮像素子104の撮像面に結像する座標位置P2(Px2,Py2)を検出し、上記P1とP2の座標位置を1組のデータとしてEEPROM25に記録する。
Spot light (light source) is arranged at an infinite position on the optical axis of the photographing optical system. The focal length and aperture value of the photographic optical system are set to f1 and F1, respectively, the pixel data of the
以上では、撮影光学系の光軸上の無限大の位置のスポット光に対応する1組のデータを記録したが、撮影光学系の光軸周辺の無限大の位置の複数点にスポット光を配置し、この複数点のスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録してもよい。この場合、撮影光学系、AF光学系の撮影倍率が変化しても結像位置が変化しないので、撮像素子5の結像面上に結像する被写体が上記撮像素子104の結像面上のどの位置に結像しているかを容易に求めることができることになり、基準像と参照像の相関演算を容易に行うことができる。
In the above, a set of data corresponding to spot light at an infinite position on the optical axis of the photographing optical system was recorded. However, spot light is arranged at a plurality of infinite positions around the optical axis of the photographing optical system. Then, the coordinate positions on the image pickup surfaces of the
また、上記スポット光(光源)を撮影光学系の光軸外の有限の距離に設置し、このスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録するようにしてもよいことは勿論である。
Further, the spot light (light source) is set at a finite distance outside the optical axis of the photographing optical system, and the coordinate positions on the image pickup surfaces of the
このようにしてEEPROM25に記録された上記座標位置P1(Px1,Py2),P2(Px2,Py2)から光軸上の無限大に位置する被写体が結像する撮像素子5の撮像面の位置、及び撮像素子104の撮像面の位置が分かる。
The position of the imaging surface of the
したがって、撮影光学系の光軸外の被写体が結像する撮像素子5と撮像素子104の各撮像面上の座標位置は、計算により簡単に求めることができる。
Therefore, the coordinate positions on the imaging surfaces of the
例えば、撮影光学系の焦点距離をf1、AF光学系の焦点距離をf2とし、撮像素子5の撮像面上の上記EEPROM25に記録された座標位置P1(Px1,Py1)を原点とした座標(x1,y1)の位置に像が結像しているものとする。
For example, the focal length of the imaging optical system is f1, the focal length of the AF optical system is f2, and the coordinate (x1) with the coordinate position P1 (Px1, Py1) recorded on the
この場合、上記(x1,y1)の位置の像に対応する像が結像する撮像素子104上の位置(x2,y2)は、上記EEPROM25に記録された座標位置P2(Px2,Py2)を原点として(x2,y1・f2/f1)となる。x1に対応する値x2は相関演算で求めるものであり、x2=x1・f2/f1であれば被写体距離は無限大であり、被写体が近づく程、x2とx1・f2/f1との差は大きくなる。
In this case, the position (x2, y2) on the
この両者の差を求めるのが上記相関演算である。 The correlation calculation is to obtain the difference between the two.
ここで、図8には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。この図8において、書き込み装置801から撮像装置1のCPU15に所定の信号が送られると、CPU15は上記EEPROM25に撮像面上の座標位置に係るデータを書き込むための命令を実行することになる。
Here, FIG. 8 shows a configuration example of a system for writing the data into the
以下、図9のフローチャートを参照して、このシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について更に詳細に説明する。
Hereinafter, with reference to the flowchart of FIG. 9, the operation of writing data relating to the coordinate position to the
先ず、書き込み装置801により撮像装置1をEEPROM25の書き込みモードに設定し(ステップS21)、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS22)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS23)。
First, the
そして、撮像素子5と撮像素子104の画像データを読み出し(ステップS24)、この読み出した画像データに基づいて、上記撮像面上の座標位置P1,P2をEEPROM25に書き込み(ステップS25)、この動作を終了する。
Then, image data of the
(第2の条件)
第2の条件を満たすための具体的解決手段について説明する。
(Second condition)
A specific means for solving the second condition will be described.
撮影光学系とAF光学系の撮影倍率や、撮像素子5と撮像素子104の1画素のサイズは異なるので、上記第2の条件を満たす為には、これらを考慮する必要がある。
Since the photographing magnification of the photographing optical system and the AF optical system and the size of one pixel of the
そこで、撮影光学系とAF光学系の像倍率の比α1/α2を演算する。 Therefore, the ratio α1 / α2 of the image magnification between the photographing optical system and the AF optical system is calculated.
尚、α1/α2=f1/f2である。但し、このf1,f2は、図3で先に説明したように、それぞれ撮影光学系の焦点距離とAF光学系の焦点距離である。 Note that α1 / α2 = f1 / f2. However, f1 and f2 are the focal length of the photographing optical system and the focal length of the AF optical system, respectively, as described above with reference to FIG.
次に、図6(a)、図10(a)に示すように、撮影光学系による像を受ける撮像素子5の基線長方向の上記第1測距領域に対応する複数画素を、基線長方向に長さW1毎に等分する。基線長と直角方向の長さをH1として、上記W1×H1を新たな1つの画素とする。そして、上記W1×H1に含まれる元の複数の画素を加算した信号又はその平均値を求め、上記撮像素子5の新たな画素(以下「仮想画素」という)の出力とする。尚、上記仮想画素は、上記W1×H1に含まれる特定のラインを間引いて加算してもよい。
Next, as shown in FIGS. 6A and 10A, a plurality of pixels corresponding to the first distance measuring area in the base line length direction of the
これと同様に、図6(b)、図10(b)に示すように、AF光学系による像を受ける撮像素子104の基線長方向の上記第2測距領域に対応する複数画素を、基線長方向に長さW2毎に等分する。基線長と直角方向の長さをH2として、上記W2×H2を新たな1つの画素とする。そして、上記上記W2×H2に含まれる元の複数の画素の信号を加算した信号又はその平均値を、上記撮像素子104の仮想画素の出力とする。
Similarly, as shown in FIGS. 6B and 10B, a plurality of pixels corresponding to the second distance measuring area in the base line length direction of the
ここで、上記W1,W2,H1,H2は、
α1/α2=W1/W2=H1/H2
の関係を満たすように設定する。
このように、撮像素子5の単位画素のサイズと撮像素子104の単位画素のサイズの比が、撮影光学系の倍率とAF光学系の倍率の比に等しくなるようにすれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を併せることが可能となる。尚、上記単位画素のサイズとは、複数の画素をまとめて、仮想的な1つの画素(即ち、上記仮想画素)とみなしたものである。
Here, W1, W2, H1, and H2 are
α1 / α2 = W1 / W2 = H1 / H2
Set to satisfy the relationship.
As described above, if the ratio between the size of the unit pixel of the
次に、上述した基本的な考え方を基に仮想画素のサイズを具体的に設計してみる。 Next, the virtual pixel size is specifically designed based on the basic concept described above.
上記(1)式より、AF光学系の検出誤差dΔL2と測距誤差dRの関係は、
dR=−dΔL2・R2/(L・f2) ・・・(3)
となる。
From the above equation (1), the relationship between the detection error dΔL2 of the AF optical system and the distance measurement error dR is
dR = −dΔL 2 · R 2 / (L · f 2 ) (3)
It becomes.
一方、撮影レンズの被写界深度は、
被写界深度=−F・δ・R2/f12 ・・・(4)
F:撮影光学系の絞り値、δ:許容錯乱円
となる。
On the other hand, the depth of field of the taking lens is
Depth of field = −F · δ · R 2 / f1 2 (4)
F: aperture value of the photographing optical system, δ: allowable circle of confusion.
ここで、測距誤差が撮影レンズの被写界深度内に収まっていれば、ピントが合ったといえる。この為には、
|測距誤差| < |被写界深度|
ということになり、上記(3)式、(4)式から
dΔL2・R2/(L・f2)<F・δ・R2/f12
が成立する。
Here, if the distance measurement error is within the depth of field of the photographic lens, it can be said that the camera is in focus. For this,
| Ranging error | <| Depth of field |
From the above formulas (3) and (4)
dΔL 2 · R 2 / (L · f 2 ) <F · δ · R 2 /
Is established.
従って、
dΔL2<F・δ・L・f2/f12 ・・・(5)
が成立する。
Therefore,
dΔL2 <F · δ · L · f2 / f1 2 (5)
Is established.
いま、設計値として、F=1、δ=1/30mm、L=40mm(撮影光学系の光軸中心の測距誤差を求めるものとし、L2=Lとした)、f2=10mm、f1=30mmとすると、
dΔL2<15 (μm)
となる。
Now, as design values, F = 1, δ = 1/30 mm, L = 40 mm (the distance measurement error at the center of the optical axis of the photographing optical system is obtained, L2 = L), f2 = 10 mm, f1 = 30 mm Then,
dΔL2 <15 (μm)
It becomes.
この例では、AF光学系が設計通りに製作されていたと仮定すると、撮像素子104の基線長方向の画素ピッチが15μm以下のピッチであれば、既述の補間によらない相関演算により必要な精度が得られることになる。
In this example, assuming that the AF optical system is manufactured as designed, if the pixel pitch in the base line length direction of the
しかしながら、既述の補間法により最終的なズレ量を演算するものとし、これにより1画素ピッチの1/10の精度を確保できるとすると、画素ピッチは150μm以下であれば必要な精度が得られることになる。撮像素子104の基線長方向の画素ピッチを10μmとすると、十分な精度が得られることになる。
However, assuming that the final shift amount is calculated by the above-described interpolation method, and the accuracy of 1/10 of one pixel pitch can be secured by this, the required accuracy can be obtained if the pixel pitch is 150 μm or less. It will be. If the pixel pitch in the base line length direction of the
そこで、上記補間演算をすることを条件に、上記(5)式を修正して、
dΔL2<10・F・δ・L・f2/f12 ・・・(6)
とする。
Therefore, on the condition that the above interpolation calculation is performed, the above equation (5) is corrected,
dΔL2 <10 · F · δ · L · f2 / f1 2 (6)
And
撮影光学系がズームレンズであり、そのズーム倍率が大きくなると、上記(6)式から明らかなように、AF精度及び測距可能な範囲に制約が出てくる。 When the photographic optical system is a zoom lens and the zoom magnification becomes large, as is clear from the above equation (6), the AF accuracy and the range that can be measured are limited.
図11は、このような関係を示したものである。即ち、図11(b)では、撮影光学系の視野1101bとAF光学系の視野1102bが一致しており、AF精度も上記具体的な数値で示した精度が確保されているものとする。しかし、撮影光学系の焦点距離が短くなり像の倍率が大きくなると(広角側)、撮影光学系の視野1101aに比べてAF光学系の視野1102aは狭くなる(図11(a)参照)。この場合、上記(5)式から明らかなように、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて大きくなり、十分な精度が得られる。一方、撮影光学系の焦点距離が長くなり像の倍率が小さくなると(望遠側)、撮影光学系の視野1101cに比べてAF光学系の視野1102cは広くなる(図11(c)参照)。この場合、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて小さくなり、十分な精度が得られなくなる場合がある。 FIG. 11 shows such a relationship. That is, in FIG. 11B, it is assumed that the field of view 1101b of the photographing optical system and the field of view 1102b of the AF optical system coincide with each other, and the AF accuracy is ensured by the above-described specific numerical values. However, when the focal length of the photographing optical system is shortened and the magnification of the image is increased (wide angle side), the field of view 1102a of the AF optical system becomes narrower than the field of view 1101a of the photographing optical system (see FIG. 11A). In this case, as is apparent from the above equation (5), the tolerance value of the deviation amount of the AF optical system is larger than that in FIG. 11B, and sufficient accuracy can be obtained. On the other hand, when the focal length of the photographic optical system is increased and the magnification of the image is reduced (on the telephoto side), the visual field 1102c of the AF optical system becomes wider than the visual field 1101c of the photographic optical system (see FIG. 11C). In this case, the allowable value of the deviation error of the AF optical system is smaller than that in FIG. 11B, and sufficient accuracy may not be obtained.
ここで、撮像素子5(撮像兼AF用)の撮像面の有効サイズを18.5mm(H)×13.5mm(v)、水平方向の画素ピッチを10μm、撮像素子104(AF専用)の撮像面の有効サイズを7.4mm(H)×5.94mm(V)、水平方向の画素ピッチを10μm、AF光学系の焦点距離をf2=10mm、撮影光学系の焦点距離f1を10mmから100mmまで10mmステップで変えた場合の、撮影光学系の水平方向視野Hv1に対するAF光学系の水平方向視野Hv2の視野比(f1・Hv2/(f2・Hv1))を求めた結果は表1に示される通りである。尚、撮像素子104のサイズが撮像素子5のサイズに比べて小さくしたのは、一般に撮像素子104は画素数が多く大きなサイズの高価なものであるのに対し、撮像素子104はそれに比べて安価な比較的画素数の少ないものを使う為である。また、上記(6)式を用いて、AF光学系の許容測距誤差を撮像素子104の画素数を単位として求めた結果は表1に示される通りである。
Here, the effective size of the imaging surface of the imaging element 5 (for imaging and AF) is 18.5 mm (H) × 13.5 mm (v), the horizontal pixel pitch is 10 μm, and the imaging element 104 (for AF only) is imaged. The effective size of the surface is 7.4 mm (H) × 5.94 mm (V), the horizontal pixel pitch is 10 μm, the focal length of the AF optical system is f2 = 10 mm, and the focal length f1 of the photographing optical system is from 10 mm to 100 mm. Table 1 shows the result of obtaining the field ratio (f1 · Hv2 / (f2 · Hv1)) of the horizontal field of view Hv2 of the AF optical system to the horizontal field of view Hv1 of the photographing optical system when changed in steps of 10 mm. It is. Note that the size of the
そして、上記許容測距誤差以下となるように、撮像素子104の仮想画素の横、即ち基線長方向のサイズW2を撮像素子104の画素数を単位として適宜表1のように選択すると、撮像素子5の仮想画素の横方向のサイズW1は、既に述べたようにf1/f2=W1/W2の関係から自動的に決まり、画素数を単位として表1のようになる。
When the size W2 of the virtual pixel of the
表1において、撮影光学系の焦点距離が10mmにおいては許容測距誤差135画素に比べて、W2が10画素となっており、他の撮影光学系と比べてやや過剰な精度になっているが、これはW2をなるべく統一してアルゴリズムを簡単にするためであり、理論上はW2は135画素以下であればよい。
この表1からも明らかなように、撮影光学系の焦点距離に応じて測距可能な範囲が変化する。そこで、本願発明においては、図11に示すように撮影光学系の焦点距離に応じて三角測距に基づく測距が可能な視野を表示する。また、測距領域も表示する。 As can be seen from Table 1, the range that can be measured varies depending on the focal length of the photographing optical system. Therefore, in the present invention, as shown in FIG. 11, a visual field capable of distance measurement based on triangulation is displayed according to the focal length of the photographing optical system. It also displays the ranging area.
一方、撮影光学系の焦点距離が長くなるほど許容測距誤差は小さくなり望遠側では精度を確保できなくなる可能性がある。そこで、後述する第2の実施の形態においては、撮影光学系のズーム値に応じてAF光学系のズーム値を変えるようにしている(これについての詳細は後述する)。 On the other hand, the longer the focal length of the photographic optical system, the smaller the allowable distance measurement error, and there is a possibility that accuracy cannot be ensured on the telephoto side. Therefore, in the second embodiment to be described later, the zoom value of the AF optical system is changed in accordance with the zoom value of the photographing optical system (details will be described later).
仮想画素の基線長と直角方向のサイズH1,H2についてもf1/f2=H1/H2の関係を満たすように適宜決めればよい。 The size H1 and H2 in the direction perpendicular to the base line length of the virtual pixel may be appropriately determined so as to satisfy the relationship of f1 / f2 = H1 / H2.
(第3の条件)
第3の条件を満たすための具体的解決手段について説明する。
(Third condition)
Specific means for satisfying the third condition will be described.
撮影光学系とAF光学系の構成や、撮像素子5と撮像素子104の感度が異なることから、撮像素子5の画像データの値と撮像素子104の画像データの値は異なる。
The image data value of the
従って、以下のように、カメラの製造時に補正のためのデータをEEPROM25に記録しておき、相関演算を行う前に撮像素子5の画像データと撮像素子104の画像データを正規化し、同一被写体に対応する画像データの出力レベルを実質的に同じにする。
Therefore, as described below, correction data is recorded in the
即ち、撮影光学系により結像される第1像と、AF光学系により結像される第2像のそれぞれ同一の像の領域の信号レベル又はその比をEEPROM25に記憶しておき、この情報を基に、出力レベルを補正する。これによれば、基準像に対応する参照像の画像信号のレベルを合わせることができる。以下、詳述する。
That is, the signal level or the ratio of the same image area of the first image formed by the photographing optical system and the second image formed by the AF optical system is stored in the
いま、撮影光学系の絞りを所定の値に絞り込んだ状態で撮像素子5の撮像面に被写体の領域A1の像Im1が結像しているものとする。同時に、撮像素子104の撮像面に被写体の領域A1の像Im2が結像しているものとする。
Now, it is assumed that an image Im1 of the subject area A1 is formed on the imaging surface of the
このときの上記Im1に対応する撮像素子5の画素データの平均値Vm1と撮像素子104の画素データの平均値Vm2の比である、
K=Vm1/Vm2
をEEPROM25に記録する。
The ratio of the average value Vm1 of the pixel data of the
K = Vm1 / Vm2
Is recorded in the
尚、被写体を広い拡散板にして、このときの撮像素子5の複数画素の出力の平均値と撮像素子104の複数画素の出力の平均値の比をKとしてもよい。また、上記Vm1とVm2をEEPROM25に記録しておき、両者の比は後で計算してもよい。また、上記撮影光学系の絞りを撮影光学系の焦点距離に応じた所定の絞り値に設定して、この焦点距離毎に上記係数Kを求めてEEPROM25に記憶してもよい。
Note that the subject may be a wide diffusion plate, and the ratio of the average value of the output of the plurality of pixels of the
相関演算の前に撮像素子104の画像データをK倍することにより、基準像と参照像の明るさを実質的に同じにすることができる。
By multiplying the image data of the
ここで、図12には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。ここでは、図8と同一構成については同一符号を付している。書き込み装置1201から撮像装置1のCPU15に所定の信号が送られると、CPU15はEEPROM25にデータを書き込むための命令を実行する。
Here, FIG. 12 shows a configuration example of a system for writing the data in the
以下、図13のフローチャートを参照して、上記EEPROM25へのデータの書き込み動作の流れを更に詳細に説明する。書き込み装置1201により撮像装置1をEEPROM25の書き込みモードに設定する(ステップS31)。次いで、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS32)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS33)。そして、撮像素子5と撮像素子104のデータを読み出し(ステップS34)、この読み出した画像データに基づいて上記係数KをEEPROM25に書き込み(ステップS35)、本動作を終了することになる。
Hereinafter, the flow of the data writing operation to the
以上が第1乃至第3の条件を満たす為の具体的解決手段の説明である。 The above is the description of specific means for satisfying the first to third conditions.
次に、図14のフローチャートを参照して、図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明する。このサブルーチンでは、測距領域の画像の光軸中心からのズレ量ΔL1、ΔL2を演算する。 Next, the subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 5 will be described in detail with reference to the flowchart of FIG. In this subroutine, deviation amounts ΔL1 and ΔL2 from the optical axis center of the image in the distance measurement area are calculated.
先ず、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS41)。次いで、CPU100は、基準像の重心位置(ΔL1)を演算する為に、上記測距領域の中から適宜基準像を選択する。この基準像の位置は、上記測距領域と等しくてもよく、上記測距領域の中から相関演算に適した所定のコントラストを有する小領域を選択したものでもよいことは勿論である。そして、CPU100は、この基準像の重心位置を求めて撮影光学系の光軸からのズレ量をΔL1とし(ステップS42)、上記基準像の重心位置に対応する参照像の重心位置を求める(ステップS43)。
First, the
次いで、CPU100は、表1から得られる撮影光学系の焦点距離f1と撮像素子5と撮像素子104のそれぞれの仮想画素サイズ(W1,W2,H1,H2)をテーブル表としてEEPROM25に記憶しておき、このテーブル表を参照して、基準像と参照像の各仮想画素の出力を演算する。尚、仮想画素の出力値は、元の複数画素の出力の平均値とする(ステップS44)。次いで、EEPROM25に記憶した既述の係数Kを基に基準像と参照像のそれぞれに対応する仮想画素出力のレベルを正規化する(ステップS45)。
Next, the
そして、CPU100の制御の下、AF処理回路108は、既述の相関演算式、即ち上記(2)式を基にして、基準像と参照像の相関演算を行う。この相関演算は、AF光学系の光軸からの参照像のズレ量ΔL2を求めるものであるので、基準像の重心位置がAF光学系の光軸上にあるものとして相関演算を行い、上記ズレ量ΔL1,ΔL2を基に被写体までの距離を演算し(ステップS46)、図5の処理にリターンする。
Then, under the control of the
以上説明したように、本発明の第1の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して、簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。また、撮影光学系とAF光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。
As described above, according to the first embodiment of the present invention, the imaging optical system (imaging optical system) and the
[第2の実施の形態]
図15には、本発明の第2の実施の形態に係る焦点検出装置を採用した撮像装置の構成を示し説明する。ここでは、説明の簡略化の為、前述した図1と同一構成要素には同一符号を付し、重複した説明を省略し、両者の相違点を中心に説明する。
[Second Embodiment]
FIG. 15 shows and describes the configuration of an imaging apparatus that employs a focus detection apparatus according to a second embodiment of the present invention. Here, for simplification of description, the same components as those in FIG. 1 described above are denoted by the same reference numerals, overlapping description is omitted, and differences between the two will be mainly described.
撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、その結果、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるおそれがある。
If the zoom value of the
このような点に鑑みて、この第2の実施の形態に係る焦点検出装置を採用した撮像装置では、上記撮影光学系のズームレンズ2のズーム値を読み込み、上記ズーム値に応じてAF光学系のズームレンズ101のズーム値を所定の値に設定するように、CPU200が第5モータドライブ111を制御して、モータ112を駆動する。尚、ズームレンズ101のズーム値は段階的に所定の値に設定するようにしてもよいことは勿論である。
In view of such a point, in the imaging apparatus adopting the focus detection apparatus according to the second embodiment, the zoom value of the
このように、ズームレンズ101のズーム値を段階的に所定の値に設定するのは、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。
In this way, the zoom value of the
上記のように、ズームレンズ101のズーム値を段階的に所定の値に設定することにより、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。
As described above, by setting the zoom value of the
ここで、第2の実施の形態に係る焦点検出装置を採用した撮像装置の前提とする基本原理や主動作は、第1の実施の形態で説明した内容と略同じであるが、図4のステップS4で実行されるサブルーチン“三角測距AF”が大きく異なる。 Here, the basic principle and main operation of the imaging apparatus adopting the focus detection apparatus according to the second embodiment are substantially the same as the contents described in the first embodiment. The subroutine “triangulation AF” executed in step S4 is greatly different.
そこで、以下、図16のフローチャートを参照して、第2の実施の形態によるサブルーチン“三角測距AF”の処理の流れを詳細に説明する。 Therefore, the flow of processing of the subroutine “triangulation AF” according to the second embodiment will be described in detail below with reference to the flowchart of FIG.
先ず、CPU200は、CPU15を介して、撮影光学系のズームレンズ2のズーム値を読み込む(ステップS51)。そして、このズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するように、第5モータドライブ111に基づいてモータ112を駆動する(ステップS52)。このようにズームレンズ2のズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するのは、以下の理由による。即ち、前述したように、撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるからである。
First, the
ここで、ズームレンズ101のズーム値は、段階的に所定の値に設定するようにしてもよいことは勿論である。このようにズームレンズ101のズーム値を段階的に所定の値に設定するのは、以下の理由による、即ち、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。このようにズームレンズ101のズーム値を段階的に所定の値に設定すれば、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。
Here, it goes without saying that the zoom value of the
続いて、CPU15は、撮影光学系の絞り4を予め決めた所定の値に絞り込んだ後(ステップS53)、AE処理回路13で画像データを取得する(ステップS54)。尚、このステップS53,S54の詳細については、図5のステップS11,S12と同じであるので、これ以上の説明は省略する。次いで、CPU200はAF処理回路108を制御して、撮影光学系により結像された第1測距領域の画像の光軸中心からのズレであるΔL1と、AF光学系に結像された上記第2測距領域の画像に対応する画像の光軸中心からのズレであるΔL2を演算する(ステップS55)。尚、このサブルーチン“ΔL1,ΔL2演算”については図14で、前述した通りであるので、ここでは重複説明を省略する。
Subsequently, the
こうして、CPU200は、AF処理回路108により上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS56)、リターンする。
Thus, the
以上説明したように、本発明の第2の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。
As described above, according to the second embodiment of the present invention, the imaging optical system (imaging optical system) and the
[第3の実施の形態]
これは、第1又は第2の実施の形態の改良例として位置付けられるものである。
[Third Embodiment]
This is positioned as an improved example of the first or second embodiment.
本発明の第3の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は15と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。 Since the configuration of the imaging apparatus employing the focus detection apparatus according to the third embodiment of the present invention is the same as that shown in FIG. 1 or 15, the description will focus on the differences with reference to the drawings.
上述した三角測距は、AF光学系の機械的な誤差や相関演算に伴う誤差が発生する可能性がある。一方、撮影レンズを駆動しながら撮像素子に結像する画像信号の高周波成分が最大になる位置にレンズを駆動する所謂山登り方式は、撮像信号そのものを用いて合焦させるので理想的である。しかしながら、合焦位置から撮影レンズが大きく離れていると十分なコントラストが得られず、合焦までに時間がかかるという問題がある。 The above-described triangulation may cause a mechanical error of the AF optical system or an error accompanying a correlation calculation. On the other hand, the so-called hill-climbing method, in which the lens is driven to a position where the high-frequency component of the image signal imaged on the image sensor becomes the maximum while driving the photographing lens, is ideal because the image signal itself is used for focusing. However, if the photographing lens is far away from the in-focus position, sufficient contrast cannot be obtained, and there is a problem that it takes time until in-focus.
かかる点に鑑みて、第3の実施の形態では、先ず最初に三角測距の原理に基づき撮影レンズを駆動した後、最後は山登り方式に基づき撮影レンズを合焦位置に駆動する。 In view of this point, in the third embodiment, first, the photographic lens is driven based on the principle of triangulation, and finally, the photographic lens is driven to the in-focus position based on the hill-climbing method.
以下、図17のフローチャートを参照して、本発明の第3の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。 Hereinafter, with reference to the flowchart of FIG. 17, the main operation by the imaging apparatus employing the focus detection apparatus according to the third embodiment of the present invention will be described in detail.
ここでは、図1の構成を適宜参照しつつ説明を進める。 Here, the description will be made with reference to the configuration of FIG. 1 as appropriate.
ステップS61,S62は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領を読み込み(ステップS63)、この選択された上記視野領域が三角測距による測距が可能な領域かどうか(図3参照)を判断し(ステップS64)、三角測距が可能な領域であれば、三角測距を行う(ステップS65)。尚、このサブルーチン“三角測距AF”については、図5又は図16で説明したのと同じであるので説明を省略する。
Steps S61 and S62 are the same as steps S1 and S2 in FIG. Next, the
次いで、CPU15は、三角測距により求めた被写体距離と現在の撮影光学系のフォーカスレンズ3のピント位置を比較する(ステップS66)。
Next, the
尚、現在の撮影光学系のフォーカスレンズのピント位置は、フォーカスレンズ3の駆動部材にエンコーダを設けて、フォーカスレンズ3の駆動位置を検出するという公知の方法により知ることができる。これについては、説明を省略する。
The focus position of the focus lens of the current photographing optical system can be known by a known method of detecting the drive position of the
そして、CPU15は、フォーカスレンズ3が合焦点近傍であると判断したときは(ステップS67)、直ちに所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。一方、合焦点近傍でないと判断すると、CPU15は、上記三角測距で求めた距離情報に基づきフォーカスレンズ3を駆動した後(ステップS68)、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。ステップS70〜S72は、図4のステップS6〜S8と同様であるので、重複した説明は省略する。
When the
ここで、図18は横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示したものである。同図に示されるように、第3の実施の形態では、時間t1までは三角測距に基づいて撮影レンズを駆動し、t1〜t2の間は所謂山登り方式により駆動する。
Here, FIG. 18 shows the drive position of the
以上説明したように、本発明の第3の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。さらに、例えば、撮影光学系の撮影レンズが合焦位置から大きく離れている場合でも、短時間で焦点を合わせることが可能となる。
As described above, according to the third embodiment of the present invention, the imaging optical system (imaging optical system) and the
[第4の実施の形態]
これは、第1の実施の形態の改良例として位置付けられるものである。
[Fourth Embodiment]
This is positioned as an improved example of the first embodiment.
本発明の第4の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。 Since the configuration of an imaging apparatus that employs a focus detection apparatus according to the fourth embodiment of the present invention is the same as that of FIG. 1, here, differences will be mainly described with reference to the drawings.
この第4の実施の形態に係る焦点検出装置を採用した撮像装置では、三角測距の原理に基づくAF方式と所謂山登り方式に基づくAF方式を併用し、状況に応じていずれかの方式を優先的に採用することを特徴とする。 In an imaging apparatus employing the focus detection apparatus according to the fourth embodiment, an AF method based on the principle of triangulation and an AF method based on a so-called hill-climbing method are used in combination, and either method is given priority depending on the situation. It is characterized by adopting automatically.
より具体的には、AF光学系を通過する被写体光の明るさが所定値より明るいと判断した場合には三角測距AFを優先的に行い、AF光学系を通過する被写体光の明るさが所定値より暗いと判断した場合は、所謂山登り方式によるAFを優先的に行うものである。 More specifically, when it is determined that the brightness of the subject light passing through the AF optical system is brighter than a predetermined value, triangulation AF is preferentially performed, and the brightness of the subject light passing through the AF optical system is determined. When it is determined that the image is darker than the predetermined value, AF based on the so-called hill climbing method is preferentially performed.
但し、上記判断すべき状況は、明るさには限定されない。 However, the situation to be determined is not limited to brightness.
以下、図19のフローチャートを参照して、本発明の第4の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。 Hereinafter, with reference to the flowchart of FIG. 19, the main operation of the imaging apparatus employing the focus detection apparatus according to the fourth embodiment of the present invention will be described in detail.
ステップS81,S82は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS83)。そして、CPU100は、AF光学系を通過した像の明るさB1を検出する(ステップS84)。より具体的には、撮像素子104の出力信号を読み出し被写体の比較的広い領域の平均的な明るさを求める。次に、上記被写体の平均的な明るさB1の値が所定値αより小さいか否かを判断する(ステップS85)。
Steps S81 and S82 are the same as steps S1 and S2 in FIG. Next, the
このステップS805にて、上記被写体の平均的な明るさB1の値が所定値αより小さいときは、三角測距不能としてステップS87の所謂山登りAFの処理に進む。このようなケースとしては、例えば撮影時に撮影者がAF光学系を手で遮っていることが考えられる。一方、上記ステップS85において、上記被写体の平均的な明るさB1の値が所定値αより大きいときは、CPU100は、次にサブルーチン“三角測距AF”により三角測距によるAFを行う(ステップS86)。尚、このサブルーチン“三角測距AF”については、図6で説明したのと同じであるので説明を省略する。
If the average brightness B1 of the subject is smaller than the predetermined value α in step S805, it is determined that triangulation cannot be performed, and the process proceeds to so-called hill-climbing AF processing in step S87. As such a case, for example, the photographer may be blocking the AF optical system by hand at the time of photographing. On the other hand, if the average brightness B1 of the subject is larger than the predetermined value α in step S85, the
続いて、CPU15は、第2モータドライブ19を制御して、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS87)。これ以降のステップS88〜S90までの動作は、図4のステップS6からステップS8までの動作と同じであるので、ここでは重複した説明を省略する。以上で、一連の処理を終了する。
Subsequently, the
以上説明したように、本発明の第4の実施の形態によれば、撮影レンズが合焦位置近傍にあるかどうかを三角測距AFによらず簡便な方法で検出することにより、合焦位置近傍にあるときは三角測距AFを省略して高速且つ精度よく合焦させることができる。 As described above, according to the fourth embodiment of the present invention, it is possible to detect whether the photographing lens is in the vicinity of the in-focus position by a simple method regardless of the triangulation AF. When in the vicinity, triangulation AF can be omitted and focusing can be performed with high speed and accuracy.
[第5の実施の形態]
これは、第1又は第2の実施の形態の改良例として位置付けられるものである。
[Fifth Embodiment]
This is positioned as an improved example of the first or second embodiment.
本発明の第5の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は図15と同じであるので、ここでは図1等を参照しつつ、相違点を中心に説明する。 Since the configuration of the imaging apparatus employing the focus detection apparatus according to the fifth embodiment of the present invention is the same as that of FIG. 1 or FIG. 15, here, differences will be mainly described with reference to FIG. .
図20には、本発明の第5の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成を示し詳細に説明する。 FIG. 20 shows an external configuration of a camera as an imaging apparatus that employs a focus detection apparatus according to a fifth embodiment of the present invention, and will be described in detail.
この図20に示すように、撮影光学系(撮影レンズ204)とAF専用光学系203の光軸を結ぶライン(基線長方向)は、カメラ本体の水平方向に対して傾いている。
As shown in FIG. 20, the line (baseline length direction) connecting the optical axes of the photographing optical system (photographing lens 204) and the AF dedicated
被写体までの距離は、図3で前述したように、2つの撮像素子の撮像面に結像する対応する2像の基線長方向の相対的なズレ量に基づいて求められることになるので、従来の手法を用いて被写体までの距離を求めるには、撮像素子5と撮像素子104のそれぞれの画素の読み出し方向(長辺方向又は短辺方向)を基線長方向に一致させた方が、前述したようなズレ量計算の処理が簡単になることは容易に推察される。
As described above with reference to FIG. 3, the distance to the subject is obtained based on the relative shift amount in the base line length direction of the two corresponding images formed on the imaging surfaces of the two imaging elements. In order to obtain the distance to the subject using the above method, it is preferable that the readout direction (long side direction or short side direction) of each pixel of the
しかしながら、このような配置は、撮影に用いる撮像素子5がカメラ本体に対して傾くので採用することができない。このような問題を解決するために、上記基線長方向をカメラ本体の水平方向にすると、撮影者がカメラを把持するときAF光学系が手によって遮られる可能性が高いので設計上好ましくない。このような観点から、第5の実施の形態に係るカメラでも、図20の外観図に示すように、上記基線長方向がカメラ本体の水平方向と所定の角度をもって配置されるように構成している。
However, such an arrangement cannot be adopted because the
この場合、撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104を図22に示されるように構成すると、撮像素子5が受ける像面上に設定した基準像2201に対応する、撮像素子104が受ける像面上の上記基準像に対応する参照像2202の位置を演算するときに、上記参照像2202が上記基準像に対して基線長方向にずれるので、参照像2202を上記基線長方向に所定ピッチずつずらしながら既述の上記(2)式に基づく相関量を演算して、上記基準像と一致する参照像の位置を求める。そうすると、撮像素子104の画素の読み出し方向が、通常の撮像素子の読み出し方向と異なり、通常の読み出し方向に対して斜めになるので、参照像の設定のために、比較的複雑な演算が必要になると共に演算に時間がかかる。
In this case, if the
この場合であっても基準像はずらす必要ないので図22の構成でもよい。 Even in this case, since the reference image does not need to be shifted, the configuration of FIG. 22 may be used.
しかしながら、第5の実施の形態では、更に図21に示すように撮像素子104の配置のみを基線長方向に傾けることで、撮像素子104の画素信号の読み出し方向を基線長方向に一致させた。第5の実施の形態では、このような配置にすることで、上記相関量の演算を簡単なものとし、高速の相関演算を可能としている。
However, in the fifth embodiment, as shown in FIG. 21, only the arrangement of the
次に、図21に示すように撮像素子の配置したときの、撮像素子5と撮像素子104の仮想画素の生成方法について詳細に説明する。先ず、撮像素子5の仮想画素の配列方向と基線長方向が一致するように撮像素子5の画素のアドレス変換を行う。
Next, a method for generating virtual pixels of the
以下、図23を参照してこのアドレス変換について説明する。 The address conversion will be described below with reference to FIG.
図23は、細線で示される原画を、θ(カメラの水平方向と基線長方向のなす角度)だけ回転して斜め走査による太線画像を得る際のアドレス位置関係を示している。図中、白丸はメモリ8に記憶された実画素を示し、黒丸はメモリ8から読み出す仮想画素を示している。各アドレス位置P(00),P(10),P(20),P(01),P(11),P(21),P(02),P(12),P(22)に対応する画素データがメモリ8に書き込まれており、これらアドレス位置の画素データを用いて、位置P(0、0)を中心にしてθだけ回転した後の太線で示す対応アドレス位置Q(10),Q(20),Q(01),Q(11),Q(21),…を求め、アドレス信号Addとしてメモリ8に送出する。
FIG. 23 shows the address positional relationship when an original image indicated by a thin line is rotated by θ (an angle formed by the horizontal direction of the camera and the baseline length direction) to obtain a thick line image by oblique scanning. In the figure, white circles indicate actual pixels stored in the
例えば、図23におけるアドレス位置Q(10),Q(20),Q(01),Q(11)の仮想画素アドレスは、図示の関係から次のようにして求まる。 For example, the virtual pixel addresses at the address positions Q (10), Q (20), Q (01), and Q (11) in FIG. 23 are obtained as follows from the illustrated relationship.
Q(10) x…P(00)+cosθ
y…P(00)+sinθ
Q(20) x…P(00)+2cosθ
=P(10)+2cosθ−1
y…P(00)+2sinθ
=P(10)+2sinθ
Q(01) x…P(00)−sinθ
y…P(00)+cosθ
Q(11) x…P(00)−sinθ+cosθ
=P(01)−sinθ+cosθ
y…P(00)+cosθ+sinθ
=P(01)+cosθ+sinθ−1
図24には、図23に示すアドレス変換原理図をθ=30度回転した場合のアドレス変換図が示されている。(XST,YST)を原点のアドレスとする。
Q (10) x ... P (00) + cos θ
y ... P (00) + sinθ
Q (20) x ... P (00) +2 cos θ
= P (10) +2 cos θ−1
y ... P (00) + 2sinθ
= P (10) + 2sin θ
Q (01) x ... P (00) -sinθ
y ... P (00) + cosθ
Q (11) x ... P (00) −sin θ + cos θ
= P (01) -sin θ + cos θ
y ... P (00) + cos θ + sin θ
= P (01) + cos θ + sin θ−1
FIG. 24 shows an address conversion diagram when the address conversion principle diagram shown in FIG. 23 is rotated by θ = 30 degrees. Let (XST, YST) be the address of the origin.
図24では、
XST=0 XW=0.866 X0=−2.4×0.5
YST=0 YW=0.5/2.4 Y0=0.866
であり、図24からも明らかなように、画素数m、ライン数nにおけるXアドレスXmnとYアドレスYmnを表す一般式は、次のようになる。
In FIG.
XST = 0 XW = 0.866 X0 = −2.4 × 0.5
YST = 0 YW = 0.5 / 2.4 Y0 = 0.866
As is clear from FIG. 24, general expressions representing the X address Xmn and the Y address Ymn in the number of pixels m and the number of lines n are as follows.
Xmn=XST+m・XW+n・X0
Ymn=YST+m・YW+n・Y0
例えば、0ライン目(n=0)のアドレス(座標)は、(XY)=(0,0),(0.866,0.208),(1.732,0.417),…、1ライン目(n=1)では、(XY)=(−1.2,0.866),(−0.334,1.074),(0.532,1.28),…となる。ここで、各アドレスの整数部がアドレスAddを、少数部が補間係数Kを示していることは図から明らかである。
Xmn = XST + m · XW + n · X0
Ymn = YST + m · YW + n · Y0
For example, the address (coordinates) of the 0th line (n = 0) is (XY) = (0, 0), (0.866, 0.208), (1.732, 0.417),. In the line (n = 1), (XY) = (− 1.2, 0.866), (−0.334, 1.074), (0.532, 1.28),. Here, it is clear from the figure that the integer part of each address indicates the address Add and the decimal part indicates the interpolation coefficient K.
上記補間処理は、例えば図25に示すような4点加重方式を用いるのが好ましい。 For the interpolation process, it is preferable to use a four-point weighting method as shown in FIG.
メモリ8から読み出すべきアドレス位置Qは、図25に示すように、X1とX2を定めると、周囲の4点P(11),P(21),P(12),P(22)のデータを、同一の符号を用いて、それぞれP(11)、P(21)、P(12)、P(22)と定義すると、これらの加重平均を用いて、下式により求める。
As shown in FIG. 25, when the address position Q to be read from the
Q=(1−Ky)X1+Ky・X2
X1=(1−Kx)P(11)+KxP(21)
X2=(1−Kx)P(12)+KxP(22)
したがって、
Q=(1−Kx)(1−Ky)P(11)+Kx(1−Ky)P(21)
+Ky(1−Kx)P(12)+Kx・Ky・P(22) ・・・(7)
この(7)式の演算は、1サイクル内に4画素アドレスのデータであるP(11),P(21),P(12),P(22)を読み出すことにより実現することができる。
Q = (1-Ky) X1 + Ky · X2
X1 = (1-Kx) P (11) + KxP (21)
X2 = (1-Kx) P (12) + KxP (22)
Therefore,
Q = (1-Kx) (1-Ky) P (11) + Kx (1-Ky) P (21)
+ Ky (1−Kx) P (12) + Kx · Ky · P (22) (7)
The calculation of equation (7) can be realized by reading out P (11), P (21), P (12), and P (22), which are data of four pixel addresses within one cycle.
以上説明したように第5の実施の形態では、上記のようにしてアドレス変換後の各アドレスの画素データの値を演算し、これらの新しいアドレスの画素データを複数合成して既述のとおりの仮想画素データを生成する。上述のとおり、座標を回転したときの新しいアドレス上の画素データを求めるには比較的複雑な演算を必要とする。しかし、第5の実施の形態においては、撮像素子104は基線長方向に対して傾きが零であり、撮像素子5のみ基線長方向に対して傾けて配置するので、座標変換の演算量が少なくて済む。
As described above, in the fifth embodiment, the value of the pixel data of each address after address conversion is calculated as described above, and a plurality of pixel data of these new addresses are synthesized, as described above. Virtual pixel data is generated. As described above, in order to obtain pixel data at a new address when coordinates are rotated, a relatively complicated operation is required. However, in the fifth embodiment, the
しかも、撮像素子5で受ける画像上に上記基準像を設定するので、基準像のみのアドレス変換を行えばよいので、相関量を求めるために基線長方向に像をシフトする必要のある参照像については複雑なアドレス変換を行う必要がないので演算量が極めて少なくて済むというメリットもある。尚、第5の実施の形態では、上記アドレス変換として回転のみについて述べたが、基準像と参照像の基線長方向と垂直方向のアドレス変換についても同様の4点加重方式により簡単に実現できる。これにより、基準像と参照像の基線長方向と垂直方向の画素のずれを補正して精度の高い相関演算を行うこともできる。
In addition, since the reference image is set on the image received by the
[まとめ]
以上、本発明の第1乃至第5実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、図1及び図15では、三角測距AFを統括するCPUと所謂山登り方式AFを統括するCPUを分けた例を示したが、これに限定されず、一のCPUが両者を統括するようにしても、更なるCPUを用いてもよい。
[Summary]
The first to fifth embodiments of the present invention have been described above. However, the present invention is not limited to this, and various improvements and modifications can be made without departing from the spirit of the present invention. . For example, FIGS. 1 and 15 show an example in which the CPU that controls the triangulation AF and the CPU that controls the so-called hill-climbing AF are divided. However, the present invention is not limited to this, and one CPU controls both. However, a further CPU may be used.
また、上記第1乃至第5の実施の形態は、デジタルカメラやデジタルビデオカメラのみならず、カメラ機能付きの携帯電話機、PDA、ノート型パーソナルコンピュータ等といった所謂モバイル機器等にも幅広く適用可能であることは勿論である。 The first to fifth embodiments can be widely applied not only to digital cameras and digital video cameras but also to so-called mobile devices such as mobile phones with camera functions, PDAs, and notebook personal computers. Of course.
また、上記第1乃至第5の実施の形態の技術的事項の一部又は全部の相互の組み合わせは適宜可能であることは勿論である。 It goes without saying that some or all of the technical matters of the first to fifth embodiments can be appropriately combined with each other.
(付記)
(1)被写体の像を記録する為の撮像と焦点検出に兼用する第1光学系及び第1撮像素子と、上記第1光学系及び上記第1撮像素子と所定の基線長隔てて配置された上記第1光学系とは倍率の異なる第2光学系及び第2撮像素子と、上記第2撮像素子から読み出した画像の中に設定された参照像を、基線長方向に所定の単位画素ずつずらしながら、上記第1撮像素子から読み出した画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき上記基準像に対応する被写体までの距離を検出する距離演算手段とを備え、上記第1撮像素子の単位画素のサイズと上記第2撮像素子の単位画素のサイズの比が、上記第1光学系の倍率と上記第2光学系の倍率の比に等しくなるようにしたことを特徴とする焦点検出装置。この態様によれば撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。
(Appendix)
(1) The first optical system and the first image sensor that are used for both imaging and focus detection for recording an image of the subject, and the first optical system and the first image sensor are arranged at a predetermined baseline length. The second optical system and the second image sensor having different magnifications from the first optical system, and the reference image set in the image read from the second image sensor are shifted by predetermined unit pixels in the baseline length direction. However, the correlation amount calculating means for calculating the position of the reference image that matches the reference image set in the image read from the first image sensor, and corresponding to the reference image based on the output of the correlation amount calculating means Distance calculating means for detecting the distance to the subject to be measured, and the ratio of the size of the unit pixel of the first image sensor to the size of the unit pixel of the second image sensor is the magnification of the first optical system and the first To be equal to the magnification ratio of the two optical systems Focus detection device, characterized in that. According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.
(2)上記第1撮像素子の単位画素のサイズ又は上記第2撮像素子の単位画素のサイズは、複数の画素をまとめて仮想的な1つの画素とみなしたものであることを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。 (2) The size of the unit pixel of the first image sensor or the size of the unit pixel of the second image sensor is a combination of a plurality of pixels regarded as one virtual pixel. The focus detection apparatus according to (1). According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.
(3)上記第1光学系の光路中に配置された第1絞りと、この第1絞りを所定の値に設定する絞り設定手段とを更に有し、上記相関量演算手段は、上記絞り設定手段により上記第1絞りを予め決められた所定の絞り値に絞り込んだ後に撮像された画像データに基づいて上記基準像と一致する上記参照像の位置を演算することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮影レンズが合焦位置から大きくはずれていても比較的鮮明な画像が結像されるので正確にズレ量を求めることができる。 (3) It further includes a first diaphragm disposed in the optical path of the first optical system, and diaphragm setting means for setting the first diaphragm to a predetermined value, and the correlation amount calculation means includes the diaphragm setting. The position of the reference image that coincides with the reference image is calculated based on image data captured after the first aperture is reduced to a predetermined aperture value by means. The focus detection apparatus described in 1. According to this aspect, since a relatively clear image is formed even if the photographing lens is largely deviated from the in-focus position, the amount of deviation can be accurately obtained.
(4)上記第2光学系の光路中に配置された第2絞りを有し、上記絞り設定手段により設定される第1絞りの絞り値を上記第2絞りの絞り値と等しくすることを特徴とする上記(3)に記載の焦点検出装置。この態様によれば、第1光学系により結像される像と第2光学系により結像される像のぼけと照度分布が近似するので、ズレ量を正確に求めることができる。 (4) It has a second aperture disposed in the optical path of the second optical system, and the aperture value of the first aperture set by the aperture setting means is made equal to the aperture value of the second aperture. The focus detection apparatus according to (3) above. According to this aspect, since the blur and the illuminance distribution of the image formed by the first optical system and the image formed by the second optical system are approximated, the amount of deviation can be accurately obtained.
(5)上記第1光学系はズーム値を可変に構成され、上記第1光学系のズーム値に応じて測距が可能な領域が変化する測距可能領域を示す指標を上記第1撮像素子により撮像された画像と重ねて表示する表示手段を更に有することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、三角測距に基づく測距が可能な領域を確認することができるので便利である。 (5) The first optical system is configured such that the zoom value is variable, and an index indicating a distance-measurable area in which the area in which the distance can be measured changes according to the zoom value of the first optical system includes the first image sensor. The focus detection apparatus according to (1), further including display means for displaying the image picked up by the superimposing method. According to this aspect, it is possible to confirm an area in which distance measurement based on triangulation can be performed, which is convenient.
(6)被写体の測距領域を指示する測距領域指示手段を有し、測距が不能な領域に上記測距領域を設定するように指示されたときは、山登り方式に基づき撮影レンズを合焦位置に駆動することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、山登り方式により焦点検出可能となる。 (6) It has a distance measuring area instruction means for instructing a distance measuring area of the subject, and when it is instructed to set the distance measuring area in an area where distance measurement is impossible, the photographic lens is attached based on the mountain climbing method. The focus detection apparatus according to (1), wherein the focus detection apparatus is driven to a focal position. According to this aspect, the focus can be detected by the hill climbing method.
(7)上記第1光学系は連続的に切り換えが可能であり、上記第2光学系は連続的に変化する上記第1光学系の焦点距離に応じて焦点距離を不連続に切り換えることを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。 (7) The first optical system can be switched continuously, and the second optical system can switch the focal length discontinuously according to the focal length of the first optical system that changes continuously. The focus detection apparatus according to (1) above. According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.
(8)上記第2撮像素子の撮像面サイズは、上記第1撮像素子の撮像面のサイズに比べて小さいことを特徴とする上記(7)に記載の焦点検出装置。この態様によれば、高価な撮像用の撮像素子に比べて安価な撮像素子を用いるのでコストが安くなる。 (8) The focus detection apparatus according to (7), wherein an image pickup surface size of the second image pickup element is smaller than a size of the image pickup surface of the first image pickup element. According to this aspect, since an inexpensive image sensor is used as compared with an expensive image sensor, the cost is reduced.
(9)上記第2撮像素子の画素数は、上記第1撮像素子の画素数に比べて少ないことを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、高価な撮像用の撮像素子に比べて安価な撮像素子を用いるのでコストが安くなる。 (9) The focus detection apparatus according to (1), wherein the number of pixels of the second image sensor is smaller than the number of pixels of the first image sensor. According to this aspect, since an inexpensive image sensor is used as compared with an expensive image sensor, the cost is reduced.
(10)第1光学系により結像される第1像を受ける第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された第2光学系により結像される第2像を受ける第2撮像素子と、所定の距離に配置された被写体が結像する上記第1撮像素子と記第2撮像素子のそれぞれの撮像面上の座標位置が予め記憶された不揮発性メモリと、上記第1像の中に所定範囲の基準像の領域を設定する基準像領域設定手段と、上記不揮発性メモリに記録された座標位置を基に、上記基準像と一致する像の存在する参照像検索領域を上記第2像の中に設定する参照像検索領域設定手段と、上記参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を演算する演算手段と、上記基準像の上記第1光学系の光軸からの基線長方向の距離、及び上記演算手段により求めた参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離に基づき被写体までの距離を検出する距離演算手段とを備えたことを特徴とする焦点検出装置。この態様によれば、基準像に対応する参照像の位置を容易に検出することができるので、たとえ第1光学系と第2光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。 (10) A first image sensor that receives a first image formed by the first optical system, and a second image that is formed by a second optical system that is disposed at a predetermined baseline length from the first optical system. A non-volatile memory in which coordinate positions on the respective imaging surfaces of the first imaging element and the second imaging element on which a subject arranged at a predetermined distance forms an image are stored in advance. Reference image area setting means for setting a reference image area within a predetermined range in the first image, and a reference image in which an image matching the reference image exists based on the coordinate position recorded in the nonvolatile memory Reference image search area setting means for setting a search area in the second image, and an optical axis of the second optical system in an area where a reference image matching the reference image exists in the reference image search area Calculating means for calculating the distance in the base line length direction, and the first light of the reference image The distance to the subject is detected based on the distance in the base line length direction from the optical axis of the system and the distance in the base line length direction from the optical axis of the second optical system in the region where the reference image obtained by the calculation means exists. A focus detection apparatus comprising a distance calculation means. According to this aspect, since the position of the reference image corresponding to the reference image can be easily detected, even if the magnifications of the first optical system and the second optical system are different, the accuracy of the subject in an arbitrary region is improved. It becomes possible to perform distance measurement well.
(11)上記第1光学系の光軸上無限大の位置の被写体が結像する上記第1撮像素子の撮像面上の位置を、上記不揮発性メモリに予め記録することを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、第1光学系又は第2光学系の撮影倍率が変化しても結像位置が変化しないので、上記第1撮像素子の撮像面上に結像する被写体が上記第2撮像素子の撮像面上のどの位置に結像しているかを容易に求めることができ、上記基準像と参照像の相関演算を容易に行うことが可能となる。 (11) The position on the imaging surface of the first image sensor on which an object at an infinite position on the optical axis of the first optical system forms an image is recorded in advance in the nonvolatile memory. The focus detection apparatus according to 10). According to this aspect, since the imaging position does not change even when the imaging magnification of the first optical system or the second optical system changes, the subject that forms an image on the imaging surface of the first imaging element is not subject to the second imaging. It is possible to easily determine at which position on the imaging surface of the element the image is formed, and it is possible to easily perform the correlation calculation between the reference image and the reference image.
(12)上記第1光学系は撮影の対象となる像を結像する撮像用の光学系であり、上記第2光学系は上記第1光学系と対を構成して三角測距の原理に基づき被写体までの距離を検出するためのオートフォーカス用の光学系であることを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることが可能となる。 (12) The first optical system is an imaging optical system that forms an image to be photographed, and the second optical system forms a pair with the first optical system and is based on the principle of triangulation. The focus detection apparatus according to (10), wherein the focus detection apparatus is an optical system for autofocus for detecting a distance to a subject. According to this aspect, since the photographing optical system is also used for triangulation, parallax does not occur, and it is possible to accurately focus on a subject in an arbitrary region.
(13)上記第1光学系は撮影倍率が可変自在であることを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、撮影光学系の倍率が変化しても基準像に対応する参照像の位置を容易に検出することができるので、任意の領域の被写体に対して精度良く測距を行うことが可能となる。 (13) The focus detection apparatus according to (10), wherein the first optical system has a variable shooting magnification. According to this aspect, since the position of the reference image corresponding to the reference image can be easily detected even if the magnification of the photographing optical system changes, distance measurement can be performed with high accuracy for a subject in an arbitrary region. Is possible.
(14)上記参照像検索領域の中から基準像と一致する参照像を検出できないときは山登り方式に基づき上記撮影光学系のフォーカスレンズを合焦位置に駆動することを特徴とする上記(13)に記載の焦点検出装置。この態様によれば、撮影光学系とAF光学系のそれぞれの倍率が違いすぎるなどして三角測距が不能となっても山登り方式で焦点検出を行うのでピントがずれた撮影を行うおそれがない。 (14) When the reference image matching the reference image cannot be detected from the reference image search area, the focus lens of the photographing optical system is driven to the in-focus position based on the hill climbing method. The focus detection apparatus described in 1. According to this aspect, even if the respective magnifications of the photographing optical system and the AF optical system are different from each other, the focus detection is performed by the hill-climbing method even when the triangulation cannot be performed, so that there is no possibility of performing photographing out of focus. .
(15)第1光学系により結像される第1像を受ける第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された第2光学系により結像される第2像を受ける第2撮像素子と、上記所定の距離に配置された被写体が結像する上記第1撮像素子と記第2撮像素子のそれぞれの撮像面上の座標位置、及び上記第1像と上記第2像のそれぞれ同一の像の領域の信号レベル又はその比を予め記憶する不揮発性メモリと、上記第1像の中に所定範囲の基準像の領域を設定する基準像領域設定手段と、上記不揮発性メモリに記録された座標位置を基に上記基準像と一致する像の存在する参照像検索領域を上記第2像の中に設定する参照像検索領域設定手段と、上記基準像と上記参照像検索領域の像のそれぞれの画像信号レベルを、上記不揮発性メモリに記憶された情報を基に補正する補正手段と、上記補正後の画像信号に基づいて、上記参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を演算する相関演算手段と、上記基準像の上記第1光学系の光軸からの基線長方向の距離、及び上記相関演算手段により求めた参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離に基づき被写体までの距離を検出する距離演算手段とを備えたことを特徴とする焦点検出装置。この態様によれば、基準像に対応する参照像の画像信号のレベルを合わせることができるので参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を相関演算により精度良く求めることができる。 (15) A first image sensor that receives a first image formed by the first optical system, and a second image that is formed by a second optical system that is disposed at a predetermined baseline length from the first optical system. A second imaging device that receives the image, a coordinate position on each imaging surface of the first imaging device and the second imaging device on which the subject arranged at the predetermined distance forms an image, and the first image and the first image A non-volatile memory for storing in advance the signal level or the ratio of the same image area of each of the two images; a reference image area setting means for setting a predetermined range of a reference image area in the first image; and the non-volatile memory Reference image search area setting means for setting, in the second image, a reference image search area in which an image matching the reference image exists based on the coordinate position recorded in the memory, the reference image and the reference image The image signal level of each image in the search area is Correction means for correcting based on information stored in the second optical system in a region where a reference image matching the reference image is present from the reference image search region based on the corrected image signal There is a correlation calculation means for calculating the distance in the baseline length direction from the optical axis, the distance in the baseline length direction from the optical axis of the first optical system of the reference image, and the reference image obtained by the correlation calculation means And a distance calculating means for detecting the distance to the subject based on the distance in the base line length direction from the optical axis of the second optical system of the area to be detected. According to this aspect, since the level of the image signal of the reference image corresponding to the reference image can be adjusted, the second optical system in the region where the reference image that matches the reference image exists in the reference image search region. The distance in the baseline length direction from the optical axis can be obtained with high accuracy by correlation calculation.
(16)上記第1光学系は撮影の対象となる像を結像する撮影光学系であり、上記第2光学系は上記第1光学系と対を構成して三角測距の原理に基づき被写体までの距離を検出するためのAF光学系であることを特徴とする上記(15)に記載の焦点検出装置。この態様によれば、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることが可能となる。 (16) The first optical system is a photographing optical system that forms an image to be photographed, and the second optical system forms a pair with the first optical system based on the principle of triangulation. The focus detection apparatus according to (15) above, which is an AF optical system for detecting a distance up to According to this aspect, since the photographing optical system is also used for triangulation, parallax does not occur, and it is possible to accurately focus on a subject in an arbitrary region.
(17)上記第1光学系の光路中に絞り値を可変に設定可能な絞り設定手段を有し、焦点検出の前に上記絞りを予め決められた所定の絞り値に設定することを特徴とする上記(15)に記載の焦点検出装置。この態様によれば、絞り値毎の基準像と参照像の明るさの比を不揮発性メモリに記憶する必要がない。また、絞り値を所定の値に絞り込むことにより鮮明な基準像を得ることができ相関演算の精度を高めることができる。 (17) A diaphragm setting unit capable of variably setting a diaphragm value in the optical path of the first optical system, wherein the diaphragm is set to a predetermined diaphragm value before focus detection. The focus detection apparatus according to (15) above. According to this aspect, it is not necessary to store the brightness ratio of the reference image and the reference image for each aperture value in the nonvolatile memory. Further, by narrowing the aperture value to a predetermined value, a clear reference image can be obtained, and the accuracy of correlation calculation can be improved.
(18)被写体の像を記録するための撮像と焦点検出に兼用する第1光学系及び第1撮像素子と、上記第1光学系及び上記第1撮像素子と対を構成して、上記第1光学系の光軸と所定の基線長だけ隔てて配置された第2光学系及び第2撮像素子と、上記第1撮像素子の出力信号と上記第2の撮像素子の出力信号を基に三角測距の原理に基づき被写体までの距離を検出して、この検出結果に基づいて上記第1光学系を合焦位置に駆動する第1の焦点検出手段と、上記第1の撮像素子の出力信号の高周波成分が最大になるように上記第1光学系を合焦位置に駆動する第2の焦点検出手段と、上記第2光学系を通過する被写体の明るさを所定値と比較する比較手段と、上記比較手段により上記第2光学系を通過する被写体の明るさが所定値より明るいと判断したときは上記第1の焦点検出手段により優先的に焦点検出を行い、上記比較手段により上記第2光学系を通過する被写体の明るさが所定値より暗いと判断したときは、上記第2の焦点検出手段により優先的に焦点検出を行う制御手段とを備えたことを特徴とする撮像装置。この態様によれば、被写体の像を記録するための撮像用の撮像素子の出力信号と上記撮像素子と基線長だけ隔てて配置されたAF用の撮像素子の出力信号に基づいて、通常は三角測距の原理に基づいて迅速に被写体にピントを合わせることが可能であると共に上記AF用の撮像素子に導かれる被写体光が何らかの原因で遮られるなどした場合は、三角測距ができないことを検出して誤った焦点検出を未然に防止することができる。 (18) The first optical system and the first image sensor that are used for both imaging and focus detection for recording the image of the subject, and the first optical system and the first image sensor are configured as a pair, and the first Triangular measurement based on the second optical system and the second image sensor, which are arranged apart from the optical axis of the optical system by a predetermined baseline length, the output signal of the first image sensor and the output signal of the second image sensor. Based on the principle of distance, the distance to the subject is detected, and based on the detection result, the first focus detection means for driving the first optical system to the in-focus position, and the output signal of the first image sensor Second focus detection means for driving the first optical system to the in-focus position so as to maximize the high-frequency component; and comparison means for comparing the brightness of the subject passing through the second optical system with a predetermined value; The brightness of the subject passing through the second optical system is brighter than a predetermined value by the comparing means. When it is determined that the brightness of the subject passing through the second optical system is darker than a predetermined value by the comparison means, the focus detection is performed preferentially by the first focus detection means. An imaging apparatus comprising: control means for performing focus detection with priority by two focus detection means. According to this aspect, based on the output signal of the image pickup device for image pickup for recording the image of the subject and the output signal of the image pickup device for AF arranged by being separated from the image pickup device by the base line length, usually the triangle It is possible to quickly focus on the subject based on the principle of distance measurement, and detect that triangulation cannot be performed if the subject light guided to the AF image sensor is interrupted for some reason Thus, erroneous focus detection can be prevented in advance.
(19)上記比較手段は、上記第2光学系を通過する被写体の明るさと上記第1光学系を通過する被写体の明るさとを比較するものであることを特徴する上記(18)に記載の撮像装置。この態様によれば、撮影レンズである第1光学系により結像する被写体像が記録の対象とするものであるので、この被写体像と異なる被写体像に基づく焦点検出を防止することができる。 (19) The imaging device according to (18), wherein the comparison means compares the brightness of the subject passing through the second optical system with the brightness of the subject passing through the first optical system. apparatus. According to this aspect, since the subject image formed by the first optical system that is a photographing lens is a recording target, focus detection based on a subject image different from the subject image can be prevented.
(20)撮影に用いる第1の二次元撮像素子で撮像される第1画像と基線長方向がカメラの水平面と所定の角度をもって配置された第2の二次元撮像素子で撮像される第2画像に基づいて三角測距の原理に基づいて焦点を検出するカメラの焦点検出装置であって、上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段とを備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置。この態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。 (20) A first image picked up by the first two-dimensional image pickup device used for shooting and a second image picked up by the second two-dimensional image pickup device in which the base line length direction is arranged at a predetermined angle with the horizontal plane of the camera A focus detection apparatus for a camera that detects a focus based on the principle of triangulation based on the second image, while shifting the reference image set in the first image by a predetermined pitch in the baseline length direction. Correlation amount calculating means for calculating the position of the reference image that matches the reference image set in the image, and distance calculating means for detecting the distance to the subject based on the output of the correlation amount calculating means. A focus detection apparatus for a camera, characterized in that a long side direction of one two-dimensional image sensor is made parallel to a horizontal plane of the camera, and a long side direction of the second two-dimensional image sensor is made to coincide with the base line length direction. . According to this aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.
(21)上記第2の二次元撮像素子は、カメラの把持部よりも上面に配置されていることを特徴とする上記(20)に記載のカメラの焦点検出装置。この態様によれば、第2の二次元撮像素子に到達する被写体光束が遮られないので、確実に被写体の任意の位置に焦点を合わせることが可能である。 (21) The focus detection apparatus for a camera according to (20), wherein the second two-dimensional imaging element is disposed on an upper surface of the camera grip. According to this aspect, since the subject luminous flux reaching the second two-dimensional imaging element is not blocked, it is possible to focus on an arbitrary position of the subject reliably.
(22)上記基準像に対応する画像データのアドレスを上記基線長方向に回転変換する変換手段を更に有することを特徴とする上記(20)に記載のカメラの焦点検出装置。この態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることができる。 (22) The focus detection apparatus for a camera according to (20), further comprising conversion means for rotationally converting the address of the image data corresponding to the reference image in the baseline length direction. According to this aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.
尚、第1の光学系とは撮影光学系等に相当し、第1の撮像素子とは撮像素子5等に相当し、第2の光学系とはAF光学系等に相当し、第2の撮像素子とは撮像素子104等に相当する。表示手段とはLCD10等に相当する。相関量演算手段、距離演算手段、相関演算手段とは、AF処理回路108及びそれを統括するCPU100等が機能的に備えるものである。絞り設定手段とは、CPU100,200,15等が機能的に備えるものである。そして、測距領域指示手段とは、測距領域選択回路113等に相当し、基準領域設定手段、参照領域設定手段、補正手段とは、CPU100又は200等が機能的に備えるものである。第1の焦点検出手段とはAF処理回路108及びそれを統括するCPU100等に相当し、第2の焦点検出手段とはAF処理回路14及びそれを統括するCPU15等に相当する。比較手段、制御手段とはCPU15及び/又はCPU100,200等に相当する。但し、これらの関係は一例であり、これらに限定されないことは勿論である。
The first optical system corresponds to an imaging optical system, the first imaging element corresponds to the
1・・・撮像装置、2・・・ズームレンズ、3・・・フォーカスレンズ、4・・・絞り、5・・・撮像素子、6・・・撮像回路、7・・・A/D変換器、8・・・メモリ、9・・・D/A変換器、10・・・LCD、11・・・圧縮/伸長回路、12・・・記録用メモリ、13・・・AE処理回路、14・・・AF処理回路、15・・・CPU、16・・・TG回路、17・・・CCDドライバ、18〜20・・・第1乃至第3のモータドライバ、21〜23・・・モータ、24・・・操作スイッチ、25・・・EEPROM、26・・・電池、100・・・CPU、101・・・ズームレンズ、102・・・フォーカスレンズ、103・・・絞り、104・・・撮像素子、105・・・撮像回路、106・・・A/D変換器、107・・・メモリ、108・・・AF処理回路、109・・・TG回路、110・・・CCDドライバ、111・・・モータドライバ、112・・・モータ、113・・・測距領域選択回路、200・・・CPU。
DESCRIPTION OF
Claims (3)
上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら、上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、
上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段と、
を備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置。 Based on the first image picked up by the first two-dimensional image pickup device used for shooting, and the second image picked up by the second two-dimensional image pickup device whose base line length direction is arranged at a predetermined angle with the horizontal plane of the camera. A focus detection device for a camera that detects the focus based on the principle of triangulation,
Correlation amount calculation means for calculating the position of the reference image that matches the reference image set in the second image while shifting the reference image set in the first image by a predetermined pitch in the baseline length direction. When,
Distance calculating means for detecting the distance to the subject based on the output of the correlation amount calculating means;
The long side direction of the first two-dimensional image sensor is made parallel to the horizontal plane of the camera, and the long side direction of the second two-dimensional image sensor is made to coincide with the baseline length direction. Camera focus detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003370247A JP2005134621A (en) | 2003-10-30 | 2003-10-30 | Focus detector of camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003370247A JP2005134621A (en) | 2003-10-30 | 2003-10-30 | Focus detector of camera |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007321137A Division JP4558781B2 (en) | 2007-12-12 | 2007-12-12 | Camera focus detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005134621A true JP2005134621A (en) | 2005-05-26 |
Family
ID=34647322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003370247A Withdrawn JP2005134621A (en) | 2003-10-30 | 2003-10-30 | Focus detector of camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005134621A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007036802A (en) * | 2005-07-28 | 2007-02-08 | Fujitsu Ltd | Information processing apparatus, information processing method, and information processing program |
JP2011248106A (en) * | 2010-05-27 | 2011-12-08 | Nikon Corp | Imaging apparatus |
JP2014215551A (en) * | 2013-04-26 | 2014-11-17 | キヤノン株式会社 | Image-capturing device and control method therefor |
-
2003
- 2003-10-30 JP JP2003370247A patent/JP2005134621A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007036802A (en) * | 2005-07-28 | 2007-02-08 | Fujitsu Ltd | Information processing apparatus, information processing method, and information processing program |
JP4669340B2 (en) * | 2005-07-28 | 2011-04-13 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2011248106A (en) * | 2010-05-27 | 2011-12-08 | Nikon Corp | Imaging apparatus |
JP2014215551A (en) * | 2013-04-26 | 2014-11-17 | キヤノン株式会社 | Image-capturing device and control method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8810713B2 (en) | Image pickup apparatus and image pickup device for performing auto-focusing | |
JP4946059B2 (en) | Imaging device | |
JP6029309B2 (en) | Focus detection device | |
US10038849B2 (en) | Imaging device with controlled timing of images to be synthesized based on shake residual | |
JP6405531B2 (en) | Imaging device | |
JP3530906B2 (en) | Imaging position detection program and camera | |
JP6326631B2 (en) | Imaging device | |
JP5248951B2 (en) | CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM | |
JP4558781B2 (en) | Camera focus detection device | |
JP2005134617A (en) | Focus detector | |
WO2013069279A1 (en) | Image capturing device | |
JP6590894B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2008122981A5 (en) | ||
JP2005134621A (en) | Focus detector of camera | |
JP2019087923A (en) | Imaging apparatus, imaging method, and program | |
JP7233261B2 (en) | Three-dimensional surveying device, imaging device, control method and program | |
JP2005134619A (en) | Focus detector | |
JP2005134618A (en) | Focus detector | |
JP2005134620A (en) | Imaging apparatus | |
JP6590899B2 (en) | Imaging apparatus, imaging method, and program | |
TWI639338B (en) | Image capturing apparatus and image smooth zooming method thereof | |
JP2015200908A (en) | imaging device | |
JP2005249432A (en) | Projector device and distance measuring method | |
JP2020036091A (en) | Imaging device and control method therefor, program, and storage medium | |
US20220232166A1 (en) | Range measurement apparatus, storage medium and range measurement method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20071214 |