JP4558781B2 - Camera focus detection device - Google Patents
Camera focus detection device Download PDFInfo
- Publication number
- JP4558781B2 JP4558781B2 JP2007321137A JP2007321137A JP4558781B2 JP 4558781 B2 JP4558781 B2 JP 4558781B2 JP 2007321137 A JP2007321137 A JP 2007321137A JP 2007321137 A JP2007321137 A JP 2007321137A JP 4558781 B2 JP4558781 B2 JP 4558781B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical system
- imaging
- cpu
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、例えばデジタルカメラやビデオカメラ等に用いられるカメラの焦点検出装置に関するものである。 The present invention relates to a camera focus detection apparatus used for a digital camera or a video camera, for example.
従来、デジタルカメラやビデオカメラ等の撮像装置においては、撮像素子の出力信号の高周波成分が最大になる位置に撮影レンズを駆動して被写体にピントを合わせる、所謂山登り方式による焦点検出が広く採用されている。しかしながら、この方式は、撮影レンズを駆動しながら被写体にピントを合わせる方式である為、合焦状態に至るまでに比較的時間がかかるという問題がある。これに対して、三角測距方式や位相差方式による焦点検出は、被写体までの距離やピントのずれ量を求めることができる為、迅速な焦点検出が可能であり、特に速写性能が要求されるスチルカメラに向いた方式である。 Conventionally, in an imaging apparatus such as a digital camera or a video camera, focus detection by a so-called hill-climbing method, in which a photographing lens is driven to a position where the high-frequency component of an output signal of an imaging element is maximized to focus on a subject, has been widely adopted. ing. However, since this method focuses on the subject while driving the photographic lens, there is a problem that it takes a relatively long time to reach the in-focus state. On the other hand, the focus detection by the triangulation method or the phase difference method can obtain the distance to the subject and the amount of focus shift, so that it is possible to detect the focus quickly, and particularly high speed performance is required. This method is suitable for still cameras.
また、特許文献1では、基線長離れた2つのレンズ系からそれぞれ入射する同一被写体からの反射光を受光する一対の固体撮像素子を設け、上記一対の固体撮像素子の撮像面に結像する一対の画像中の任意の位置を指定し、三角測量法を利用したアルゴリズムにより被写体の前記位置指定点までの距離を求めることができるデジタル電子スチルカメラに関する技術が開示されている。
特許文献1に記載の技術では、一対のレンズ系の基線方向が、カメラの底面とほぼ平行に配置されているため、カメラを把持したとき撮影レンズが指に触れる可能性がある。この問題を解決するために、一方のレンズ系(撮像と焦点検出に兼用する)を、従来の単レンズにより構成されるカメラと同じようにカメラ前面の中央寄りの位置に配置し、他方のレンズ系(焦点検出専用とする)を、カメラを把持したときに指の触れにくい、例えば斜め上方に配置したとする。この場合、上記斜め上方に配置したレンズ系の結像位置に配置した撮像素子も、カメラ前面の中央寄りの位置に配置した撮像素子と同様に、長辺方向がカメラの水平方向と一致するように配置すると、画素の並び方向と2つのレンズ系の基線方向が一致しないため、焦点検出のための信号処理が複雑になり処理に時間がかるという問題がある。
In the technique described in
本発明は、簡単で高速処理が可能なカメラの焦点検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a camera focus detection device that is simple and capable of high-speed processing .
上記目的を達成するために、本発明では、撮影と焦点検出に兼用する第1光学系と、上記第1光学系の結像位置に配置され、長辺方向又は短辺方向がカメラの水平方向と一致するように配置された第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された焦点検出用の第2光学系と、上記第2光学系の結像位置に配置され、長辺方向又は短辺方向が、上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって且つ該第2光学系と上記第1光学系の基線方向と一致するように配置された第2撮像素子と、上記第1撮像素子で撮像された第1画像を表す第1画像データと、上記第2撮像素子で撮像された第2画像を表す第2画像データを基に、上記第1画像の一部の領域に設定された基準像と、上記第2画像のうち該基準像と一致する画像である参照像との間の、上記基線方向の相対的なずれ量を演算する相関量演算手段と、を備えたことを特徴とするカメラの焦点検出装置が提供される。 In order to achieve the above object, according to the present invention, the first optical system that is used for both photographing and focus detection is disposed at the imaging position of the first optical system, and the long side direction or the short side direction is the horizontal direction of the camera. match the arranged first imaging element to a second optical system for focus detection, which is spaced above the first optical system and a predetermined base line length, the imaging position of said second optical system Arranged such that the long side direction or the short side direction has a predetermined angle with the long side direction and the short side direction of the first image sensor and coincides with the baseline direction of the second optical system and the first optical system. the group and placed second imaging device, a first image data representing a first image captured by the first image sensor, a second image data representing a second image captured by the second image sensor the a reference image that has been set in the partial region of the first image, consistent with the reference image of the second image That between the reference image is an image, the focus detection device for a camera, characterized in that it and a correlation amount calculating means for calculating a relative deviation amount of the base line Direction is provided.
本発明によれば、焦点検出用の第2撮像素子は、基線方向が上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって配置されるので、カメラを把持するとき焦点検出光学系が手によって遮られる可能性が低くなる。また、焦点検出用の第2撮像素子は、その長辺方向が上記第1光学系と上記第2光学系の基線方向と一致するように配置されることにより、相関量演算手段による演算が簡単になる。 According to the present invention, the second imaging device for focus detection, since group line Direction is arranged with a long side direction and the short side direction at a predetermined angle of the first image pickup device, when gripping the camera The possibility that the focus detection optical system is blocked by the hand is reduced. The second image pickup element for focus detection by Rukoto the long side direction are arranged so as to coincide with the base line direction of the first optical system and the second optical system, easy operation by the correlation amount calculating means become.
本発明によれば、簡単で高速処理が可能なカメラの焦点検出装置を提供することができる。 According to the present invention, it is possible to provide a camera focus detection device that is simple and capable of high-speed processing .
以下、図面を参照して、本発明の実施の形態及び本発明に関連する技術について説明する。 Hereinafter, embodiments of the present invention and techniques related to the present invention will be described with reference to the drawings.
[第1の技術]
図1には、本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置の構成例を示し説明する。図1に示されるように、撮像装置1は、撮影光学系としての、ズームレンズ2及びフォーカスレンズ3を有している。光線は、これらレンズ2,3、絞り4を通過して、CCD等の撮像素子5の受光面に結像される。この撮像素子5で光電変換された信号は、撮像回路6に入力され、当該撮像回路6により映像信号が生成される。そして、この映像信号は、A/D変換器7によってデジタルの映像信号(画像データ)に変換され、メモリ8に一時的に記憶される。メモリ8に格納された画像データは、所定の画面レート(例えば1/30秒)で読み出され、D/A変換器9でアナログの映像信号に変換される。液晶表示素子(以下、LCDと略記する)10では、このアナログの映像信号に基づく被写体像の表示がなされる。
[First technology]
FIG. 1 shows and describes a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first technique related to the present invention. As shown in FIG. 1, the
操作スイッチ(以下、操作SWと略記する)24に含まれるレリーズスイッチを操作して記録操作を行った場合には、メモリ8の画像データは圧縮/伸張回路11の圧縮回路で圧縮された後、記録用メモリ12に記憶される。また、再生操作が行われた場合には、記録用メモリ12に圧縮されて記憶されたデータは、圧縮/伸張回路11の伸張回路で伸張された後、メモリ8に一時的に記憶され、D/A変換器9でアナログの映像信号に変換される。LCD10では、このアナログの映像信号に基づく再生画像の表示がなされる。
When a recording operation is performed by operating a release switch included in an operation switch (hereinafter abbreviated as operation SW) 24, the image data in the
ここで、LCD10では、その表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示する(図2参照)。即ち、LCD10では、撮影光学系のズームレンズ2のズーム値に応じて変化する三角測距可能な視野を示す指標201を、CCD5で撮像された画像と重ねて表示することができるので、当該指標201により、三角測距可能な領域を容易に確認することができる。仮に、操作SW24等の操作により、三角測距が可能な視野を示す指標201の外(測距が不能な領域)に、測距領域が指示された場合には、所謂山登り方式に基づきAFがなされる。
Here, the
A/D変換器7によってA/D変換された画像データは、オート露出処理回路(以下、AE処理回路と略記する)13とオートフォーカス処理回路(以下、AF処理回路と略記する)14に入力される。AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、CPU15に出力する。また、AF処理回路14は、1フレーム(1画面)分の画像データの輝度成分に高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分等に対応したAF評価値を算出し、CPU15に出力する。
Image data A / D converted by the A /
一方、撮影光学系の光軸と基線長Lだけ隔てて配置されたオートフォーカス専用の光学系(以下、AF光学系と称する)であるフォーカスレンズ102を経た光線は、絞り103を通過して、CCD等の撮像素子104に被写体像を結ぶ。この撮像素子104で光電変換された信号は撮像回路105に入力され、当該撮像回路105により、映像信号が生成される。そして、この映像信号は、A/D変換器106によってデジタルの映像信号(画像データ)に変換され、メモリ107に一時的に格納される。
On the other hand, a light beam that has passed through a
AF処理回路108では、上記撮影光学系に基づき得られ上記メモリ8に記憶されている画像データと、上記AF光学系に基づき得られ上記メモリ107に記憶されている画像データを用いて、所謂三角測距の原理に基づき測距領域選択回路113により選択された被写体までの距離を求める。この測距領域選択回路113は、カメラの操作者により手動で選択するものでも、公知の視線検出装置により選択するものでもよい。上記三角測距の原理に基づき得られた被写体距離情報を基に撮影光学系のフォーカスレンズ102を合焦位置に駆動した後、被写体に対する合焦精度を高める為に必要に応じて又は毎回のフォーカスレンズ102の合焦駆動の度に、最終的なピント位置の調整を所謂山登り方式により行う。この為に、AF処理回路108は、1フレーム(1画面)分の画像データの輝度成分における高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分量等に対応したAF評価値を算出し、CPU100に出力する。
The
CPU100には、タイミングジェネレータ(以下、TG回路と略記する)109から画面レートに同期した所定のタイミング信号が入力される。CPU100は、このタイミング信号に同期して、各種の制御動作を行う。また、このTG回路109のタイミング信号は、撮像回路105にも入力される。また、TG回路109は、所定のタイミングでCCD104を駆動するように、CCDドライバ110を制御する。
A predetermined timing signal synchronized with the screen rate is input to the
CPU15には、TG回路16から画面レートに同期した所定のタイミング信号が入力される。CPU15は、このタイミング信号に同期して、各種の制御動作を行う。このTG回路16のタイミング信号は、撮像回路6にも入力される。撮像回路6は、このタイミング信号に同期して、色信号の分離等の各種処理を行う。また、このTG回路16は、所定のタイミングでCCD5を駆動するようにCCDドライバ17を制御する。
A predetermined timing signal synchronized with the screen rate is input from the
CPU15は、第1乃至第3のモータドライブ回路18乃至20のそれぞれを制御することで、第1乃至第3のモータ21乃至23を介して、絞り4、フォーカスレンズ3、ズームレンズ2の駆動を制御する。つまり、CPU15は、AE評価値を基に、第1のモータドライブ回路18を制御して、第1のモータ21を回転駆動して、絞り4の絞り量を適正な値に調整する、即ちオート露出制御を行う。
The
また、CPU15は、CPU100と接続され、当該CPU100から三角測距の原理に基づく距離データを受信して、この距離データに基づき、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、フォーカスレンズ3を駆動して、合焦状態に設定する。しかしながら、一般的には、撮像素子5のコントラストが最大になる位置にフォーカスレンズ3を駆動する山登り方式に基づき制御した方が精度が向上する。そこで、上記三角測距の原理に基づきフォーカスレンズを駆動した後に、必要に応じて、AF評価値を基に、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、AF処理回路14からのAF評価値を得る。そして、こうして得られたAF評価値に基づき、CPU15は、そのAF評価値が最大となるレンズ位置にフォーカスレンズ3を駆動して、合焦状態に設定する、即ちオートフォーカスを行う。
The
但し、上記山登り方式の制御には比較的時間がかかるので、上記山登り方式に基づくフォーカスレンズ3の駆動は省略してもよいことは勿論である。
However, since it takes a relatively long time to control the hill-climbing method, it goes without saying that the driving of the
また、CPU15には、例えば電気的に書換可能で不揮発性の読み出し専用メモリとしてのEEPROM25が接続されており、このEEPROM25にはCPU15を介して各種の制御等を行うプログラムや、各種の動作を行うのに使用されるデータや、後述する撮像素子5と撮像素子104の結像位置の関係を知るための情報や、撮像素子5と撮像素子104の撮像面の明るさを補正する為の情報等が格納されている。これら情報は、撮像装置1の電源がONされた場合等に読み出されて使用される。尚、CPU15は、電池26の電圧を検出して、所定の電圧値以下になった事を検出した場合、電池26の残量が少ない旨の表示や電池の充電或いは交換等を促す表示をLCD10にて行う。
The
尚、撮像素子104の撮像面サイズは撮像素子5の撮像面サイズに比べて小さくてもよく、撮像素子104の画素数は撮像素子5の画素数に比べて少なくてもよい。これによれば、AF用に安価な撮像素子を用いることができるので、コストが安くなる。
Note that the image pickup surface size of the
また、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることができる。 Further, since the photographing optical system is also used for triangulation, parallax does not occur, and a subject in an arbitrary region can be accurately focused.
ここで、図3を参照して、本第1の技術に係る焦点検出装置に関連する測距原理を説明する。これは、後述する他の本発明に関連する技術及び実施の形態にも共通する。 Here, the principle of distance measurement related to the focus detection apparatus according to the first technology will be described with reference to FIG. This is common to other technologies and embodiments related to the present invention described later.
図3において、撮影光学系M1とAF光学系M2は、基線長Lだけ隔てて配設されている。撮影光学系M1の撮像素子5に対する焦点距離はf1、AF光学系M2の撮像素子104に対する焦点距離はf2である。更に、被写体Oの像の撮影光学系M1の光軸からのずれはΔL1であり、AF光学系の光軸からのずれはΔL2であり、被写体Oまでの距離はRである。このような場合、次式(1)が成立する。
In FIG. 3, the photographing optical system M1 and the AF optical system M2 are disposed apart from each other by the base line length L. The focal length of the imaging optical system M1 with respect to the
R/L1=f1/ΔL1
R/L2=f2/ΔL2
L=L1+L2
L/R=(1/f1)・(ΔL1+(f1/f2)・ΔL2) ・・・(1)
即ち、この(1)式より、像Oの撮影光学系M1の光軸からのずれΔL1及びAF光学系M2の光軸からのずれΔL2、上記両光学系M1,M2の焦点距離f1,f2、及び基線長Lが定まれば、被写体までの距離Rが求まることが分かる。
R / L1 = f1 / ΔL1
R / L2 = f2 / ΔL2
L = L1 + L2
L / R = (1 / f1) · (ΔL1 + (f1 / f2) · ΔL2) (1)
That is, from this equation (1), the deviation ΔL1 of the image O from the optical axis of the photographing optical system M1 and the deviation ΔL2 from the optical axis of the AF optical system M2, the focal lengths f1, f2 of the two optical systems M1, M2, If the base line length L is determined, the distance R to the subject can be found.
以下、図4のフローチャートを参照して、本第1の技術に係る焦点検出装置を採用した撮像装置の動作を詳細に説明する。 Hereinafter, the operation of the imaging apparatus employing the focus detection apparatus according to the first technique will be described in detail with reference to the flowchart of FIG.
操作SW24に含まれるパワースイッチがオンされ、電源投入されると、CPU15やCPU100がパワーオンリセットされ、本動作に入ることとなる。
When the power switch included in the
先ず、AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、当該AE評価値をCPU15に出力する(ステップS1)。続いて、CPU15は、操作SW24に含まれるレリーズスイッチの初段の第1のレリーズ(以下、1stレリーズと称する)が行われたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS2)。
First, the
このステップS2で1stレリーズが行われていれば、CPU100は、測距領域選択回路113により選択された測距領域の位置を読み込む(ステップS3)。
If the first release is performed in step S2, the
次いで、CPU100は、サブルーチン“三角測距AF”をコールし、三角測距の原理に基づき被写体までの距離を求める(ステップS4)。尚、このサブルーチン“三角測距AF”による三角測距の動作については、図5を参照して後述する。
Next, the
このステップS4で被写体までの距離が求まると、CPU15は、この被写体までの距離に基づいてフォーカスレンズ3を合焦位置まで駆動する(ステップS5)。
When the distance to the subject is obtained in step S4, the
続いて、CPU15は、1stレリーズが解除されたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS6)。1stレリーズ解除されたならば、CPU15は、操作SW24に含まれるレリーズスイッチの次段の第2のレリーズ(以下、2ndレリーズと称する)が行われたかどうかを判断し(ステップS7)、2ndレリーズが行われてなければJ1に分岐する。一方、上記ステップS7で、2ndレリーズが行われていれば、次にCPU15はAE評価値を基にオート露出制御を行い(ステップS8)、こうして一連の撮影動作を終了する。
Subsequently, the
次に、図5のフローチャートを参照して、図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明する。 Next, the subroutine “triangulation AF” executed in step S4 of FIG. 4 will be described in detail with reference to the flowchart of FIG.
撮影光学系のフォーカスレンズ3の位置が合焦位置から大きくはずれていると、絞り開口が大きくなるほど像がボケるため正確にズレ量を求めるのが難しくなる。
If the position of the
この為に、CPU15は、ズレ量の演算に先立ち、撮影光学系の絞り4を予め決めた所定の値に絞り込む(ステップS11)。撮影レンズが合焦位置から大きく外れていても、比較的鮮明な画像が結像されるので、正確にズレ量を求める上で効果的である。
For this purpose, the
また、撮影光学系の絞り値は、AF光学系の絞り103と等しいことが望ましい。
Further, it is desirable that the aperture value of the photographing optical system is equal to that of the
これは、撮影光学系により結像される像とAF光学系により結像される像のぼけと照度分布を等しくして、ズレ量を正確に求める為である。すなわち、このように撮影光学系の絞り値を設定すれば、撮影光学系により結像される像とAF光学系に結像される像のぼけと照度分布が近似するので、正確にズレ量を求める上で効果的である。 This is because the blur and illuminance distribution of the image formed by the photographing optical system and the image formed by the AF optical system are made equal to obtain the amount of deviation accurately. That is, if the aperture value of the photographic optical system is set in this way, the blur and illuminance distribution of the image formed by the photographic optical system and the image formed by the AF optical system are approximated. It is effective in seeking.
次いで、CPU15,100は、AE処理回路13で求めたAE評価値を基に撮像素子5と撮像素子104の露光を行い、画像データを取得する(ステップS12)。
Next, the
そして、CPU100は、サブルーチン“ΔL1,ΔL2演算”により、撮影光学系により結像された測距領域の画像の撮影光学系の光軸中心からのズレであるΔL1と、AF光学系に結像された上記測距領域の画像に対応する画像のAF光学系の光軸中心からのズレであるΔL2を演算するようにAF処理回路108を制御する(ステップS13)。このサブルーチン“ΔL1,ΔL2演算”については、図14を参照して後に詳述する。こうして、CPU100は、上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS14)、このサブルーチン“三角測距AF”からリターンする。
Then, the
ここで、図6,7を参照して、像のズレ量を求める相関演算の原理について説明する。 Here, with reference to FIGS. 6 and 7, the principle of the correlation calculation for obtaining the image shift amount will be described.
先ず、図6(a)は、測距領域選択回路113によって選択された第1測距領域の撮像素子5の画素の配列を示す。1つの画素のサイズはH1×W1とする。この第1測距領域内の所定範囲P1の像を基準像とする。この基準像の重心位置から撮影光学系の光軸までの距離をΔL1とする。そして、上記基準像の撮影光学系の光軸から基線方向にi番目の画素の出力をS(i)とする。
First, FIG. 6A shows an array of pixels of the
一方、図6(b)は、上記第1測距領域に対応するAF光学系によって結像される像の第2測距領域の画素の配列を示す。1つの画素のサイズはH2×W2とする。この第2測距領域の中に上記基準像と同じ画素数からなる参照像P2を設定し、この参照像のAF光学系の中心から基線方向にj番目の出力をC(j)とする。 On the other hand, FIG. 6B shows an arrangement of pixels in the second distance measuring area of an image formed by the AF optical system corresponding to the first distance measuring area. The size of one pixel is H2 × W2. Set a reference image P2 having the same number of pixels as the reference image in the second ranging area, the j-th output from the center of the AF optical system of the reference image based on line Direction and C (j) To do.
そして、対応する画素の出力の差の絶対値の和をとり、これをA(m)とし、相関量とする。この場合、次式(2)が成立する。
ここで、iとは基準部の最初の画素の番号であり、jは参照部の最初の画素の番号である。また、kは基準部及び参照部の最初の画素から数えてk番目の画素を意味する。 Here, i is the number of the first pixel in the reference portion, and j is the number of the first pixel in the reference portion. Further, k means the kth pixel counted from the first pixel of the standard part and the reference part.
参照部はj+nに、更に左右に±m程度の余裕を見込む。 The reference portion expects a margin of about ± m on the left and right in j + n.
ここで、参照部のデータに付いているmはCPU15の内部で、基準部のデータ番号は固定し、参照部のデータ番号を1個ずつ送っていく操作の為に付けられている。
Here, m attached to the data of the reference part is attached to the
そして、mを順次1からpまで変えながら上記相関量A(m)を求め、当該相関量A(m)が最小値をとるとき基準部と参照部の像が一致するものとして、基準部と参照部の像の相対的な距離を求める。尚、上記相関量A(m)は最小1画素毎の値である為、基準部と参照部の像の相対的な距離の精度も1画素が限界となる。 Then, the correlation amount A (m) is obtained while sequentially changing m from 1 to p, and when the correlation amount A (m) takes the minimum value, the images of the reference portion and the reference portion coincide with each other. The relative distance of the image of the reference part is obtained. Since the correlation amount A (m) is a value for each minimum pixel, the accuracy of the relative distance between the image of the reference portion and the reference portion is limited to one pixel.
そこで、図7に示すように、相関量A(m)が最小値をとる前後の相関量の幾何学的な関係から補間により1画素ピッチ以下の高い精度の相対的な距離を求める。この補間によると、経験的に1/10画素以下の高い精度で基準部と参照部の像の相対的な距離を求めることが可能である。尚、この補間演算自体は公知のものであるが、以下、簡単に説明すると、図7において、相関量A(m)の3番目に小さな値A(1)と最小値A(2)を直線で結び、この直線と水平線のなす角度θが、相関量A(m)の2番目に小さな値A(3)を通る直線と上記水平線となす角度θと等しくなるようにしたとき、上記2つの直線の交差する点のズレ量mを求めるものである。 Therefore, as shown in FIG. 7, a relative distance with high accuracy of one pixel pitch or less is obtained by interpolation from the geometric relationship of the correlation amount before and after the correlation amount A (m) takes the minimum value. According to this interpolation, it is possible to empirically determine the relative distance between the image of the reference portion and the reference portion with a high accuracy of 1/10 pixel or less. This interpolation calculation itself is known, but will be briefly described below. In FIG. 7, the third smallest value A (1) and the minimum value A (2) of the correlation amount A (m) are represented by a straight line. When the angle θ between the straight line and the horizontal line is made equal to the angle θ between the straight line passing through the second smallest value A (3) of the correlation amount A (m) and the horizontal line, the above two The amount of deviation m of the points where the straight lines intersect is obtained.
ところで、本第1の技術において、基準像と参照像とで相関演算を行い精度の高いズレ量を求めるためには、以下の「第1乃至第3の条件」を満たす必要がある。 By the way, in the first technique, it is necessary to satisfy the following “first to third conditions” in order to perform correlation calculation between the standard image and the reference image and obtain a highly accurate deviation amount.
これは、他の本発明に関連する技術及び実施の形態についても共通する考え方である。 This is the same concept for other technologies and embodiments related to the present invention.
より詳細には、「第1の条件」とは、基準像の基線方向の中心線を被写体上に投影したラインと参照像の基線方向の中心線を被写体上に投影したラインとが一致することである。そして、「第2の条件」とは、単位画素の光電変換部に投影される被写体面上の面積及び形状が同じであることである。更に、「第3の条件」とは、同一被写体に対応する画像データのレベルが同じであることである。以下、これら第1乃至第3の条件を満たす為の具体的解決手段について更に詳細に述べる。 More specifically, the "first condition", and line the center line baseline direction of the center line of the base line Direction reference image and the projected line on the object of the reference image is projected onto the object matches It is to be. The “second condition” is that the area and shape on the subject surface projected onto the photoelectric conversion unit of the unit pixel are the same. Furthermore, the “third condition” is that the levels of image data corresponding to the same subject are the same. Hereinafter, specific means for satisfying these first to third conditions will be described in more detail.
(第1の条件)
第1の条件を満たすための具体的解決手段について説明する。
(First condition)
Specific means for satisfying the first condition will be described.
撮影光学系の光軸上の無限大の位置にスポット光(光源)を配置する。撮影光学系の焦点距離と絞り値をそれぞれf1、F1の値に設定し、このときの撮像素子5の画素データを読み出して上記スポット光が撮像素子5の撮像面に結像する座標位置P1(Px1,Py1)を検出する。同様に、撮像素子104の画素データを読み出して上記スポット光が撮像素子104の撮像面に結像する座標位置P2(Px2,Py2)を検出し、上記P1とP2の座標位置を1組のデータとしてEEPROM25に記録する。
Spot light (light source) is arranged at an infinite position on the optical axis of the photographing optical system. The focal length and aperture value of the photographic optical system are set to f1 and F1, respectively, the pixel data of the
以上では、撮影光学系の光軸上の無限大の位置のスポット光に対応する1組のデータを記録したが、撮影光学系の光軸周辺の無限大の位置の複数点にスポット光を配置し、この複数点のスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録してもよい。この場合、撮影光学系、AF光学系の撮影倍率が変化しても結像位置が変化しないので、撮像素子5の結像面上に結像する被写体が上記撮像素子104の結像面上のどの位置に結像しているかを容易に求めることができることになり、基準像と参照像の相関演算を容易に行うことができる。
In the above, a set of data corresponding to spot light at an infinite position on the optical axis of the photographing optical system was recorded. However, spot light is arranged at a plurality of infinite positions around the optical axis of the photographing optical system. Then, the coordinate positions on the image pickup surfaces of the
また、上記スポット光(光源)を撮影光学系の光軸外の有限の距離に設置し、このスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録するようにしてもよいことは勿論である。
Further, the spot light (light source) is set at a finite distance outside the optical axis of the photographing optical system, and the coordinate positions on the image pickup surfaces of the
このようにしてEEPROM25に記録された上記座標位置P1(Px1,Py2),P2(Px2,Py2)から光軸上の無限大に位置する被写体が結像する撮像素子5の撮像面の位置、及び撮像素子104の撮像面の位置が分かる。
The position of the imaging surface of the
したがって、撮影光学系の光軸外の被写体が結像する撮像素子5と撮像素子104の各撮像面上の座標位置は、計算により簡単に求めることができる。
Therefore, the coordinate positions on the imaging surfaces of the
例えば、撮影光学系の焦点距離をf1、AF光学系の焦点距離をf2とし、撮像素子5の撮像面上の上記EEPROM25に記録された座標位置P1(Px1,Py1)を原点とした座標(x1,y1)の位置に像が結像しているものとする。
For example, the focal length of the imaging optical system is f1, the focal length of the AF optical system is f2, and the coordinate (x1) with the coordinate position P1 (Px1, Py1) recorded on the
この場合、上記(x1,y1)の位置の像に対応する像が結像する撮像素子104上の位置(x2,y2)は、上記EEPROM25に記録された座標位置P2(Px2,Py2)を原点として(x2,y1・f2/f1)となる。x1に対応する値x2は相関演算で求めるものであり、x2=x1・f2/f1であれば被写体距離は無限大であり、被写体が近づく程、x2とx1・f2/f1との差は大きくなる。
In this case, the position (x2, y2) on the
この両者の差を求めるのが上記相関演算である。 The correlation calculation is to obtain the difference between the two.
ここで、図8には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。この図8において、書き込み装置801から撮像装置1のCPU15に所定の信号が送られると、CPU15は上記EEPROM25に撮像面上の座標位置に係るデータを書き込むための命令を実行することになる。
Here, FIG. 8 shows a configuration example of a system for writing the data into the
以下、図9のフローチャートを参照して、このシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について更に詳細に説明する。
Hereinafter, with reference to the flowchart of FIG. 9, the operation of writing data relating to the coordinate position to the
先ず、書き込み装置801により撮像装置1をEEPROM25の書き込みモードに設定し(ステップS21)、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS22)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS23)。
First, the
そして、撮像素子5と撮像素子104の画像データを読み出し(ステップS24)、この読み出した画像データに基づいて、上記撮像面上の座標位置P1,P2をEEPROM25に書き込み(ステップS25)、この動作を終了する。
Then, image data of the
(第2の条件)
第2の条件を満たすための具体的解決手段について説明する。
(Second condition)
A specific means for solving the second condition will be described.
撮影光学系とAF光学系の撮影倍率や、撮像素子5と撮像素子104の1画素のサイズは異なるので、上記第2の条件を満たす為には、これらを考慮する必要がある。
Since the photographing magnification of the photographing optical system and the AF optical system and the size of one pixel of the
そこで、撮影光学系とAF光学系の像倍率の比α1/α2を演算する。 Therefore, the ratio α1 / α2 of the image magnification between the photographing optical system and the AF optical system is calculated.
尚、α1/α2=f1/f2である。但し、このf1,f2は、図3で先に説明したように、それぞれ撮影光学系の焦点距離とAF光学系の焦点距離である。 Note that α1 / α2 = f1 / f2. However, f1 and f2 are the focal length of the photographing optical system and the focal length of the AF optical system, respectively, as described above with reference to FIG.
次に、図6(a)、図10(a)に示すように、撮影光学系による像を受ける撮像素子5の基線方向の上記第1測距領域に対応する複数画素を、基線方向に長さW1毎に等分する。基線長と直角方向の長さをH1として、上記W1×H1を新たな1つの画素とする。そして、上記W1×H1に含まれる元の複数の画素を加算した信号又はその平均値を求め、上記撮像素子5の新たな画素(以下「仮想画素」という)の出力とする。尚、上記仮想画素は、上記W1×H1に含まれる特定のラインを間引いて加算してもよい。
Next, FIG. 6 (a), the as shown in FIG. 10 (a), a plurality of pixels corresponding to the group line Direction of the first ranging region of the
これと同様に、図6(b)、図10(b)に示すように、AF光学系による像を受ける撮像素子104の基線方向の上記第2測距領域に対応する複数画素を、基線方向に長さW2毎に等分する。基線長と直角方向の長さをH2として、上記W2×H2を新たな1つの画素とする。そして、上記W2×H2に含まれる元の複数の画素の信号を加算した信号又はその平均値を、上記撮像素子104の仮想画素の出力とする。
Similarly, FIG. 6 (b), the as shown in FIG. 10 (b), a plurality of pixels corresponding to the second ranging area groups line Direction of the
ここで、上記W1,W2,H1,H2は、
α1/α2=W1/W2=H1/H2
の関係を満たすように設定する。
このように、撮像素子5の単位画素のサイズと撮像素子104の単位画素のサイズの比が、撮影光学系の倍率とAF光学系の倍率の比に等しくなるようにすれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を併せることが可能となる。尚、上記単位画素のサイズとは、複数の画素をまとめて、仮想的な1つの画素(即ち、上記仮想画素)とみなしたものである。
Here, W1, W2, H1, and H2 are
α1 / α2 = W1 / W2 = H1 / H2
Set to satisfy the relationship.
As described above, if the ratio between the size of the unit pixel of the
次に、上述した基本的な考え方を基に仮想画素のサイズを具体的に設計してみる。 Next, the virtual pixel size is specifically designed based on the basic concept described above.
上記(1)式より、AF光学系の検出誤差dΔL2と測距誤差dRの関係は、
dR=−dΔL2・R2 /(L・f2) ・・・(3)
となる。
From the above equation (1), the relationship between the detection error dΔL2 of the AF optical system and the distance measurement error dR is
dR = −dΔL 2 · R 2 / (L · f 2 ) (3)
It becomes.
一方、撮影レンズの被写界深度は、
被写界深度=−F・δ・R2 /f12 ・・・(4)
F:撮影光学系の絞り値、δ:許容錯乱円
となる。
On the other hand, the depth of field of the taking lens is
Depth of field = −F · δ · R 2 / f1 2 (4)
F: Aperture value of the photographing optical system, δ: Allowable circle of confusion
It becomes.
ここで、測距誤差が撮影レンズの被写界深度内に収まっていれば、ピントが合ったといえる。この為には、
|測距誤差| < |被写界深度|
ということになり、上記(3)式、(4)式から
dΔL2・R2 /(L・f2)<F・δ・R2 /f12
が成立する。
Here, if the distance measurement error is within the depth of field of the photographic lens, it can be said that the camera is in focus. For this,
| Ranging error | <| Depth of field |
From the above formulas (3) and (4)
dΔL 2 · R 2 / (L · f 2 ) <F · δ · R 2 /
Is established.
従って、
dΔL2<F・δ・L・f2/f12 ・・・(5) が成立する。
Therefore,
dΔL2 <F · δ · L · f2 / f1 2 (5) is established.
いま、設計値として、F=1、δ=1/30mm、L=40mm(撮影光学系の光軸中心の測距誤差を求めるものとし、L2=Lとした)、f2=10mm、f1=30mmとすると、
dΔL2<15 (μm)
となる。
Now, as design values, F = 1, δ = 1/30 mm, L = 40 mm (the distance measurement error at the center of the optical axis of the photographing optical system is obtained, L2 = L), f2 = 10 mm, f1 = 30 mm Then,
dΔL2 <15 (μm)
It becomes.
この例では、AF光学系が設計通りに製作されていたと仮定すると、撮像素子104の基線方向の画素ピッチが15μm以下のピッチであれば、既述の補間によらない相関演算により必要な精度が得られることになる。
In this example, the AF optical system is assumed to have been manufactured as designed, as long as it is a group line side pitch pixel pitch less 15μm in direction of the
しかしながら、既述の補間法により最終的なズレ量を演算するものとし、これにより1画素ピッチの1/10の精度を確保できるとすると、画素ピッチは150μm以下であれば必要な精度が得られることになる。撮像素子104の基線方向の画素ピッチを10μmとすると、十分な精度が得られることになる。
However, assuming that the final shift amount is calculated by the above-described interpolation method, and the accuracy of 1/10 of one pixel pitch can be secured by this, the required accuracy can be obtained if the pixel pitch is 150 μm or less. It will be. When the group line direction pixel pitch of the direction of the
そこで、上記補間演算をすることを条件に、上記(5)式を修正して、
dΔL2<10・F・δ・L・f2/f12 ・・・(6)
とする。
Therefore, on the condition that the above interpolation calculation is performed, the above equation (5) is corrected,
dΔL2 <10 · F · δ · L · f2 / f1 2 (6)
And
撮影光学系がズームレンズであり、そのズーム倍率が大きくなると、上記(6)式から明らかなように、AF精度及び測距可能な範囲に制約が出てくる。 When the photographic optical system is a zoom lens and the zoom magnification becomes large, as is clear from the above equation (6), the AF accuracy and the range that can be measured are limited.
図11は、このような関係を示したものである。即ち、図11(b)では、撮影光学系の視野1101bとAF光学系の視野1102bが一致しており、AF精度も上記具体的な数値で示した精度が確保されているものとする。しかし、撮影光学系の焦点距離が短くなり像の倍率が大きくなると(広角側)、撮影光学系の視野1101aに比べてAF光学系の視野1102aは狭くなる(図11(a)参照)。この場合、上記(5)式から明らかなように、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて大きくなり、十分な精度が得られる。一方、撮影光学系の焦点距離が長くなり像の倍率が小さくなると(望遠側)、撮影光学系の視野1101cに比べてAF光学系の視野1102cは広くなる(図11(c)参照)。この場合、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて小さくなり、十分な精度が得られなくなる場合がある。 FIG. 11 shows such a relationship. That is, in FIG. 11B, it is assumed that the field of view 1101b of the photographing optical system and the field of view 1102b of the AF optical system coincide with each other, and the AF accuracy is ensured by the above-described specific numerical values. However, when the focal length of the photographing optical system is shortened and the magnification of the image is increased (wide angle side), the field of view 1102a of the AF optical system becomes narrower than the field of view 1101a of the photographing optical system (see FIG. 11A). In this case, as is apparent from the above equation (5), the tolerance value of the deviation amount of the AF optical system is larger than that in FIG. 11B, and sufficient accuracy can be obtained. On the other hand, when the focal length of the photographic optical system is increased and the magnification of the image is reduced (on the telephoto side), the visual field 1102c of the AF optical system becomes wider than the visual field 1101c of the photographic optical system (see FIG. 11C). In this case, the allowable value of the deviation error of the AF optical system is smaller than that in FIG. 11B, and sufficient accuracy may not be obtained.
ここで、撮像素子5(撮像兼AF用)の撮像面の有効サイズを18.5mm(H)×13.5mm(v)、水平方向の画素ピッチを10μm、撮像素子104(AF専用)の撮像面の有効サイズを7.4mm(H)×5.94mm(V)、水平方向の画素ピッチを10μm、AF光学系の焦点距離をf2=10mm、撮影光学系の焦点距離f1を10mmから100mmまで10mmステップで変えた場合の、撮影光学系の水平方向視野に対するAF光学系の水平方向視野の比(f1・H2/(f2・H1))(ただし、H1は撮像素子5(撮像兼AF用)の水平方向の有効サイズ(18.5mm)、H2は撮像素子104(AF専用)の水平方向の有効サイズ(7.4mm)を表す。)、を求めた結果は表1に示される通りである。尚、撮像素子104のサイズを撮像素子5のサイズに比べて小さくしたのは、一般に撮像素子104は画素数が多く大きなサイズの高価なものであるのに対し、撮像素子104はそれに比べて安価な比較的画素数の少ないものを使う為である。また、上記(6)式を用いて、AF光学系の許容測距誤差を撮像素子104の画素数を単位として求めた結果は表1に示される通りである。
Here, the effective size of the imaging surface of the imaging element 5 (for imaging and AF) is 18.5 mm (H) × 13.5 mm (v), the horizontal pixel pitch is 10 μm, and the imaging element 104 (for AF only) is imaged. The effective size of the surface is 7.4 mm (H) × 5.94 mm (V), the horizontal pixel pitch is 10 μm, the focal length of the AF optical system is f2 = 10 mm, and the focal length f1 of the photographing optical system is from 10 mm to 100 mm. Ratio of the horizontal field of view of the AF optical system to the horizontal field of view of the photographic optical system when changed in steps of 10 mm (f1 · H2 / (f2 · H1)) (where H1 is the image pickup device 5 (for image pickup and AF)) The horizontal effective size (18.5 mm) and H2 represents the horizontal effective size (7.4 mm) of the image sensor 104 (for AF)). . Note that the size of the
そして、上記許容測距誤差以下となるように、撮像素子104の仮想画素の横、即ち基線方向のサイズW2を撮像素子104の画素数を単位として適宜表1のように選択すると、撮像素子5の仮想画素の横方向のサイズW1は、既に述べたようにf1/f2=W1/W2の関係から自動的に決まり、画素数を単位として表1のようになる。
Then, to be equal to or less than the allowable range finding errors, next to the virtual pixel of the
表1において、撮影光学系の焦点距離が10mmにおいては許容測距誤差135画素に比べて、W2が10画素となっており、他の撮影光学系と比べてやや過剰な精度になっているが、これはW2をなるべく統一してアルゴリズムを簡単にするためであり、理論上はW2は135画素以下であればよい。
この表1からも明らかなように、撮影光学系の焦点距離に応じて測距可能な範囲が変化する。そこで、本願発明においては、図11に示すように撮影光学系の焦点距離に応じて三角測距に基づく測距が可能な視野を表示する。また、測距領域も表示する。 As can be seen from Table 1, the range that can be measured varies depending on the focal length of the photographing optical system. Therefore, in the present invention, as shown in FIG. 11, a visual field capable of distance measurement based on triangulation is displayed according to the focal length of the photographing optical system. It also displays the ranging area.
一方、撮影光学系の焦点距離が長くなるほど許容測距誤差は小さくなり望遠側では精度を確保できなくなる可能性がある。そこで、後述する本発明に関連する第2の技術においては、撮影光学系のズーム値に応じてAF光学系のズーム値を変えるようにしている(これについての詳細は後述する)。 On the other hand, the longer the focal length of the photographic optical system, the smaller the allowable distance measurement error, and there is a possibility that accuracy cannot be ensured on the telephoto side. Therefore, in the second technique related to the present invention described later, the zoom value of the AF optical system is changed in accordance with the zoom value of the photographing optical system (details will be described later).
仮想画素の基線長と直角方向のサイズH1,H2についてもf1/f2=H1/H2の関係を満たすように適宜決めればよい。 The size H1 and H2 in the direction perpendicular to the base line length of the virtual pixel may be appropriately determined so as to satisfy the relationship of f1 / f2 = H1 / H2.
(第3の条件)
第3の条件を満たすための具体的解決手段について説明する。
(Third condition)
Specific means for satisfying the third condition will be described.
撮影光学系とAF光学系の構成や、撮像素子5と撮像素子104の感度が異なることから、撮像素子5の画像データの値と撮像素子104の画像データの値は異なる。
The image data value of the
従って、以下のように、カメラの製造時に補正のためのデータをEEPROM25に記録しておき、相関演算を行う前に撮像素子5の画像データと撮像素子104の画像データを正規化し、同一被写体に対応する画像データの出力レベルを実質的に同じにする。
Therefore, as described below, correction data is recorded in the
即ち、撮影光学系により結像される第1像と、AF光学系により結像される第2像のそれぞれ同一の像の領域の信号レベル又はその比をEEPROM25に記憶しておき、この情報を基に、出力レベルを補正する。これによれば、基準像に対応する参照像の画像信号のレベルを合わせることができる。以下、詳述する。
That is, the signal level or the ratio of the same image area of the first image formed by the photographing optical system and the second image formed by the AF optical system is stored in the
いま、撮影光学系の絞りを所定の値に絞り込んだ状態で撮像素子5の撮像面に被写体の領域A1の像Im1が結像しているものとする。同時に、撮像素子104の撮像面に被写体の領域A1の像Im2が結像しているものとする。
Now, it is assumed that an image Im1 of the subject area A1 is formed on the imaging surface of the
このときの上記Im1に対応する撮像素子5の画素データの平均値Vm1と撮像素子104の画素データの平均値Vm2の比である、
K=Vm1/Vm2
をEEPROM25に記録する。
The ratio of the average value Vm1 of the pixel data of the
K = Vm1 / Vm2
Is recorded in the
尚、被写体を広い拡散板にして、このときの撮像素子5の複数画素の出力の平均値と撮像素子104の複数画素の出力の平均値の比をKとしてもよい。また、上記Vm1とVm2をEEPROM25に記録しておき、両者の比は後で計算してもよい。また、上記撮影光学系の絞りを撮影光学系の焦点距離に応じた所定の絞り値に設定して、この焦点距離毎に上記係数Kを求めてEEPROM25に記憶してもよい。
Note that the subject may be a wide diffusion plate, and the ratio of the average value of the output of the plurality of pixels of the
相関演算の前に撮像素子104の画像データをK倍することにより、基準像と参照像の明るさを実質的に同じにすることができる。
By multiplying the image data of the
ここで、図12には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。ここでは、図8と同一構成については同一符号を付している。書き込み装置1201から撮像装置1のCPU15に所定の信号が送られると、CPU15はEEPROM25にデータを書き込むための命令を実行する。
Here, FIG. 12 shows a configuration example of a system for writing the data in the
以下、図13のフローチャートを参照して、上記EEPROM25へのデータの書き込み動作の流れを更に詳細に説明する。書き込み装置1201により撮像装置1をEEPROM25の書き込みモードに設定する(ステップS31)。次いで、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS32)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS33)。そして、撮像素子5と撮像素子104のデータを読み出し(ステップS34)、この読み出した画像データに基づいて上記係数KをEEPROM25に書き込み(ステップS35)、本動作を終了することになる。
Hereinafter, the flow of the data writing operation to the
以上が第1乃至第3の条件を満たす為の具体的解決手段の説明である。 The above is the description of specific means for satisfying the first to third conditions.
次に、図14のフローチャートを参照して、図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明する。このサブルーチンでは、測距領域の画像の光軸中心からのズレ量ΔL1、ΔL2を演算する。 Next, the subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 5 will be described in detail with reference to the flowchart of FIG. In this subroutine, deviation amounts ΔL1 and ΔL2 from the optical axis center of the image in the distance measurement area are calculated.
先ず、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS41)。次いで、CPU100は、基準像の重心位置(ΔL1)を演算する為に、上記測距領域の中から適宜基準像を選択する。この基準像の位置は、上記測距領域と等しくてもよく、上記測距領域の中から相関演算に適した所定のコントラストを有する小領域を選択したものでもよいことは勿論である。そして、CPU100は、この基準像の重心位置を求めて撮影光学系の光軸からのズレ量をΔL1とし(ステップS42)、上記基準像の重心位置に対応する参照像の重心位置を求める(ステップS43)。
First, the
次いで、CPU100は、表1から得られる撮影光学系の焦点距離f1と撮像素子5と撮像素子104のそれぞれの仮想画素サイズ(W1,W2,H1,H2)をテーブル表としてEEPROM25に記憶しておき、このテーブル表を参照して、基準像と参照像の各仮想画素の出力を演算する。尚、仮想画素の出力値は、元の複数画素の出力の平均値とする(ステップS44)。次いで、EEPROM25に記憶した既述の係数Kを基に基準像と参照像のそれぞれに対応する仮想画素出力のレベルを正規化する(ステップS45)。
Next, the
そして、CPU100の制御の下、AF処理回路108は、既述の相関演算式、即ち上記(2)式を基にして、基準像と参照像の相関演算を行う。この相関演算は、AF光学系の光軸からの参照像のズレ量ΔL2を求めるものであるので、基準像の重心位置がAF光学系の光軸上にあるものとして相関演算を行い、上記ズレ量ΔL1,ΔL2を基に被写体までの距離を演算し(ステップS46)、図5の処理にリターンする。
Then, under the control of the
以上説明したように、本発明に関連する第1の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して、簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。また、撮影光学系とAF光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。
As described above, according to the first technique related to the present invention, the imaging optical system (imaging optical system) and the
[第2の技術]
図15には、本発明に関連する第2の技術に係る焦点検出装置を採用した撮像装置の構成を示し説明する。ここでは、説明の簡略化の為、前述した図1と同一構成要素には同一符号を付し、重複した説明を省略し、両者の相違点を中心に説明する。
[Second technology]
FIG. 15 shows and describes the configuration of an imaging apparatus that employs a focus detection apparatus according to a second technique related to the present invention. Here, for simplification of description, the same components as those in FIG. 1 described above are denoted by the same reference numerals, overlapping description is omitted, and differences between the two will be mainly described.
撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、その結果、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるおそれがある。
If the zoom value of the
このような点に鑑みて、この第2の技術に係る焦点検出装置を採用した撮像装置では、上記撮影光学系のズームレンズ2のズーム値を読み込み、上記ズーム値に応じてAF光学系のズームレンズ101のズーム値を所定の値に設定するように、CPU200が第5モータドライブ111を制御して、モータ112を駆動する。尚、ズームレンズ101のズーム値は段階的に所定の値に設定するようにしてもよいことは勿論である。
In view of such a point, in the imaging apparatus employing the focus detection apparatus according to the second technique , the zoom value of the
このように、ズームレンズ101のズーム値を段階的に所定の値に設定するのは、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。
In this way, the zoom value of the
上記のように、ズームレンズ101のズーム値を段階的に所定の値に設定することにより、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。
As described above, by setting the zoom value of the
ここで、本第2の技術に係る焦点検出装置を採用した撮像装置の前提とする基本原理や主動作は、本発明に関連する第1の技術で説明した内容と略同じであるが、図4のステップS4で実行されるサブルーチン“三角測距AF”が大きく異なる。 Here, the basic principle and main operation of the imaging apparatus employing the focus detection apparatus according to the second technique are substantially the same as the contents described in the first technique related to the present invention. The subroutine “triangulation ranging AF” executed in step S4 of FIG.
そこで、以下、図16のフローチャートを参照して、本第2の技術によるサブルーチン“三角測距AF”の処理の流れを詳細に説明する。 Accordingly, the flow of processing of the subroutine “triangulation AF” according to the second technique will be described in detail below with reference to the flowchart of FIG.
先ず、CPU200は、CPU15を介して、撮影光学系のズームレンズ2のズーム値を読み込む(ステップS51)。そして、このズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するように、第5モータドライブ111に基づいてモータ112を駆動する(ステップS52)。このようにズームレンズ2のズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するのは、以下の理由による。即ち、前述したように、撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるからである。
First, the
ここで、ズームレンズ101のズーム値は、段階的に所定の値に設定するようにしてもよいことは勿論である。このようにズームレンズ101のズーム値を段階的に所定の値に設定するのは、以下の理由による、即ち、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。このようにズームレンズ101のズーム値を段階的に所定の値に設定すれば、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。
Here, it goes without saying that the zoom value of the
続いて、CPU15は、撮影光学系の絞り4を予め決めた所定の値に絞り込んだ後(ステップS53)、AE処理回路13で画像データを取得する(ステップS54)。尚、このステップS53,S54の詳細については、図5のステップS11,S12と同じであるので、これ以上の説明は省略する。次いで、CPU200はAF処理回路108を制御して、撮影光学系により結像された第1測距領域の画像の光軸中心からのズレであるΔL1と、AF光学系に結像された上記第2測距領域の画像に対応する画像の光軸中心からのズレであるΔL2を演算する(ステップS55)。尚、このサブルーチン“ΔL1,ΔL2演算”については図14で、前述した通りであるので、ここでは重複説明を省略する。
Subsequently, the
こうして、CPU200は、AF処理回路108により上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS56)、リターンする。
Thus, the
以上説明したように、本第2の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。
As described above, according to the second technique, it is possible to quickly focus on a wide area of a subject with a simple configuration using both the imaging optical system (imaging optical system) and the
[第3の技術]
これは、本発明に関連する第1又は第2の技術の改良例として位置付けられるものである。
[Third technology]
This is positioned as an improvement example of the first or second technique related to the present invention.
本発明に関連する第3の技術に係る焦点検出装置を採用した撮像装置の構成は図1又は15と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。 Since the configuration of the imaging apparatus that employs the focus detection apparatus according to the third technique related to the present invention is the same as that of FIG. 1 or 15, here, the differences will be mainly described with reference to the drawings.
上述した三角測距は、AF光学系の機械的な誤差や相関演算に伴う誤差が発生する可能性がある。一方、撮影レンズを駆動しながら撮像素子に結像する画像信号の高周波成分が最大になる位置にレンズを駆動する所謂山登り方式は、撮像信号そのものを用いて合焦させるので理想的である。しかしながら、合焦位置から撮影レンズが大きく離れていると十分なコントラストが得られず、合焦までに時間がかかるという問題がある。 The above-described triangulation may cause a mechanical error of the AF optical system or an error accompanying a correlation calculation. On the other hand, the so-called hill-climbing method, in which the lens is driven to a position where the high-frequency component of the image signal imaged on the image sensor becomes the maximum while driving the photographing lens, is ideal because the image signal itself is used for focusing. However, if the photographing lens is far away from the in-focus position, sufficient contrast cannot be obtained, and there is a problem that it takes time until in-focus.
かかる点に鑑みて、本第3の技術では、先ず最初に三角測距の原理に基づき撮影レンズを駆動した後、最後は山登り方式に基づき撮影レンズを合焦位置に駆動する。 In view of this point, in the third technique, first, the photographic lens is driven based on the principle of triangulation, and finally, the photographic lens is driven to the in-focus position based on the hill-climbing method.
以下、図17のフローチャートを参照して、本第3の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。 Hereinafter, with reference to the flowchart of FIG. 17, the main operation by the imaging apparatus employing the focus detection apparatus according to the third technique will be described in detail.
ここでは、図1の構成を適宜参照しつつ説明を進める。 Here, the description will be made with reference to the configuration of FIG. 1 as appropriate.
ステップS61,S62は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領を読み込み(ステップS63)、この選択された上記視野領域が三角測距による測距が可能な領域かどうか(図3参照)を判断し(ステップS64)、三角測距が可能な領域であれば、三角測距を行う(ステップS65)。尚、このサブルーチン“三角測距AF”については、図5又は図16で説明したのと同じであるので説明を省略する。
Steps S61 and S62 are the same as steps S1 and S2 in FIG. Next, the
次いで、CPU15は、三角測距により求めた被写体距離と現在の撮影光学系のフォーカスレンズ3のピント位置を比較する(ステップS66)。
Next, the
尚、現在の撮影光学系のフォーカスレンズのピント位置は、フォーカスレンズ3の駆動部材にエンコーダを設けて、フォーカスレンズ3の駆動位置を検出するという公知の方法により知ることができる。これについては、説明を省略する。
The focus position of the focus lens of the current photographing optical system can be known by a known method of detecting the drive position of the
そして、CPU15は、フォーカスレンズ3が合焦点近傍であると判断したときは(ステップS67)、直ちに所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。一方、合焦点近傍でないと判断すると、CPU15は、上記三角測距で求めた距離情報に基づきフォーカスレンズ3を駆動した後(ステップS68)、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。ステップS70〜S72は、図4のステップS6〜S8と同様であるので、重複した説明は省略する。
When the
ここで、図18は横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示したものである。同図に示されるように、本第3の技術では、時間t1までは三角測距に基づいて撮影レンズを駆動し、t1〜t2の間は所謂山登り方式により駆動する。
Here, FIG. 18 shows the drive position of the
以上説明したように、本第3の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。さらに、例えば、撮影光学系の撮影レンズが合焦位置から大きく離れている場合でも、短時間で焦点を合わせることが可能となる。
As described above, according to the third technique, it is possible to quickly focus on a wide area of a subject with a simple configuration using both the imaging optical system (imaging optical system) and the
[第4の技術]
これは、本発明に関連する第1の技術の改良例として位置付けられるものである。
[Fourth technology]
This is positioned as an improvement of the first technique related to the present invention.
本発明に関連する第4の技術に係る焦点検出装置を採用した撮像装置の構成は図1と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。 Since the configuration of the imaging apparatus that employs the focus detection apparatus according to the fourth technique related to the present invention is the same as that in FIG. 1, the differences will be mainly described with reference to the drawings.
この第4の技術に係る焦点検出装置を採用した撮像装置では、三角測距の原理に基づくAF方式と所謂山登り方式に基づくAF方式を併用し、状況に応じていずれかの方式を優先的に採用することを特徴とする。 In an imaging apparatus that employs the focus detection apparatus according to the fourth technique, an AF method based on the principle of triangulation and an AF method based on a so-called hill-climbing method are used in combination, and one of the methods is given priority depending on the situation. It is characterized by adopting.
より具体的には、AF光学系を通過する被写体光の明るさが所定値より明るいと判断した場合には三角測距AFを優先的に行い、AF光学系を通過する被写体光の明るさが所定値より暗いと判断した場合は、所謂山登り方式によるAFを優先的に行うものである。 More specifically, when it is determined that the brightness of the subject light passing through the AF optical system is brighter than a predetermined value, the triangulation AF is preferentially performed, and the brightness of the subject light passing through the AF optical system is determined. When it is determined that the image is darker than the predetermined value, AF based on the so-called hill-climbing method is preferentially performed.
但し、上記判断すべき状況は、明るさには限定されない。 However, the situation to be determined is not limited to brightness.
以下、図19のフローチャートを参照して、本第4の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。 Hereinafter, with reference to the flowchart of FIG. 19, the main operation by the imaging apparatus employing the focus detection apparatus according to the fourth technique will be described in detail.
ステップS81,S82は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS83)。そして、CPU100は、AF光学系を通過した像の明るさB1を検出する(ステップS84)。より具体的には、撮像素子104の出力信号を読み出し被写体の比較的広い領域の平均的な明るさを求める。次に、上記被写体の平均的な明るさB1の値が所定値αより小さいか否かを判断する(ステップS85)。
Steps S81 and S82 are the same as steps S1 and S2 in FIG. Next, the
このステップS805にて、上記被写体の平均的な明るさB1の値が所定値αより小さいときは、三角測距不能としてステップS87の所謂山登りAFの処理に進む。このようなケースとしては、例えば撮影時に撮影者がAF光学系を手で遮っていることが考えられる。一方、上記ステップS85において、上記被写体の平均的な明るさB1の値が所定値αより大きいときは、CPU100は、次にサブルーチン“三角測距AF”により三角測距によるAFを行う(ステップS86)。尚、このサブルーチン“三角測距AF”については、図6で説明したのと同じであるので説明を省略する。
If the average brightness B1 of the subject is smaller than the predetermined value α in step S805, it is determined that triangulation cannot be performed, and the process proceeds to so-called hill-climbing AF processing in step S87. As such a case, for example, the photographer may be blocking the AF optical system by hand at the time of photographing. On the other hand, if the average brightness B1 of the subject is greater than the predetermined value α in step S85, the
続いて、CPU15は、第2モータドライブ19を制御して、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS87)。これ以降のステップS88〜S90までの動作は、図4のステップS6からステップS8までの動作と同じであるので、ここでは重複した説明を省略する。以上で、一連の処理を終了する。
Subsequently, the
以上説明したように、本第4の技術によれば、撮影レンズが合焦位置近傍にあるかどうかを三角測距AFによらず簡便な方法で検出することにより、合焦位置近傍にあるときは三角測距AFを省略して高速且つ精度よく合焦させることができる。 As described above, according to the fourth technique, when the photographing lens is in the vicinity of the in-focus position by detecting whether the photographing lens is in the vicinity of the in-focus position by a simple method regardless of the triangulation AF, Can eliminate the triangulation AF and focus at high speed with high accuracy.
[第1の実施の形態]
これは、本発明に関連する第1又は第2の技術の改良例として位置付けられるものである。
[First Embodiment]
This is positioned as an improvement example of the first or second technique related to the present invention.
本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は図15と同じであるので、ここでは図1等を参照しつつ、相違点を中心に説明する。 Since the configuration of the imaging apparatus adopting the focus detection apparatus according to the first embodiment of the present invention is the same as that of FIG. 1 or FIG. 15, here, the differences will be mainly described with reference to FIG. .
図20には、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成を示し詳細に説明する。 FIG. 20 shows an external configuration of a camera as an imaging apparatus that employs the focus detection apparatus according to the first embodiment of the present invention, and will be described in detail.
この図20に示すように、撮影光学系(撮影レンズ204)とAF専用光学系203の光軸を結ぶライン(基線方向)は、カメラ本体の水平方向に対して傾いている。 As shown in this FIG. 20, connecting the optical axes lines (group line Direction) of the photographing optical system (photographing lens 204) AF-only optical system 203 is inclined relative to the horizontal direction of the camera body.
被写体までの距離は、図3で前述したように、2つの撮像素子の撮像面に結像する2像の基線方向の相対的なズレ量に基づいて求められることになるので、従来の手法を用いて被写体までの距離を求めるには、撮像素子5と撮像素子104のそれぞれの画素の読み出し方向(長辺方向又は短辺方向)を基線方向に一致させた方が、前述したようなズレ量計算の処理が簡単になることは容易に推察される。
Distance to the object, as described above in FIG. 3, it means obtained based on the relative shift amount of the base line Direction of 2 images you focused on the imaging plane of the two imaging devices, conventional to determine the distance to the subject using techniques, better-matched reading direction of each of the pixels of the
しかしながら、このような配置は、撮影に用いる撮像素子5がカメラ本体に対して傾くので採用することができない。このような問題を解決するために、上記基線方向をカメラ本体の水平方向にすると、撮影者がカメラを把持するときAF光学系が手によって遮られる可能性が高いので設計上好ましくない。このような観点から、第1の実施の形態に係るカメラでも、図20の外観図に示すように、上記基線方向がカメラ本体の水平方向と所定の角度をもって配置されるように構成している。
However, such an arrangement cannot be adopted because the
この場合、撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104を図22に示されるように構成すると、撮像素子5が受ける像面上に設定した基準像2201に対応する、撮像素子104が受ける像面上の上記基準像に対応する参照像2202の位置を演算するときに、上記参照像2202が上記基準像に対して基線方向にずれるので、参照像2202を上記基線方向に所定ピッチずつずらしながら既述の上記(2)式に基づく相関量を演算して、上記基準像と一致する参照像の位置を求める。そうすると、撮像素子104の画素の読み出し方向が、通常の撮像素子の読み出し方向と異なり、通常の読み出し方向に対して斜めになるので、参照像の設定のために、比較的複雑な演算が必要になると共に演算に時間がかかる。
In this case, if the
この場合であっても基準像はずらす必要ないので図22の構成でもよい。 Even in this case, since the reference image does not need to be shifted, the configuration of FIG. 22 may be used.
しかしながら、第1の実施の形態では、更に図21に示すように撮像素子104の配置のみを基線方向に傾けることで、撮像素子104の画素信号の読み出し方向を基線方向に一致させた。第1の実施の形態では、このような配置にすることで、上記相関量の演算を簡単なものとし、高速の相関演算を可能としている。
However, in the first embodiment, and further by inclining only the arrangement of the
次に、図21に示すように撮像素子の配置したときの、撮像素子5と撮像素子104の仮想画素の生成方法について詳細に説明する。先ず、撮像素子5の仮想画素の配列方向と基線方向が一致するように撮像素子5の画素のアドレス変換を行う。
Next, a method for generating virtual pixels of the
以下、図23を参照してこのアドレス変換について説明する。 The address conversion will be described below with reference to FIG.
図23は、細線で示される原画を、θ(カメラの水平方向と基線方向のなす角度)だけ回転して斜め走査による太線画像を得る際のアドレス位置関係を示している。図中、白丸はメモリ8に記憶された実画素を示し、黒丸はメモリ8から読み出す仮想画素を示している。各アドレス位置P(00),P(10),P(20),P(01),P(11),P(21),P(02),P(12),P(22)に対応する画素データがメモリ8に書き込まれており、これらアドレス位置の画素データを用いて、位置P(00)を中心にしてθだけ回転した後の太線で示す対応アドレス位置Q(10),Q(20),Q(01),Q(11),Q(21),…を求め、アドレス信号Addとしてメモリ8に送出する。
Figure 23 shows the original a, theta (horizontal and base line direction angle of direction of the camera) by a rotation to address the positional relationship in obtaining the thick line image due to the oblique scanning indicated by the thin line. In the figure, white circles indicate actual pixels stored in the
例えば、図23におけるアドレス位置Q(10),Q(20),Q(01),Q(11)の仮想画素アドレスは、図示の関係から次のようにして求まる。 For example, the virtual pixel addresses at the address positions Q (10), Q (20), Q (01), and Q (11) in FIG. 23 are obtained as follows from the illustrated relationship.
Q(10) x…Px(00)+cosθ
y…Py(00)+sinθ
Q(20) x…Px(00)+2cosθ
=Px(10)+2cosθ−1
y…Py(00)+2sinθ
=Py(10)+2sinθ
Q(01) x…Px(00)−sinθ
y…Py(00)+cosθ
Q(11) x…Px(00)−sinθ+cosθ
=Px(01)−sinθ+cosθ
y…Py(00)+cosθ+sinθ
=Py(01)+cosθ+sinθ−1
ただし、x、yはQ(XY)を変換前の座標で表した値であり、Px(XY)、Py(XY)は、それぞれアドレス位置P(XY)のX座標、及びY座標の値を表すものとする。
図24には、図23に示すアドレス変換原理図をθ=30度回転した場合のアドレス変換図が示されている。(XST,YST)を原点のアドレスとする。
Q (10) x ... Px (00) + cos θ
y ... Py (00) + sin θ
Q (20) x ... Px (00) +2 cos θ
= Px (10) +2 cos θ−1
y ... Py (00) + 2sinθ
= Py (10) + 2sin θ
Q (01) x ... Px (00) -sinθ
y ... Py (00) + cosθ
Q (11) x... Px (00) −sin θ + cos θ
= Px (01) −sin θ + cos θ
y ... Py (00) + cos θ + sin θ
= Py (01) + cos θ + sin θ−1
However, x and y are values representing Q (XY) in coordinates before conversion, and Px (XY) and Py (XY) are values of the X coordinate and Y coordinate of the address position P (XY), respectively. It shall represent.
FIG. 24 shows an address conversion diagram when the address conversion principle diagram shown in FIG. 23 is rotated by θ = 30 degrees. Let (XST, YST) be the address of the origin.
図24では、
XST=0 XW=0.866 X0=−2.4×0.5
YST=0 YW=0.5/2.4 Y0=0.866
であり、図24からも明らかなように、列数m、ライン数n(変換後の座標(m、n))におけるXアドレスを変換前の座標で表したXmnとYアドレスを変換前の座標で表したYmnを表す一般式は、次のようになる。
In FIG.
XST = 0 XW = 0.866 X0 = −2.4 × 0.5
YST = 0 YW = 0.5 / 2.4 Y0 = 0.866
As is clear from FIG. 24, Xmn and Y address in which the X address in the number of columns m and the number of lines n (coordinates after conversion (m, n)) is represented by the coordinates before conversion are the coordinates before conversion. The general formula representing Ymn is as follows.
Xmn=XST+m・XW+n・X0
Ymn=YST+m・YW+n・Y0
例えば、0ライン目(n=0)の変換後の座標(m、n)を変換前の座標で表したアドレス(座標)は、(XY)=(0,0),(0.866,0.208),(1.732,0.417),…、1ライン目(n=1)では、(XY)=(−1.2,0.866),(−0.334,1.074),(0.532,1.28),…となる。ここで、各アドレスの整数部がアドレスAddを、少数部が補間係数Kを示していることは図から明らかである。
Xmn = XST + m · XW + n · X0
Ymn = YST + m · YW + n · Y0
For example, the addresses (coordinates) representing the coordinates (m, n) after the conversion of the 0th line (n = 0) with the coordinates before the conversion are (XY) = (0, 0), (0.866, 0 .208), (1.732, 0.417),... (XY) = (− 1.2, 0.866), (−0.334, 1.074) in the first line (n = 1). ), (0.532, 1.28),. Here, it is clear from the figure that the integer part of each address indicates the address Add and the decimal part indicates the interpolation coefficient K.
上記補間処理は、例えば図25に示すような4点加重方式を用いるのが好ましい。 For the interpolation process, it is preferable to use a four-point weighting method as shown in FIG.
メモリ8から読み出すべきアドレス位置Qの画素データをQとし、図25に示すように、画素データX1と画素データX2を定め、周囲の4点P(11),P(21),P(12),P(22)の画素データを、同一の符号を用いて、それぞれP(11)、P(21)、P(12)、P(22)と定義し、下式により画素データQを求める。 As shown in FIG. 25, pixel data X1 and pixel data X2 are defined as shown in FIG. 25, and the surrounding four points P (11), P (21), P (12) are defined as Q. the pixel data of the P (22), using the same reference numerals, P (11), respectively, P (21), is defined as P (12), P (22 ), obtaining the pixel data Q by the following equation .
Q=(1−Ky)X1+Ky・X2
X1=(1−Kx)P(11)+KxP(21)
X2=(1−Kx)P(12)+KxP(22)
したがって、
Q=(1−Kx)(1−Ky)P(11)+Kx(1−Ky)P(21)
+Ky(1−Kx)P(12)+Kx・Ky・P(22) ・・・(7) この(7)式の演算は、1サイクル内に4画素アドレスのデータであるP(11),P(21),P(12),P(22)を読み出すことにより実現することができる。
Q = (1-Ky) X1 + Ky · X2
X1 = (1-Kx) P (11) + KxP (21)
X2 = (1-Kx) P (12) + KxP (22)
Therefore,
Q = (1-Kx) (1-Ky) P (11) + Kx (1-Ky) P (21)
+ Ky (1−Kx) P (12) + Kx · Ky · P (22) (7) The calculation of the equation (7) is P (11), P which is data of 4 pixel addresses in one cycle. This can be realized by reading (21), P (12), and P (22).
以上説明したように第1の実施の形態では、上記のようにしてアドレス変換後の各アドレスの画素データの値を演算し、これらの新しいアドレスの画素データを複数合成して既述のとおりの仮想画素データを生成する。上述のとおり、座標を回転したときの新しいアドレス上の画素データを求めるには比較的複雑な演算を必要とする。しかし、第1の実施の形態においては、撮像素子104は基線方向に対して傾きが零であり、撮像素子5のみ基線方向に対して傾けて配置するので、座標変換の演算量が少なくて済む。
As described above, in the first embodiment, the value of pixel data at each address after address conversion is calculated as described above, and a plurality of pixel data at these new addresses are synthesized, as described above. Virtual pixel data is generated. As described above, in order to obtain pixel data at a new address when coordinates are rotated, a relatively complicated operation is required. However, in the first embodiment, the
しかも、撮像素子5で受ける画像上に上記基準像を設定するので、基準像のみのアドレス変換を行えばよいので、相関量を求めるために基線方向に像をシフトする必要のある参照像については複雑なアドレス変換を行う必要がないので演算量が極めて少なくて済むというメリットもある。尚、第1の実施の形態では、上記アドレス変換として回転のみについて述べたが、基準像と参照像の基線方向と垂直方向のアドレス変換についても同様の4点加重方式により簡単に実現できる。これにより、基準像と参照像の基線方向と垂直方向の画素のずれを補正して精度の高い相関演算を行うこともできる。
Moreover, the reference image so setting the reference image on the image received at the
[まとめ]
以上、本発明に関連する第1乃至第4の技術及び第1の実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、図1及び図15では、三角測距AFを統括するCPUと所謂山登り方式AFを統括するCPUを分けた例を示したが、これに限定されず、一のCPUが両者を統括するようにしても、更なるCPUを用いてもよい。
また、上記本発明に関連する第1乃至第4の技術及び第1の実施の形態は、デジタルカメラやデジタルビデオカメラのみならず、カメラ機能付きの携帯電話機、PDA、ノート型パーソナルコンピュータ等といった所謂モバイル機器等にも幅広く適用可能であることは勿論である。
[Summary]
The first to fourth techniques and the first embodiment related to the present invention have been described above. However, the present invention is not limited to this, and various improvements and modifications can be made without departing from the spirit of the present invention. Of course, it is possible. For example, FIGS. 1 and 15 show an example in which the CPU that controls the triangulation AF and the CPU that controls the so-called hill-climbing AF are separated. However, the present invention is not limited to this, and one CPU controls both. However, a further CPU may be used.
The first to fourth techniques and the first embodiment related to the present invention are not only digital cameras and digital video cameras but also so-called mobile phones with camera functions, PDAs, notebook personal computers, and the like. Of course, it can be widely applied to mobile devices and the like.
また、上記本発明に関連する第1乃至第4の技術及び第1の実施の形態の技術的事項の一部又は全部の相互の組み合わせは適宜可能であることは勿論である。 Of course, some or all of the technical matters of the first to fourth techniques and the first embodiment related to the present invention can be combined as appropriate.
1・・・撮像装置、2・・・ズームレンズ、3・・・フォーカスレンズ、4・・・絞り、5・・・撮像素子、6・・・撮像回路、7・・・A/D変換器、8・・・メモリ、9・・・D/A変換器、10・・・LCD、11・・・圧縮/伸長回路、12・・・記録用メモリ、13・・・AE処理回路、14・・・AF処理回路、15・・・CPU、16・・・TG回路、17・・・CCDドライバ、18〜20・・・第1乃至第3のモータドライバ、21〜23・・・モータ、24・・・操作スイッチ、25・・・EEPROM、26・・・電池、100・・・CPU、101・・・ズームレンズ、102・・・フォーカスレンズ、103・・・絞り、104・・・撮像素子、105・・・撮像回路、106・・・A/D変換器、107・・・メモリ、108・・・AF処理回路、109・・・TG回路、110・・・CCDドライバ、111・・・モータドライバ、112・・・モータ、113・・・測距領域選択回路、200・・・CPU。
DESCRIPTION OF
Claims (2)
上記第1光学系の結像位置に配置され、長辺方向又は短辺方向がカメラの水平方向と一致するように配置された第1撮像素子と、
上記第1光学系と所定の基線長隔てて配置された焦点検出用の第2光学系と、
上記第2光学系の結像位置に配置され、長辺方向又は短辺方向が、上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって且つ該第2光学系と上記第1光学系の基線方向と一致するように配置された第2撮像素子と、
上記第1撮像素子で撮像された第1画像を表す第1画像データと、上記第2撮像素子で撮像された第2画像を表す第2画像データを基に、上記第1画像の一部の領域に設定された基準像と、上記第2画像のうち該基準像と一致する画像である参照像との間の、上記基線方向の相対的なずれ量を演算する相関量演算手段と、
を備えたことを特徴とするカメラの焦点検出装置。 A first optical system that is used for both photographing and focus detection;
Disposed at an imaging position of the first optical system, a first imaging element the long side direction or the short side direction are arranged to coincide with the horizontal direction of the camera,
A second optical system for focus detection arranged at a predetermined baseline length from the first optical system;
The second optical system is disposed at the imaging position, and the long side direction or the short side direction has a predetermined angle with the long side direction and the short side direction of the first image sensor, and the second optical system and the first optical system. A second image sensor arranged to coincide with the baseline direction of the optical system ;
A first image data representing a first image captured by the first image pickup device, based on the second image data representing a second image captured by the second image sensor, the portion of the first image a reference image that has been set in the area, and the between the reference image is an image that matches the reference image of the second image, the correlation amount calculating means for calculating a relative deviation amount of the base line direction ,
Focus detecting apparatus of a camera, characterized in that it comprises a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007321137A JP4558781B2 (en) | 2007-12-12 | 2007-12-12 | Camera focus detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007321137A JP4558781B2 (en) | 2007-12-12 | 2007-12-12 | Camera focus detection device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003370247A Division JP2005134621A (en) | 2003-10-30 | 2003-10-30 | Focus detector of camera |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008122981A JP2008122981A (en) | 2008-05-29 |
JP2008122981A5 JP2008122981A5 (en) | 2008-11-27 |
JP4558781B2 true JP4558781B2 (en) | 2010-10-06 |
Family
ID=39507719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007321137A Expired - Fee Related JP4558781B2 (en) | 2007-12-12 | 2007-12-12 | Camera focus detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4558781B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5709532B2 (en) | 2011-01-05 | 2015-04-30 | キヤノン株式会社 | Automatic focusing device, lens device having the same, and imaging system |
CN115379108B (en) * | 2018-11-20 | 2024-05-10 | 中山市远尚光电科技有限公司 | Automatic ranging-based tele lens |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61116311A (en) * | 1984-11-12 | 1986-06-03 | Canon Inc | Base line length modifying device |
JPH11122517A (en) * | 1997-10-13 | 1999-04-30 | Canon Inc | Image pickup device and storage medium read by computer |
JP2002296490A (en) * | 2001-03-30 | 2002-10-09 | Minolta Co Ltd | Range-finding device and camera using the same |
-
2007
- 2007-12-12 JP JP2007321137A patent/JP4558781B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61116311A (en) * | 1984-11-12 | 1986-06-03 | Canon Inc | Base line length modifying device |
JPH11122517A (en) * | 1997-10-13 | 1999-04-30 | Canon Inc | Image pickup device and storage medium read by computer |
JP2002296490A (en) * | 2001-03-30 | 2002-10-09 | Minolta Co Ltd | Range-finding device and camera using the same |
Also Published As
Publication number | Publication date |
---|---|
JP2008122981A (en) | 2008-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4413261B2 (en) | Imaging apparatus and optical axis control method | |
US8922703B2 (en) | Focus detection apparatus | |
JP4946059B2 (en) | Imaging device | |
US8810713B2 (en) | Image pickup apparatus and image pickup device for performing auto-focusing | |
US10038849B2 (en) | Imaging device with controlled timing of images to be synthesized based on shake residual | |
JP2008026802A (en) | Imaging apparatus | |
US9197808B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
CN103119494B (en) | Imaging device | |
JP6405531B2 (en) | Imaging device | |
JP2015194672A (en) | Imaging apparatus | |
CN103067656A (en) | Imaging device and imaging method | |
US7423685B2 (en) | Image-taking apparatus with first control method in which focus lens is driven based upon signal from image-pickup device and second control method in which focus lens is driven based on signal representing object distance | |
JP2011081186A (en) | Imaging apparatus | |
JP4558781B2 (en) | Camera focus detection device | |
JP2005134617A (en) | Focus detector | |
JP2008122981A5 (en) | ||
JP2005134621A (en) | Focus detector of camera | |
JP4228430B2 (en) | Focus position determination method and apparatus | |
JP2005134618A (en) | Focus detector | |
JP2005134620A (en) | Imaging apparatus | |
JP2005134619A (en) | Focus detector | |
JP2011055084A (en) | Imaging apparatus and electronic device | |
JP2005249432A (en) | Projector device and distance measuring method | |
TWI639338B (en) | Image capturing apparatus and image smooth zooming method thereof | |
JP6089232B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100713 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100721 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4558781 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |