JP3704369B2 - Camera ranging device - Google Patents

Camera ranging device Download PDF

Info

Publication number
JP3704369B2
JP3704369B2 JP9511094A JP9511094A JP3704369B2 JP 3704369 B2 JP3704369 B2 JP 3704369B2 JP 9511094 A JP9511094 A JP 9511094A JP 9511094 A JP9511094 A JP 9511094A JP 3704369 B2 JP3704369 B2 JP 3704369B2
Authority
JP
Japan
Prior art keywords
light
distance measuring
distance
light receiving
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP9511094A
Other languages
Japanese (ja)
Other versions
JPH07301745A (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP9511094A priority Critical patent/JP3704369B2/en
Publication of JPH07301745A publication Critical patent/JPH07301745A/en
Application granted granted Critical
Publication of JP3704369B2 publication Critical patent/JP3704369B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、被写体距離に対し測距用光を投射し、被写体距離を検出するカメラの測距装置に関する。
【0002】
【従来の技術】
従来、カメラの測距装置では、画面内中央又は数点以外は測距することができなかった。かかる装置では、測距ポイントと測距ポイントの間に被写体が入った場合、所謂「中抜け現象」により正しく合焦することができなかった。
【0003】
かかる点に鑑みて、米国特許第4470681号では、複数のポイントを図3(d)に示すように時分割で測距することにより、低コストで測距ポイントの多い測距装置に係る技術が提案されている。
【0004】
一方、特開平3−77013号公報では、測距用光の広がりを2段階に切り換えて、狭いスポットで測距して中抜けが判定された時には、広いスポットで被写体を照射し、反射信号光の有無により適当な距離にピントを合わせる「測距装置」に関する技術が提案されている。
【0005】
【発明が解決しようとする課題】
しかしながら、前述した米国特許第4470681号に係る測距装置では、画面内の多くのポイントに係る距離を計ろうとすればする程、タイムラグが長くなるという問題が生じていた。
【0006】
さらに、前述した特開平3−77013号公報により開示された技術では、被写体の反射率や照射されたビームの被写体へのかかり具合により、測距結果に誤差が生じ、正しいピント合わせが十分に行われなかった。
本発明は上記問題に鑑みてなされたもので、その目的とするところは、被写体の画面内の位置に関係なく短いタイムラグで正確な測距を行うことにある。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明の第1の態様では、撮影画面の長手方向に広がった第1測距光束と、上記撮影画面の任意方向の狭い範囲に向けた第2測距光束とを、時分割で投射可能な投光手段と、この投光手段による上記第1測距光束の投射時に、上記第1測距光束の被写体からの反射光を受光する第1受光手段と、上第1受光手段の出力に基づいて被写体の存在する方向を検出する検出手段と、上記検出手段により検出された被写体の存在する方向に向けて上記第2測距光束を投射させる投射制御手段と、上記第2測距光束の投射時に、上記被写体からの反射光を受光する第2受光手段と、上記第2受光手段の出力に基づいて上記被写体までの距離を演算する距離演算手段と、を具備することを特徴とするカメラの測距装置が提供される。
本発明の第2の態様では、上記第1の態様において、上記第1受光手段の前方に配置された受光光学系を更に具備し、上記検出手段は、上記第1受光手段の出力及び上記受光光学系の焦点距離に基づいて被写体の存在する方向を検出することを特徴とするカメラの測距装置が提供される。
本発明の第3の態様では、上記第1又は第2の態様において、上記投光手段は、さらに、上記第1測距光束よりも狭く、上記第2測距光束よりも広い範囲に向けて第3測距光束を時分割で投光することが可能であることを特徴とするカメラの測距装置が提供される。
【0010】
【作用】
即ち、本発明の第1の態様では、投光手段により撮影画面の長手方向に広がった第1測距光束と上記撮影画面の任意方向の狭い範囲に向けた第2測距光束とが時分割で投射され、第1受光手段によりこの投光手段による上記第1測距光束の投射時に上記第1測距光束の被写体からの反射光が受光され、検出手段により上第1受光手段の出力に基づいて被写体の存在する方向が検出され、投射制御手段により上記検出手段により検出された被写体の存在する方向に向けて上記第2測距光束が投射され、第2受光手段により上記第2測距光束の投射時に、上記被写体からの反射光が受光され、距離演算手段により上記第2受光手段の出力に基づいて上記被写体までの距離が演算される。
本発明の第2の態様では、上記第1の態様において、上記第1受光手段の前方に受光光学系が配置され、上記検出手段により、上記第1受光手段の出力及び上記受光光学系の焦点距離に基づいて被写体の存在する方向が検出される。
本発明の第3の態様では、上記第1又は第2の態様において、上記投光手段は、さらに、上記第1測距光束よりも狭く、上記第2測距光束よりも広い範囲に向けて第3測距光束を時分割で投光することが可能である。
【0013】
【実施例】
以下、図面を参照して、本発明の実施例について説明する。
図1には、本発明の第1の実施例に係るカメラの測距装置の構成を示し説明する。同図に示されるように、本発明の測距装置は主として広い測距用光と狭い測距用光を切り換えて投射できる投光部1と、半導体光位置検出素子(PSD;Position Sensitive Device) 5a,5bなどからなる受光部4とで構成されている。
【0014】
更に詳細に説明すると、投光部1において、投光回路7の出力はストロボ光源等に用いられるキセノン(Xe)管1aの入力に接続されており、該Xe管1aの前面にはスリットを有するマスク2と投光レンズ3が配設されている。そして、このマスク2にはスリット切換部8が接続されており、上記投光回路7とスリット切換部8の出力はCPU10の入力に接続されている。
【0015】
尚、上記投光回路7は、放電電荷を蓄えるためのコンデンサと、該コンデンサに昇圧電圧を供給する昇圧回路及びXe管1aに高圧をかけてXe管1a内の気体を活性化させ、発光を開始させるトリガ回路等からなる。
【0016】
これに対して、受光部4において、受光回路6a,6bにはPSD5a,5bがそれぞれ接続されており、該PSD6a,6bの前面には受光レンズ4a,4bがそれぞれ配設されている。そして、上記受光回路6a,6bの出力はCPU10の入力にそれぞれ接続されている。
【0017】
このような構成において、CPU10はワンチップマイコン等からなる演算制御回路であり、本発明のカメラの測距装置全体のシーケンス制御や演算や判定を行う。即ち、このCPU10により上記投光部1を制御し、先ず画面の長手方向に広がった測距光を投射し、その反射信号光入射点をPSD5bによって検出し、該入射点から被写体の存在する方向をCPU10が判定する。そして、再度、投光部1を制御し、判定された被写体方向に対し、今度は狭いスポット状の測距用光を投射する。よって、タイムラグなく瞬時に画面長手方向に対する主要被写体位置が決定される高速のAFが実現できる。
【0018】
次に図2(a)には上記マスク2及びXe管1aなどの詳細な構成を示し説明する。同図に示されるように、Xe管1aの周りには、金属製のリフレクタ23が設けられており、該リフレクタ23により投光レンズ3の方向にのみ光が出射されるようになっている。このリフレクタ23は、上記トリガ回路25の高圧信号をリード線24によりXe管1aに印加する。
【0019】
上記Xe管1aの前を細長い開口部(スリット)20と、小さな開口部21とを有するマスク2が図中矢印の方向に動く。符号8は該マスク2のスリットを切り換えるための手段であり、CPU10の制御するモータドライバ8bがモータ8cを回転させると、送りネジ8aがマスク2を図中矢印の方向に移動させる。
【0020】
このような動作により、スリット20の中央部がレンズの光軸からXS ずれた位置に設定された時、Xe管1aを発光させると、図2(b)に示されるように、光軸からθS だけずれたポイントを中心に符号26で示されるような細長い帯状の測距用光が投射される。このθS は、投光レンズ3の焦点距離をft とすると、次式で示される。
【0021】
【数1】

Figure 0003704369
【0022】
つまり、マスク2の矢印方向の位置により、θS は制御可能である。また、帯状の測距用光の横の長さW2 はft とスリット20の長さW1 と距離lを用いて次式で示される。
【0023】
【数2】
Figure 0003704369
【0024】
つまり、W2 はW1 により決定される。さらに、スリット20が通過して21の小さな開口部がXe管1aの前に位置したときは、CPU10がトリガ回路25を制御する発光タイミング制御により任意の点の方向に小さなスポットの測距用光を投射することができる。
【0025】
また、マスク2がXe管1aの前に位置する前に、トリガ回路25を介してXe管1aを発光させれば、図3(a)に示されるように、画面12の上下方向中央部に広い幅の帯状測距用光13を投射することができる(投光パターンA)。
【0026】
そして、スリット20の位置と投光タイミングより、図3(b)の投光パターンB、又は投光パターンCの測距用光を投射することも可能となる。さらに、開口部21により図3(c)の符号14で示されるように、小さなスポットの測距用光を投射することも可能である。
【0027】
さて、図3(a)の投光パターンAで測距用光13を投射すると、人物11にて反射した部分の光が他の部分より大量にPSD5bに入射する。この時の様子を図4に示す。
【0028】
この図4に示されるように、PSD5b上の人物11からの反射信号光の中央部の位置をxj とし、受光レンズの焦点距離をfj とすると、受光レンス4bの光軸からどの角度に人物11がいるかは、次式により検出可能である。
【0029】
【数3】
Figure 0003704369
【0030】
PSD5bは、この光入射位置xj も検出することができる2次元PSDで、その光電流分布作用により、このXj に従って、2つの電極から2つの信号電流を出力する。この電流i1 ,i2 は、上記xj とPSDの長さtを用いて、次式の関係で示される。
【0031】
【数4】
Figure 0003704369
【0032】
このような機能により、図1の測距装置は図3(a)のように投光パターンAの測距用光13を投射すると、近くにいる人物11からの反射信号光入射位置xj を、PSD5bのx方向の一対の電極からの出力信号i1 ,i2 によって検出することができる。つまり、上記(4)式より、次式が成立する。
【0033】
【数5】
Figure 0003704369
【0034】
図1の受光回路6aは、このi1 /(i1 +i2 )を演算する回路である。CPU10が、この受光回路6bの出力より、上記(3)式を用いて被写体11の画面内の方向を検知することができる。そこで、次にその方向に対し、図3(c)のように、小さなスポットを投射して測距を行えばよい。
【0035】
図3(d)のように、小さなスポットの測距用光15を何度も投射して、ようやく主要被写体11を検出する方法もあるが(米国特許第4470681号)、かかる方式では測距終了までに大変長い時間がかかってしまう。そこで、測距ポイントを少なくすると、今度は前述の中抜けが生じてしまう。
【0036】
本発明では、1回の幅広投光による主要被写体方向検知及びその方向への1回のスポット状投光に寄る本測距と、計2回の投光で単純な構成によって中抜けなしの測距が可能となる。
【0037】
次に図5を参照してカメラの測距装置の測距原理を説明する。
図5において、符号4a,4b,5a,5bは図1に示す構成要素と同じく受光レンズ、PSDである。但し、5bは2次元的に光位置検出できるPSDで、図4で示した方向と直交する方向がここでは示されている。
【0038】
距離lから測距用光14が各受光レンズ4a,4bに入射すると、各PSD5a,5bのy1 ,y2 の位置に信号光が入射する。PSDはこの光点位置を上記(4)式のような形で示される2つの電気信号として出力する。
このy1 ,y2 が各PSDによって検出されると、図中、S1 ,S2 と受光レンズ焦点距離fj と距離lは、次式の関係で示される。
【0039】
【数6】
Figure 0003704369
このS1 ,S2 は図5に示すように、S1 +S2 =Sであるから、
【0040】
【数7】
Figure 0003704369
として、y1 ,y2 より測距用光14が反射した距離(被写体距離)lを求めることができる。
【0041】
この構成によれば、また例えビーム14がマスクのガタなどによって図のようにΔYだけずれた位置に投射されても、各PSDへの光入射位置は図のように、各々Δy1 =Δy2 だけ変化するので、上記(6)式の計算を行うと、Δy1 −Δy2 =0としてキャンセルされ、正しい測距が成されるという利点がある。
【0042】
また、投光パターンA,B,Cのように、横(x)方向にのびたパターンの測距用光を用いても、背景の影響が全くない時は同様の原理での測距が可能である。これは、上記(6)式のように、各PSDに入射したy方向の成分のみが測距に関与してx方向の広がりは関係しないからである。
【0043】
以下、図6のフローチャートを参照して本発明の第1の実施例に係る測距装置の動作を説明する。尚、構成は図1に示す通りであり、図7に示すようなシーンを想定して図3(b)の投光パターンB又はCを投射した後、図3(c)のスポット測距を行うようにした。この構図で投光パターンAだけでは被写体位置を求めようとすると、測距用光の両端からPSD5bに光が入射するので、PSD5bはそれらを平均して画面中央部から反射信号光が入射したと判定してまう。
【0044】
つまり、次のスポット測距は図7のだれもいない中央部に対して行われることになる。これを防ぐ為、図3(b)に示すように、投光パターンAの右半分、左半分に対してもう一度方向検出用の幅広投光を行うようにした。
【0045】
これにより、図7に示すようなシーンでも、次の投光は画面の右又は左半分に対して行われるので、人物11aまたは11bの人物の影響を除去して一方の人物の方向検出を間違わずに行うことができる。
【0046】
このような考え方に基づいて、図6のシーケンスを説明すると、ステップS1では図7のように投光パターンAの投光を行い、図1の2次元PSD5bのx方向の電極を用いて角度検出(図4の原理による)及びPSD5bのy方向の電極及びPSD5aを用いての距離検出(図5の原理による)を行う。
【0047】
これら角度距離の2つの検出は、後述するように、1回の発光中に時分割で行う。パターンAの投光は図2のマスク2がない状態でXe管1aを発光させる。この時の角度検出結果θA が0度以上であるか否かをステップS2で判定し、被写体が存在する方向に従って、パターンB又はCの投光を行うようにする。これは、図7における投光パターンAの投光のように、2人の人物に測距用光が掛かる可能性を低くするためである。
【0048】
そして、ステップS2の判定結果により、ステップS3へ分岐すると、図3(b)のように画面右半分のスリット投光を行う。これは、図2のマスク2の開口部20を介してXe管1aの光を投光させることにより行う。画面右半分への投光は、図2(b)で説明したように、スリット20の位置を制御して行う。そして、ステップS1と同様に角度、距離検出を行う。
【0049】
この時の検出角度θB に従って、図3(c)に示されるように、ステップS4では、該方向に向けてスポット光を投射し、測距を行う。このスポット光投射は図2(a)のマスク2の開口部21を介してXe管の光を投射することによって行う。θB に対しての投光はモータ8cによってマスク2をスキャンさせ、開口部21とレンズ3を結ぶラインとレンズ3の光軸が所定の角度となった時、Xe管1aを発光させることにより制御可能となる。
【0050】
こうして、ステップS1,S3,S4の3度の投光で得られた測距結果lA ,lB ,lC はステップS5,S6によって比較される。そして、投光パターンAでも背景の影響が全くないなら、lA =lB =lC となる。また、パターンBの投光において、背景の影響が全くないなら、lB =lP となる。例えそうであっても、これらの結果は各々誤差を含むので、完全には等しくならない。その誤差成分を平均化演算によって小さくするのがステップS7,S8である。
【0051】
つまり、ステップS5にて「Y」に分岐すると、ステップS7にてlA ,lB ,lP の平均値をピント合わせ距離lP とする。
また、ステップS6にて「Y」に分岐すると、lB とlP の平均値をピント合わせ距離lP とする。そして、lB とlP の時は、最終的にステップS4で得られたlP をそのままピント合わせ距離とする。これは、図3(b)に示されるように、パターンBの投光が人物11だけでなく背景の木110にも投射されており、この影響が測距誤差となった場合である。この時、パターンBでの角度検出結果θB にも誤差を生じると考えられるが、木110に比べ、人物11の方が十分近く、幅も広ければ大きな誤差とはならず、図3(c)の14のスポット光は正しく人物11に投射される。
【0052】
こうして得られたピント合わせ距離lP に対し、カメラはステップS15にてピント合わせを行い、露光を行う。そして、ステップS16にて、マスク2を初期位置に戻し、シーケンスを終了する(ステップS17)。
【0053】
一方、上記ステップS2をNで分岐するのは、図3の場合とは逆に画面左の方に人物11がいる時である。このとき、ステップS9にてパターンCの投光がなされるが、その他の考え方はステップS3以降のフローと同様に考えればよく、説明は省略する(ステップS9〜14)。
【0054】
次に図8には本発明の測距装置に用いられた受光回路の構成を示し説明する。図8において、符号5bは2次元PSDであり、入射した光4bのx方向、y方向の各座標に依存した信号電流を出力する。これは、x方向に関して(4)式に示したような関係をとるもので、y方向に関しても同様の式が成立する。
【0055】
従って、受光回路6bは(5)式のi1 /(i1 +i2 )の部分を演算する機能を有している。
符号31,32は、このi1 ,i2 を増幅するためのプリアンプである。このプリアンプ31,32は圧縮ダイオード37,38にこの増幅後のi1 ,i2 を各々流すので、バッファ39,40を介してトランジスタ41,42のベースに入力された圧縮電圧差がトランジスタ42のコレクタ電流を制御する。
【0056】
トランジスタ41、42はエミッタを共通にし、ここに電流源43を取り付けて差動回路を形成している。この電流源43の電流をIO とする時、トランジスタ42のコレクタ電流IOUT は、i1 ,i2 との間に、次式の関係が成立する。
【0057】
【数8】
Figure 0003704369
従って、I0 を固定値とするなら、CPU10はこのIOUT を検出して、(5),(7)式より、
【0058】
【数9】
Figure 0003704369
の関係を用いて、光入射位置Xj を求めることができる。より具体的には、発光手段の発光に先立って、SW45をONし、コンデンサ44の両端電圧を初期化しておき、SW45をOFF、発光中に電流源43を所定時間だけONさせればコンデンサ44に(7)式に対応する電圧が発生するので、これをCPU10が内蔵のA/D変換器で読み取るようにすればよい。
【0059】
x方向の光入射位置xj については、以上の通りだが、y方向の光入射位置についても同様で、プリアンプ31,32をOFF(入力オープン状態)とし、プリアンプ33,34をイネーブル状態として、同様の回路制御を行えば、CPU10がy方向の光入射位置を回路36を用いて検出することができる。
【0060】
このような構成の受光回路の動作を図9のタイミングチャートを示す。
発光に先立って、SW45(リセット1)をONからOFFとし、発光中の所定時間TINT だけ、電流源43(INT1)をONする。また、同一発光時間中にy方向の光入射位置検出用に回路36中のスイッチ(リセット2)、電流源(INT2)(共に図示せず)についても、同様の制御を行うようにする。
【0061】
そして、x方向(角度検出用)、y方向(距離検出用)の光位置検出信号出力のA/D変換を発光後、図のように時分割で行うようにする。
こうして、1回の発光にて、x,yの2つの方向の位置検出を済ませるのは、発光部の遅れや受光回路の遅れによって発光制御信号ON後、ΔTD の時間後にならなければ受光回路信号(例えばバッファ39の出力)が安定しないからである。つまり、2回発光させると、ΔTD を2回待って積分する必要があり、エネルギー的にもタイミング的にも不利となることを対策している。
【0062】
以上説明したように、第1の実施例にかかるカメラの測距装置によれば、従来のマルチAFの考え方によれば図3(d)のように複数のポイントの測距を行って初めて検出できた主要被写体11の位置を2回の投光で判定したので、省エネ仕様及び高速のAFが達成できる。また、3回又は2回の測距結果を加算する時、図3(d)の場合より高精度の測距が可能である。
【0063】
次に図10及び図11を参照して、本発明の第2の実施例を説明する。この実施例は概略の構成は図1の通りで、マスク2の形状のみが異なる。
図11の2のような形状のマスクをXe管1aの前方を図中矢印の方向にスライドさせ、所定のタイミングでXe管1aを発光させると、先ずスリット状開口部20bからの光投射がなされて、図10に示すように、画面下方右側の投光パターン60、下方左側の投光パターン61、上方右側の投光パターン62、上方左側の投光パターン63に順にスリット状投射光が投光される。
【0064】
このような投光を行い、第1実施例で述べた角度検出を行うと、投光パターン60,62からはほぼ同一の角度検出信号が得られる。これは、人物11の頭部と腹部からの反射光が角度検出用受光素子に入射し、これらの結果は図2で説明したXj の値を等しくするからである。
【0065】
しかし、投光パターン61,63を用いての角度検出結果は投光パターン61の投光時と投光パターン63の投光時で異なるものとなる。これは、投光パターン61の測距用光は手前のビン64によって反射されるが、投光パターン63の測距用光は64のビンには当たらないからである。
【0066】
このように、光投射を行えば、人物11とビン64の判別が可能となる。つまり、第2の実施例では、画面の上下に投光し、反射信号光が同一の角度を示してPSDに入射したものを優先するという考え方により、図10のようなシーンで手前のビン64にピントが合ってしまうのを防止している。そして、優先された角度検出結果に対し、マスク開口部21を用いて投光、測距を行う。
【0067】
以下、図12のフローチャートを参照して本実施例のシーケンスを説明する。
ステップS21〜S24では、既に述べたように、投光パターン60〜63の投光を行い、角度検出と第1実施例とは異なりその時の信号光量を検出する。
【0068】
次いで、ステップS25,S26,S29により、画面左側又は右側の上下に投光された光の反射光入射角度θ60とθ62,θ63を比較する。この結果、θ60とθ62が略等しく、θ61とθ63とは略等しくない場合には、θ62に対し、測距用スポット光投射(ステップS28)、θ61とθ63とが略等しく、θ60とθ62とが略等しくない場合には、θ63に対し、スポット光投射して(ステップS33)、測距を行い、これをピント合わせ距離lP とする。
【0069】
これは、先に述べた上下方向で入射角度が揃ったものを検出するという考え方で、尚且つこのような場合には、画面上方からの入射角度がより被写体の顔が存在しやすい角度であるとして上方投光時の角度検出結果優先としている。
【0070】
しかし、このような考え方では、θ60とθ62とが略等しくなく、θ61とθ63とが略等しくない場合は判定不可能なので、この時は、ステップS30にて画面下方の投光等光量検出結果を比較し、横領を優先した選択をする(ステップS31,S31)。ここで、画面下方を優先したのは、画面上方には風景や空など遠くて判定しにくい被写体が多いと考えたからである。
【0071】
また、θ61とθ63とが略等しく、かつθ60とθ62とが略等しい場合にもS27にて光量を参考にして、どちらを優先するかを決定している。このように優先された角度検出結果に従って、スポット投光測距を行い、その結果をピント合せ距離lP とする(ステップS28,S32,S31,S33)。このlP に対しピント合せするS34以降のシーケンスは第1実施例と同様である為、ここでは説明を省略する。
【0072】
以上説明したように、第2の実施例では図10のように、主要被写体11より近い距離に被写体64がある場合でも画面の上方と下方とで2回に分けて角度検出を行い、上下で角度検出結果が一致した角度に対してスポット投光測距を行ったので、主要被写体を検出し、正しいピント合せをすることができる。
【0073】
また、適宜、入射光量受光を行い、画面上半分が風景であるようなシーンにも対応して正しいピント合せができるようになっている。このような考えかたにより、図3(d)のように何度も測距ポイントを変えて測距を行わなくても高速且つ低消費エネルギーにて正しいピント合せができる。
【0074】
尚、本発明の上記実施態様によれば以下のごとき構成が得られる。
(1)画面の長手方向に広がった第1の測距用光と、画面の任意の方向に投射できる第2の測距用光とを時分割で投射する投光手段と、
上記第1の測距用光の広がり方向のどの部分から反射信号が入射したかを検出する第1の受光手段と、
上記第1の受光手段の出力結果に基づいて上記第2の測距光の制御方向を決定する決定手段と、
を具備することを特徴とするカメラの測距装置。
(2)上記第2の測距用光の被写体からの反射してきた成分を受光し、その入射位置に基づく信号を出力する第2の受光手段を更に具備することを特徴とする上記(1)に記載のカメラの測距装置。
(3)上記第1及び第2の受光手段が同一の半導体位置検出手段からなり、上記半導体位置検出手段の第1の方向は上記第1の受光手段の機能を有し、上記第1の方向に直交する第2の方向は上記第2の受光手段の機能を有することを特徴とする上記(2)に記載のカメラの測距装置。
【0075】
【発明の効果】
本発明によれば、被写体の画面内の位置に関係なく短いタイムラグで正確な測距を行うカメラの測距装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例に係るカメラの測距装置の構成を示す図である。
【図2】(a)は第1の実施例におけるマスク2及びXe管1aなどの詳細な構成を示す図であり、(b)は光軸からθS だけずれたポイントを中心に符号26で示されるような細長い帯状の測距用光が投射される様子を示す図である。
【図3】各種投光パターンの様子を示す図である。
【図4】投光パターンAで測距用光13を投射した場合、人物11にて反射した部分の光が他の部分より大量にPSD5bに入射する様子を示す図である。
【図5】第1の実施例による測距原理を説明するための図である。
【図6】第1の実施例に係る測距装置の動作を説明するためのフローチャートである。
【図7】画面の左右に主被写体があるシーンの一例を示す図である。
【図8】第1の実施例における受光回路の詳細な構成を示す図である。
【図9】受光回路の動作を示すタイムチャートである。
【図10】第2の実施例による投光パターンの様子を示す図である。
【図11】第2の実施例に係るカメラの測距装置の特徴部分の構成を示す図である。
【図12】第2の実施例に係るカメラの測距装置の動作を示すフローチャートである。
【符号の説明】
1…投光部、2…マスク、3…投光レンズ、4…受光部、5…PSD、6…受光回路、7…投光回路、8…スリット切換部、10…CPU。[0001]
[Industrial application fields]
The present invention relates to a distance measuring apparatus for a camera that projects distance measuring light onto a subject distance and detects the subject distance.
[0002]
[Prior art]
Conventionally, a distance measuring device for a camera cannot measure a distance other than the center of the screen or a few points. In such an apparatus, when a subject enters between the distance measuring points, the focus cannot be correctly achieved due to a so-called “missing phenomenon”.
[0003]
In view of this point, U.S. Pat. No. 4,470,681 discloses a technique relating to a distance measuring device with a large number of distance measuring points at a low cost by measuring a plurality of points in a time division manner as shown in FIG. Proposed.
[0004]
On the other hand, in Japanese Patent Laid-Open No. 3-77013, when the range of light for distance measurement is switched to two stages, distance measurement is performed with a narrow spot and a hollow is determined, the subject is irradiated with a wide spot, and reflected signal light is emitted. There has been proposed a technique related to a “ranging device” that focuses on an appropriate distance depending on whether or not there is an error.
[0005]
[Problems to be solved by the invention]
However, in the distance measuring apparatus according to the above-mentioned US Pat. No. 4,470,681, there is a problem that the time lag becomes longer as the distances related to many points in the screen are measured.
[0006]
Furthermore, in the technique disclosed in Japanese Patent Laid-Open No. 3-77013 described above, an error occurs in the distance measurement result due to the reflectivity of the subject and the degree to which the irradiated beam is applied to the subject, and correct focusing is sufficiently performed. I wasn't.
The present invention has been made in view of the above problems, and its object is to perform accurate distance measurement with a short time lag regardless of the position of the subject in the screen.
[0007]
[Means for Solving the Problems]
  In order to achieve the above object, according to the first aspect of the present invention, a first ranging light beam spreading in the longitudinal direction of the shooting screen, and a second ranging light beam directed to a narrow range in an arbitrary direction of the shooting screen, At the time of division, and when the first distance measuring light beam is projected by the light projecting unit,No.First light receiving means for receiving reflected light from a subject of one distance measuring light beam;,UpRecordFirstDetection means for detecting the direction in which the subject is present based on the output of the light receiving means; projection control means for projecting the second distance measuring light beam toward the direction in which the subject is detected detected by the detection means;A second light receiving means for receiving reflected light from the subject at the time of projecting the second distance measuring light beam; a distance calculating means for calculating a distance to the subject based on an output of the second light receiving means;A distance measuring device for a camera is provided.
  According to a second aspect of the present invention, in the first aspect, the optical system further includes a light receiving optical system disposed in front of the first light receiving unit, and the detection unit is configured to output the first light receiving unit and the light receiving unit. A camera distance measuring device is provided that detects a direction in which a subject exists based on a focal length of an optical system.
  In a third aspect of the present invention, in the first or second aspect,The light projecting means can further project the third distance measuring light beam in a time-sharing manner toward a range narrower than the first distance measuring light beam and wider than the second distance measuring light beam. A camera ranging device is provided.
[0010]
[Action]
  That is, in the first aspect of the present invention, the first ranging light beam spread in the longitudinal direction of the photographing screen by the light projecting means and the second ranging light beam directed to the narrow range in the arbitrary direction of the photographing screen are time-divided. And is projected by the first light receiving means when the first distance measuring light beam is projected by the light projecting means.No.The reflected light from the subject of one distance measuring beam is received and detected by the detecting means.AboveRecordFirstThe direction in which the subject exists is detected based on the output of the light receiving means, and the second distance measuring light beam is projected in the direction in which the subject exists detected by the detection means by the projection control means.When the second distance measuring light beam is projected by the second light receiving means, the reflected light from the subject is received, and the distance calculating means calculates the distance to the subject based on the output of the second light receiving means.The
  In a second aspect of the present invention, in the first aspect, a light receiving optical system is disposed in front of the first light receiving means, and the output of the first light receiving means and the focus of the light receiving optical system are detected by the detecting means. The direction in which the subject exists is detected based on the distance.
  In a third aspect of the present invention, in the first or second aspect,The light projecting means can further project the third distance measuring light beam in a time-sharing manner toward a range narrower than the first distance measuring light beam and wider than the second distance measuring light beam.
[0013]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows and describes the configuration of a camera distance measuring apparatus according to a first embodiment of the present invention. As shown in the figure, the distance measuring device of the present invention mainly includes a light projecting unit 1 that can switch and project a wide distance measuring light and a narrow distance measuring light, and a semiconductor light position detecting device (PSD; Position Sensitive Device). It is comprised with the light-receiving part 4 which consists of 5a, 5b.
[0014]
More specifically, in the light projecting unit 1, the output of the light projecting circuit 7 is connected to the input of a xenon (Xe) tube 1a used for a strobe light source or the like, and the front surface of the Xe tube 1a has a slit. A mask 2 and a light projection lens 3 are provided. A slit switching unit 8 is connected to the mask 2, and outputs of the light projecting circuit 7 and the slit switching unit 8 are connected to an input of the CPU 10.
[0015]
The light projecting circuit 7 activates the gas in the Xe tube 1a by applying a high voltage to the capacitor for storing the discharge charge, the booster circuit for supplying the boosted voltage to the capacitor, and the Xe tube 1a to emit light. It consists of a trigger circuit to start.
[0016]
On the other hand, in the light receiving unit 4, PSDs 5a and 5b are connected to the light receiving circuits 6a and 6b, respectively, and light receiving lenses 4a and 4b are disposed on the front surfaces of the PSDs 6a and 6b, respectively. The outputs of the light receiving circuits 6a and 6b are connected to the input of the CPU 10, respectively.
[0017]
In such a configuration, the CPU 10 is an arithmetic control circuit composed of a one-chip microcomputer or the like, and performs sequence control, calculation, and determination of the entire distance measuring device of the camera of the present invention. That is, the CPU 10 controls the light projecting unit 1 to project distance measuring light spreading in the longitudinal direction of the screen, detect the reflected signal light incident point by the PSD 5b, and the direction in which the subject exists from the incident point. Is determined by the CPU 10. Then, the light projecting unit 1 is controlled again, and this time a narrow spot-shaped distance measuring light is projected to the determined subject direction. Therefore, high-speed AF in which the main subject position in the longitudinal direction of the screen is instantly determined without time lag can be realized.
[0018]
Next, FIG. 2A shows the detailed configuration of the mask 2 and the Xe tube 1a and will be described. As shown in the figure, a metal reflector 23 is provided around the Xe tube 1a, and light is emitted only in the direction of the light projecting lens 3 by the reflector 23. The reflector 23 applies the high voltage signal from the trigger circuit 25 to the Xe tube 1a through the lead wire 24.
[0019]
A mask 2 having an elongated opening (slit) 20 and a small opening 21 moves in front of the Xe tube 1a in the direction of the arrow in the figure. Reference numeral 8 denotes means for switching the slit of the mask 2. When the motor driver 8b controlled by the CPU 10 rotates the motor 8c, the feed screw 8a moves the mask 2 in the direction of the arrow in the figure.
[0020]
By such an operation, when the Xe tube 1a emits light when the center portion of the slit 20 is set at a position shifted by XS from the optical axis of the lens, as shown in FIG. A long band-like distance measuring light as indicated by reference numeral 26 is projected around a point shifted by a certain distance. This θS is expressed by the following equation, where ft is the focal length of the projection lens 3.
[0021]
[Expression 1]
Figure 0003704369
[0022]
That is, θS can be controlled by the position of the mask 2 in the arrow direction. The horizontal length W2 of the band-shaped distance measuring light is expressed by the following equation using ft, the length W1 of the slit 20, and the distance l.
[0023]
[Expression 2]
Figure 0003704369
[0024]
That is, W2 is determined by W1. Further, when the slit 20 passes and the small opening 21 is located in front of the Xe tube 1a, the light for distance measurement of a small spot in the direction of an arbitrary point is controlled by the light emission timing control in which the CPU 10 controls the trigger circuit 25. Can be projected.
[0025]
Further, if the Xe tube 1a is caused to emit light via the trigger circuit 25 before the mask 2 is positioned in front of the Xe tube 1a, as shown in FIG. A wide band-like distance measuring light 13 can be projected (light projection pattern A).
[0026]
Then, the distance measuring light of the light projection pattern B or the light projection pattern C in FIG. 3B can be projected from the position of the slit 20 and the light projection timing. Further, as shown by reference numeral 14 in FIG. 3C, it is possible to project a small spot of ranging light through the opening 21.
[0027]
Now, when the distance measuring light 13 is projected with the light projection pattern A of FIG. 3A, the portion of the light reflected by the person 11 enters the PSD 5b in a larger amount than the other portions. The situation at this time is shown in FIG.
[0028]
As shown in FIG. 4, when the position of the central portion of the reflected signal light from the person 11 on the PSD 5b is xj and the focal length of the light receiving lens is fj, the person 11 at what angle from the optical axis of the light receiving lens 4b. Whether or not there is is detectable by the following equation.
[0029]
[Equation 3]
Figure 0003704369
[0030]
The PSD 5b is a two-dimensional PSD that can also detect the light incident position xj, and outputs two signal currents from the two electrodes according to the Xj by the photocurrent distribution action. The currents i1 and i2 are expressed by the relationship of the following equation using the above xj and the PSD length t.
[0031]
[Expression 4]
Figure 0003704369
[0032]
With such a function, when the distance measuring device of FIG. 1 projects the distance measuring light 13 of the projection pattern A as shown in FIG. 3A, the reflected signal light incident position xj from the nearby person 11 is obtained. It can be detected by the output signals i1 and i2 from the pair of electrodes in the x direction of the PSD 5b. That is, the following equation is established from the above equation (4).
[0033]
[Equation 5]
Figure 0003704369
[0034]
The light receiving circuit 6a in FIG. 1 is a circuit for calculating this i1 / (i1 + i2). The CPU 10 can detect the direction of the subject 11 in the screen from the output of the light receiving circuit 6b using the above equation (3). Then, the distance may be measured by projecting a small spot in that direction as shown in FIG.
[0035]
As shown in FIG. 3D, there is a method in which the main subject 11 is finally detected by repeatedly projecting a small spot of the distance measuring light 15 (US Pat. No. 4,470,681). It takes a very long time. Therefore, if the number of distance measuring points is reduced, the above-described void will occur.
[0036]
In the present invention, the main subject direction detection by one wide light projection and the main distance measurement depending on one spot-like light projection in that direction, and the measurement without a hollow by a simple configuration with a total of two light projections. Distance is possible.
[0037]
Next, the distance measuring principle of the camera distance measuring device will be described with reference to FIG.
In FIG. 5, reference numerals 4a, 4b, 5a, and 5b denote light receiving lenses and PSDs similar to the components shown in FIG. However, 5b is a PSD that can detect the optical position two-dimensionally, and the direction orthogonal to the direction shown in FIG. 4 is shown here.
[0038]
When the distance measuring light 14 enters the light receiving lenses 4a and 4b from the distance l, the signal light enters the positions y1 and y2 of the PSDs 5a and 5b. The PSD outputs this light spot position as two electrical signals shown in the form of the above equation (4).
When y1 and y2 are detected by each PSD, in the figure, S1 and S2, the light receiving lens focal length fj, and the distance l are represented by the following relationship.
[0039]
[Formula 6]
Figure 0003704369
Since S1 and S2 are S1 + S2 = S as shown in FIG.
[0040]
[Expression 7]
Figure 0003704369
The distance (subject distance) l reflected by the distance measuring light 14 can be obtained from y1 and y2.
[0041]
According to this configuration, even if the beam 14 is projected to a position shifted by ΔY as shown in the figure due to the backlash of the mask, the light incident position on each PSD changes by Δy1 = Δy2 as shown in the figure. Therefore, if the calculation of the above equation (6) is performed, there is an advantage that Δy1−Δy2 = 0 is canceled and correct distance measurement is performed.
[0042]
In addition, even if the distance measuring light having a pattern extending in the horizontal (x) direction, such as the projection patterns A, B, and C, is used, distance measurement based on the same principle is possible when there is no influence of the background. is there. This is because only the component in the y direction incident on each PSD is involved in the distance measurement and the spread in the x direction is not related as in the above equation (6).
[0043]
The operation of the distance measuring apparatus according to the first embodiment of the present invention will be described below with reference to the flowchart of FIG. The configuration is as shown in FIG. 1, and after projecting the projection pattern B or C in FIG. 3B assuming the scene as shown in FIG. 7, the spot ranging in FIG. 3C is performed. I did it. In this composition, if the projection position A alone is used to determine the subject position, the light enters the PSD 5b from both ends of the distance measuring light. Therefore, the PSD 5b averages them and the reflected signal light enters from the center of the screen. Let's judge.
[0044]
That is, the next spot distance measurement is performed on the central portion where nobody is present in FIG. In order to prevent this, as shown in FIG. 3B, the wide light for direction detection is once again applied to the right half and the left half of the light projection pattern A.
[0045]
As a result, even in the scene shown in FIG. 7, the next light projection is performed on the right or left half of the screen, so the influence of the person 11a or 11b is removed and the direction detection of one person is mistaken. Can be done without.
[0046]
6 will be described based on this concept. In step S1, the projection pattern A is projected as shown in FIG. 7, and the angle is detected using the x-direction electrode of the two-dimensional PSD 5b in FIG. (Based on the principle of FIG. 4) and distance detection (based on the principle of FIG. 5) using the PSD 5b and the electrode in the y direction of the PSD 5b.
[0047]
Two detections of these angular distances are performed in a time division manner during one light emission, as will be described later. The projection of the pattern A causes the Xe tube 1a to emit light without the mask 2 of FIG. In step S2, it is determined whether or not the angle detection result θA at this time is greater than or equal to 0 degree, and the pattern B or C is projected according to the direction in which the subject exists. This is to reduce the possibility that the distance measuring light is applied to the two persons as in the case of the projection pattern A in FIG.
[0048]
And if it branches to step S3 by the determination result of step S2, slit light projection of the screen right half will be performed like FIG.3 (b). This is performed by projecting light from the Xe tube 1a through the opening 20 of the mask 2 in FIG. The light projection to the right half of the screen is performed by controlling the position of the slit 20 as described in FIG. Then, the angle and distance are detected as in step S1.
[0049]
According to the detected angle θB at this time, as shown in FIG. 3C, in step S4, spot light is projected in this direction, and distance measurement is performed. This spot light projection is performed by projecting light from the Xe tube through the opening 21 of the mask 2 in FIG. Light projection to θB is controlled by causing the motor 2c to scan the mask 2 and causing the Xe tube 1a to emit light when the line connecting the opening 21 and the lens 3 and the optical axis of the lens 3 are at a predetermined angle. It becomes possible.
[0050]
Thus, the distance measurement results lA, lB, and lC obtained by the three light projections in steps S1, S3, and S4 are compared in steps S5 and S6. If the light projection pattern A is not affected by the background, lA = lB = lC. Further, if there is no influence of the background in the projection of the pattern B, 1B = 1p. Even so, these results are each not accurate because they contain errors. Steps S7 and S8 reduce the error component by averaging.
[0051]
That is, when branching to “Y” in step S5, the average value of lA, lB, and lP is set as the focusing distance lp in step S7.
Further, when branching to “Y” in step S6, the average value of lB and lP is set as the focusing distance lp. In the case of lB and lP, lP finally obtained in step S4 is used as the focusing distance as it is. In this case, as shown in FIG. 3B, the projection of the pattern B is projected not only on the person 11 but also on the background tree 110, and this influence becomes a distance measurement error. At this time, it is considered that an error also occurs in the angle detection result θB in the pattern B. However, if the person 11 is sufficiently closer and wider than the tree 110, the error does not become large, and FIG. 14 spot lights are correctly projected on the person 11.
[0052]
In step S15, the camera focuses on the focus distance lP thus obtained, and performs exposure. In step S16, the mask 2 is returned to the initial position, and the sequence is terminated (step S17).
[0053]
On the other hand, the step S2 branches at N when the person 11 is on the left side of the screen, contrary to the case of FIG. At this time, the pattern C is projected in step S9, but the other way of thinking may be considered in the same manner as the flow after step S3, and the description is omitted (steps S9 to S14).
[0054]
Next, FIG. 8 shows and describes the configuration of a light receiving circuit used in the distance measuring apparatus of the present invention. In FIG. 8, reference numeral 5b denotes a two-dimensional PSD, which outputs a signal current depending on the coordinates of the incident light 4b in the x and y directions. This takes the relationship shown in the equation (4) with respect to the x direction, and the same equation holds for the y direction.
[0055]
Therefore, the light receiving circuit 6b has a function of calculating the i1 / (i1 + i2) portion of the equation (5).
Reference numerals 31 and 32 are preamplifiers for amplifying the i1 and i2. Since the preamplifiers 31 and 32 pass the amplified i1 and i2 through the compression diodes 37 and 38, respectively, the compressed voltage difference input to the bases of the transistors 41 and 42 via the buffers 39 and 40 is the collector current of the transistor 42. To control.
[0056]
The transistors 41 and 42 have a common emitter, and a current source 43 is attached here to form a differential circuit. When the current of the current source 43 is Io, the collector current IOUT of the transistor 42 has the following relationship between i1 and i2.
[0057]
[Equation 8]
Figure 0003704369
Therefore, if I0 is a fixed value, the CPU 10 detects this IOUT, and from the equations (5) and (7),
[0058]
[Equation 9]
Figure 0003704369
Using this relationship, the light incident position Xj can be obtained. More specifically, prior to the light emission of the light emitting means, the SW 45 is turned on, the voltage across the capacitor 44 is initialized, the SW 45 is turned off, and the current source 43 is turned on for a predetermined time during the light emission. Since a voltage corresponding to the equation (7) is generated, the CPU 10 may read this with a built-in A / D converter.
[0059]
The light incident position xj in the x direction is as described above, but the same applies to the light incident position in the y direction. The preamplifiers 31 and 32 are turned off (input open state), and the preamplifiers 33 and 34 are enabled. If circuit control is performed, the CPU 10 can detect the light incident position in the y direction using the circuit 36.
[0060]
The operation of the light receiving circuit having such a configuration is shown in the timing chart of FIG.
Prior to light emission, the SW 45 (Reset 1) is turned from ON to OFF, and the current source 43 (INT1) is turned ON for a predetermined time TINT during light emission. Further, the same control is performed for the switch (reset 2) and the current source (INT2) (both not shown) in the circuit 36 for detecting the light incident position in the y direction during the same light emission time.
[0061]
Then, A / D conversion of the optical position detection signal output in the x direction (for angle detection) and y direction (for distance detection) is performed in a time-sharing manner as shown in the figure after light emission.
In this way, the position detection in the two directions x and y can be completed in one light emission if the light emission control signal is turned on after the light emission control signal is turned ON due to the delay of the light emitting section or the delay of the light receiving circuit. This is because (for example, the output of the buffer 39) is not stable. That is, when the light is emitted twice, it is necessary to wait for ΔTD to be integrated twice, which is disadvantageous in terms of energy and timing.
[0062]
As described above, according to the camera range finder according to the first embodiment, according to the conventional multi-AF concept, detection is not performed until a plurality of points are measured as shown in FIG. Since the position of the main subject 11 thus made is determined by two projections, energy saving specifications and high-speed AF can be achieved. Further, when adding the results of the distance measurement three times or twice, it is possible to perform the distance measurement with higher accuracy than in the case of FIG.
[0063]
Next, a second embodiment of the present invention will be described with reference to FIGS. In this embodiment, the schematic configuration is as shown in FIG. 1, and only the shape of the mask 2 is different.
When a mask having a shape as shown in FIG. 11 is slid in front of the Xe tube 1a in the direction of the arrow in the drawing and the Xe tube 1a emits light at a predetermined timing, light is first projected from the slit-shaped opening 20b. Then, as shown in FIG. 10, slit-like projection light is projected in order on the light projection pattern 60 on the lower right side of the screen, the light projection pattern 61 on the lower left side, the light projection pattern 62 on the upper right side, and the light projection pattern 63 on the upper left side. Is done.
[0064]
When such light projection is performed and the angle detection described in the first embodiment is performed, almost the same angle detection signals are obtained from the light projection patterns 60 and 62. This is because the reflected light from the head and abdomen of the person 11 enters the angle detection light receiving element, and these results equalize the value of Xj described in FIG.
[0065]
However, the angle detection result using the light projection patterns 61 and 63 differs between when the light projection pattern 61 is projected and when the light projection pattern 63 is projected. This is because the ranging light of the projection pattern 61 is reflected by the front bin 64, but the ranging light of the projection pattern 63 does not hit the 64 bin.
[0066]
Thus, if light projection is performed, the person 11 and the bin 64 can be distinguished. That is, in the second embodiment, the bin 64 in the foreground in the scene as shown in FIG. 10 is preferentially given by projecting light up and down the screen and giving priority to the reflected signal light that is incident on the PSD at the same angle. This prevents the camera from being in focus. Then, light projection and distance measurement are performed using the mask opening 21 for the priority angle detection result.
[0067]
Hereinafter, the sequence of the present embodiment will be described with reference to the flowchart of FIG.
In steps S21 to S24, as already described, the light projection patterns 60 to 63 are projected, and the signal light quantity at that time is detected unlike the angle detection and the first embodiment.
[0068]
Next, in steps S25, S26, and S29, the reflected light incident angles θ60, θ62, and θ63 of the light projected on the left and right sides of the screen are compared. As a result, when θ60 and θ62 are substantially equal and θ61 and θ63 are not approximately equal, distance measuring spot light projection (step S28), θ61 and θ63 are approximately equal to θ62, and θ60 and θ62 are If they are not substantially equal, spot light projection is performed on θ63 (step S33), distance measurement is performed, and this is set as a focusing distance lP.
[0069]
This is based on the concept of detecting the same incident angle in the vertical direction described above, and in such a case, the incident angle from the top of the screen is an angle at which the subject's face is more likely to exist. As a result, the angle detection result at the time of upward projection is prioritized.
[0070]
However, in this way of thinking, if θ60 and θ62 are not approximately equal and θ61 and θ63 are not approximately equal, determination is impossible. At this time, the light quantity detection result such as light projection at the bottom of the screen is obtained in step S30. Comparison is made and selection is given priority to embezzlement (steps S31 and S31). Here, the reason why the lower part of the screen is given priority is because it is considered that there are many subjects that are difficult to determine in the upper part of the screen, such as landscape and sky.
[0071]
Further, even when θ61 and θ63 are substantially equal and θ60 and θ62 are substantially equal, the light quantity is referred to in S27 to determine which is prioritized. In accordance with the angle detection result prioritized in this way, spot projection distance measurement is performed, and the result is set as a focusing distance lP (steps S28, S32, S31, S33). Since the sequence after S34 for focusing on the IP is the same as that in the first embodiment, the description thereof is omitted here.
[0072]
As described above, in the second embodiment, as shown in FIG. 10, even when the subject 64 is located at a distance closer to the main subject 11, angle detection is performed twice at the top and bottom of the screen, and the top and bottom are detected. Since the spot projection distance measurement is performed with respect to the angle at which the angle detection results coincide with each other, the main subject can be detected and the correct focus can be achieved.
[0073]
In addition, the incident light quantity is appropriately received, and correct focusing can be performed in correspondence with a scene where the upper half of the screen is a landscape. By this way of thinking, correct focusing can be performed at high speed and with low energy consumption without changing the distance measurement point many times as shown in FIG. 3D.
[0074]
In addition, according to the said embodiment of this invention, the following structures are obtained.
(1) A light projecting means for projecting in a time-division manner a first ranging light that spreads in the longitudinal direction of the screen and a second ranging light that can be projected in an arbitrary direction on the screen;
First light receiving means for detecting from which part in the spreading direction of the first distance measuring light the reflected signal is incident;
Determining means for determining a control direction of the second distance measuring light based on an output result of the first light receiving means;
A distance measuring device for a camera, comprising:
(2) The above-mentioned (1), further comprising second light receiving means for receiving a component reflected from the subject of the second distance measuring light and outputting a signal based on the incident position. Ranging device for cameras described in 1.
(3) The first and second light receiving means comprise the same semiconductor position detecting means, and the first direction of the semiconductor position detecting means has the function of the first light receiving means, and the first direction The camera distance measuring device according to (2), wherein the second direction orthogonal to the second direction has the function of the second light receiving means.
[0075]
【The invention's effect】
According to the present invention, it is possible to provide a camera distance measuring device that performs accurate distance measurement with a short time lag regardless of the position of the subject in the screen.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a camera distance measuring apparatus according to a first embodiment of the present invention.
2A is a diagram showing a detailed configuration of the mask 2 and the Xe tube 1a in the first embodiment, and FIG. 2B is shown by reference numeral 26 around a point shifted by θs from the optical axis. It is a figure which shows a mode that the elongate strip | belt-shaped ranging light is projected.
FIG. 3 is a diagram illustrating various projection patterns.
FIG. 4 is a diagram showing a state in which a portion of the light reflected by the person 11 is incident on the PSD 5b in a larger amount than the other portions when the distance measuring light 13 is projected with the light projection pattern A.
FIG. 5 is a diagram for explaining the principle of distance measurement according to the first embodiment.
FIG. 6 is a flowchart for explaining the operation of the distance measuring apparatus according to the first embodiment;
FIG. 7 is a diagram illustrating an example of a scene with a main subject on the left and right of the screen.
FIG. 8 is a diagram showing a detailed configuration of a light receiving circuit in the first embodiment.
FIG. 9 is a time chart showing the operation of the light receiving circuit.
FIG. 10 is a diagram showing a state of a light projection pattern according to the second embodiment.
FIG. 11 is a diagram illustrating a configuration of a characteristic portion of a camera distance measuring apparatus according to a second embodiment.
FIG. 12 is a flowchart showing the operation of the camera distance measuring apparatus according to the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Light projection part, 2 ... Mask, 3 ... Light projection lens, 4 ... Light reception part, 5 ... PSD, 6 ... Light reception circuit, 7 ... Light projection circuit, 8 ... Slit switching part, 10 ... CPU.

Claims (3)

撮影画面の長手方向に広がった第1測距光束と、上記撮影画面の任意方向の狭い範囲に向けた第2測距光束とを、時分割で投射可能な投光手段と、
この投光手段による上記第1測距光束の投射時に、上記第1測距光束の被写体からの反射光を受光する第1受光手段と
第1受光手段の出力に基づいて被写体の存在する方向を検出する検出手段と、
上記検出手段により検出された被写体の存在する方向に向けて上記第2測距光束を投射させる投射制御手段と、
上記第2測距光束の投射時に、上記被写体からの反射光を受光する第2受光手段と、
上記第2受光手段の出力に基づいて上記被写体までの距離を演算する距離演算手段と、
を具備することを特徴とするカメラの測距装置。
A light projecting means capable of projecting, in a time-sharing manner, a first ranging light beam spread in the longitudinal direction of the photographing screen and a second ranging light beam directed to a narrow range in an arbitrary direction of the photographing screen;
During projection of the first measuring light flux by this light projecting means, a first light receiving means for receiving reflected light from the subject of the upper Symbol the first ranging beam,
Detection means for detecting a direction of presence of the object on the basis of the output of the upper Symbol first light receiving means,
Projection control means for projecting the second ranging light beam toward the direction in which the subject detected by the detection means exists;
A second light receiving means for receiving reflected light from the subject at the time of projecting the second distance measuring light beam;
Distance calculating means for calculating the distance to the subject based on the output of the second light receiving means;
A distance measuring device for a camera, comprising:
上記第1受光手段の前方に配置された受光光学系を更に具備し、上記検出手段は、上記第1受光手段の出力及び上記受光光学系の焦点距離に基づいて被写体の存在する方向を検出することを特徴とする請求項1に記載のカメラの測距装置。  A light receiving optical system disposed in front of the first light receiving means; and the detecting means detects the direction in which the subject exists based on the output of the first light receiving means and the focal length of the light receiving optical system. The camera distance measuring device according to claim 1. 上記投光手段は、さらに、上記第1測距光束よりも狭く、上記第2測距光束よりも広い範囲に向けて第3測距光束を時分割で投光することが可能であることを特徴とする請求項1又は請求項2に記載のカメラの測距装置。The light projecting means can further project the third distance measuring light beam in a time-sharing manner toward a range narrower than the first distance measuring light beam and wider than the second distance measuring light beam. The camera distance measuring device according to claim 1 or 2, characterized in that:
JP9511094A 1994-05-09 1994-05-09 Camera ranging device Expired - Fee Related JP3704369B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9511094A JP3704369B2 (en) 1994-05-09 1994-05-09 Camera ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9511094A JP3704369B2 (en) 1994-05-09 1994-05-09 Camera ranging device

Publications (2)

Publication Number Publication Date
JPH07301745A JPH07301745A (en) 1995-11-14
JP3704369B2 true JP3704369B2 (en) 2005-10-12

Family

ID=14128722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9511094A Expired - Fee Related JP3704369B2 (en) 1994-05-09 1994-05-09 Camera ranging device

Country Status (1)

Country Link
JP (1) JP3704369B2 (en)

Also Published As

Publication number Publication date
JPH07301745A (en) 1995-11-14

Similar Documents

Publication Publication Date Title
JP2002221655A (en) Range finder
JP3704369B2 (en) Camera ranging device
JP3945120B2 (en) Ranging sensor and adjustment method thereof
JPH0465630A (en) Range finding device
JPH07318791A (en) Range-finding device for camera
JP3429590B2 (en) Camera ranging device
JP3087072B2 (en) Camera ranging device
JP3442472B2 (en) Camera ranging device
US6345153B1 (en) Distance measuring equipment and camera
JPH1096851A (en) Range finder for camera
JP2000162493A (en) Distance measuring equipment
JPH0755461A (en) Distance-measuring device of camera
JP3868035B2 (en) Ranging device
JP2888492B2 (en) Distance information output device
JP3034967B2 (en) Distance measuring device
JP2000121352A (en) Range finder
JPS61246613A (en) Measuring device of distance of camera
JP3064429B2 (en) Moving object distance measuring apparatus and moving object distance measuring method
JP2758625B2 (en) camera
JP3544575B2 (en) Camera ranging device
JP3233435B2 (en) Distance measuring device
JPH10197917A (en) Multipoint range finder for camera
JPH0792377A (en) Range finder
JPH04323610A (en) Subject distance detection device
JPS63289411A (en) Rangefinder for camera

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050725

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090729

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees