JP3938989B2 - Ranging device - Google Patents

Ranging device Download PDF

Info

Publication number
JP3938989B2
JP3938989B2 JP28369197A JP28369197A JP3938989B2 JP 3938989 B2 JP3938989 B2 JP 3938989B2 JP 28369197 A JP28369197 A JP 28369197A JP 28369197 A JP28369197 A JP 28369197A JP 3938989 B2 JP3938989 B2 JP 3938989B2
Authority
JP
Japan
Prior art keywords
distance
sensor
signal
backlight
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28369197A
Other languages
Japanese (ja)
Other versions
JPH11118476A (en
Inventor
修 野中
剛史 金田一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP28369197A priority Critical patent/JP3938989B2/en
Publication of JPH11118476A publication Critical patent/JPH11118476A/en
Application granted granted Critical
Publication of JP3938989B2 publication Critical patent/JP3938989B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は測距装置に関する。
【0002】
【従来の技術】
対象物の輝度分布より2つの像信号を求め、視差に基づくそれらの位置の差に従って対象物までの距離を求める、いわゆるパッシブ方式の測距装置がある。上記2つの像信号は異なる光路を通った光線に基づくもので、三角測距の原理により、対象物までの距離に従って像位置が変化する。
【0003】
このような方式は、背景の状態によって像信号が変化しやすく、測距の精度を上げるには、対象物の像を背景から分離して測距することが必要である。また、逆光シーンなどでは、像がアンバランスになったりして、精度劣化を引き起こす。
【0004】
したがって、上記した方式を、オートフォーカスカメラのように、様々なシーンにおける被写体に対して安定した測距を行わねばならない装置に応用する場合には、種々の工夫が必要である。例えば特開昭62−133410号公報は、画面に応じて使用する像信号を切り替えることを開示している。
【0005】
また、像信号はセンサアレイの出力電流を積分して得られるが、逆光時のように輝度差が大きいシーンでは、この積分レベルを所定のダイナミックレンジ内に収める技術も重要となる。例えば特開平5−264887号公報は、逆光時に積分時間を長くすることを開示している。また、特開平5−264892号公報は、フレアにより2つのセンサアレイに入射する光線が不均一になることによる精度の劣化を克服する方法を開示している。
【0006】
【発明が解決しようとする課題】
上記した特開昭62−133410号公報や特開平5−264892号公報は逆光時の問題に対する対策については何も開示していない。また、特開平5−264887号公報は逆光時の対策について開示しているが、積分時間が長くなってタイムラグが生じてしまうという問題がある。
【0007】
本発明はこのような課題に着目してなされたものであり、その目的とするところは、逆光時であってもタイムラグなしに正確な距離検出が行なえ、これに加えて、フレアの問題を克服して測距精度をさらに向上させた測距装置を提供することにある。
【0008】
また、本発明の他の目的は、AFカメラに応用した場合に、ピント合せが出来ないシーンであっても合焦率を向上させることができる測距装置を提供することにある。
【0009】
【課題を解決するための手段】
上記の目的を達成するために、第1の発明は、被写体の輝度分布を第1の像信号として出力する第1のセンサアレイと、被写体の輝度分布を第2の像信号として出力する第2のセンサアレイと、上記第1、第2の像信号に基づいて逆光状態か否かを判定する判定手段と、逆光状態と判定された際に、第1及び第2のセンサアレイの積分領域を非逆光状態のときよりも大きくなるように切換える領域切換え手段と、切換えられた領域から出力される第1、第2の像信号から、主要被写体輝度とその背景部輝度との差が大きい領域を抽出し、この領域の輝度差を少なくとも一方のセンサアレイに対応するエッジ信号として出力するエッジ信号出力手段と、上記エッジ信号で指定された領域からの像信号に基づいて、被写体の距離を演算する演算手段とを具備する。
【0010】
また、第2の発明は、第1の発明において、上記演算手段は、上記2つの像信号のうち、一方の像信号からフレア信号を除去して補正信号を作成し、この補正信号と、上記2つの像信号のうち、他方の像信号とに基づいて被写体の距離を演算する。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。まず、第1実施形態について説明する。まず、図1(a)、(b)、(c)を用いて、外光パッシブ方式の測距装置について説明する。1a、1bは対象物3aの輝度分布をセンサアレイ2a、2bに導く受光レンズであり、これらのセンサアレイ2a、2bは、対象物3aの明暗の変化を電流信号に変換する。A/D変換手段6は、センサアレイ2a、2bの各出力信号を受けてディジタル値に変換することにより、像信号をディジタル演算制御回路(以下、CPUと呼ぶ)10に入力する。7はピント合せ手段である。また、5は後述するモニタ・積分制御回路である。
【0013】
ここで、受光レンズ間距離を基線長Bとし、焦点距離をfとすると、対象物3aによる像は、図1(b)の14a、14bで示すように、2つのセンサアレイ2a、2b上に、xの相対位置差をもって形成される。ここで対象物3aまでのの距離をLとする時、これらの関係は
x=(B・f)/L・・・・・・・(1)
となる。つまり、距離Lが大きい程、相対位置差xは小さく、距離Lが小さい程、相対位置差xは大きくなる。カメラなどに応用する場合、上記CPU10としては、ワンチップマイコン等を利用すればよく、これが上記像14a、14bの相対位置差xを求めて、(1)式より距離Lを求め、ピント合せ手段7で撮影レンズを制御すれば、AFカメラが設計できる。
【0014】
CPU10は、上記の機能の他に、対象物が逆光状況下にあるか否かを判定する逆光判定手段8や、得られた像信号のエッジ部を検出するエッジ検出手段9等を具備している。
【0015】
逆光という状況下においては、対象物3aの背景から、強いノイズ光がセンサアレイ2a、2bに混入するので、対象物3aの像が正しい形状とならず、測距が不正確になりがちである。そこで、本実施形態では、逆光状況下であるか否かを判定し、逆光であるときには、得られた像信号の中からエッジ部を抽出して抽出された領域に対応する像信号に基づいて測距を行なうことによって正確な測距を行なうようにしている。これに加えて、上記混入したノイズ光に基づく信号成分を除去して測距精度をさらに向上させる。
【0016】
また、図1(c)に示すように、カメラの画面13内の複数ポイント15を測距して、測距対象物としての人物12が画面中央に存在しなくとも、人物12に正しくピントが合うように工夫するマルチAFと呼ばれる技術がある。この技術を用いて例えば図1(a)の対象物3aを測距するときには、センサアレイ2aの光軸上のセンサを基準にし、このセンサ位置から少し左側にずらした位置のセンサを基準にして測距を行うことで、対象物3aまでの距離を求めることができる。基準となるセンサ位置を変える以外には基本的には1点AFと同様の考え方で測距ができる。この基準となるセンサ位置の切り換えはセンサ切換手段4によって行う。上記した、像信号の中からエッジ部を抜き出して測距を行う場合もこれと同じ原理を利用することができる。
【0017】
図2は、逆光条件下における人物12と、受光レンズ1a及びセンサ2aとの関係を示す。
理想的には、人物12の顔の陰影に基づく光線のみがセンサアレイ2aに入射することを想定している。しかし、太陽の位置によっては、人物の一部から反射した強い光16がセンサアレイ2aに到達し、2つのセンサアレイ2a、2bのうち片方のセンサアレイにのみ強い光が入射して、2つの像信号がアンバランスになったり、太陽の光17が受光レンズ1aとセンサアレイ2aを保持する保持部11の壁面に直接入射したりして、本来の像信号の上にこれらのノイズ光が混入することによりコントラストが低下し、想定とは異なる像信号が得られることがある。
【0018】
図2に示すようなシーンにおいて、順光時と逆光時に得られる像信号の差異を図3(a)、(b)に示す。入射する光が強い程、センサアレイ2aの出力が小さく、入射する光が弱い程、センサアレイ2aの出力が大きい回路構成を想定しており、順光時には図3(a)に示すように、人物12の顔で△I1の幅で得られるコントラストも、逆光時には図3(b)に示すように、△I2の幅に縮小してしまう。順光、逆光による背景の変化は像信号の両端部の変化(エリアの変化)として現われている。コントラストの変化は、前述のように本来の像信号の上にノイズ光が重なったり、背景との輝度差が大きくなりすぎる事に起因する。
【0019】
図4は、上記した像信号を得るためのセンサアレイの処理回路の構成を示す図である。以下に、この処理回路の動作を説明する。
20a、20bはセンサアレイを構成するセンサのうち2つを取り出したもので、各々フォトダイオードからなり、その出力は積分アンプ21a、21bに接続されている。積分コンデンサ23a、23bにはスイッチ22a、22b、24a、24bが接続されている。このうち、スイッチ22a、22bは積分制御回路28によって制御されるものであり、この制御により積分開始と終了が決められる。また、スイッチ24a、24bは積分リセット回路25によって制御されて再度積分を開始するのに先立つリセット動作が行われる。CPU10は上記した制御をシーケンシャルに行なわせる。
【0020】
また、積分出力VINTa、VINTbは、積分コンデンサ23a、23bの容量と、入射光の強さ及び積分時間から決定されるが、このとき積分制御回路28が適当な積分時間を設定しないと、回路のダイナミックレンジ内にVINTa、bを収めることが出来ない。そこで、積分出力VINTa、VINTbを出力回路26を介してモニタし、積分制御を行うモニタ・積分制御回路5が必要となる。ここでは、センサアレイを構成するセンサの中でどのセンサの出力をモニタするかが選択できるようになっているが、この選択を行うのがセンサ切換手段4である。したがって、CPU10により状況に応じて制御を行えば、センサアレイを構成するセンサの中でどのセンサに重点においた積分制御を行なうかが切り換えられる。
【0021】
例えば、図3に示す像信号は、順光状態と逆光状態で、積分モニタ用のセンサを切り換えて得られたものである。図3(a)は順光時なので、人物12の顔の陰影でコントラストが得られ正常に測距できるので、背景の影響をなるべく受けないように狭いエリアで積分制御を行う。しかし、逆光シーンでは、顔のコントラストは低いので、図3(b)のように背景との輝度差を強調してコントラストを得るようにする。すなわち、この場合は積分制御エリアを顔の幅より広くして、背景を加味した積分制御を行う。
【0022】
図5(a)は、逆光シーンで積分制御エリア(モニタ範囲)を狭くしたままの時の像信号例を示している。横軸はセンサアレイの各センサの並びの順番(センサNo.)、縦軸にはセンサデータをA/D変換手段6によってディジタル値にした結果をとっている。この例では、モニタ範囲で最も明るい部分の積分結果を用いて積分を停止するため、明るい背景はダイナミックレンジの範囲を越えてしまってデータが出力されない。ここで積分制御エリア(モニタ範囲)を広くすると、図5(b)のように背景からの光を受光するセンサデータの出力を加味して積分制御を行うため、最も明るい部分を有する背景部分に従って像信号が形成される。従って、顔の中央部のデータはダイナミックレンジが劣化するが、背景と人物との輝度差でコントラストの高い像信号が得られる。
【0023】
このように本実施形態では、顔の部分だけによる像信号の方が背景の影響を受けにくいが、コントラストが低すぎて信頼性の低い結果しか得られないという欠点をなくすために、積分制御エリアを広くして十分大きなコントラストの像信号を得、この像信号から逆光状況下における被写体を正しく測距するものである。
【0024】
図6は上記した本実施形態の方法をカメラに応用した時の作用を示すフローチャートである。
ステップS1は、まず画面内中央部を積分制御エリアとした積分制御を行うステップである。次に、この積分制御エリアのセンサデータを読み出し(ステップS2)、積分制御エリアの周辺部と中央部を比較して逆光状態か否かを判定する(ステップS3)。逆光ではない時にはステップS11に分岐し、公知のマルチAF動作を行い、センサ切り換えを繰り返して画面内の複数ポイントを測距し、その中から主要被写体距離Lp を判定し、ステップS10にてこのピント合せを行う。
【0025】
一方、ステップS3にて逆光状態であると判定されると、ステップS4に移行して、積分領域を非逆光状態のときよりも大きくなるように切換える。すなわち、積分判定用のセンサ数を増加させて判定エリアを拡大する。次にステップS5にて再度積分制御を行ない、得られた像データを読み出してA/D変換後CPU10に入力し(ステップS6)、先に説明したように、ステップS7において主要被写体輝度とその背景部輝度とのコントラストの高い部分の検出を行う(図5(b)参照)。この検出をエッジ部の検出と呼ぶが、像データの変化の大きい部分を図7に示すフローに基づいて図1(a)のセンサアレイ2a、2bにより求めてエッジ信号として出力し、このエッジ信号が表す相対位置差xより距離Lを求める。
【0026】
図7において、ステップS40からS43では、センサアレイ2aを構成するセンサの順番を示す番号nや、エッジ部に位置するセンサの順番を示す番号n1、及び隣接するセンサデータ差を示す変数△SSとその最大値を示す変数△Sを初期化する。次にステップS44にてn番目のセンサのデータとn+1番目のセンサのデータの差△SSをとり、次にステップS45にて、その最大値△Sと比較する。ステップS44の判定結果がyesの場合はステップS46に分岐して、その時のセンサ番号n1を記憶し、ステップS47にて△SSを最大値として記憶する。
【0027】
次に、ステップS48にて比較するセンサ番号をインクリメントし、ステップS49の判断がyes、すなわち、nが所定の数noになるまでステップS44のステップを繰り返し、指定されたセンサの領域に渡って最も大きな変化を示すセンサの位置n1を求める。このようなフローによって、像信号のエッジ部の位置がセンサの並びの順番を示す数として求められる。
【0028】
ところで、エッジ部の像データは背景のノイズ光の影響で2つのセンサアレイの出力がアンバランスになりやすい。そこで、図6のフローでは、エッジ検出(ステップS7)の後、フレア補正のステップS8を追加して、このノイズ光の影響を除去している。フレア補正とは、図8に示すように、AF用の1対のセンサアレイ2a,2bの一方、例えば2bのセンサアレイにノイズ光が重畳した場合にこのノイズ光の大きさを求め、これを演算により除去して正しい像データを求める技術である。
【0029】
すなわち、図8に示すように、均一にノイズ光が乗っている場合は、各センサアレイから同じ数(n2 個)のセンサを選び、これらのセンサデータの総和の差からノイズ光を求めることができる。総和の差をn2 で割り算して平均化したもの(△h)を、センサアレイ2aの各センサデータに加算してやれば、2つのセンサアレイ2a,2bに入射した像の形状を揃えることができる。△hをセンサアレイ2bのセンサデータから減算してもよいが、この場合、データがマイナスになって、演算上の不都合を生じることがあるので、ここではノイズ光の乗っていない方にノイズ光相当のものを加えて像形状を揃えている。演算上の不都合がないならノイズが乗った方から減算してもよい。
【0030】
像形状が揃わないままノイズ光を無視して像ズレ量の相対位置差を求めると、図8中、△xの位置の検出誤差を生じて誤測距となる。そこで、本実施形態では、CPU10が図9に示すようなフローの演算を行うことによって、2つの像信号の形状を揃えてから距離の算出を行うようにしている。
【0031】
まず、ステップS60、S61は各センサアレイのうち、同じ像が得られる部分のn2 個のセンサデータの総和をΣa、Σbとして求めるステップである。ここでは、図8にn2 として示した部分のセンサデータを求めればよい。つまり、エッジの前後n2 /2ずつのセンサデータを利用すればよい。また、全センサ域にわたって総和をとるようにしてもよい。ステップS62はどちらの総和が大きいかを判定するステップで、この結果によって、ステップS63、S67で差分△Σを求め、続いて平均値△hを求めて、補正量△hとする(ステップS64、S68)。これをステップS65、S69にて、フレアの乗っていない方のセンサアレイの各センサデータに加算する。
【0032】
前述のように全センサ域にわたって総和をとるようにした場合は全センサ数でこれを除算して△hを求める。そして、S65、S69と同様に、フレアの乗っていない方のセンサデータに、この△hを加算する。
【0033】
このようなプロセスにより、CPU10内のメモリ内には、補正されたセンサデータが形成され、CPU10はセンサアレイ出力の生データではなく、この補正データを用いて図1の像位置差xを求め、(1)式より主要被写体距離Lp を求め、ピント合せを行う(図6のステップS9、S10)。このように本実施形態においては、2つのセンサアレイに入射する像信号がノイズ光によりローコントラストやアンバランスになった場合でも正確なピント合せができる。従って、逆光シーンにおいても、きれいな写真が撮れる。
【0034】
以下に、本発明の第2実施形態を説明する。測距用のセンサアレイは、数十個から百数十個の受光素子(センサ)を並置してなる素子であり、この多数のセンサの出力データに関して上記エッジ検出、フレア補正を行うと、演算に時間がかかり、レリーズタイムラグが長くなってしまうという問題を生じる。また、図6のステップS5の再積分を行なう時間もタイムラグとなる。そこで、図10に示すフローのように最初の積分で測距を行い、距離による判定も採用し、最初の測距が低輝度時または遠距離時はエッジ検出やフレア補正を行わないようにして、多くのシーンでは上記レリーズタイムラグが長くならないようにすることができる。
【0035】
例えば、図11(a)に示すような逆光シーンでも、被写体距離が遠距離の場合、2つの受光レンズの視差によるセンサアレイ上の被写体像位置差も小さくなるので、人物12の輪郭部からの強い光16が受光レンズ1aを介して2つのセンサに入射する際のアンバランスも小さくなり、被写体像も小さくなってセンサアレイ2a上に入射するため、特に積分判定範囲の切り換えを行わなくとも、図11(b)に示すように背景を加味してコントラストの高い像信号を得ることができる。
【0036】
これらの理由によって、図10のフローでは、最初の積分で測距を行い(ステップS20)、次のステップS21で逆光であると判定された場合には、次に最初の測距結果が近距離かどうかを判定し(ステップS22)、近距離の時のみ、積分判定範囲の切り換えによる再積分(S23、S24)、エッジ検出(ステップS25)、フレア補正(S26)を行うようにして、タイムラグを少なくしている。
【0037】
つまり、この実施形態では、図2のシーンのように逆光かつ被写体距離が近い時は、2つのセンサアレイ2a、2bの視差の影響によって、ノイズ光16の入射形態が異なるために起こる2つのセンサアレイ2a、2bのセンサデータ間のアンバランス、又はノイズ光が信号に重なる事によって引き起こされるローコントラストの問題を克服するものである。
【0038】
すなわち、逆光かつ被写体距離が近いと判定されたときにはステップS23以下のフローを実行して、確実に被写体距離を測定するが、それ以外の時はステップS29にて測距の基準となるエリアを切り換えながらマルチAFを行なうようにする。これによって、図1(c)に示すように、画面内中央に被写体12が存在しないシーンにおいても高速で正しいピント合せを行なうことができる。
【0039】
尚、逆光の判定方法として、ここではAF用のセンサアレイの積分結果をモニタして判定する例を述べたが、図12(a)、(b)に示すように、写真画面内中央のスポット測光結果(SPOT)と画面全体の平均的な測光結果(AVE)を用いて、AFではなく露出制御時に公知の方法を用いても逆光を判定できることは言うまでもない。
【0040】
なお、上記した具体的実施形態には、以下の構成(1)〜(5)を有する発明が含まれている。
(1)
撮像領域内に複数の輝度分布測定ポイントを有していて、該輝度分布測定ポイントの1つ又は複数の輝度分布を2つのセンサアレイによって2つの像信号として出力する測距装置において、
所定の輝度分布測定ポイントからの像信号に基づいて逆光状態か否かを判定する判定手段と、
逆光状態と判定された時に、上記所定の輝度分布測定ポイントの2つの像信号から、主要被写体輝度とその背景部輝度との差が大きい領域を抽出し、この領域の輝度差を少なくとも一方のセンサアレイに対応するエッジ信号として出力するエッジ信号出力手段と、
非逆光状態と判定された際には上記複数の輝度分布測定ポイントからの出力に基づいて被写体の距離を演算し、逆光状態と判定された際には上記エッジ信号で指定された領域からの像信号に基づいて被写体の距離を演算する演算手段と、
を具備したことを特徴とする測距装置。
(2)
撮像領域内に複数の輝度分布測定ポイントを有していて、該輝度分布測定ポイントの1つ又は複数の輝度分布を2つのセンサアレイによって2つの像信号として出力する測距装置において、
所定の輝度分布測定ポイントからの像信号に基づいて逆光状態か否かを判定する判定手段と、
逆光状態と判定された際に、上記所定の輝度分布測定ポイントにおける上記2つのセンサアレイの積分領域を非逆光状態のときよりも大きくなるように切換える領域切換え手段と、
切換えられたセンサアレイの積分領域の2つの像信号から、主要被写体輝度とその背景部輝度との差が大きい領域を抽出し、この領域の輝度差を夫々のセンサアレイに対応する第1、第2のエッジ信号として出力するエッジ信号出力手投と、
非逆光状態と判定された際には、上記複数の輝度分布測定ポイントからの出力に基づいて被写体の距離を演算し、逆光状態と判定された際には上記第1、第2のエッジ信号で指定された領域からの像信号に基づいて被写体の距離を演算する演算手段と、
を具備したことを特徴とする測距装置。
(3)
被写体の輝度分布を2つのセンサアレイによって2つの像信号として出力する測距装置において、
上記2つの像信号に基づいて逆光状態か否かを判定する判定手段と、
被写体の距離を演算する演算手段と、
逆光状態で、かつ上記2つの像信号に基づいて演算された第1の被写体距離が所定値よりも近いか否かを判定する判定手段と、
逆光状態で、かつ被写体距離が所定値よりも近いと判定された場合に、上記2つの像信号から主要被写体輝度とその背景部輝度との差が大きい領域を抽出し、この領域の輝度差を夫々のセンサアレイに対応する第1、第2のエッジ信号として出力するエッジ信号出力手段と、
上記第1、第2のエッジ信号で指定された2つの領域からの2つの像信号に基づいて、上記演算手段に第2の被写体距離を演算させる演算制御手段と、
を具備したことを特徴とする測距装置。
(4)
上記演算手段は、上記2つの像信号のうち、一方の像信号からフレア信号を除去して補正信号を作成し、この補正信号と、上記2つの像信号のうちの他方の像信号とに基づいて被写体の距離を演算することを特徴とする(1)〜(3)のいずれか1つに記載の測距装置。
(5)
上記補正信号の作成は、上記2つの像信号の特定部分のエッジ信号を重畳させてからフレアに関するノイズ信号を一方のエッジ信号から除去することにより行うことを特徴とする(4)に記載の測距装置。
【0041】
【発明の効果】
本発明によれば、逆光時であっても正確な距離検出が行なえ、これに加えて、フレアの問題を克服して測距精度をさらに向上させることができる。
また、AFカメラに応用した場合には、ピント合せが出来ないシーンであっても合焦率を向上させることができる。
【図面の簡単な説明】
【図1】外光パッシブ方式の測距装置について説明するための図である。
【図2】逆光条件下における人物と、受光レンズ及びセンサとの関係を示す図である。
【図3】図2のようなシーンにおいて、順光時と逆光時に得られる像信号の差異を示す図である。
【図4】像信号を得るためのセンサアレイの処理回路の構成を示す図である。
【図5】(a)は、逆光シーンで積分制御エリアを狭くしたままのときの像信号例を示しており、(b)は積分制御エリアを広くしたときの像信号例を示す図である。
【図6】本発明の第1実施形態の方法をカメラに応用した時の作用を示すフローチャートである。
【図7】エッジ検出のフローを示す図である。
【図8】フレア補正について説明するための図である。
【図9】フレア補正のフローを示す図である。
【図10】本発明の第2実施形態の方法を示すフローチャートである。
【図11】逆光シーンの例を示す図である。
【図12】逆光判定の他の方法を説明するための図である。
【符号の説明】
1a、1b…受光レンズ、
2a、2b…センサアレイ、
3a、3b…対象物、
4…センサ切換手段、
5…モニタ・積分制御回路、
6…A/D変換手段、
7…ピント合せ手段、
8…逆光判定手段、
9…エッジ検出手段、
10…CPU、
11…保持部、
12…人物、
13…画面。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distance measuring device.
[0002]
[Prior art]
There is a so-called passive distance measuring device that obtains two image signals from the luminance distribution of an object and obtains the distance to the object according to the difference in position based on the parallax. The two image signals are based on light beams that have passed through different optical paths, and the image position changes according to the distance to the object by the principle of triangulation.
[0003]
In such a system, the image signal is likely to change depending on the state of the background, and it is necessary to measure the distance of the object image separately from the background in order to increase the accuracy of distance measurement. Also, in a backlight scene, the image becomes unbalanced and causes accuracy degradation.
[0004]
Therefore, when the above-described method is applied to an apparatus that has to perform stable distance measurement on subjects in various scenes, such as an autofocus camera, various devices are required. For example, Japanese Patent Application Laid-Open No. 62-133410 discloses switching an image signal to be used according to a screen.
[0005]
Further, the image signal is obtained by integrating the output current of the sensor array. However, in a scene where the luminance difference is large as in the case of backlighting, a technique for keeping the integration level within a predetermined dynamic range is also important. For example, Japanese Patent Laid-Open No. 5-264887 discloses increasing the integration time during backlighting. Japanese Patent Laid-Open No. 5-264892 discloses a method of overcoming accuracy degradation due to non-uniformity of light rays incident on two sensor arrays due to flare.
[0006]
[Problems to be solved by the invention]
Japanese Patent Application Laid-Open No. 62-133410 and Japanese Patent Application Laid-Open No. 5-264892 do not disclose any countermeasures against the problem of backlighting. Japanese Laid-Open Patent Publication No. 5-264887 discloses measures against backlighting, but there is a problem that the integration time becomes long and a time lag occurs.
[0007]
The present invention has been made paying attention to such a problem, and the object of the present invention is to perform accurate distance detection without a time lag even in backlit conditions, and in addition, overcome the problem of flare. Accordingly, it is an object of the present invention to provide a distance measuring device with further improved distance measuring accuracy.
[0008]
Another object of the present invention is to provide a distance measuring device that can improve a focusing rate even in a scene where focusing cannot be performed when applied to an AF camera.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the first invention provides a first sensor array that outputs a luminance distribution of a subject as a first image signal, and a second sensor that outputs the luminance distribution of the subject as a second image signal. A sensor array, a determination means for determining whether or not the backlight state is based on the first and second image signals, and integration regions of the first and second sensor arrays when the backlight state is determined. An area switching means for switching so as to be larger than that in the non-backlight state, and an area where the difference between the main subject brightness and the background brightness is large from the first and second image signals output from the switched area. The distance of the subject is calculated based on the edge signal output means for extracting and outputting the luminance difference of this area as an edge signal corresponding to at least one sensor array and the image signal from the area specified by the edge signal. Operator Comprising the door.
[0010]
In a second aspect based on the first aspect, the arithmetic means removes a flare signal from one of the two image signals to create a correction signal. The subject distance is calculated based on the other of the two image signals.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the first embodiment will be described. First, an external light passive distance measuring device will be described with reference to FIGS. 1 (a), (b), and (c). Reference numerals 1a and 1b denote light receiving lenses that guide the luminance distribution of the object 3a to the sensor arrays 2a and 2b. These sensor arrays 2a and 2b convert the change in brightness of the object 3a into a current signal. The A / D conversion means 6 receives each output signal from the sensor arrays 2a and 2b and converts it into a digital value, thereby inputting an image signal to a digital arithmetic control circuit (hereinafter referred to as CPU) 10. Reference numeral 7 denotes a focusing means. Reference numeral 5 denotes a monitor / integration control circuit described later.
[0013]
Here, assuming that the distance between the light receiving lenses is the base line length B and the focal length is f, the image of the object 3a is placed on the two sensor arrays 2a and 2b as indicated by 14a and 14b in FIG. , X with a relative positional difference. Here, when the distance to the object 3a is L, these relations are x = (B · f) / L (1).
It becomes. That is, the larger the distance L, the smaller the relative position difference x, and the smaller the distance L, the larger the relative position difference x. When applied to a camera or the like, a one-chip microcomputer or the like may be used as the CPU 10, which obtains the relative position difference x between the images 14a and 14b, obtains the distance L from equation (1), and adjusts the focusing means. If the photographing lens is controlled in step 7, an AF camera can be designed.
[0014]
In addition to the above functions, the CPU 10 includes a backlight determination unit 8 that determines whether or not the object is in a backlight condition, an edge detection unit 9 that detects an edge portion of the obtained image signal, and the like. Yes.
[0015]
Under the condition of backlight, strong noise light is mixed into the sensor arrays 2a and 2b from the background of the object 3a, so that the image of the object 3a does not have a correct shape and the distance measurement tends to be inaccurate. . Therefore, in the present embodiment, it is determined whether or not the backlight is in a backlight condition, and when the backlight is in the backlight, the edge portion is extracted from the obtained image signal and is based on the image signal corresponding to the extracted region. Accurate distance measurement is performed by performing distance measurement. In addition, the signal component based on the mixed noise light is removed to further improve the ranging accuracy.
[0016]
Further, as shown in FIG. 1C, a plurality of points 15 in the camera screen 13 are measured, and the person 12 is correctly focused even if the person 12 as a distance measuring object does not exist in the center of the screen. There is a technique called multi-AF that is devised to fit. For example, when measuring the object 3a in FIG. 1A using this technique, the sensor on the optical axis of the sensor array 2a is used as a reference, and the sensor slightly shifted to the left side from this sensor position is used as a reference. By measuring the distance, the distance to the object 3a can be obtained. Ranging can be basically performed in the same way as the one-point AF except that the reference sensor position is changed. The sensor switching means 4 switches the reference sensor position. The same principle can be used when the edge portion is extracted from the image signal and distance measurement is performed.
[0017]
FIG. 2 shows the relationship between the person 12, the light receiving lens 1a, and the sensor 2a under backlight conditions.
Ideally, it is assumed that only light rays based on the shadow of the face of the person 12 enter the sensor array 2a. However, depending on the position of the sun, strong light 16 reflected from a part of the person reaches the sensor array 2a, and strong light is incident only on one of the two sensor arrays 2a and 2b. The image signal becomes unbalanced, or the sun light 17 is directly incident on the wall surface of the holding unit 11 holding the light receiving lens 1a and the sensor array 2a, and these noise lights are mixed on the original image signal. As a result, the contrast is lowered, and an image signal different from the expected one may be obtained.
[0018]
In a scene as shown in FIG. 2, the difference between the image signals obtained at the time of direct light and back light is shown in FIGS. 3 (a) and 3 (b). Assuming that the incident light is stronger, the output of the sensor array 2a is smaller, and as the incident light is weaker, the output of the sensor array 2a is larger. As shown in FIG. The contrast obtained with the width of ΔI1 on the face of the person 12 is also reduced to the width of ΔI2, as shown in FIG. Changes in the background due to forward light and backlight appear as changes at both ends of the image signal (changes in area). The change in contrast is caused by the fact that noise light overlaps the original image signal as described above, or that the luminance difference from the background becomes too large.
[0019]
FIG. 4 is a diagram showing a configuration of a processing circuit of the sensor array for obtaining the above image signal. The operation of this processing circuit will be described below.
20a and 20b are obtained by taking out two of the sensors constituting the sensor array, each of which is composed of a photodiode, and the outputs thereof are connected to integrating amplifiers 21a and 21b. Switches 22a, 22b, 24a, and 24b are connected to the integrating capacitors 23a and 23b. Among these, the switches 22a and 22b are controlled by the integration control circuit 28, and the integration start and end are determined by this control. The switches 24a and 24b are controlled by the integration reset circuit 25, and a reset operation is performed prior to starting integration again. The CPU 10 causes the above control to be performed sequentially.
[0020]
The integral outputs VINTa and VINTb are determined from the capacitances of the integrating capacitors 23a and 23b, the intensity of the incident light, and the integration time. If the integration control circuit 28 does not set an appropriate integration time at this time, VINTa, b cannot be stored in the dynamic range. Therefore, the monitor / integration control circuit 5 that monitors the integral outputs VINTa and VINTb via the output circuit 26 and performs integral control is required. Here, it is possible to select which sensor output is to be monitored from among the sensors constituting the sensor array. The sensor switching means 4 performs this selection. Therefore, if the control is performed by the CPU 10 according to the situation, it is possible to switch which sensor in the sensor array is focused on the integral control.
[0021]
For example, the image signal shown in FIG. 3 is obtained by switching the sensor for integration monitoring in the forward light state and the backlight state. Since FIG. 3 (a) shows a time of direct light, a contrast is obtained with the shadow of the face of the person 12 and normal distance measurement is possible. Therefore, integration control is performed in a narrow area so as not to be affected by the background as much as possible. However, since the contrast of the face is low in the backlight scene, the contrast is obtained by enhancing the luminance difference from the background as shown in FIG. In other words, in this case, the integration control area is made wider than the width of the face, and the integration control is performed in consideration of the background.
[0022]
FIG. 5A shows an example of an image signal when the integration control area (monitor range) is kept narrow in a backlight scene. The horizontal axis represents the order of the sensors in the sensor array (sensor No.), and the vertical axis represents the result of converting the sensor data into digital values by the A / D conversion means 6. In this example, since the integration is stopped using the integration result of the brightest part in the monitor range, the bright background exceeds the dynamic range and no data is output. Here, when the integration control area (monitor range) is widened, integration control is performed in consideration of the output of sensor data that receives light from the background as shown in FIG. An image signal is formed. Therefore, although the dynamic range of the data at the center of the face is deteriorated, an image signal having a high contrast can be obtained due to the luminance difference between the background and the person.
[0023]
As described above, in this embodiment, the image signal of only the face portion is less affected by the background, but in order to eliminate the disadvantage that the contrast is too low to obtain only a low reliability result, the integration control area Is used to obtain an image signal having a sufficiently large contrast, and to correctly measure a subject in a backlight condition from the image signal.
[0024]
FIG. 6 is a flowchart showing the operation when the method of the present embodiment is applied to a camera.
Step S1 is a step of performing integration control with the central portion in the screen as the integration control area. Next, the sensor data of this integration control area is read (step S2), and the peripheral part and the center part of the integration control area are compared to determine whether or not the backlight is in the backlit state (step S3). When it is not backlit, the process branches to step S11, a known multi-AF operation is performed, and sensor switching is repeated to measure a plurality of points on the screen, and a main subject distance Lp is determined from them, and this focus is determined in step S10. Align.
[0025]
On the other hand, if it is determined in step S3 that the backlight is in the backlight state, the process proceeds to step S4, and the integration region is switched to be larger than that in the non-backlight state. That is, the determination area is expanded by increasing the number of integral determination sensors. Next, in step S5, the integration control is performed again, and the obtained image data is read out and input to the CPU 10 after A / D conversion (step S6). As described above, the main subject luminance and its background in step S7. A portion having a high contrast with the luminance of the portion is detected (see FIG. 5B). This detection is referred to as edge detection, and a portion with a large change in image data is obtained by the sensor arrays 2a and 2b in FIG. 1A based on the flow shown in FIG. 7, and is output as an edge signal. The distance L is obtained from the relative position difference x represented by
[0026]
In FIG. 7, in steps S40 to S43, a number n indicating the order of the sensors constituting the sensor array 2a, a number n1 indicating the order of the sensors located at the edge portion, and a variable ΔSS indicating a difference between adjacent sensor data A variable ΔS indicating the maximum value is initialized. Next, in step S44, the difference ΔSS between the data of the nth sensor and the data of the (n + 1) th sensor is taken, and then in step S45, it is compared with the maximum value ΔS. If the determination result in step S44 is yes, the process branches to step S46, stores the sensor number n1 at that time, and stores ΔSS as the maximum value in step S47.
[0027]
Next, the sensor number to be compared is incremented in step S48, and the determination in step S49 is yes, that is, the step in step S44 is repeated until n reaches a predetermined number no. A position n1 of the sensor showing a large change is obtained. By such a flow, the position of the edge portion of the image signal is obtained as a number indicating the order of arrangement of the sensors.
[0028]
By the way, the output of the two sensor arrays tends to be unbalanced in the image data of the edge part due to the influence of background noise light. Therefore, in the flow of FIG. 6, after the edge detection (step S7), the flare correction step S8 is added to remove the influence of the noise light. As shown in FIG. 8, flare correction is a method of obtaining the magnitude of noise light when noise light is superimposed on one of a pair of sensor arrays 2a and 2b for AF, for example, the sensor array 2b. This is a technique for obtaining correct image data by removing by calculation.
[0029]
That is, as shown in FIG. 8, when noise light is evenly distributed, the same number (n2) of sensors is selected from each sensor array, and the noise light is obtained from the difference of the sum of these sensor data. it can. If the sum (Δh) obtained by dividing the sum difference by n 2 is added to each sensor data of the sensor array 2a, the shapes of the images incident on the two sensor arrays 2a and 2b can be made uniform. Δh may be subtracted from the sensor data of the sensor array 2b. In this case, however, the data becomes negative and may cause inconvenience in calculation. The image shape is aligned with the addition of equivalents. If there is no inconvenience in calculation, subtraction may be performed from the side with noise.
[0030]
If the relative position difference of the image shift amount is determined by ignoring the noise light with the image shapes being not uniform, a detection error at the position Δx in FIG. Therefore, in the present embodiment, the CPU 10 performs the flow calculation as shown in FIG. 9 to calculate the distance after aligning the shapes of the two image signals.
[0031]
First, steps S60 and S61 are steps for obtaining the sum of n2 sensor data of portions where the same image is obtained in each sensor array as Σa and Σb. In this case, the sensor data of the portion indicated as n2 in FIG. 8 may be obtained. That is, sensor data of n2 / 2 before and after the edge may be used. Further, the sum may be taken over the entire sensor area. Step S62 is a step of determining which sum is larger. Based on this result, a difference ΔΣ is obtained in steps S63 and S67, and then an average value Δh is obtained to obtain a correction amount Δh (step S64, S68). In steps S65 and S69, this is added to each sensor data of the sensor array with no flare.
[0032]
As described above, when the sum is taken over the entire sensor area, Δh is obtained by dividing this by the total number of sensors. Then, similarly to S65 and S69, this Δh is added to the sensor data on which no flare is placed.
[0033]
By such a process, corrected sensor data is formed in the memory in the CPU 10, and the CPU 10 obtains the image position difference x in FIG. 1 using this correction data, not the raw data of the sensor array output, The main subject distance Lp is obtained from the equation (1) and focused (steps S9 and S10 in FIG. 6). As described above, in the present embodiment, accurate focusing can be performed even when image signals incident on the two sensor arrays become low contrast or unbalanced due to noise light. Therefore, a beautiful photograph can be taken even in a backlight scene.
[0034]
The second embodiment of the present invention will be described below. The sensor array for distance measurement is an element in which several tens to hundreds of light receiving elements (sensors) are juxtaposed. When the above edge detection and flare correction are performed on the output data of these many sensors, the calculation is performed. Takes time, and the release time lag becomes longer. The time for performing the reintegration in step S5 in FIG. 6 also becomes a time lag. Therefore, as shown in the flow of FIG. 10, distance measurement is performed by the first integration, and determination based on distance is also adopted, so that edge detection and flare correction are not performed when the first distance measurement is at low luminance or long distance. In many scenes, the release time lag can be prevented from becoming long.
[0035]
For example, even in a backlight scene as shown in FIG. 11A, when the subject distance is a long distance, the subject image position difference on the sensor array due to the parallax of the two light receiving lenses is also small. The unbalance when the strong light 16 enters the two sensors via the light receiving lens 1a is also reduced, and the subject image is also reduced and enters the sensor array 2a. As shown in FIG. 11B, an image signal with high contrast can be obtained in consideration of the background.
[0036]
For these reasons, in the flow of FIG. 10, distance measurement is performed by the first integration (step S20), and if it is determined that the backlight is backlit in the next step S21, then the first distance measurement result is the short distance. Whether or not (step S22), only at short distance, reintegration (S23, S24), edge detection (step S25), and flare correction (S26) are performed by switching the integral determination range. Less.
[0037]
That is, in this embodiment, when the backlight is close and the subject distance is short as in the scene of FIG. 2, the two sensors that occur because the incident form of the noise light 16 differs due to the parallax of the two sensor arrays 2a and 2b. It overcomes the imbalance between the sensor data in the arrays 2a, 2b, or the low contrast problem caused by noise light overlapping the signal.
[0038]
In other words, when it is determined that the subject is backlit and the subject distance is close, the flow from step S23 is executed to reliably measure the subject distance. In other cases, the reference area is switched in step S29. However, multi-AF is performed. Accordingly, as shown in FIG. 1C, correct focusing can be performed at high speed even in a scene where the subject 12 does not exist in the center of the screen.
[0039]
Here, as an example of the method for determining the backlight, an example in which the integration result of the AF sensor array is monitored is described here. However, as shown in FIGS. It goes without saying that the backlight can be determined by using a photometric result (SPOT) and an average photometric result (AVE) of the entire screen using a known method at the time of exposure control instead of AF.
[0040]
The specific embodiments described above include inventions having the following configurations (1) to (5).
(1)
In a distance measuring device having a plurality of luminance distribution measurement points in an imaging region and outputting one or a plurality of luminance distributions of the luminance distribution measurement points as two image signals by two sensor arrays,
Determining means for determining whether or not the backlight state is based on an image signal from a predetermined luminance distribution measurement point;
When it is determined that the backlight is in the backlight state, an area where the difference between the main subject brightness and the background brightness is large is extracted from the two image signals of the predetermined brightness distribution measurement point, and the brightness difference of this area is determined by at least one sensor. Edge signal output means for outputting as an edge signal corresponding to the array;
When the non-backlight state is determined, the subject distance is calculated based on the outputs from the plurality of luminance distribution measurement points. When the backlight state is determined, the image from the region specified by the edge signal is calculated. Computing means for computing the distance of the subject based on the signal;
A distance measuring device comprising:
(2)
In a distance measuring device having a plurality of luminance distribution measurement points in an imaging region and outputting one or a plurality of luminance distributions of the luminance distribution measurement points as two image signals by two sensor arrays,
Determining means for determining whether or not the backlight state is based on an image signal from a predetermined luminance distribution measurement point;
An area switching means for switching the integration area of the two sensor arrays at the predetermined luminance distribution measurement point so as to be larger than that in the non-backlight state when it is determined that the backlight is in the backlight state;
A region where the difference between the main subject luminance and the background luminance is large is extracted from the two image signals in the integration region of the switched sensor array, and the luminance difference in this region is first and second corresponding to each sensor array. Edge signal output hand throw to be output as the edge signal of 2,
When the non-backlight state is determined, the distance of the subject is calculated based on the outputs from the plurality of luminance distribution measurement points, and when the backlight state is determined, the first and second edge signals are used. Computing means for computing the distance of the subject based on the image signal from the designated area;
A distance measuring device comprising:
(3)
In a distance measuring device that outputs luminance distribution of a subject as two image signals by two sensor arrays,
Determination means for determining whether or not the backlight state is based on the two image signals;
A computing means for computing the distance of the subject;
Determination means for determining whether or not the first subject distance calculated based on the two image signals in a backlight state is closer than a predetermined value;
When it is determined that the subject distance is close to a predetermined value in the backlight state, an area where the difference between the main subject brightness and the background brightness is large is extracted from the two image signals, and the brightness difference between these areas is calculated. Edge signal output means for outputting first and second edge signals corresponding to each sensor array;
Calculation control means for causing the calculation means to calculate a second subject distance based on two image signals from the two areas designated by the first and second edge signals;
A distance measuring device comprising:
(4)
The arithmetic means removes a flare signal from one of the two image signals to create a correction signal, and based on the correction signal and the other image signal of the two image signals. The distance measuring device according to any one of (1) to (3), wherein the distance of the subject is calculated.
(5)
The correction signal is generated by superimposing edge signals of specific portions of the two image signals and then removing a flare-related noise signal from one edge signal. Distance device.
[0041]
【The invention's effect】
According to the present invention, accurate distance detection can be performed even during backlighting, and in addition to this, the flare problem can be overcome and distance measurement accuracy can be further improved.
In addition, when applied to an AF camera, the focusing rate can be improved even in a scene where focusing cannot be performed.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an external light passive type distance measuring device;
FIG. 2 is a diagram illustrating a relationship between a person, a light receiving lens, and a sensor under backlight conditions.
FIG. 3 is a diagram showing a difference between image signals obtained in a normal light and a backlight in a scene as shown in FIG.
FIG. 4 is a diagram showing a configuration of a processing circuit of a sensor array for obtaining an image signal.
FIG. 5A shows an example of an image signal when the integration control area is kept narrow in a backlight scene, and FIG. 5B is a diagram showing an example of an image signal when the integration control area is enlarged. .
FIG. 6 is a flowchart showing an operation when the method of the first embodiment of the present invention is applied to a camera.
FIG. 7 is a diagram showing a flow of edge detection.
FIG. 8 is a diagram for explaining flare correction.
FIG. 9 is a diagram showing a flow of flare correction.
FIG. 10 is a flowchart showing a method according to a second embodiment of the present invention.
FIG. 11 is a diagram illustrating an example of a backlight scene.
FIG. 12 is a diagram for explaining another method for determining backlight.
[Explanation of symbols]
1a, 1b ... light receiving lens,
2a, 2b ... sensor array,
3a, 3b ... object,
4 ... Sensor switching means,
5 ... Monitor / integration control circuit,
6 ... A / D conversion means,
7: Focusing means,
8 ... Backlight determination means,
9: Edge detection means,
10 ... CPU,
11 ... holding part,
12 ... person,
13 ... screen.

Claims (2)

被写体の輝度分布を第1の像信号として出力する第1のセンサアレイと、
被写体の輝度分布を第2の像信号として出力する第2のセンサアレイと、
上記第1、第2の像信号に基づいて逆光状態か否かを判定する判定手段と、
逆光状態と判定された際に、第1及び第2のセンサアレイの積分領域を非逆光状態のときよりも大きくなるように切換える領域切換え手段と、
切換えられた領域から出力される第1、第2の像信号から、主要被写体輝度とその背景部輝度との差が大きい領域を抽出し、この領域の輝度差を少なくとも一方のセンサアレイに対応するエッジ信号として出力するエッジ信号出力手段と、
上記エッジ信号で指定された領域からの像信号に基づいて、被写体の距離を演算する演算手段と、
を具備したことを特徴とする測距装置。
A first sensor array that outputs a luminance distribution of a subject as a first image signal;
A second sensor array that outputs the luminance distribution of the subject as a second image signal;
Determination means for determining whether or not the backlight is in a backlight state based on the first and second image signals;
A region switching means for switching the integration region of the first and second sensor arrays to be larger than that in the non-backlight state when it is determined to be in the backlight state;
A region having a large difference between the main subject luminance and the background luminance thereof is extracted from the first and second image signals output from the switched region, and the luminance difference in this region corresponds to at least one sensor array. Edge signal output means for outputting as an edge signal;
A computing means for computing the distance of the subject based on the image signal from the region specified by the edge signal;
A distance measuring device comprising:
上記演算手段は、上記2つの像信号のうち、一方の像信号からフレア信号を除去して補正信号を作成し、この補正信号と、上記2つの像信号のうちの他方の像信号とに基づいて被写体の距離を演算することを特徴とする請求項1記載の測距装置。  The arithmetic means removes a flare signal from one of the two image signals to create a correction signal, and based on the correction signal and the other image signal of the two image signals. The distance measuring apparatus according to claim 1, wherein the distance of the subject is calculated.
JP28369197A 1997-10-16 1997-10-16 Ranging device Expired - Fee Related JP3938989B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28369197A JP3938989B2 (en) 1997-10-16 1997-10-16 Ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28369197A JP3938989B2 (en) 1997-10-16 1997-10-16 Ranging device

Publications (2)

Publication Number Publication Date
JPH11118476A JPH11118476A (en) 1999-04-30
JP3938989B2 true JP3938989B2 (en) 2007-06-27

Family

ID=17668838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28369197A Expired - Fee Related JP3938989B2 (en) 1997-10-16 1997-10-16 Ranging device

Country Status (1)

Country Link
JP (1) JP3938989B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4509280B2 (en) * 2000-02-08 2010-07-21 オリンパス株式会社 camera
JP4953498B2 (en) * 2000-07-12 2012-06-13 富士重工業株式会社 Outside vehicle monitoring device with fail-safe function
KR20040100746A (en) * 2003-05-24 2004-12-02 삼성전자주식회사 Device and method for compensating photographing of back light in mobile telephone with camera

Also Published As

Publication number Publication date
JPH11118476A (en) 1999-04-30

Similar Documents

Publication Publication Date Title
JPS62103615A (en) Focus detector
US7933510B2 (en) Focus detection apparatus and focus detention method
JP4398017B2 (en) Ranging device
JP4426669B2 (en) Multi AF device
JP2006254413A (en) Imaging apparatus and camera body
JP4641502B2 (en) Focus detection apparatus and optical instrument
JP3938989B2 (en) Ranging device
JP2011033730A (en) Focusing device and method, and imaging apparatus
JP2002023044A (en) Focus detector, range-finding device and camera
JPH11205694A (en) Photoelectric converting device and focus detecting device
JPH11142723A (en) Image pickup device
JPH05341180A (en) Photoelectric conversion device
JP2011125055A (en) Imaging apparatus, and camera body
JPH11249004A (en) Image sensor
JP3955201B2 (en) Auto focus camera
JPH10161014A (en) Automatic focus detector using two-dimensional sensor
JP2005062039A (en) Distance measuring device
JP2002250857A (en) Range finder
JP3798866B2 (en) Ranging device
JP4647771B2 (en) Ranging device
JP3292415B2 (en) Camera ranging device
JP3414500B2 (en) Focus detection device
JP5065466B2 (en) Focus detection apparatus and optical instrument
JP2830834B2 (en) Focus detection device
JP2746258B2 (en) Focus detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070327

LAPS Cancellation because of no payment of annual fees