JP4445612B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4445612B2
JP4445612B2 JP28688999A JP28688999A JP4445612B2 JP 4445612 B2 JP4445612 B2 JP 4445612B2 JP 28688999 A JP28688999 A JP 28688999A JP 28688999 A JP28688999 A JP 28688999A JP 4445612 B2 JP4445612 B2 JP 4445612B2
Authority
JP
Japan
Prior art keywords
distance measurement
distance
camera
data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28688999A
Other languages
Japanese (ja)
Other versions
JP2001108890A (en
Inventor
昌孝 井出
寿之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP28688999A priority Critical patent/JP4445612B2/en
Publication of JP2001108890A publication Critical patent/JP2001108890A/en
Application granted granted Critical
Publication of JP4445612B2 publication Critical patent/JP4445612B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数の測距ポイントについて測距を行い、主要被写体にピント合わせを行う測距装置に関する。
【0002】
【従来の技術】
近年、普及タイプのカメラに搭載する測距装置においても、撮影画面の中央に配置した任意の小面積の測距領域(以下、測距ポイントと称する)を測距するスポット測距機能に加えて、撮影画面内に多数の測距ポイントを配置して、それぞれ測距して、画面内のどの位置に被写体が存在してもピント合わせができる多点測距機能を備えている。
【0003】
この多点測距装置は、撮影画面内の例えば中央、左右、上下等に測距領域設けて、それぞれを測距ポイントとし、これらの測光結果と種々の撮影に関する情報から被写体が存在していると思われる最適な測距ポイントを選択して、その測距ポイントで得られた距離データに基づきピントを合わせを行っている。
【0004】
例えば、特開平1−198715号公報では、複数の測距ポイントの中から選択してメモリしておき、測距を実行する際にメモリから読み出した測距ポイントで測距してピント合わせを行っている。
これにより、複数の測距ポイントを配置していても、測距を実施する際には、選択された測距ポイントのみの演算処理になるため、測距が高速化される。
【0005】
また、特開平10−104502号公報に開示される焦点検出装置では、複数の測距ポイントにおいて、測距ポイント毎に独立して積分制御を行う最大値検出回路を配置して、全測距ポイントの受光素子における最大蓄積電荷量から求めた距離データの中から、最至近距離選択等の所定の方法により、ピント合わせに用いる測距データを選択する。
この焦点検出装置では、各測距ポイントとなる受光素子が積分する電荷量を受光素子個々に独立して管理されるため、それぞれが適正な電荷量により距離が求められ、測距精度が高くなる。
【0006】
【発明が解決しようとする課題】
しかし、前述した特開平1−198715号公報における測距装置では、マニュアル操作によって、複数の測距ポイントの中から選択するため、実際に撮影する場面では、その選択操作が煩わしいこととなる。
【0007】
また、特開平10−104502号公報における焦点検出装置では、測距ポイントが多いと測距精度が向上する反面、演算処理が複雑となり、処理に時間がかかる。このため、シャッタ釦を押してもすぐにシャッタが切れない等のタイムラグが増大してカメラの使い勝手が悪くなる。これを改善するために、タイムラグを少なくする、高速処理が可能なマイクロコンピュータで対応しようとすると、このマイクロコンピュータがコスト的に高価であり、普及タイプの兼価なカメラには搭載できないこととなる。
そこで本発明は、簡単な操作で、広範囲な測距領域においてタイムラグを増大させることなく、主要被写体にピント合わせできる測距装置を搭載するカメラを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は上記目的を達成するために、複数領域の測距を行う測距手段と、上記測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、操作者を判別する操作者判別手段と、カメラの動作条件を判別する動作条件判別手段と、上記記憶手段と上記操作者判別手段と上記動作条件判別手段との出力結果に基づき、上記測距手段が測距を行う測距領域の優先順位を、判別された動作条件のもとで判別された操作者により選択された頻度が多い測距領域を優先するように決定する優先順位決定手段と、上記優先順位決定手段が出力する測距領域に関して、上記操作者判別手段と上記動作条件判別手段の出力結果に基づき、所定距離範囲を出力する所定距離範囲出力手段と、を具備し、上記測距手段は、上記優先順位決定手段の出力に基づき測距を行い、測距結果が上記所定距離範囲か否かを判定し、所定範囲内であれば、上記測距結果を採用するカメラを提供する。
【0009】
以上のような構成のカメラに搭載される測距装置は、撮影者毎による過去の測距動作において選択された測距領域(測距ポイント)に関するデータを記憶しておき、現在の撮影者を判別して該当する測距領域に関するデータに基づいて、複数の測距ポイントの中から測距を行う優先順位が決定される。この優先順位に従い、被写体を測距して、その測距結果でピント合わせを行うことにより、撮影画面上に複数配置した測距ポイント若しくはそのグループで主要被写体の存在確率が高い順に焦点距離(画角)を考慮して測距し採用するため、全ての測距ポイントについて測距演算を行い選択する場合に比較して、測距演算によるタイムラグが大幅に減少する。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1には、本発明のカメラに係る第1の実施形態として、カメラの概略的な構成例を示し説明する。
【0011】
このカメラは、以下に述べる構成部位の制御や演算処理を行うためのマイクロコンピュータからなる制御部1と、測距に用いられるAFエリアセンサ2と、フォーカスレンズ4を駆動するフォーカスレンズ駆動部3と、フォーカスレンズ4の移動量に対応するパルス信号を発生するフォーカスレンズエンコーダ5と、測光用受光素子6が生成した光電流信号を処理し測光結果として出力する測光部7と、不図示のシャッタを駆動するシャッタ駆動部8と、撮影時の補助光若しくは測距動作時のAF補助光としてストロボ発光部9を発光させるストロボ回路部10と、撮影画面に加えて本発明に関わる情報をファインダ画面にスーパーインポーズ表示するファインダ表示部11と、カメラの外装部に設けられてフィルム駒数や撮影モード表示等を行うLCD等からなるカメラ表示部12と、ファインダ表示部11及びカメラ表示部12への表示を制御するための表示回路部13と、ズームレンズ14を移動させて、ズーム動作(焦点距離の変更)を行うズームレンズ駆動部15と、フィルム装填のオートロード、1駒巻き上げ、巻き戻し等のフィルム給送を行うフィルム給送部16と、カメラの姿勢(縦、横)を検出するジャイロ等の機構からなる姿勢検出部21と、レリーズ釦を押す撮影者の指の指紋を検出する指紋検出部22と、で構成される。
【0012】
上記制御部1には、さらに、ファーストレリーズスイッチ(1RSW)17と、セカンドレリーズスイッチ(2RSW)18と、ズームアップスイッチ(ZUSW)19と、ズームダウンスイッチ(ZDSW)20とが接続されている。
【0013】
上記指紋検出部22は、レリーズ釦を押す撮影者の指の指紋を検出し、制御部1は、その検出結果と予め記憶されている指紋データとを照合することにより撮影者を識別し、識別結果に基づいて、AF処理が行われる。
【0014】
上記制御部1は、中央処理装置(CPU)1aと、撮影に関する一連のシーケンスプログラムを記憶するROM1bと、必要に応じた情報を書き換え可能に記憶するRAM1cと、測光部7からの測光出力等のアナログ信号をデジタル信号化するA/Dコンバータ1dと、オートフォーカス(AF)や測光・露出演算等に関する補正データをカメラ毎に記憶するEEPROM1eとを備えている。
【0015】
上記AFエリアセンサ2は、撮像領域の水平方向と垂直方向に、複数のフォトダイオード等を含む画素ユニット23が2次元的に配置された受光素子群2aと、受光信号処理回路2bと、定常光除去部2cとから構成され、後述する測距光学系により形成される被写体像を撮像して電気信号であるセンサデータに変換して制御部1に出力する。この定常光除去部2cは、制御部1の切り換え指示により、センサデータから定常光分を除去する。
【0016】
図2は、上記AFエリアセンサ2をCMOSプロセスにより作成した内部構成例を示す図である。
受光素子群2aの画素ユニット23は、光電変換素子となるフォトダイオード23aと、フォトダイオード23aが出力する光電流を積分(充電)するコンデンサ23bと、その光電流を電圧信号に変換するとともに増幅する増幅器23cとから構成される。また、受光信号処理回路2bは、垂直シフトレジスタ24と、水平シフトレジスタ25と、固定パターンノイズ除去回路26とで構成される。それぞれの画素ユニット23に配置された増幅器23cからの出力は、垂直シフトレジスタ24及び水平シフトレジスタ25により選択されて順次、センサデータとして出力される。これらのセンサデータは、上記A/Dコンバータ1cによりディジタル化されてRAM1cに格納される。
【0017】
また、固定パターンノイズ除去回路26は、画素ユニット23毎の増幅器23bの特性のバラツキにより生ずる所謂、固定パターンノイズを除去するための回路であり、センサデータの読み出し動作の時に除去動作を行なう。尚、前述した定常光除去部2bは、各画素ユニット23毎に増幅器23cの内部に設けられている。
【0018】
上記制御部1は、AFエリアセンサ2の積分動作の制御及び、センサデータの読み出し制御を行い、入力されたセンサデータを処理して測距演算を行なう。また、制御部1は、その測距演算結果に基づき、フォーカスレンズ駆動部3によりフォースレンズ4を駆動させつつ、フォーカスエンコーダ5の発生するパルス信号をモニタして、フォーカスレンズ4の位置制御を行う。
【0019】
上記1RSW17と2RSW18は、レリーズポタンに連動した2段階スイッチであり、レリーズボタンの第1段階の押し下げにより1RSW17がオンし、引き続いて第2段階の押し下げで2RSW18がオンする制御部1は、1RSW17のオンでAF、測光動作を行い、2RSW18のオンで露光、フィルム巻き上げ動作を行う。
また上記ズームレンズ駆動部15は、不図示のズームアップ操作釦の押し下げによりオンするZUSW19または、不図示のズームダウン操作釦の押し下げによりオンするZDSW20のオン状態に応じて、制御部1の指示によりズーム動作(焦点距離の変更)を行う。
【0020】
図3に示すフローチャートを参照して、撮影におけるメインルーチンについて説明する。
不図示の電源SWがオンされるか電池が挿入されると、制御部1が起動し、ROM1bに予め格納されたシーケンスプログラムに従い動作を開始する。
まず、カメラ内の各ブロックを初期化した後、EEPROM1eに格納されたオートフォーカス(AF)や測光等に関する、調整及び補正データをRAM1cに展開する(ステップS1)。
【0021】
次に、1RSW17のオンされたか否かを判別する(ステップS2)。この判別で1RSW17がオフのままであれば(NO)、他のスイッチ(1RSW17,2RSW18以外)が操作されたか否かを判別する(ステップS3)。
他のスイッチが操作されたならば(YES)、そのスイッチ入力に応じた処理、例えば、ZUSW19やZDSW20が操作されたならば、ズームスレンズ14のアップ、ダウン動作を行い(ステップS4)、上記ステップS2に戻る。また、他のスイッチが何ら操作されなかった場合には(NO)、そのまま上記ステップS2に戻り待機する。
【0022】
また上記ステップS2の判別において、1RSW17がオンされたならば(YES)、測距を行い(ステップS5)、さらに、測光・露出演算を行う(ステップS6)。
この後、2RSW18がオンされたか否かを判別する(ステップS7)。この判別において、2RSW18がオンされると(YES)、シャッタ動作によりフィルムに露光する(ステップS8)。この露光終了の後に、フィルムを1駒巻き上げし(ステップS9)、上記ステップS2に戻り、次の撮影に待機する。しかしステップS7で2RSW18がオンされなければ(NO)、上記ステップS2に戻る。
【0023】
図4(a)、(b)は、外光パッシブ方式による測距光学系の概念的な構成を示し、説明する。
この構成においては、AFエリアセンサ2の受光素子群2bが配置された受光領域に測距用光を導き、被写体33までの距離を測定するための受光レンズ31、32が基線長Bを隔てて配置される。
【0024】
これらの受光レンズ31、32は、被写体33の像を2像に分割して、AFエリアセンサ2の受光素子群2aに結像させる。上記2像の相対的な位置差xは、三角測距の原理によって、受光レンズの焦点距離fと基線長Bとから、被写体距離Lは、以下の式による。
L=(B・f)/x
上記測距演算は、制御部1によって行われる。より具体的には、AFエリアセンサ2の受光領域2aに、測距ブロックを設定して2像に対応するセンサデータを用いて相関演算を行い、上記2像の相対的な位置差xを検出する。
【0025】
図5は、第1の実施形態における、撮影画面に対する測距領域(測距ポイント)の関係を示す図である。
【0026】
この実施形態では、外光測距方式を採用しているため、ズームアップ若しくはズームダウンされた撮影画面の広さに測距ポイントが配置された広さは追従していない。これは、撮影画面がズームアップやズームダウンに従って焦点距離(撮影する画角)が変わるのに対して、測距ポイントが配置された領域の広さが固定されていることにより発生する。
【0027】
つまり、図5に示すように、通常はズームダウンされたワイド端の撮影画面に対応できるように測距ポイントが配置されている。従って、ズームアップしたテレ端の撮影画面の場合、測距ポイントがそのままの配置による広さを維持しているため、撮影画面外のものを測距してしまう可能性がある。そのため、撮影光学系の焦点距離情報(ズーム情報)に応じて測距に使用する測距ポイントを限定する必要がある。
【0028】
このような焦点距離の変化に応じた広さの測距ポイントを選択するための補正データは、測距ポイント補正データとしてEEPROM1eに予め記憶されており、制御部1の初期化とともに、RAM1dに展開される。
選択された測距ポイントからのセンサデータに基づき測距演算を行う。
【0029】
また、制御部1はAFエリアセンサ2に対して、この測距ポイントから積分制御用ピーク・モニタ信号を発生するように制御信号を出力する。そして、AFエリアセンサ2は、指定された測距ポイント内のピーク信号を制御部1に出力する。制御部1は、このモニタ信号を参照して積分量が所定のレベルとなるように制御する。
【0030】
このようにして、撮影画面外に存在する被写体の影響を受けないようにしている。また、センサデータの読み出し時にも、上記撮影画面に対応する測距ポイント補正データを参照して、不要な撮影画面外のセンサデータは読みとばしてRAM1cに格納しない、若しくは、AFエリアセンサ2に読み出し範囲設定信号を出力して、設定された範囲内のセンサデータだけ出力するようにする。
【0031】
次に、図6に示すフローチャートを参照して、本実施形態における測距ルーチンについて説明する。
まず、AFエリアセンサ2による積分を行う(ステップS11)。具体的には、制御部1からAFエリアセンサ2に積分制御信号を出力して、積分動作を開始させる。その後、AFエリアセンサ2から所定範囲内のピーク出力(最も明るい画素ユニットからの出力)に応じたモニタ信号(センサデータ)を出力させる。このモニタ信号を参照しながら、AFエリアセンサ2による受光量が適正となるように積分時間を調節して、コンデンサ23bに蓄積させる。
【0032】
その後、AFエリアセンサ2に読み出しクロックCLKを出力して、蓄積したセンサデータをA/Dコンバータ1dに出力させ、ディジタル変換した後、RAM1cに格納する(ステップS12)。
【0033】
次に、制御部1は、カメラ姿勢検出部22からの出力に基づき、現在のカメラ姿勢が横に向いた姿勢であるか否かを判定する(ステップS13)。
【0034】
この判定で、カメラが横姿勢の場合には(YES)、EEPROM1eからRAM1cに展開されている、図7に示すような横位置データを参照する(ステップS14)。一方、カメラが横姿勢ではなく、縦姿勢であった場合は(NO)、同様に図7に示す縦位置データを参照する(ステップS15)。それぞれ姿勢位置データを参照した後、採用頻度が多い測距ポイントから順に選択する(ステップS16)。例えば、カメラが縦姿勢であった場合には、測距ポイントは、E→B→H→…となる。
【0035】
そして、選択された測距ポイントに対して、測距演算を行い(ステップS17)、得られた測距データが所定の条件を満足するか、例えば所定の距離範囲内か否かを判定する(ステップS18)。この判定において、所定の条件を満足する場合は(YES)、その測距データをピント合わせに採用し(ステップS19)、この測距データに基づきフォーカシングレンズを駆動してピント合わせを行う(ステップS20)。一方、上記ステップS18の判定において、測距データが所定の条件を満足しなかった場合には(NO)、予め決められた所定の測距ポイントを全て測距したか否かを判別する(ステップS21)。
【0036】
この判別において、すべての所定測距ポイントについて測距が終了していなければ(NO)、上記ステップS16に戻り、一方が終了している場合には(YES)、求められた測距データから最至近の測距データを採用し(ステップS22)、上記ステップS20に移行して、フォーカシングレンズを駆動してピント合わせを行う。
このピント合わせの後、採用した測距ポイントデータを、カメラ姿勢等の条件とともにEEPROM1eに書き込み(ステップS23)、メインルーチンにリターンする。
【0037】
図8には、撮影画面内の測距ポイントの配置例を示す。この配置例では、撮影画面中央に測距ポイントEを配置し、その上下左右に測距ポイントA〜D,F〜Iの合計9つの測距ポイントを配置している。
【0038】
図7は、本実施形態において、ある撮影者による過去に採用された測距ポイントの頻度を示す測距ポイント採用頻度データ例である。
例えば、カメラ姿勢が横位置であった場合、最初に最も頻度の高い測距ポイントEについて測距演算を行う。そして、測距ポイントEの測距結果が所定の条件、例えば所定距離範囲内であれば、測距ポイントEの測距データを採用する。測距ポイントEの測距結果が所定の条件を満足しない場合は、次に頻度の高い測距ポイントDについて測距演算を行い、順次同様に繰り返して判定する。
このように測距演算及び判定動作は、全測距ポイントについて終了するまで繰り返して行われ、全領域の測距が終了すると、全測距ポイントのうちで最も近距離の測距データを採用して、ピント合わせを行う。
【0039】
次に、本発明のカメラに係る第2の実施形態について説明する。
本実施形態は、図9に示すように、第1の実施形態に比較して測距ポイント数を増加した例である。また、ズーム位置に応じた測距ポイント採用頻度データを有している。本実施形態の構成は、測距ポイント数以外は第1の実施形態とほぼ同等であり、測距動作が異なっている。
【0040】
図10に示すフローチャートを参照して、本実施形態における測距ルーチンについて説明する。
まず、AFエリアセンサ2による積分を行う(ステップS31)。前述した第1の実施形態と同様に、制御部1からAFエリアセンサ2に積分制御信号を出力して、積分動作を開始させ、モニタ信号を参照しながら受光量が適正となるように積分時間を調節して蓄積させる。読み出しクロックCLKに基づき、読み出したセンサデータをA/D変換した後、RAM1cに格納する(ステップS32)。
【0041】
次に、撮影レンズのズーム位置情報に応じて、採用すべき測距ポイントを選択する(ステップS33)。この測距ポイントの選択は、図11に示すように、撮影レンズの焦点距離(ズーム位置)に応じて、複数の採用測距ポイント位置データの中から選択する。ここでズーム位置は、例えば、Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)に分割されている。
【0042】
次に、制御部1は、カメラ姿勢検出部22からの出力に基づき、現在のカメラ姿勢が横に向いた姿勢であるか否かを判定する(ステップS34)。この判定で、カメラが横姿勢の場合には(YES)、図11に示す採用測距ポイント位置データを参照して横位置における測距ポイントを選択する(ステップS35)。一方、カメラが横姿勢ではなく、縦姿勢であった場合においても(NO)、同様に図11に示す縦位置における測距ポイントを選択する(ステップS36)。
そして、それぞれ姿勢位置データを参照した後、採用頻度が多い測距ポイントから順に選択する(ステップS37)。
【0043】
そして、選択された測距ポイントに対して、測距演算を行い(ステップS38)、得られた測距データが所定の条件を満足するか、例えば所定の距離範囲内か否かを判定する(ステップS39)。この判定において、所定の距離範囲内であれば(YES)、その測距データをピント合わせに採用し(ステップS40)、この測距データに基づきフォーカシングレンズを駆動してピント合わせを行う(ステップS41)。一方、上記ステップS39の判定において、測距データが所定離範囲内でなければ(NO)、予め決められた所定の測距ポイントを全て測距したか否かを判別する(ステップS42)。
【0044】
この判別において、所定測距ポイントの全領域について測距が終了していなければ(NO)、上記ステップS37に戻って繰り返し行い、一方、測距が終了している場合は(YES)、求められた測距データから最至近の測距データを採用し(ステップS43)、その最至近の距離データが所定距離より遠いか否か判定する(ステップS44)。所定距離より近い場合は(YES)、この測距データを採用して、上記ステップS41に移行して、ピント合わせを行う。
【0045】
一方、所定距離より遠い場合には(NO)、選択されなかった残りの測距ポイントの測距演算を行う(ステップS45)。得られた全測距ポイントの測距データの中から最至近の距離データを採用して(ステップS46)、上記ステップS41に移行して、ピント合わせを行う。それぞれピント合わせ終了の後、採用した測距ポイント位置データを、ズーム位置情報、カメラ姿勢等の条件とともにEEPROM1eに書き込む(ステップS47)。
【0046】
本実施形態において、撮影レンズの焦点距離がワイド(Z0〜Z1)に設定されており、カメラ姿勢が横位置であったとすると、測距ポイント採用頻度データは、n0a、n0b、…、n0oについて参照する。
そして、この測距ポイント採用頻度データに基づき、最初に最も頻度の高い測距ポイントの測距演算を行う。そして、測距ポイントの測距結果が所定の条件、例えば所定距離範囲内であれば、測距ポイントの測距データを採用する。
しかし測距ポイントの測距結果が所定の条件を満足しない場合は、次に頻度の高い測距ポイントについて測距演算を行い同様に判定する。
【0047】
以上の測距演算および判定動作が、所定領域について終了するまで繰り返される。そして、所定領域について測距が終了すると、全測距ポイントのうちで最も近距離の測距データを採用する。
上記ステップS42における所定領域は、予め決められている優先度の高い測距ポイントのグループである。これらの優先度の高い測距ポイントは、例えば図12(a)に示すように、カメラ姿勢が横位置の場合では、撮影画面の上方部分の測距ポイントa,b,d,eを除いたグループとする。
【0048】
また、カメラ姿勢が縦位置の場合は、図12(b)に示すように、測距ポイントd,e,j,n,o(上下逆の場合は、a,b,f,k,l)を除いたグループとしている。
【0049】
撮影画面の上方は、空や背景等の主要被写体以外の存在確率が高いと考えられるためである。また、測距ポイント数をさらに増加させ、全撮影画面に連続的に配置した場合は、撮影画面上方だけでなく、四隅付近の測距領域にしても優先順位を下げたグループとしてもよい。
【0050】
以上のように、優先順位の高い測距ポイントのグループを設け、また焦点距離情報を考慮したので、広角側で風景を背景にした撮影シーンや望遠側での人物のポートレート撮影にも対応することができる。
【0051】
次に、第3の実施形態について説明する。
【0052】
この実施形態は、図1に示したように、指紋検出部22を設けて、指紋検出による撮影者の判別を行うものである。つまり、撮影の際の構図は、撮影者の好みや癖が反映されるため、撮影を行おうとしている撮影者を判別して、その撮影者の過去のデータに基づいて、測距ポイントの優先順位を決めるものである。例えば、カメラ姿勢を縦位置に構える場合は、撮影者によって、向きが反対になる場合があるので、撮影者の癖を考慮することができる。
【0053】
図13には、図1に示した指紋検出部22の具体的な構成例を示す。
この指紋検出部22は、図14に示すようにカメラのレリーズ釦40の頭部部分に組み込まれている投光素子41及び指紋検出用エリアセンサ42と、エリアセンサ42で得られた画像信号をディジタル変換した指紋画像データ(以下、入力画像データとする)にするA/Dコンバータ43と、登録された指紋画像データ(以下、登録データとする)を記憶する画像メモリ44と、入力画像データと登録画像データの照合等の画像処理を行う画像処理回路45と、撮影者がID番号を入力する操作部となるID入力部46とで構成される。また、これらの構成部位は、制御部1により指令に基づき制御される。
【0054】
図14に示すように、カメラのレリーズ釦40の頭部には、受光レンズ47が填め込まれており、投光素子41からの投光光はシャッタ釦を押さえる指(通常は、右手人さし指)により反射され、その反射光が受光レンズ47を介して、指紋検出用エリアセンサ42により受光される。また、カメラ表示部12では、制御部1に制御される表示回路部13により、入力されたID番号や指紋照合結果等の表示が行われる。
【0055】
また図15には、カメラの外観構成を示す。
このカメラは、カメラ本体51の正面には、撮影レンズ52が配置され、その上方には、測距窓53とストロボ発光部9が配置されている。またカメラ本体51の上面には、レリーズ釦40と、カメラ表示部12と、後述するモード切換スイッチ54と、電源スイッチ55が配置され、そのカメラ本体の裏面上方側には、ファインダの覗き窓56及び、日付設定スイッチ57が配置されている。
【0056】
図16に示すフローチャートを参照して、本実施形態における指紋照合処理ルーチンについて説明する。
電源スイッチ55がオンされるか不図示の電池が装填されると、制御部1は起動して、ROM1bに格納されたシーケンスプログラムを実行する。
まず、カメラ内の各構成部位の初期化が実行され、EEPROM1e内のAF測光等の調整・補正データがRAM1cに展開される(ステップS51)。
次に、モードスイッチ54の操作により、指紋照合処理モードが選択されると、撮影者の指紋を画像メモリ44に登録する登録モードが選択されたか否かを判別する(ステップS52)。
この判別で、登録モードが選択されたならば(YES)、後述する登録処理サブーチンを実行し(ステップS53)、上記ステップS52に戻る。そして、上記ステップS52で登録モードが選択されない(NO)、若しくは登録処理が完了すると、1RSW17がオンされている状態であるか否か判定する(ステップS54)。
【0057】
しかし、1RSW17がオン状態であれば(YES)、後述する指紋照合処理サブルーチンを実行し、その照合結果を照合フラグに記憶する(ステップS55)。しかし、1RSW17がオフ状態であれば(NO)、他のスイッチが操作されたか否かを検出して(ステップS56)、スイッチ操作があれば(YES)、その入力に応じた処理を行う(ステップS57)。例えば、ズームスイッチのアップ、ダウン入力に応じてズームアップ、ダウン処理を行う。その処理後及びスイッチ操作がなかった場合(NO)、上記ステップS54に戻る。
【0058】
次に、上記ステップS55において、指紋照合処理で設定された照合フラグにより照合がOKか否かを判定する(ステップS58)。この判定で、照合OKであれば、前述したように、EEPROM1eに記憶された該当する撮影者の過去のデータを読み出し、制御部1により測距ポイントの優先順位を決め、その順位に従った測距処理を実行してピント合わせを行う(ステップS59)。
【0059】
一方、上記ステップS58の判定で、照合フラグがなく、照合がNGであった場合には(NO)、撮影者に警告を行う(ステップS60)。この警告は、音によって行ってもよいし、ファインダ内にその旨の表示を行ってもよい。そして、前述した撮影者の過去データによる測距ポイントの優先順位が無いため、撮影画面の全測距ポイントによる測距を実行して、最至近距離の測距ポイントからの測距結果でピント合わせを行う(ステップS61)。尚、この例では、照合がNGであった場合に全測距ポイントを測距して最至近距離を選択したが、高速化を求めるのであれば、撮影画面中央の測距ポイントのみを測距するシーケンスでもよい。
【0060】
これらの測距の後、測光及び露出演算処理を行う(ステップS62)。そして、2RSW18がオンされたか否かを判定して(ステップS63)、オンされたならば(YES)、露光し(ステップS64)、フィルムの1駒巻き上げを行った後(ステップS65)、上記ステップS54に戻り、次の撮影に入る。一方、2RSW18がオンされない場合は(NO)、1RSW17がオンされた状態であるか否かを検出して(ステップS66)、オンされていれば(YES)、2RSW18のオンになるのを待機し、オンされていなければ、上記ステップS54に戻る。
【0061】
次に図17に示すフローチャートを参照して、上記ステップS55における指紋照合処理サブルーチンについて説明する。
まず、撮影者がカメラを構え、シャッタ釦40に指がかかったときに投光素子41を発光させる(ステップS71)。投光素子41から投光された光は、シャッタ釦を押さえる指で反射して、その反射光が受光レンズ47を介して、指紋検出用エリアセンサ42に受光される。
【0062】
そして、指紋検出用エリアセンサ42で得られた指紋の入力画像データを画像処理回路45に入力し(ステップS72)、画像処理(特徴抽出、指紋方向検出処理等)を施す(ステップS73)。
【0063】
次に、画像メモリ44に記憶されている登録画像データを画像処理回路45に読み込み(ステップS74)、ここで入力画像データと登録画像データとを照合する(ステップS75)。この指紋照合により、入力画像データと一致する登録画像データがあるか否かを判定し(ステップS76)、一致する登録画像データがある場合は(YES)、照合フラグがセットされる(ステップS77)。しかし、該当する登録画像データがなかった場合には(NO)、照合不可として照合フラグをクリアする。
【0064】
次に図18に示すフローチャートを参照して、登録処理サブルーチンについて説明する。
まず、登録モードが選択された場合、ID入力部46の操作により、ID番号が入力されるのを待機する(ステップS81)。そしてID番号が入力されたならば(YES)、入力されたID番号を記憶する(ステップS82)。
【0065】
そして、撮影者の指がシャッタ釦40にかかっていることを1RSWがオンされたか否かで判定する(ステップS83)。この判定で、1RSW17がオンしたならば(YES)、投光素子41を発光して(ステップS84)、シャッタ釦を押さえる指で反射した反射光を指紋検出用エリアセンサ42で受光し、指紋画像(入力画像データ)として画像処理回路45に入力する(ステップS85)。
【0066】
画像処理回路45では、画像処理(特徴抽出、指紋方向検出等)を行い(ステップS86)、処理された入力画像データは、登録画像データとして、上記ID番号と関連づけて画像メモリ44に記憶される(ステップS87)。この記憶処理が終了すると、カメラ表示部12に、登録完了を示す旨のマークや文字等が表示され(ステップS88)、メインルーチンにリターンする。
【0067】
次に、図19に示すフローチャートを参照して、第4の実施形態における測距について説明する。
本実施形態は、図9に示すように第1の実施形態に比べて、測距ポイントが多く配置された例であって、ズーム位置に応じた測距ポイント採用頻度データを有している。
【0068】
まず、AFエリアセンサ2に積分制御信号を出力して、積分動作を行わせる(ステップS91)。そして、AFエリアセンサ2から読み出しクロックCLKに従って、センサデータ(画素データ)をA/Dコンバータ1dに出力させて、A/D変換して読み出し、RAM1cに格納する(ステップS92)。
次に、前述した様に、シャッタ釦40を押さえた撮影者の指により指紋照合されたID番号に基づいて、図20に示すような測距ポイント採用頻度データテーブルから該当するID番号の項を選択する(ステップS93)。
【0069】
そしてカメラ側から取り入れたズーム位置情報に応じて、ID番号による項からズーム位置の項を選択する(ステップS94)。さらに、カメラ姿勢検出部122の出力より、カメラの姿勢が横位置か否かを判定する(ステップS95)。この姿勢判定で、横位置であれば(YES)、先に選択されたズーム位置の項における横位置データを選択する(ステップS96)。一方、カメラが縦位置であれば(NO)、同様にズーム位置の項における縦位置データを選択する(ステップS97)。
【0070】
そして、選択された測距ポイント採用頻度データテーブルの項において、採用頻度が多い測距ポイントから順に選択する(ステップS98)。それらの測距ポイントについて順次、測距演算を行う(ステップS99)。
この測距による結果が、ID番号、ズーム位置、カメラ姿勢に応じて設定されている所定の距離範囲内であるか判定する(ステップS100)。この判定で、所定距離の範囲内であれば(YES)、その測距データを採用して(ステップS101)、フォーカシングレンズを駆動してピント合わせを行う(ステップS102)。
【0071】
一方、上記ステップS100において、測距結果が所定の距離範囲内でない場合は(NO)、先に選択した所定の測距ポイントを全て測距したか否か判別する(ステップS103)。全測距ポイントの測距が終了していない場合は(NO)、上記ステップS98に戻り、残りの測距ポイントに対して測距を継続して行う。次に、選択された全測距ポイントから得られた測距データ間の差(最大値と最小値の差)が、所定の範囲内であるか否かを判定する(ステップS104)。
【0072】
この判定で、選択された測距ポイントの測距データの差が所定の範囲内ならば(YES)、上記複数の測距データの平均値を算出して採用し、上記ステップS102に移行して、ピント合わせを行う(ステップS105)。しかし、選択された測距ポイントの測距データの差が所定範囲を超えていた場合は(NO)、測距終了の測距データより最至近の測距データを選択する(ステップS106)。そして、この最至近測距データが所定距離より近いか否かを判定する(ステップS107)。この判定で、所定距離より近い場合は(YES)、この測距データを選択して、上記ステップS102に移行し、ピント合わせを行う。しかし、最至近測距データが所定距離以遠の場合は(NO)、選択されずに残っている測距ポイントについて測距演算を行う(ステップS108)。
【0073】
この後、全測距ポイントの測距データのうちから最至近のデータを採用して(ステップS109)、上記ステップS102に移行し、ピント合わせを行う。 次に、ピント合わせに採用した測距ポイント位置データを、ID番号、ズーム位置情報、カメラ姿勢等の条件とともに、EEPROM1eに書き込む(ステップS110)。
【0074】
また、図20に示した測距ポイント採用頻度データテーブルは、撮影者毎に異なるID番号で大きく分類される。それぞれID番号が付された項は、撮影レンズの焦点距離(ズーム位置)例えば、Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)で分類され、さらにカメラの姿勢(縦、横)で分類されている。それぞれのカメラ姿勢の項は、測距ポイントにおけるデータ列からなる。これらの分類された項から、ID番号、ズーム位置情報、カメラ姿勢に応じて、該当するデータ列を選択して参照する。
【0075】
この図20に示した測距ポイント採用頻度データ表の例では、ID番号No.1〜No.5、焦点距離領域Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)、カメラ姿勢が横位置・縦位置とに分けらている。例えば、ID番号がNo.1の撮影者が撮影レンズの焦点距離がワイド[Z0(Wide)]にして、カメラを横に構えていた場合には、測距ポイント採用頻度データとして、n10a、n10b、…、n10oが選択され参照される。
【0076】
そしてこの測距ポイント採用頻度データデーブルに基づき、以下のAF処理を行う。
【0077】
最初に最も頻度の高い測距ポイントについて測距演算を行う。そして、測距ポイントの測距結果が、ID番号、ズーム位置、カメラ姿勢に応じて設定されている所定の距離範囲d内であるか判定する。この所定距離範囲dは、特定のID番号、ズーム位置、カメラ姿勢での測距ポイント毎に有する判定値であり、図21に示すグラフにより決められている。
【0078】
具体的に説明すると、図9に示した測距ポイントcについて、ID番号No.1、ズーム位置Z0、カメラ横位置の場合、測距ポイント採用頻度データは、n10cとなる。図21は、このn10cを横軸(距離1/L)、縦軸(頻度)でグラフ化したものである。
【0079】
そして、頻度の高い部分に対応する距離範囲を所定距離範囲dとする。所定距離範囲d内であれば、測距ポイントの測距データを採用する。測距ポイントの測距結果が所定距離範囲以内でない場合は、次に頻度の高い測距ポイントについて測距演算を行い、同様に判定する。
【0080】
このような測距演算及び判定動作が、所定エリアについて終了するまで繰り返される。そして、所定エリアについて測距が終了すると、所定エリアの測距データが所定差以内、つまり同一被写体であるか、ほぼ同一距離の被写体であると判定できる場合は、それらの平均値を採用する。
【0081】
前述した図19のステップS103における所定エリアは、第2の実施形態と同様に予め決められている優先度の高い測距ポイントのグループである、若しくは、この所定エリアは図23に示すように、同一被写体に対応する隣接する複数の測距ポイントであってもよい。
【0082】
このように実際に撮影する撮影者に対応する過去の測距ポイント選択データを参照するので、複数の人間が使用する場合に撮影者毎のデータが取得できず、混在して、測距ポイント選択の的中率が低下するのを防止することができる。
【0083】
また撮影者が、図22に示すような構図の端の方に主要被写体が存在する特定の撮影画面を好んで撮影するような癖を有する場合に、それに合った測距を行うことができる。
【0084】
尚、前述した実施形態では、撮影者を特定するために指紋照合という方法を用いたが、これに限定されるものではなく、以下の方法を用いても実現することができる。
【0085】
(1)撮影者がカメラに設けられた操作釦により、パスワードを入力して判別する。つまり、ID番号の入力と共に撮影者毎に固有に定められたパスワードを入力して判別する。
【0086】
(2)視線検出機能を搭載するカメラにおいて、視線検出におけるキャリブレーションデータに対応の入力を流用する。
【0087】
また、測距ポイント選択データ(EEPROM1e内)は、工場出荷時にはクリアされており、撮影者がIDを登録してからデータ蓄積が開始される。
【0088】
従って、最初のデータ蓄積量が少ない期間は、ほぼ全測距ポイントについて測距することになる。
【0089】
この場合、データ蓄積を開始してからしばらくの期間は、測距時間が長くなってしまう問題がある。
【0090】
このような問題を解決するために、工場出荷時にはEEPROM1e内に統計的調査による初期データを書き込む。そして撮影者がカメラを使うに従って、測距ポイント選択データは、初期データに対して加算されて蓄積されていく。
【0091】
この場合、EEPROM1e内の測距ポイント選択データは、頻度の代わりに頻度の全体数に対する比率を使用する。たとえば、図20において、ID番号はNo.1、ズーム位置はZ0、力メラ横位置の時、測距ポイントaのデータd10aとして、
d10a=n10a/(n10a+n10b+…+n10o)
を計算してメモリする。
【0092】
以上にようにすれば、測距ポイント選択データ(比率)は、撮影回数の増加に従い初期データに対して加算されて蓄積されていくことになる。このようにカメラを使いはじめた初期においても測距時間が長くなることはない。
【0093】
以上説明した各実施形態によれば、主要被写体の存在確率が高い測距ポイントから順に測距し採用するので、全ての測距ポイントについて測距演算を行い選択する場合に比較して、測距演算によるタイムラグは大幅に減少する。
【0094】
通常の測距動作における支配的なタイムラグは測距演算であるので、タイムラグ削減の効果は大きい。
【0095】
また、演算速度が高速だが高価なハードウエアを使用しないので、兼価なカメラ等の装置に採用することができる。
【0096】
次に、図24には本発明の測距装置を適用した一眼レフレックスカメラの断面構成を示す。
【0097】
撮影レンズ62を通過した被写体からの光束はメインミラー63により反射又は透過される。このメインミラー63で反射された光束は、ファインダ64に導かれ、メインミラー63を透過した光束は、サブミラー65で反射されてカメラボディ60の下部に設けられた焦点検出部61に導かれる。
【0098】
この焦点検出部61は位相差検出方式により焦点を検出するものであり、撮影レンズ62を通過した光束を絞り込む視野マスク(Sマスク)67と、赤外カットフィルタ68と、光束を集めるためのコンデンサレンズ(Cレンズ)69と、光束を全反射する全反射ミラー70と、光束を制限する瞳マスク71と、光束をCMOSエリアセンサ73上に再結像させる再結合レンズ(Sレンズ)72とから構成される。
【0099】
図25は、上記した焦点検出部61の斜視図であり、瞳マスク71の後方には被写体からの光束を通すためのSレンズ72が設けられている。
【0100】
このようにして、AFエリアセンサ73上に分割された2像が再結合され、AFエリアセンサ73からセンサデータに変換されて出力される。そして、マイコンによりA/D変換された後、複数の測距ポイントについて、公知の焦点検出演算がなされる。
【0101】
次に図26には、第5の実施形態として、スーパーコンビネーションAFと称されるオートフォーカス技術による測距部の概略的な構成を示し、この測距部を搭載したカメラについて説明する。
【0102】
図26(a)は、被写体81をプリ発光により被写体位置を検出する方式の測距を行う構成例を示している。
【0103】
まず、発光制御回路83の制御によりストロボ84から補助光を被写体81に投光し、その反射信号光は、2つの受光レンズ85a,85bへ入射して、それぞれ2つのエリアセンサ86a,86bに入射する。
【0104】
これらのエリアセンサ86a,86bは、被写体像を受像して光電変換し、それらの出力はA/D変換回路87でA/D変換されて、各画素のディジタル値が演算制御回路(CPU)88に入力される。
【0105】
また、これらのエリアセンサ86a,86bには、定常光除去回路89が接続されており、演算制御回路88の制御により、撮影画面から定常的に入射する直流的な光の信号は除去され、ストロボ84からのパルス光(補助光)のみが出力信号として得られるようになっている。
【0106】
従って、定常光除去回路89を作動させた状態で、反射信号光をエリアセンサ86a,86b上に受光させると、その受光面には、図26(b)に示すような黒の部分からなる像86a(86b)を結ぶことになる。このようなエリアセンサ上に結像された像のパターンの分析は、演算制御回路88内のパターン制御部91によって行い、例えば、像パターンが人間の形であると判定されれば、これを主要被写体と考えることができる。この像のパターンの分析は、パターン制御部91に組み込まれたソフトウエアによって実現される。また演算制御回88には、パターンされた音声によりユーザに知らせる撮影に関する情報やカメラの状態を音声発生部90が接続されている。
【0107】
図27に示すフローチャートを参照して、上記測距部による測距について説明する。
【0108】
まず、測距を実施するに先立って、投光制御回路83の制御によりストロボ84をプリ発光させて、被写体81に補助光を投光し、その反射信号光をエリアセンサ86a,86bに入射する。その時、定常光除去回路89を作動させて、エリアセンサ86a,86bに結像した反射信号光から定常光を除去して反射信号光の像信号のみを取り出す(ステップS111)。
【0109】
そして、A/D変換回路87でA/D変換された像信号を演算制御回路88に入力して、ソフトウエアによってエリアセンサ86a,86b上に結像された像パターンの分析を行う(ステップS112)。
【0110】
この分析された像パターンが人物の形状等であり、主要被写体か否かを判定する(ステップS113)。この判定で、像パターンが主要被写体と判定できなかった、即ち主要被写体の位置が特定できなかった場合には(NO)、第1乃至第3の実施形態の被写体の存在確率の高い画面内の領域を重点的に測距する(ステップS114)。
【0111】
そして演算制御回路88が予め記憶する発音信号パターンの中から、主要被写体の位置や、測距を行い採用した測距ポイントの順番等を示すパターンを選択して、音声発生部90から発音パターン1(音声)によりユーザに知らせる(ステップS115)。
【0112】
一方、上記ステップS113の判定で、像パターンが主要被写体と判定された場合(YES)、像パターンを形成する像信号(光信号)の強弱及び十分なコントラストか否かにより、測距をアクティブ方式で行うかパッシブ方式で行うかを判別(ステップS116)。
【0113】
この判定で、像信号(光信号)により充分なコントラストが得られない場合には(YES)、アクティブ方式による測距を選択する。従って、再度、ストロボ84から測距用光を被写体81に照射して、定常光除去回路89を作動させて、エリアセンサ86a,86bに結像した反射信号光から定常光を除去して反射信号光の像信号のみを取り出す(ステップS117)。そして、プリ発光により求められた主要被写体位置に対して、重点的にアクティブ方式の測距を行なう(ステップS118)。
【0114】
そして、記憶された発音パターンの中から、主要被写体の位置が特定され、及びアクティブ方式の測距を選択して、音声発生部90から発音パターン3(音声)によりユーザに知らせて(ステップS119)、リターンする。
【0115】
一方、上記ステップS116の判定で、像信号が弱いと判断された場合には(NO)、すでに求められた主要被写体位置の像信号を重点的に用いたパッシブ方式による測距を行なう(ステップS120)。
【0116】
そして、発音パターンの中から、主要被写体の位置が特定され、及びアクティブ方式の測距を選択して、音声発生部90から発音パターン2(音声)によりユーザに知らせて(ステップS121)、リターンする。
【0117】
よって本実施形態によれば、これらの測距方式、または主要被写体の判別の可否に従って、制御処理部1が発音パターン(音声)を選択すれば、設定されている撮影条件等がユーザにわかりやすく安心感がある。このスーパーコンビネーションAFの特徴をアピールしながら安心感のある測距ができるカメラが提供できる。
【0118】
尚、このスーパーコンビネーションAFは、アクティブ方式とパッシブ方式で単にハイブリッド的に組み合わせたのではなく、2つの方式を用いて主要被写体検知まで行っていため称されている。
【0119】
以上述べたように、過去における撮影画面内の主要被写体の位置と撮影頻度の関係を記憶しておき、これに基づいて測距ポイントの選択処理を行うので、タイムラグの少なく正確なピント合わせが可能な使い勝手のよい測距装置を提供することが可能となる。
【0120】
以上の実施形態について説明したが、本明細書には以下のような発明も含まれている。
【0121】
(1)複数領域の測距を行う測距手段と、
この測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、
カメラの動作条件を判別する動作条件判別手段と、
カメラの操作者を判別する操作者判別手段と、
上記記憶手段による出力結果、上記動作条件判別手段による判別結果及び上記操作者判別手段による判別結果に基づいて、上記測距手段が測距を行う領域の優先順位を決定する優先順位決定手段と、
を具備することを特徴とするカメラ。
【0122】
(2)上記動作条件判別手段は、カメラの姿勢と撮影光学系の焦点の少なくとも一方を判別することを特徴とする上記(1)項に記載のカメラ。
【0123】
(3)上記操作者判別手段は、指紋により操作者を判別することを特徴とする上記(1)項に記載のカメラ。
【0124】
(4)上記操作者判別手段は、レリーズ釦に設けられていることを特徴とする上記(1)項に記載のカメラ。
【0125】
【発明の効果】
以上詳述したように本発明によれば、簡単な操作で、広範囲な測距領域においてタイムラグを増大させることなく、主要被写体にピント合わせできる測距装置を搭載するカメラを提供することができる。
【図面の簡単な説明】
【図1】本発明のカメラに係る第1の実施形態に係るカメラの概略的な構成例を示す図である。
【図2】図1に示したAFエリアセンサの内部構成例を示す図である。
【図3】撮影におけるメインルーチンについて説明するためのフローチャートである。
【図4】外光パッシブ方式による測距光学系の概念的な構成を示す図である。
【図5】第1の実施形態における撮影画面配置された測距ポイントを示す図である。
【図6】第1の実施形態における測距ルーチンについて説明するためのフローチャートである。
【図7】第1の実施形態に用いられる測距ポイント採用頻度データ例を示す図である。
【図8】撮影画面内の測距ポイントの配置例を示す図である。
【図9】第2の実施形態に係るカメラにおける撮影画面に配置された測距ポイント例を示す図である。
【図10】第2の実施形態における測距ルーチンについて説明するためのフローチャートである。
【図11】撮影者毎のカメラ姿勢と測距ポイントとの関係を示す図である。
【図12】カメラ姿勢の縦横位置における測距ポイントの配置例を示す図である。
【図13】第3の実施形態に係るカメラに搭載する指紋検出部の具体的な構成例を示す図である。
【図14】指紋検出部が組み込まれたカメラのレリーズ釦の構成例を示す図である。
【図15】第3の実施形態に係るカメラの外観構成を示す図である。
【図16】第3の実施形態における指紋照合処理ルーチンについて説明するためのフローチャートである。
【図17】指紋照合処理サブルーチンについて説明するためのフローチャートである。
【図18】登録処理サブルーチンについて説明するためのフローチャートである。
【図19】次に、図19に示すフローチャートを参照して、第3の実施形態における測距について説明する。
【図20】測距ポイント採用頻度データ表の一例を示す図である。
【図21】測距ポイント採用頻度データにおけるのn10cを横軸(距離1/L)、縦軸(頻度)でグラフ化した図である。
【図22】構図の端の方に主要被写体が存在する撮影画面である。
【図23】撮影画面において、被写体を複数の測距ポイントからなるエリアで測距を行う例について示す図である。
【図24】本発明の測距装置を適用した一眼レフレックスカメラの断面構成を示す図である。
【図25】図24に示した焦点検出部の斜視図である。
【図26】スーパーコンビネーション・オートフォーカス技術を用いた測距部について説明するための図である。
【図27】スーパーコンビネーション・オートフォーカス技術について説明するためのフローチャートである。
【符号の説明】
1…制御部(マイクロコンピュータ)
1a…中央処理装置(CPU)
1b…ROM
1c…RAM
1d…A/Dコンバータ
1e…EEPROM
2…AFエリアセンサ
2a…受光素子群
2b…受光信号処理回路
2c…定常光除去部
3…フォーカスレンズ駆動部
4…フォーカスレンズ
5…フォーカスレンズエンコーダ
6…測光用受光素子
7…測光部
8…シャッタ駆動部
9…ストロボ発光部
10…ストロボ回路部
11…ファインダ表示部
12…カメラ表示部
13…表示回路部
14…ズームレンズ
15…ズームレンズ駆動部
16…フィルム給送部
17…ファーストレリーズスイッチ(1RSW)
18…セカンドレリーズスイッチ(2RSW)
19…ズームアップスイッチ(ZUSW)
20…ズームダウンスイッチ(ZDSW)
21…姿勢検出部
22…指紋検出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distance measuring apparatus that performs distance measurement on a plurality of distance measuring points and focuses on a main subject.
[0002]
[Prior art]
In recent years, in a distance measuring device mounted on a popular type of camera, in addition to a spot distance measuring function for measuring an arbitrary small area ranging area (hereinafter referred to as a distance measuring point) arranged at the center of a shooting screen. A multi-point distance measuring function is provided that allows a large number of distance measuring points to be arranged in the shooting screen, each of which measures the distance, and can be focused regardless of the position of the subject on the screen.
[0003]
This multi-point distance measuring device is provided with distance measuring areas, for example, at the center, left and right, up and down, etc. in the shooting screen, and each of them is set as a distance measuring point. The most suitable distance measuring point is selected and the focus is adjusted based on the distance data obtained at the distance measuring point.
[0004]
For example, in Japanese Patent Laid-Open No. 1-198715, a plurality of distance measuring points are selected and stored in memory, and distance measurement is performed using the distance measuring points read from the memory when performing distance measurement. ing.
As a result, even when a plurality of distance measuring points are arranged, when performing distance measurement, only the selected distance measuring points are subjected to calculation processing, so that distance measurement is speeded up.
[0005]
Further, in the focus detection apparatus disclosed in Japanese Patent Laid-Open No. 10-104502, a maximum value detection circuit that performs integration control independently for each distance measurement point is arranged at a plurality of distance measurement points, and all distance measurement points are arranged. The distance measurement data used for focusing is selected from the distance data obtained from the maximum accumulated charge amount of the light receiving element by a predetermined method such as closest distance selection.
In this focus detection device, the amount of charge integrated by the light receiving element as each distance measuring point is managed independently for each light receiving element, so that the distance is determined by the appropriate amount of charge and the distance measurement accuracy is improved. .
[0006]
[Problems to be solved by the invention]
However, in the distance measuring apparatus described in Japanese Patent Laid-Open No. 1-198715, a manual operation is used to select from a plurality of distance measuring points, so that the selection operation is troublesome in the actual shooting scene.
[0007]
In the focus detection apparatus disclosed in Japanese Patent Laid-Open No. 10-104502, if there are many distance measurement points, the distance measurement accuracy is improved, but the calculation process is complicated and takes time. For this reason, even if the shutter button is pressed, the time lag that the shutter cannot be released immediately increases, and the usability of the camera is deteriorated. In order to improve this, if an attempt is made to cope with a microcomputer capable of high-speed processing with a reduced time lag, this microcomputer is expensive in cost and cannot be mounted on a popular type of expensive camera. .
SUMMARY OF THE INVENTION An object of the present invention is to provide a camera equipped with a distance measuring device that can focus on a main subject without increasing the time lag in a wide range of distance measurement with a simple operation.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides distance measuring means for measuring a plurality of areas, and storage means for storing the frequency of selection of each distance measurement area in the past distance measurement operation by the distance measurement means. The distance measuring unit based on the output results of the operator discriminating means for discriminating the operator, the operating condition discriminating means for discriminating the operating condition of the camera, the storage means, the operator discriminating means and the operating condition discriminating means. The priority of the distance measurement area where the means measures Priority is given to ranging areas that are frequently selected by the identified operator under the identified operating conditions. A priority order determining means for determining, and a distance measuring area output from the priority order determining means, a predetermined distance range output means for outputting a predetermined distance range based on output results of the operator determining means and the operating condition determining means; And the distance measuring means performs distance measurement based on the output of the priority order determining means, determines whether the distance measurement result is within the predetermined distance range, and if within the predetermined range, the distance measurement means Provide a camera that adopts the results.
[0009]
The distance measuring device mounted on the camera configured as described above stores data related to the distance measuring area (ranging point) selected in the past distance measuring operation for each photographer, Based on the data relating to the corresponding distance measurement area, the priority order for distance measurement is determined from the plurality of distance measurement points. By measuring the subject according to this priority order and focusing on the result of the distance measurement, the focal length (image size) increases in descending order of the main subject's existence probability at a plurality of distance measurement points or groups on the shooting screen. Therefore, the time lag due to the distance measurement calculation is greatly reduced as compared with the case where the distance measurement calculation is performed and selected for all the distance measurement points.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 illustrates a schematic configuration example of a camera as a first embodiment of the camera of the present invention.
[0011]
This camera includes a control unit 1 composed of a microcomputer for performing control of components and calculation processing described below, an AF area sensor 2 used for distance measurement, and a focus lens driving unit 3 for driving a focus lens 4. A focus lens encoder 5 that generates a pulse signal corresponding to the amount of movement of the focus lens 4; a photometry unit 7 that processes a photocurrent signal generated by the photometric light-receiving element 6 and outputs the result as a photometric result; and a shutter (not shown). A shutter drive unit 8 for driving, a strobe circuit unit 10 for emitting a strobe light emitting unit 9 as auxiliary light at the time of photographing or AF auxiliary light at the time of distance measuring operation, and information related to the present invention in addition to the photographing screen on the finder screen A finder display unit 11 for superimposing display, and the number of film frames and shooting mode display provided on the exterior of the camera A zoom operation (change of focal length) is performed by moving a camera display unit 12 including an LCD or the like, a finder display unit 11 and a display circuit unit 13 for controlling display on the camera display unit 12, and a zoom lens 14. Zoom lens drive unit 15 for performing film loading, film feeding unit 16 for performing film feeding such as auto-loading of film loading, one-frame winding and rewinding, and a mechanism such as a gyro for detecting the posture (vertical and horizontal) of the camera And a fingerprint detection unit 22 that detects the fingerprint of the photographer's finger pressing the release button.
[0012]
The control unit 1 is further connected to a first release switch (1RSW) 17, a second release switch (2RSW) 18, a zoom up switch (ZUSW) 19, and a zoom down switch (ZDSW) 20.
[0013]
The fingerprint detection unit 22 detects the fingerprint of the photographer's finger pressing the release button, and the control unit 1 identifies the photographer by comparing the detection result with pre-stored fingerprint data. Based on the result, AF processing is performed.
[0014]
The control unit 1 includes a central processing unit (CPU) 1a, a ROM 1b for storing a series of sequence programs related to photographing, a RAM 1c for storing information as required in a rewritable manner, a photometric output from the photometric unit 7, and the like. An A / D converter 1d that converts an analog signal into a digital signal, and an EEPROM 1e that stores correction data relating to autofocus (AF), photometry / exposure calculation, and the like for each camera are provided.
[0015]
The AF area sensor 2 includes a light receiving element group 2a in which pixel units 23 including a plurality of photodiodes are two-dimensionally arranged in a horizontal direction and a vertical direction of an imaging region, a light receiving signal processing circuit 2b, and stationary light. An image of a subject formed by a distance measuring optical system, which will be described later, is captured and converted into sensor data that is an electrical signal and output to the control unit 1. The steady light removing unit 2c removes the steady light component from the sensor data in response to a switching instruction from the control unit 1.
[0016]
FIG. 2 is a diagram showing an internal configuration example in which the AF area sensor 2 is created by a CMOS process.
The pixel unit 23 of the light receiving element group 2a includes a photodiode 23a serving as a photoelectric conversion element, a capacitor 23b for integrating (charging) the photocurrent output from the photodiode 23a, and converting and amplifying the photocurrent into a voltage signal. And an amplifier 23c. The received light signal processing circuit 2 b includes a vertical shift register 24, a horizontal shift register 25, and a fixed pattern noise removal circuit 26. Outputs from the amplifiers 23c arranged in the respective pixel units 23 are selected by the vertical shift register 24 and the horizontal shift register 25 and sequentially output as sensor data. These sensor data are digitized by the A / D converter 1c and stored in the RAM 1c.
[0017]
The fixed pattern noise removal circuit 26 is a circuit for removing so-called fixed pattern noise caused by variations in the characteristics of the amplifiers 23b of the pixel units 23, and performs the removal operation during the sensor data reading operation. The stationary light removal unit 2b described above is provided inside the amplifier 23c for each pixel unit 23.
[0018]
The control unit 1 controls the integration operation of the AF area sensor 2 and the reading control of the sensor data, processes the input sensor data, and performs a distance measurement calculation. The control unit 1 controls the position of the focus lens 4 by monitoring the pulse signal generated by the focus encoder 5 while driving the force lens 4 by the focus lens driving unit 3 based on the distance measurement calculation result. .
[0019]
The above-mentioned 1RSW17 and 2RSW18 are two-stage switches linked to the release button, and the control section 1 in which 1RSW17 is turned on when the release button is pushed down in the first stage and subsequently 2RSW18 is turned on when the release button is pushed down is the 1RSW17. AF and photometry operations are performed when ON, and exposure and film winding operations are performed when 2RSW 18 is ON.
The zoom lens driving unit 15 is instructed by the control unit 1 according to the ON state of the ZUSW 19 that is turned on by depressing a zoom-up operation button (not shown) or the ZDSW 20 that is turned on by depressing a zoom-down operation button (not shown). Performs zooming (changing focal length).
[0020]
A main routine in photographing will be described with reference to the flowchart shown in FIG.
When a power switch (not shown) is turned on or a battery is inserted, the control unit 1 is activated and starts operating according to a sequence program stored in advance in the ROM 1b.
First, after initializing each block in the camera, adjustment and correction data relating to autofocus (AF), photometry, etc. stored in the EEPROM 1e are developed in the RAM 1c (step S1).
[0021]
Next, it is determined whether or not the 1RSW 17 is turned on (step S2). If 1RSW17 remains off in this determination (NO), it is determined whether another switch (other than 1RSW17, 2RSW18) has been operated (step S3).
If another switch is operated (YES), processing corresponding to the switch input, for example, if the ZUSW 19 or ZDSW 20 is operated, the zoom lens 14 is moved up and down (step S4). Return to step S2. If no other switch is operated (NO), the process returns to step S2 and waits.
[0022]
If the 1RSW 17 is turned on in the determination in step S2 (YES), distance measurement is performed (step S5), and photometry / exposure calculation is performed (step S6).
Thereafter, it is determined whether or not the 2RSW 18 is turned on (step S7). In this determination, when the 2RSW 18 is turned on (YES), the film is exposed by the shutter operation (step S8). After the exposure is completed, the film is wound up by one frame (step S9), the process returns to step S2 and waits for the next shooting. However, if the 2RSW 18 is not turned on in step S7 (NO), the process returns to step S2.
[0023]
FIGS. 4A and 4B show and explain the conceptual configuration of a distance measuring optical system based on the external light passive method.
In this configuration, the light receiving lenses 31 and 32 for guiding the distance measuring light to the light receiving region where the light receiving element group 2b of the AF area sensor 2 is arranged and measuring the distance to the subject 33 are separated by the base line length B. Be placed.
[0024]
These light receiving lenses 31 and 32 divide the image of the subject 33 into two images and form an image on the light receiving element group 2 a of the AF area sensor 2. The relative positional difference x between the two images is based on the following formula, from the focal length f and the base length B of the light receiving lens, according to the principle of triangulation.
L = (B · f) / x
The distance measurement calculation is performed by the control unit 1. More specifically, a distance measurement block is set in the light receiving area 2a of the AF area sensor 2, and correlation calculation is performed using sensor data corresponding to the two images, and the relative position difference x between the two images is detected. To do.
[0025]
FIG. 5 is a diagram illustrating a relationship of a distance measurement area (a distance measurement point) with respect to a shooting screen in the first embodiment.
[0026]
In this embodiment, since the external light ranging method is adopted, the area where the distance measuring points are arranged does not follow the area of the zoomed-up or zoomed-down shooting screen. This occurs because the focal length (viewing angle of view) changes as the shooting screen zooms up or down, but the area of the distance measurement point is fixed.
[0027]
In other words, as shown in FIG. 5, the distance measuring points are usually arranged so as to correspond to the zoomed-down wide-angle shooting screen. Therefore, in the case of a zoomed-up telephoto shooting screen, since the distance measurement points maintain the width by the arrangement, there is a possibility that the object outside the shooting screen is measured. For this reason, it is necessary to limit the distance measurement points used for distance measurement according to the focal length information (zoom information) of the photographing optical system.
[0028]
Correction data for selecting a distance measurement point having a width corresponding to the change in focal length is stored in advance in the EEPROM 1e as distance measurement point correction data, and is expanded in the RAM 1d as the control unit 1 is initialized. Is done.
Ranging calculation is performed based on the sensor data from the selected ranging point.
[0029]
Further, the control unit 1 outputs a control signal to the AF area sensor 2 so as to generate a peak monitor signal for integration control from this distance measuring point. Then, the AF area sensor 2 outputs a peak signal in the designated distance measuring point to the control unit 1. The control unit 1 refers to the monitor signal and controls the integration amount to be a predetermined level.
[0030]
In this way, the influence of the subject existing outside the shooting screen is not affected. Also, when reading sensor data, the distance measuring point correction data corresponding to the shooting screen is referred to and unnecessary sensor data outside the shooting screen is read and not stored in the RAM 1c or read to the AF area sensor 2. A range setting signal is output so that only sensor data within the set range is output.
[0031]
Next, the distance measurement routine in this embodiment will be described with reference to the flowchart shown in FIG.
First, integration by the AF area sensor 2 is performed (step S11). Specifically, an integration control signal is output from the control unit 1 to the AF area sensor 2 to start the integration operation. Thereafter, the AF area sensor 2 outputs a monitor signal (sensor data) corresponding to a peak output within a predetermined range (output from the brightest pixel unit). With reference to this monitor signal, the integration time is adjusted so that the amount of light received by the AF area sensor 2 is appropriate, and the integration time is accumulated in the capacitor 23b.
[0032]
Thereafter, the readout clock CLK is output to the AF area sensor 2, the accumulated sensor data is output to the A / D converter 1d, and after digital conversion, stored in the RAM 1c (step S12).
[0033]
Next, the control unit 1 determines whether or not the current camera posture is a sideways posture based on the output from the camera posture detection unit 22 (step S13).
[0034]
If it is determined in this determination that the camera is in the horizontal posture (YES), the horizontal position data as shown in FIG. 7 developed from the EEPROM 1e to the RAM 1c is referred to (step S14). On the other hand, when the camera is not in the horizontal posture but in the vertical posture (NO), the vertical position data shown in FIG. 7 is similarly referred to (step S15). After referring to the posture position data, the distance measurement points with the highest frequency of adoption are selected in order (step S16). For example, when the camera is in a vertical posture, the distance measurement point is E → B → H →.
[0035]
Then, a distance calculation is performed on the selected distance measurement point (step S17), and it is determined whether or not the obtained distance measurement data satisfies a predetermined condition, for example, within a predetermined distance range ( Step S18). In this determination, when a predetermined condition is satisfied (YES), the distance measurement data is adopted for focusing (step S19), and the focusing lens is driven based on the distance measurement data to perform focusing (step S20). ). On the other hand, if it is determined in step S18 that the distance measurement data does not satisfy a predetermined condition (NO), it is determined whether or not all predetermined predetermined distance measurement points have been measured (step S18). S21).
[0036]
In this determination, if the distance measurement has not been completed for all the predetermined distance measurement points (NO), the process returns to step S16. If one of the distance measurement points has been completed (YES), the determination is made from the obtained distance measurement data. The closest distance measurement data is adopted (step S22), the process proceeds to step S20, and the focusing lens is driven to perform focusing.
After this focusing, the adopted distance measuring point data is written in the EEPROM 1e together with conditions such as the camera posture (step S23), and the process returns to the main routine.
[0037]
FIG. 8 shows an example of the arrangement of distance measuring points in the shooting screen. In this arrangement example, a distance measuring point E is arranged at the center of the photographing screen, and a total of nine distance measuring points A to D and F to I are arranged on the top, bottom, left and right thereof.
[0038]
FIG. 7 is an example of distance measurement point employment frequency data indicating the frequency of distance measurement points employed in the past by a certain photographer in the present embodiment.
For example, when the camera posture is the horizontal position, the distance measurement calculation is first performed on the distance measurement point E having the highest frequency. If the distance measurement result of the distance measurement point E is within a predetermined condition, for example, within a predetermined distance range, the distance measurement data of the distance measurement point E is adopted. If the distance measurement result at distance measurement point E does not satisfy the predetermined condition, distance measurement calculation is performed for distance measurement point D having the next highest frequency, and determination is repeated in the same manner.
As described above, the distance measurement calculation and determination operation are repeated until all the distance measurement points are completed, and when the distance measurement for all areas is completed, the distance measurement data of the shortest distance among all distance measurement points is adopted. To focus.
[0039]
Next, a second embodiment according to the camera of the present invention will be described.
As shown in FIG. 9, the present embodiment is an example in which the number of distance measuring points is increased as compared with the first embodiment. It also has distance measurement point adoption frequency data corresponding to the zoom position. The configuration of this embodiment is almost the same as that of the first embodiment except for the number of distance measurement points, and the distance measurement operation is different.
[0040]
With reference to the flowchart shown in FIG. 10, the ranging routine in this embodiment will be described.
First, integration by the AF area sensor 2 is performed (step S31). Similarly to the first embodiment described above, an integration control signal is output from the control unit 1 to the AF area sensor 2, the integration operation is started, and the integration time is set so that the received light amount is appropriate while referring to the monitor signal. Adjust to accumulate. Based on the read clock CLK, the read sensor data is A / D converted and stored in the RAM 1c (step S32).
[0041]
Next, a distance measuring point to be adopted is selected according to the zoom position information of the photographing lens (step S33). As shown in FIG. 11, the distance measuring point is selected from a plurality of adopted distance measuring point position data according to the focal length (zoom position) of the photographing lens. Here, the zoom position is divided into, for example, Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele).
[0042]
Next, the control unit 1 determines whether or not the current camera posture is a sideways posture based on the output from the camera posture detection unit 22 (step S34). If it is determined in this determination that the camera is in the horizontal posture (YES), the distance measuring point in the horizontal position is selected with reference to the adopted distance measuring point position data shown in FIG. 11 (step S35). On the other hand, even when the camera is not in the horizontal position but in the vertical position (NO), the distance measuring point in the vertical position shown in FIG. 11 is similarly selected (step S36).
Then, after referring to the posture position data, the distance measuring points with the highest adoption frequency are selected in order (step S37).
[0043]
Then, a distance calculation is performed on the selected distance measurement point (step S38), and it is determined whether or not the obtained distance measurement data satisfies a predetermined condition, for example, within a predetermined distance range ( Step S39). In this determination, if the distance is within a predetermined distance range (YES), the distance measurement data is adopted for focusing (step S40), and the focusing lens is driven based on the distance measurement data to perform focusing (step S41). ). On the other hand, if the distance measurement data is not within the predetermined separation range in the determination in step S39 (NO), it is determined whether or not all the predetermined distance measurement points determined in advance are measured (step S42).
[0044]
In this determination, if distance measurement has not been completed for the entire area of the predetermined distance measurement point (NO), the process returns to step S37 and is repeated. On the other hand, if distance measurement has been completed (YES), it is obtained. The closest distance measurement data is adopted from the distance measurement data (step S43), and it is determined whether or not the closest distance data is longer than a predetermined distance (step S44). When the distance is shorter than the predetermined distance (YES), the distance measurement data is adopted, and the process proceeds to step S41 to perform focusing.
[0045]
On the other hand, if the distance is longer than the predetermined distance (NO), the distance measurement calculation is performed on the remaining distance measurement points that are not selected (step S45). The closest distance data is adopted from the distance measurement data of all the distance measurement points obtained (step S46), and the process proceeds to step S41 to focus. After completion of focusing, the adopted distance measuring point position data is written in the EEPROM 1e together with conditions such as zoom position information and camera posture (step S47).
[0046]
In this embodiment, if the focal length of the photographing lens is set to wide (Z0 to Z1) and the camera posture is in the horizontal position, the distance measurement point adoption frequency data refers to n0a, n0b,. To do.
Then, based on the distance measurement point adoption frequency data, the distance measurement calculation of the distance measurement point with the highest frequency is first performed. If the distance measurement result of the distance measurement point is within a predetermined condition, for example, within a predetermined distance range, the distance measurement data of the distance measurement point is adopted.
However, when the distance measurement result of the distance measurement point does not satisfy the predetermined condition, the distance calculation is performed for the next most frequent distance measurement point in the same manner.
[0047]
The above ranging calculation and determination operation is repeated until the predetermined area is completed. When the distance measurement for the predetermined area is completed, the distance measurement data closest to all the distance measurement points is adopted.
The predetermined area in step S42 is a group of distance measuring points having a predetermined high priority. For example, as shown in FIG. 12A, these high-priority ranging points exclude the ranging points a, b, d, and e in the upper part of the shooting screen when the camera posture is in the horizontal position. Group.
[0048]
When the camera posture is the vertical position, as shown in FIG. 12B, ranging points d, e, j, n, o (a, b, f, k, l in the case of upside down) The group is excluded.
[0049]
This is because the upper portion of the shooting screen is considered to have a high probability of existence other than the main subject such as the sky and the background. Further, when the number of distance measuring points is further increased and continuously arranged on all the photographing screens, the priority order may be reduced not only in the upper portion of the photographing screen but also in the distance measuring regions near the four corners.
[0050]
As described above, a group of high-priority ranging points is provided and focal length information is taken into consideration, so it can be used for shooting scenes with landscapes on the wide-angle side and portraits of people on the telephoto side. be able to.
[0051]
Next, a third embodiment will be described.
[0052]
In this embodiment, as shown in FIG. 1, a fingerprint detection unit 22 is provided to determine a photographer by fingerprint detection. In other words, the composition at the time of shooting reflects the photographer's preferences and habits, so it is possible to identify the photographer who is going to shoot and prioritize ranging points based on the photographer's past data. The order is determined. For example, when the camera posture is set to the vertical position, the direction of the photographer may be opposite depending on the photographer, so that the photographer's habit can be taken into consideration.
[0053]
FIG. 13 shows a specific configuration example of the fingerprint detection unit 22 shown in FIG.
As shown in FIG. 14, the fingerprint detection unit 22 includes a light projecting element 41 and a fingerprint detection area sensor 42 incorporated in the head portion of the release button 40 of the camera, and an image signal obtained by the area sensor 42. An A / D converter 43 for converting digitally converted fingerprint image data (hereinafter referred to as input image data), an image memory 44 for storing registered fingerprint image data (hereinafter referred to as registration data), input image data, The image processing circuit 45 performs image processing such as verification of registered image data, and an ID input unit 46 serving as an operation unit through which a photographer inputs an ID number. Further, these components are controlled by the control unit 1 based on commands.
[0054]
As shown in FIG. 14, a light receiving lens 47 is fitted in the head of the release button 40 of the camera, and the projected light from the light projecting element 41 is a finger that presses the shutter button (usually a right index finger). The reflected light is received by the fingerprint detection area sensor 42 via the light receiving lens 47. In the camera display unit 12, the input ID number, the fingerprint collation result, and the like are displayed by the display circuit unit 13 controlled by the control unit 1.
[0055]
FIG. 15 shows an external configuration of the camera.
In this camera, a photographing lens 52 is disposed in front of the camera body 51, and a distance measuring window 53 and a strobe light emitting unit 9 are disposed above the photographing lens 52. On the upper surface of the camera body 51, a release button 40, a camera display unit 12, a mode switch 54 and a power switch 55, which will be described later, are arranged. In addition, a date setting switch 57 is arranged.
[0056]
With reference to the flowchart shown in FIG. 16, the fingerprint collation process routine in this embodiment is demonstrated.
When the power switch 55 is turned on or a battery (not shown) is loaded, the control unit 1 starts up and executes the sequence program stored in the ROM 1b.
First, each component in the camera is initialized, and adjustment / correction data such as AF photometry in the EEPROM 1e is developed in the RAM 1c (step S51).
Next, when the fingerprint collation processing mode is selected by operating the mode switch 54, it is determined whether or not the registration mode for registering the photographer's fingerprint in the image memory 44 is selected (step S52).
If the registration mode is selected in this determination (YES), a registration process subroutine described later is executed (step S53), and the process returns to step S52. Then, when the registration mode is not selected in the above step S52 (NO), or when the registration process is completed, it is determined whether or not the 1RSW 17 is turned on (step S54).
[0057]
However, if 1RSW 17 is in the ON state (YES), a fingerprint collation processing subroutine described later is executed, and the collation result is stored in the collation flag (step S55). However, if 1RSW 17 is in an off state (NO), it is detected whether or not another switch has been operated (step S56). If there is a switch operation (YES), a process corresponding to the input is performed (step S56). S57). For example, zoom up / down processing is performed in response to the zoom switch up / down input. After the processing and when there is no switch operation (NO), the process returns to step S54.
[0058]
Next, in step S55, it is determined whether or not the collation is OK based on the collation flag set in the fingerprint collation process (step S58). In this determination, if the collation is OK, as described above, the past data of the corresponding photographer stored in the EEPROM 1e is read, the priority order of the distance measuring points is determined by the control unit 1, and the measurement according to the order is performed. A distance process is executed to perform focusing (step S59).
[0059]
On the other hand, if it is determined in step S58 that there is no collation flag and the collation is NG (NO), a warning is given to the photographer (step S60). This warning may be given by sound, or a message to that effect may be displayed in the finder. Since there is no prioritization of the distance measurement points based on the photographer's past data as described above, distance measurement is performed using all distance measurement points on the shooting screen, and focusing is performed using the distance measurement results from the closest distance measurement points. Is performed (step S61). In this example, when the collation is NG, all the distance measurement points are measured and the closest distance is selected. However, if high speed is desired, only the distance measurement point at the center of the shooting screen is measured. It may be a sequence to
[0060]
After these distance measurements, photometry and exposure calculation processing is performed (step S62). Then, it is determined whether or not the 2RSW 18 is turned on (step S63). If turned on (YES), the exposure is performed (step S64), the film is wound up by one frame (step S65), and the above steps are performed. Returning to S54, the next shooting is started. On the other hand, if the 2RSW 18 is not turned on (NO), it is detected whether or not the 1RSW 17 is turned on (step S66). If it is turned on (YES), it waits for the 2RSW 18 to be turned on. If not, the process returns to step S54.
[0061]
Next, the fingerprint collation processing subroutine in step S55 will be described with reference to the flowchart shown in FIG.
First, the photographer holds the camera and causes the light projecting element 41 to emit light when the finger is applied to the shutter button 40 (step S71). The light projected from the light projecting element 41 is reflected by a finger pressing the shutter button, and the reflected light is received by the fingerprint detection area sensor 42 via the light receiving lens 47.
[0062]
The fingerprint input image data obtained by the fingerprint detection area sensor 42 is input to the image processing circuit 45 (step S72), and image processing (feature extraction, fingerprint direction detection processing, etc.) is performed (step S73).
[0063]
Next, the registered image data stored in the image memory 44 is read into the image processing circuit 45 (step S74), where the input image data and the registered image data are collated (step S75). By this fingerprint collation, it is determined whether there is registered image data that matches the input image data (step S76). If there is coincident registered image data (YES), a collation flag is set (step S77). . However, if there is no corresponding registered image data (NO), the collation flag is cleared as collation is impossible.
[0064]
Next, the registration processing subroutine will be described with reference to the flowchart shown in FIG.
First, when the registration mode is selected, the operation waits for an ID number to be input by operating the ID input unit 46 (step S81). If the ID number is input (YES), the input ID number is stored (step S82).
[0065]
Then, it is determined whether or not the 1RSW is turned on that the photographer's finger is on the shutter button 40 (step S83). If 1RSW 17 is turned on in this determination (YES), the light projecting element 41 emits light (step S84), and the reflected light reflected by the finger pressing the shutter button is received by the fingerprint detection area sensor 42, and the fingerprint image is obtained. (Input image data) is input to the image processing circuit 45 (step S85).
[0066]
The image processing circuit 45 performs image processing (feature extraction, fingerprint direction detection, etc.) (step S86), and the processed input image data is stored in the image memory 44 in association with the ID number as registered image data. (Step S87). When this storage process is completed, a mark, characters, or the like indicating the completion of registration is displayed on the camera display unit 12 (step S88), and the process returns to the main routine.
[0067]
Next, distance measurement in the fourth embodiment will be described with reference to the flowchart shown in FIG.
As shown in FIG. 9, the present embodiment is an example in which more distance measurement points are arranged than the first embodiment, and has distance measurement point adoption frequency data corresponding to the zoom position.
[0068]
First, an integration control signal is output to the AF area sensor 2 to perform an integration operation (step S91). Then, sensor data (pixel data) is output from the AF area sensor 2 to the A / D converter 1d in accordance with the read clock CLK, A / D converted, read out, and stored in the RAM 1c (step S92).
Next, as described above, based on the ID number collated with the finger of the photographer who pressed the shutter button 40, the corresponding ID number item from the distance measurement point adoption frequency data table as shown in FIG. Select (step S93).
[0069]
Then, in accordance with the zoom position information taken from the camera side, a zoom position term is selected from terms based on the ID number (step S94). Further, it is determined from the output of the camera posture detection unit 122 whether or not the camera posture is a horizontal position (step S95). If the posture is determined to be a horizontal position (YES), the horizontal position data in the previously selected zoom position is selected (step S96). On the other hand, if the camera is in the vertical position (NO), the vertical position data in the zoom position term is similarly selected (step S97).
[0070]
Then, in the section of the selected distance measurement point adoption frequency data table, the distance measurement points with the highest adoption frequency are selected in order (step S98). A distance measurement calculation is sequentially performed for these distance measurement points (step S99).
It is determined whether the result of this distance measurement is within a predetermined distance range set according to the ID number, zoom position, and camera posture (step S100). If it is determined that the distance is within the predetermined distance range (YES), the distance measurement data is adopted (step S101), and the focusing lens is driven to perform focusing (step S102).
[0071]
On the other hand, if the distance measurement result is not within the predetermined distance range in step S100 (NO), it is determined whether or not all the predetermined distance measurement points previously selected have been measured (step S103). If the distance measurement has not been completed for all distance measurement points (NO), the process returns to step S98, and distance measurement is continuously performed on the remaining distance measurement points. Next, it is determined whether or not the difference between the distance measurement data obtained from all the selected distance measurement points (the difference between the maximum value and the minimum value) is within a predetermined range (step S104).
[0072]
If the difference between the distance measurement data of the selected distance measurement points is within a predetermined range in this determination (YES), the average value of the plurality of distance measurement data is calculated and adopted, and the process proceeds to step S102. Then, focusing is performed (step S105). However, if the difference between the distance measurement data of the selected distance measurement points exceeds the predetermined range (NO), the closest distance measurement data is selected from the distance measurement data that has been measured (step S106). Then, it is determined whether or not the nearest distance measurement data is closer than a predetermined distance (step S107). If it is determined that the distance is closer than the predetermined distance (YES), the distance measurement data is selected, the process proceeds to step S102, and focusing is performed. However, if the closest distance measurement data is more than the predetermined distance (NO), the distance measurement calculation is performed for the distance measurement points that remain without being selected (step S108).
[0073]
Thereafter, the closest data is adopted from the distance measurement data of all the distance measurement points (step S109), and the process proceeds to step S102 to focus. Next, the distance measurement point position data adopted for focusing is written in the EEPROM 1e together with conditions such as the ID number, zoom position information, and camera posture (step S110).
[0074]
Further, the distance measurement point adoption frequency data table shown in FIG. 20 is largely classified by different ID numbers for each photographer. Each item with an ID number is classified by the focal length (zoom position) of the taking lens, for example, Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele). (Vertical and horizontal). Each term of camera posture consists of a data string at a distance measuring point. From these classified items, the corresponding data string is selected and referred to according to the ID number, zoom position information, and camera posture.
[0075]
In the example of the distance measurement point employment frequency data table shown in FIG. 1-No. 5, focal length regions Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele), and the camera posture is divided into a horizontal position and a vertical position. For example, if the ID number is No. When the photographer 1 has the focal length of the photographing lens set to wide [Z0 (Wide)] and holds the camera sideways, n10a, n10b,..., N10o are selected as distance measurement point adoption frequency data. Referenced.
[0076]
Then, the following AF processing is performed based on the distance measurement point adoption frequency data table.
[0077]
First, ranging calculation is performed for the most frequently used ranging point. Then, it is determined whether the distance measurement result of the distance measurement point is within a predetermined distance range d set according to the ID number, zoom position, and camera posture. The predetermined distance range d is a determination value for each distance measurement point in a specific ID number, zoom position, and camera posture, and is determined by the graph shown in FIG.
[0078]
More specifically, for the distance measuring point c shown in FIG. In the case of 1, zoom position Z0, and camera horizontal position, the distance measurement point adoption frequency data is n10c. FIG. 21 is a graph of n10c on the horizontal axis (distance 1 / L) and the vertical axis (frequency).
[0079]
A distance range corresponding to a frequently-occurring portion is set as a predetermined distance range d. If it is within the predetermined distance range d, the distance measurement data of the distance measurement point is adopted. If the distance measurement result of the distance measurement point is not within the predetermined distance range, the distance calculation is performed for the next most frequent distance measurement point and the determination is made in the same manner.
[0080]
Such distance measurement calculation and determination operations are repeated until the predetermined area is completed. When the distance measurement for the predetermined area is completed, if the distance measurement data of the predetermined area is within a predetermined difference, that is, it can be determined that the subject is the same subject or a subject of almost the same distance, the average value thereof is adopted.
[0081]
The predetermined area in step S103 of FIG. 19 described above is a group of distance measuring points having a high priority determined in advance as in the second embodiment, or the predetermined area is as shown in FIG. A plurality of adjacent distance measuring points corresponding to the same subject may be used.
[0082]
In this way, since the past distance measurement point selection data corresponding to the photographer who actually shoots is referenced, data for each photographer cannot be obtained when multiple people use it, and the distance measurement point selection is mixed. It is possible to prevent a reduction in the hit rate.
[0083]
Further, when the photographer has a habit of photographing a specific photographing screen in which the main subject is present at the end of the composition as shown in FIG. 22, distance measurement can be performed accordingly.
[0084]
In the above-described embodiment, a method called fingerprint collation is used to specify the photographer. However, the method is not limited to this, and can be realized using the following method.
[0085]
(1) A photographer inputs a password using an operation button provided on the camera, and makes a determination. That is, it is determined by inputting the ID number and a password uniquely determined for each photographer.
[0086]
(2) In a camera equipped with a gaze detection function, input corresponding to calibration data in gaze detection is used.
[0087]
The distance measurement point selection data (in the EEPROM 1e) is cleared at the time of shipment from the factory, and data accumulation is started after the photographer registers the ID.
[0088]
Accordingly, during the period when the initial data accumulation amount is small, the distance is measured for almost all distance measuring points.
[0089]
In this case, there is a problem that the distance measurement time becomes long for a while after starting the data accumulation.
[0090]
In order to solve such a problem, initial data is written in the EEPROM 1e at the time of shipment from the factory. As the photographer uses the camera, the distance measurement point selection data is added to the initial data and accumulated.
[0091]
In this case, the distance measurement point selection data in the EEPROM 1e uses a ratio of the frequency to the total number instead of the frequency. For example, in FIG. 1. When the zoom position is Z0 and the horizontal position of the power lens, as the data d10a of the distance measurement point a,
d10a = n10a / (n10a + n10b +... + n10o)
Calculate and memory.
[0092]
As described above, the distance measurement point selection data (ratio) is added to the initial data and accumulated as the number of shootings increases. As described above, the distance measurement time does not become long even when the camera is first used.
[0093]
According to each embodiment described above, distance measurement is performed in order from a distance measurement point with a high probability of existence of the main subject. Therefore, distance measurement is performed as compared with a case where distance calculation is performed and selected for all distance measurement points. The time lag due to computation is greatly reduced.
[0094]
Since the dominant time lag in the normal distance measurement operation is a distance measurement calculation, the effect of time lag reduction is great.
[0095]
In addition, since it does not use expensive hardware with a high calculation speed, it can be employed in a device such as a cost-effective camera.
[0096]
Next, FIG. 24 shows a cross-sectional configuration of a single-lens reflex camera to which the distance measuring apparatus of the present invention is applied.
[0097]
The light beam from the subject that has passed through the photographing lens 62 is reflected or transmitted by the main mirror 63. The light beam reflected by the main mirror 63 is guided to the finder 64, and the light beam transmitted through the main mirror 63 is reflected by the sub mirror 65 and guided to the focus detection unit 61 provided at the lower part of the camera body 60.
[0098]
The focus detection unit 61 detects a focus by a phase difference detection method, and includes a field mask (S mask) 67 for narrowing a light beam that has passed through the photographing lens 62, an infrared cut filter 68, and a condenser for collecting the light beam. A lens (C lens) 69, a total reflection mirror 70 that totally reflects the light beam, a pupil mask 71 that restricts the light beam, and a recombination lens (S lens) 72 that re-images the light beam on the CMOS area sensor 73. Composed.
[0099]
FIG. 25 is a perspective view of the focus detection unit 61 described above, and an S lens 72 for passing a light beam from the subject is provided behind the pupil mask 71.
[0100]
In this way, the two images divided on the AF area sensor 73 are recombined, converted from the AF area sensor 73 into sensor data, and output. Then, after A / D conversion by the microcomputer, a known focus detection calculation is performed for a plurality of distance measuring points.
[0101]
Next, FIG. 26 shows, as a fifth embodiment, a schematic configuration of a distance measuring unit based on an autofocus technique called super combination AF, and a camera equipped with this distance measuring unit will be described.
[0102]
FIG. 26A shows a configuration example in which distance measurement is performed by detecting a subject position of the subject 81 by pre-emission.
[0103]
First, auxiliary light is projected from the strobe 84 to the subject 81 under the control of the light emission control circuit 83, and the reflected signal light is incident on the two light receiving lenses 85a and 85b, and is incident on the two area sensors 86a and 86b, respectively. To do.
[0104]
These area sensors 86a and 86b receive and subject the subject image to photoelectric conversion, and A / D conversion of their outputs is performed by an A / D conversion circuit 87, so that the digital value of each pixel is an arithmetic control circuit (CPU) 88. Is input.
[0105]
These area sensors 86a and 86b are connected to a steady light removal circuit 89. Under the control of the arithmetic control circuit 88, a DC light signal that is steadily incident from the photographing screen is removed, and a strobe light is removed. Only the pulsed light (auxiliary light) from 84 is obtained as an output signal.
[0106]
Accordingly, when the reflected signal light is received on the area sensors 86a and 86b in a state where the steady light removal circuit 89 is operated, an image composed of a black portion as shown in FIG. 86a (86b) will be tied. Analysis of the pattern of the image formed on the area sensor is performed by the pattern control unit 91 in the arithmetic control circuit 88. For example, if it is determined that the image pattern has a human shape, this is mainly used. Think of it as a subject. The analysis of the image pattern is realized by software incorporated in the pattern control unit 91. Further, the sound generation unit 90 is connected to the arithmetic control circuit 88 for information related to photographing and the state of the camera that are notified to the user by patterned sound.
[0107]
With reference to the flowchart shown in FIG. 27, distance measurement by the distance measurement unit will be described.
[0108]
First, prior to the distance measurement, the strobe 84 is pre-flashed under the control of the light projection control circuit 83, the auxiliary light is projected onto the subject 81, and the reflected signal light is incident on the area sensors 86a and 86b. . At that time, the steady light removal circuit 89 is operated to remove the steady light from the reflected signal light imaged on the area sensors 86a and 86b and to extract only the image signal of the reflected signal light (step S111).
[0109]
Then, the image signal A / D converted by the A / D conversion circuit 87 is input to the arithmetic control circuit 88, and the image pattern formed on the area sensors 86a and 86b is analyzed by software (step S112). ).
[0110]
It is determined whether or not the analyzed image pattern is the shape of a person or the like and is a main subject (step S113). In this determination, if the image pattern cannot be determined as the main subject, that is, the position of the main subject cannot be specified (NO), the first to third embodiments have a high subject existence probability in the screen. Distance measurement is focused on the area (step S114).
[0111]
Then, a pattern indicating the position of the main subject, the order of the distance measurement points adopted by the distance measurement, etc. is selected from the sound generation signal patterns stored in advance by the arithmetic control circuit 88, and the sound generation pattern 1 is selected from the sound generator 90. The user is notified by (voice) (step S115).
[0112]
On the other hand, if it is determined in step S113 that the image pattern is the main subject (YES), the distance measurement is performed based on whether the image signal (optical signal) forming the image pattern is strong and has sufficient contrast. It is discriminated whether it is performed by the passive method (step S116).
[0113]
In this determination, when sufficient contrast cannot be obtained by the image signal (optical signal) (YES), distance measurement by the active method is selected. Therefore, the subject light 81 is again irradiated with the distance measuring light from the strobe 84, the steady light removal circuit 89 is operated, and the steady light is removed from the reflected signal light imaged on the area sensors 86a and 86b. Only the light image signal is extracted (step S117). Then, active-type distance measurement is focused on the main subject position obtained by pre-emission (step S118).
[0114]
Then, the position of the main subject is specified from the stored pronunciation patterns, and active-type distance measurement is selected, and the sound generation unit 90 notifies the user by the pronunciation pattern 3 (voice) (step S119). To return.
[0115]
On the other hand, if it is determined in step S116 that the image signal is weak (NO), a passive distance measurement using the image signal of the main subject position that has already been obtained is performed (step S120). ).
[0116]
Then, the position of the main subject is specified from the sound generation pattern, and the active type distance measurement is selected, and the sound generation unit 90 notifies the user by the sound generation pattern 2 (voice) (step S121), and the process returns. .
[0117]
Therefore, according to the present embodiment, if the control processing unit 1 selects a sound generation pattern (sound) in accordance with the distance measurement method or whether or not the main subject can be discriminated, the set shooting conditions and the like are easily understood by the user. There is a sense of security. A camera that can measure the distance with a sense of security while appealing the features of this super combination AF can be provided.
[0118]
Note that this super combination AF is referred to because the main subject detection is performed using two methods instead of simply combining the active method and the passive method in a hybrid manner.
[0119]
As described above, the relationship between the position of the main subject in the shooting screen and the shooting frequency in the past is stored, and distance measurement point selection processing is performed based on this relationship, enabling accurate focusing with little time lag It is possible to provide a range-finding device that is easy to use.
[0120]
Although the above embodiments have been described, the present invention includes the following inventions.
[0121]
(1) ranging means for measuring a plurality of areas;
In the past distance measuring operation by the distance measuring means, storage means for storing the frequency with which each distance measurement area is selected;
Operating condition determining means for determining the operating condition of the camera;
Operator discriminating means for discriminating the operator of the camera;
Priority order determining means for determining the priority order of the areas in which the distance measuring means performs distance measurement based on the output result by the storage means, the determination result by the operating condition determining means and the determination result by the operator determining means;
A camera comprising:
[0122]
(2) The camera according to item (1), wherein the operating condition determining means determines at least one of a posture of the camera and a focus of the photographing optical system.
[0123]
(3) The camera according to (1), wherein the operator discriminating unit discriminates an operator by a fingerprint.
[0124]
(4) The camera according to item (1), wherein the operator discrimination means is provided on a release button.
[0125]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a camera equipped with a distance measuring device that can focus on a main subject with a simple operation and without increasing a time lag in a wide distance measuring area.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration example of a camera according to a first embodiment of the camera of the present invention.
FIG. 2 is a diagram illustrating an internal configuration example of an AF area sensor illustrated in FIG. 1;
FIG. 3 is a flowchart for explaining a main routine in photographing.
FIG. 4 is a diagram illustrating a conceptual configuration of a distance measuring optical system using an external light passive method.
FIG. 5 is a diagram illustrating distance measuring points arranged on a shooting screen in the first embodiment.
FIG. 6 is a flowchart for explaining a distance measurement routine in the first embodiment;
FIG. 7 is a diagram showing an example of distance measurement point adoption frequency data used in the first embodiment.
FIG. 8 is a diagram illustrating an example of arrangement of distance measuring points in a shooting screen.
FIG. 9 is a diagram illustrating an example of distance measurement points arranged on a shooting screen in the camera according to the second embodiment.
FIG. 10 is a flowchart for explaining a distance measurement routine in the second embodiment;
FIG. 11 is a diagram illustrating a relationship between a camera posture and a distance measurement point for each photographer.
FIG. 12 is a diagram showing an example of the arrangement of distance measuring points at the vertical and horizontal positions of the camera posture.
FIG. 13 is a diagram illustrating a specific configuration example of a fingerprint detection unit mounted on a camera according to a third embodiment.
FIG. 14 is a diagram illustrating a configuration example of a release button of a camera in which a fingerprint detection unit is incorporated.
FIG. 15 is a diagram illustrating an external configuration of a camera according to a third embodiment.
FIG. 16 is a flowchart for explaining a fingerprint collation processing routine in the third embodiment;
FIG. 17 is a flowchart for explaining a fingerprint collation processing subroutine;
FIG. 18 is a flowchart for explaining a registration processing subroutine;
Next, distance measurement according to the third embodiment will be described with reference to the flowchart shown in FIG.
FIG. 20 is a diagram showing an example of a distance measurement point employment frequency data table.
FIG. 21 is a diagram in which n10c in distance measurement point employment frequency data is graphed on the horizontal axis (distance 1 / L) and the vertical axis (frequency).
FIG. 22 is a shooting screen in which a main subject is present toward the end of the composition.
FIG. 23 is a diagram illustrating an example in which distance measurement is performed on an object in an area including a plurality of distance measurement points on a shooting screen.
FIG. 24 is a diagram showing a cross-sectional configuration of a single-lens reflex camera to which the distance measuring apparatus of the present invention is applied.
25 is a perspective view of the focus detection unit shown in FIG. 24. FIG.
FIG. 26 is a diagram for explaining a distance measuring unit using a super combination autofocus technique;
FIG. 27 is a flowchart for explaining a super combination autofocus technique;
[Explanation of symbols]
1. Control unit (microcomputer)
1a: Central processing unit (CPU)
1b ... ROM
1c ... RAM
1d ... A / D converter
1e… EEPROM
2… AF area sensor
2a: Light receiving element group
2b: Light reception signal processing circuit
2c ... Stationary light removal unit
3. Focus lens drive unit
4. Focus lens
5. Focus lens encoder
6 ... Light-receiving element for photometry
7 ... Metering section
8 ... Shutter drive unit
9: Strobe flash
10. Strobe circuit section
11 ... Finder display
12 ... Camera display section
13 ... Display circuit section
14 ... Zoom lens
15 ... Zoom lens drive unit
16 ... Film feeding section
17 ... First release switch (1RSW)
18 ... Second release switch (2RSW)
19 ... Zoom-up switch (ZUSW)
20 ... Zoom down switch (ZDSW)
21 ... Attitude detection unit
22: Fingerprint detector

Claims (3)

複数領域の測距を行う測距手段と、
上記測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、
操作者を判別する操作者判別手段と、
カメラの動作条件を判別する動作条件判別手段と、
上記記憶手段と上記操作者判別手段と上記動作条件判別手段との出力結果に基づき、上記測距手段が測距を行う測距領域の優先順位を、判別された動作条件のもとで判別された操作者により選択された頻度が多い測距領域を優先するように決定する優先順位決定手段と、
上記優先順位決定手段が出力する測距領域に関して、上記操作者判別手段と上記動作条件判別手段の出力結果に基づき、所定距離範囲を出力する所定距離範囲出力手段と、
を具備し、
上記測距手段は、上記優先順位決定手段の出力に基づき測距を行い、測距結果が上記所定距離範囲か否かを判定し、所定範囲内であれば、上記測距結果を採用することを特徴とするカメラ。
Ranging means for measuring a plurality of areas;
In the past distance measurement operation by the distance measurement means, storage means for storing the frequency with which each distance measurement area was selected;
An operator discriminating means for discriminating an operator;
Operating condition determining means for determining the operating condition of the camera;
Based on the output results of the storage means, the operator discrimination means, and the operation condition discrimination means, the priority of the distance measurement areas to be measured by the distance measurement means is determined based on the determined operation conditions. Priority order determining means for deciding to prioritize a distance measurement area frequently selected by an operator ;
A predetermined distance range output means for outputting a predetermined distance range based on the output results of the operator determination means and the operation condition determination means with respect to the distance measurement area output by the priority order determination means;
Comprising
The distance measuring means performs distance measurement based on the output of the priority order determining means, determines whether or not the distance measurement result is within the predetermined distance range, and adopts the distance measurement result if within the predetermined range. Camera characterized by.
上記測距手段は、測距結果が上記所定範囲ではないと判定した場合は、上記優先順位決定手段の出力に基づき優先順位に応じた測距領域にて測距を行うことを特徴とする請求項1に記載のカメラ。  The distance measurement means, when it is determined that the distance measurement result is not within the predetermined range, performs distance measurement in a distance measurement area corresponding to the priority order based on the output of the priority order determination means. Item 14. The camera according to Item 1. 上記動作条件判別手段の判別する動作条件は、カメラの姿勢または、カメラの撮影光学系の焦点距離であることを特徴とする請求項1又は2に記載のカメラ。  The camera according to claim 1, wherein the operation condition determined by the operation condition determination unit is a posture of the camera or a focal length of a photographing optical system of the camera.
JP28688999A 1999-10-07 1999-10-07 camera Expired - Fee Related JP4445612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28688999A JP4445612B2 (en) 1999-10-07 1999-10-07 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28688999A JP4445612B2 (en) 1999-10-07 1999-10-07 camera

Publications (2)

Publication Number Publication Date
JP2001108890A JP2001108890A (en) 2001-04-20
JP4445612B2 true JP4445612B2 (en) 2010-04-07

Family

ID=17710324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28688999A Expired - Fee Related JP4445612B2 (en) 1999-10-07 1999-10-07 camera

Country Status (1)

Country Link
JP (1) JP4445612B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5455514B2 (en) * 2009-09-09 2014-03-26 キヤノン株式会社 Electronic device and control method thereof
JP5925107B2 (en) * 2012-11-01 2016-05-25 カシオ計算機株式会社 Camera, camera control program, and camera control method

Also Published As

Publication number Publication date
JP2001108890A (en) 2001-04-20

Similar Documents

Publication Publication Date Title
US8385597B2 (en) Tracking device and image-capturing apparatus
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
US8488052B2 (en) Imaging system and method for detecting target object
JP2009192774A (en) Focus adjustment device and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP4398017B2 (en) Ranging device
JP5056168B2 (en) Focus adjustment device and imaging device
JP2001091819A (en) Range-finding device for camera
JP2004157456A (en) Camera and range-finding method of camera
JP2007024941A (en) Focus detecting apparatus, focusing apparatus and imaging apparatus
JP2004191674A (en) Automatic focusing device and photographing device
JP4445612B2 (en) camera
JP5359150B2 (en) Imaging device
JP2001264621A (en) Range-finding device
JP2012128343A (en) Camera
JP3955201B2 (en) Auto focus camera
JP2000131595A (en) Camera and focusing device
JP2004120582A (en) Camera
JP2000330001A (en) Range finder
JP4647771B2 (en) Ranging device
JP2001174689A (en) Range-finder
JP6699679B2 (en) Imaging device
JP2010113130A (en) Focus detecting device, imaging apparatus, focus detecting method
JP2009258307A (en) Lens interchangeable type digital camera system
JPH1172818A (en) Multi-point range finder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees