JP4445612B2 - camera - Google Patents
camera Download PDFInfo
- Publication number
- JP4445612B2 JP4445612B2 JP28688999A JP28688999A JP4445612B2 JP 4445612 B2 JP4445612 B2 JP 4445612B2 JP 28688999 A JP28688999 A JP 28688999A JP 28688999 A JP28688999 A JP 28688999A JP 4445612 B2 JP4445612 B2 JP 4445612B2
- Authority
- JP
- Japan
- Prior art keywords
- distance measurement
- distance
- camera
- data
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、複数の測距ポイントについて測距を行い、主要被写体にピント合わせを行う測距装置に関する。
【0002】
【従来の技術】
近年、普及タイプのカメラに搭載する測距装置においても、撮影画面の中央に配置した任意の小面積の測距領域(以下、測距ポイントと称する)を測距するスポット測距機能に加えて、撮影画面内に多数の測距ポイントを配置して、それぞれ測距して、画面内のどの位置に被写体が存在してもピント合わせができる多点測距機能を備えている。
【0003】
この多点測距装置は、撮影画面内の例えば中央、左右、上下等に測距領域設けて、それぞれを測距ポイントとし、これらの測光結果と種々の撮影に関する情報から被写体が存在していると思われる最適な測距ポイントを選択して、その測距ポイントで得られた距離データに基づきピントを合わせを行っている。
【0004】
例えば、特開平1−198715号公報では、複数の測距ポイントの中から選択してメモリしておき、測距を実行する際にメモリから読み出した測距ポイントで測距してピント合わせを行っている。
これにより、複数の測距ポイントを配置していても、測距を実施する際には、選択された測距ポイントのみの演算処理になるため、測距が高速化される。
【0005】
また、特開平10−104502号公報に開示される焦点検出装置では、複数の測距ポイントにおいて、測距ポイント毎に独立して積分制御を行う最大値検出回路を配置して、全測距ポイントの受光素子における最大蓄積電荷量から求めた距離データの中から、最至近距離選択等の所定の方法により、ピント合わせに用いる測距データを選択する。
この焦点検出装置では、各測距ポイントとなる受光素子が積分する電荷量を受光素子個々に独立して管理されるため、それぞれが適正な電荷量により距離が求められ、測距精度が高くなる。
【0006】
【発明が解決しようとする課題】
しかし、前述した特開平1−198715号公報における測距装置では、マニュアル操作によって、複数の測距ポイントの中から選択するため、実際に撮影する場面では、その選択操作が煩わしいこととなる。
【0007】
また、特開平10−104502号公報における焦点検出装置では、測距ポイントが多いと測距精度が向上する反面、演算処理が複雑となり、処理に時間がかかる。このため、シャッタ釦を押してもすぐにシャッタが切れない等のタイムラグが増大してカメラの使い勝手が悪くなる。これを改善するために、タイムラグを少なくする、高速処理が可能なマイクロコンピュータで対応しようとすると、このマイクロコンピュータがコスト的に高価であり、普及タイプの兼価なカメラには搭載できないこととなる。
そこで本発明は、簡単な操作で、広範囲な測距領域においてタイムラグを増大させることなく、主要被写体にピント合わせできる測距装置を搭載するカメラを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は上記目的を達成するために、複数領域の測距を行う測距手段と、上記測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、操作者を判別する操作者判別手段と、カメラの動作条件を判別する動作条件判別手段と、上記記憶手段と上記操作者判別手段と上記動作条件判別手段との出力結果に基づき、上記測距手段が測距を行う測距領域の優先順位を、判別された動作条件のもとで判別された操作者により選択された頻度が多い測距領域を優先するように決定する優先順位決定手段と、上記優先順位決定手段が出力する測距領域に関して、上記操作者判別手段と上記動作条件判別手段の出力結果に基づき、所定距離範囲を出力する所定距離範囲出力手段と、を具備し、上記測距手段は、上記優先順位決定手段の出力に基づき測距を行い、測距結果が上記所定距離範囲か否かを判定し、所定範囲内であれば、上記測距結果を採用するカメラを提供する。
【0009】
以上のような構成のカメラに搭載される測距装置は、撮影者毎による過去の測距動作において選択された測距領域(測距ポイント)に関するデータを記憶しておき、現在の撮影者を判別して該当する測距領域に関するデータに基づいて、複数の測距ポイントの中から測距を行う優先順位が決定される。この優先順位に従い、被写体を測距して、その測距結果でピント合わせを行うことにより、撮影画面上に複数配置した測距ポイント若しくはそのグループで主要被写体の存在確率が高い順に焦点距離(画角)を考慮して測距し採用するため、全ての測距ポイントについて測距演算を行い選択する場合に比較して、測距演算によるタイムラグが大幅に減少する。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1には、本発明のカメラに係る第1の実施形態として、カメラの概略的な構成例を示し説明する。
【0011】
このカメラは、以下に述べる構成部位の制御や演算処理を行うためのマイクロコンピュータからなる制御部1と、測距に用いられるAFエリアセンサ2と、フォーカスレンズ4を駆動するフォーカスレンズ駆動部3と、フォーカスレンズ4の移動量に対応するパルス信号を発生するフォーカスレンズエンコーダ5と、測光用受光素子6が生成した光電流信号を処理し測光結果として出力する測光部7と、不図示のシャッタを駆動するシャッタ駆動部8と、撮影時の補助光若しくは測距動作時のAF補助光としてストロボ発光部9を発光させるストロボ回路部10と、撮影画面に加えて本発明に関わる情報をファインダ画面にスーパーインポーズ表示するファインダ表示部11と、カメラの外装部に設けられてフィルム駒数や撮影モード表示等を行うLCD等からなるカメラ表示部12と、ファインダ表示部11及びカメラ表示部12への表示を制御するための表示回路部13と、ズームレンズ14を移動させて、ズーム動作(焦点距離の変更)を行うズームレンズ駆動部15と、フィルム装填のオートロード、1駒巻き上げ、巻き戻し等のフィルム給送を行うフィルム給送部16と、カメラの姿勢(縦、横)を検出するジャイロ等の機構からなる姿勢検出部21と、レリーズ釦を押す撮影者の指の指紋を検出する指紋検出部22と、で構成される。
【0012】
上記制御部1には、さらに、ファーストレリーズスイッチ(1RSW)17と、セカンドレリーズスイッチ(2RSW)18と、ズームアップスイッチ(ZUSW)19と、ズームダウンスイッチ(ZDSW)20とが接続されている。
【0013】
上記指紋検出部22は、レリーズ釦を押す撮影者の指の指紋を検出し、制御部1は、その検出結果と予め記憶されている指紋データとを照合することにより撮影者を識別し、識別結果に基づいて、AF処理が行われる。
【0014】
上記制御部1は、中央処理装置(CPU)1aと、撮影に関する一連のシーケンスプログラムを記憶するROM1bと、必要に応じた情報を書き換え可能に記憶するRAM1cと、測光部7からの測光出力等のアナログ信号をデジタル信号化するA/Dコンバータ1dと、オートフォーカス(AF)や測光・露出演算等に関する補正データをカメラ毎に記憶するEEPROM1eとを備えている。
【0015】
上記AFエリアセンサ2は、撮像領域の水平方向と垂直方向に、複数のフォトダイオード等を含む画素ユニット23が2次元的に配置された受光素子群2aと、受光信号処理回路2bと、定常光除去部2cとから構成され、後述する測距光学系により形成される被写体像を撮像して電気信号であるセンサデータに変換して制御部1に出力する。この定常光除去部2cは、制御部1の切り換え指示により、センサデータから定常光分を除去する。
【0016】
図2は、上記AFエリアセンサ2をCMOSプロセスにより作成した内部構成例を示す図である。
受光素子群2aの画素ユニット23は、光電変換素子となるフォトダイオード23aと、フォトダイオード23aが出力する光電流を積分(充電)するコンデンサ23bと、その光電流を電圧信号に変換するとともに増幅する増幅器23cとから構成される。また、受光信号処理回路2bは、垂直シフトレジスタ24と、水平シフトレジスタ25と、固定パターンノイズ除去回路26とで構成される。それぞれの画素ユニット23に配置された増幅器23cからの出力は、垂直シフトレジスタ24及び水平シフトレジスタ25により選択されて順次、センサデータとして出力される。これらのセンサデータは、上記A/Dコンバータ1cによりディジタル化されてRAM1cに格納される。
【0017】
また、固定パターンノイズ除去回路26は、画素ユニット23毎の増幅器23bの特性のバラツキにより生ずる所謂、固定パターンノイズを除去するための回路であり、センサデータの読み出し動作の時に除去動作を行なう。尚、前述した定常光除去部2bは、各画素ユニット23毎に増幅器23cの内部に設けられている。
【0018】
上記制御部1は、AFエリアセンサ2の積分動作の制御及び、センサデータの読み出し制御を行い、入力されたセンサデータを処理して測距演算を行なう。また、制御部1は、その測距演算結果に基づき、フォーカスレンズ駆動部3によりフォースレンズ4を駆動させつつ、フォーカスエンコーダ5の発生するパルス信号をモニタして、フォーカスレンズ4の位置制御を行う。
【0019】
上記1RSW17と2RSW18は、レリーズポタンに連動した2段階スイッチであり、レリーズボタンの第1段階の押し下げにより1RSW17がオンし、引き続いて第2段階の押し下げで2RSW18がオンする制御部1は、1RSW17のオンでAF、測光動作を行い、2RSW18のオンで露光、フィルム巻き上げ動作を行う。
また上記ズームレンズ駆動部15は、不図示のズームアップ操作釦の押し下げによりオンするZUSW19または、不図示のズームダウン操作釦の押し下げによりオンするZDSW20のオン状態に応じて、制御部1の指示によりズーム動作(焦点距離の変更)を行う。
【0020】
図3に示すフローチャートを参照して、撮影におけるメインルーチンについて説明する。
不図示の電源SWがオンされるか電池が挿入されると、制御部1が起動し、ROM1bに予め格納されたシーケンスプログラムに従い動作を開始する。
まず、カメラ内の各ブロックを初期化した後、EEPROM1eに格納されたオートフォーカス(AF)や測光等に関する、調整及び補正データをRAM1cに展開する(ステップS1)。
【0021】
次に、1RSW17のオンされたか否かを判別する(ステップS2)。この判別で1RSW17がオフのままであれば(NO)、他のスイッチ(1RSW17,2RSW18以外)が操作されたか否かを判別する(ステップS3)。
他のスイッチが操作されたならば(YES)、そのスイッチ入力に応じた処理、例えば、ZUSW19やZDSW20が操作されたならば、ズームスレンズ14のアップ、ダウン動作を行い(ステップS4)、上記ステップS2に戻る。また、他のスイッチが何ら操作されなかった場合には(NO)、そのまま上記ステップS2に戻り待機する。
【0022】
また上記ステップS2の判別において、1RSW17がオンされたならば(YES)、測距を行い(ステップS5)、さらに、測光・露出演算を行う(ステップS6)。
この後、2RSW18がオンされたか否かを判別する(ステップS7)。この判別において、2RSW18がオンされると(YES)、シャッタ動作によりフィルムに露光する(ステップS8)。この露光終了の後に、フィルムを1駒巻き上げし(ステップS9)、上記ステップS2に戻り、次の撮影に待機する。しかしステップS7で2RSW18がオンされなければ(NO)、上記ステップS2に戻る。
【0023】
図4(a)、(b)は、外光パッシブ方式による測距光学系の概念的な構成を示し、説明する。
この構成においては、AFエリアセンサ2の受光素子群2bが配置された受光領域に測距用光を導き、被写体33までの距離を測定するための受光レンズ31、32が基線長Bを隔てて配置される。
【0024】
これらの受光レンズ31、32は、被写体33の像を2像に分割して、AFエリアセンサ2の受光素子群2aに結像させる。上記2像の相対的な位置差xは、三角測距の原理によって、受光レンズの焦点距離fと基線長Bとから、被写体距離Lは、以下の式による。
L=(B・f)/x
上記測距演算は、制御部1によって行われる。より具体的には、AFエリアセンサ2の受光領域2aに、測距ブロックを設定して2像に対応するセンサデータを用いて相関演算を行い、上記2像の相対的な位置差xを検出する。
【0025】
図5は、第1の実施形態における、撮影画面に対する測距領域(測距ポイント)の関係を示す図である。
【0026】
この実施形態では、外光測距方式を採用しているため、ズームアップ若しくはズームダウンされた撮影画面の広さに測距ポイントが配置された広さは追従していない。これは、撮影画面がズームアップやズームダウンに従って焦点距離(撮影する画角)が変わるのに対して、測距ポイントが配置された領域の広さが固定されていることにより発生する。
【0027】
つまり、図5に示すように、通常はズームダウンされたワイド端の撮影画面に対応できるように測距ポイントが配置されている。従って、ズームアップしたテレ端の撮影画面の場合、測距ポイントがそのままの配置による広さを維持しているため、撮影画面外のものを測距してしまう可能性がある。そのため、撮影光学系の焦点距離情報(ズーム情報)に応じて測距に使用する測距ポイントを限定する必要がある。
【0028】
このような焦点距離の変化に応じた広さの測距ポイントを選択するための補正データは、測距ポイント補正データとしてEEPROM1eに予め記憶されており、制御部1の初期化とともに、RAM1dに展開される。
選択された測距ポイントからのセンサデータに基づき測距演算を行う。
【0029】
また、制御部1はAFエリアセンサ2に対して、この測距ポイントから積分制御用ピーク・モニタ信号を発生するように制御信号を出力する。そして、AFエリアセンサ2は、指定された測距ポイント内のピーク信号を制御部1に出力する。制御部1は、このモニタ信号を参照して積分量が所定のレベルとなるように制御する。
【0030】
このようにして、撮影画面外に存在する被写体の影響を受けないようにしている。また、センサデータの読み出し時にも、上記撮影画面に対応する測距ポイント補正データを参照して、不要な撮影画面外のセンサデータは読みとばしてRAM1cに格納しない、若しくは、AFエリアセンサ2に読み出し範囲設定信号を出力して、設定された範囲内のセンサデータだけ出力するようにする。
【0031】
次に、図6に示すフローチャートを参照して、本実施形態における測距ルーチンについて説明する。
まず、AFエリアセンサ2による積分を行う(ステップS11)。具体的には、制御部1からAFエリアセンサ2に積分制御信号を出力して、積分動作を開始させる。その後、AFエリアセンサ2から所定範囲内のピーク出力(最も明るい画素ユニットからの出力)に応じたモニタ信号(センサデータ)を出力させる。このモニタ信号を参照しながら、AFエリアセンサ2による受光量が適正となるように積分時間を調節して、コンデンサ23bに蓄積させる。
【0032】
その後、AFエリアセンサ2に読み出しクロックCLKを出力して、蓄積したセンサデータをA/Dコンバータ1dに出力させ、ディジタル変換した後、RAM1cに格納する(ステップS12)。
【0033】
次に、制御部1は、カメラ姿勢検出部22からの出力に基づき、現在のカメラ姿勢が横に向いた姿勢であるか否かを判定する(ステップS13)。
【0034】
この判定で、カメラが横姿勢の場合には(YES)、EEPROM1eからRAM1cに展開されている、図7に示すような横位置データを参照する(ステップS14)。一方、カメラが横姿勢ではなく、縦姿勢であった場合は(NO)、同様に図7に示す縦位置データを参照する(ステップS15)。それぞれ姿勢位置データを参照した後、採用頻度が多い測距ポイントから順に選択する(ステップS16)。例えば、カメラが縦姿勢であった場合には、測距ポイントは、E→B→H→…となる。
【0035】
そして、選択された測距ポイントに対して、測距演算を行い(ステップS17)、得られた測距データが所定の条件を満足するか、例えば所定の距離範囲内か否かを判定する(ステップS18)。この判定において、所定の条件を満足する場合は(YES)、その測距データをピント合わせに採用し(ステップS19)、この測距データに基づきフォーカシングレンズを駆動してピント合わせを行う(ステップS20)。一方、上記ステップS18の判定において、測距データが所定の条件を満足しなかった場合には(NO)、予め決められた所定の測距ポイントを全て測距したか否かを判別する(ステップS21)。
【0036】
この判別において、すべての所定測距ポイントについて測距が終了していなければ(NO)、上記ステップS16に戻り、一方が終了している場合には(YES)、求められた測距データから最至近の測距データを採用し(ステップS22)、上記ステップS20に移行して、フォーカシングレンズを駆動してピント合わせを行う。
このピント合わせの後、採用した測距ポイントデータを、カメラ姿勢等の条件とともにEEPROM1eに書き込み(ステップS23)、メインルーチンにリターンする。
【0037】
図8には、撮影画面内の測距ポイントの配置例を示す。この配置例では、撮影画面中央に測距ポイントEを配置し、その上下左右に測距ポイントA〜D,F〜Iの合計9つの測距ポイントを配置している。
【0038】
図7は、本実施形態において、ある撮影者による過去に採用された測距ポイントの頻度を示す測距ポイント採用頻度データ例である。
例えば、カメラ姿勢が横位置であった場合、最初に最も頻度の高い測距ポイントEについて測距演算を行う。そして、測距ポイントEの測距結果が所定の条件、例えば所定距離範囲内であれば、測距ポイントEの測距データを採用する。測距ポイントEの測距結果が所定の条件を満足しない場合は、次に頻度の高い測距ポイントDについて測距演算を行い、順次同様に繰り返して判定する。
このように測距演算及び判定動作は、全測距ポイントについて終了するまで繰り返して行われ、全領域の測距が終了すると、全測距ポイントのうちで最も近距離の測距データを採用して、ピント合わせを行う。
【0039】
次に、本発明のカメラに係る第2の実施形態について説明する。
本実施形態は、図9に示すように、第1の実施形態に比較して測距ポイント数を増加した例である。また、ズーム位置に応じた測距ポイント採用頻度データを有している。本実施形態の構成は、測距ポイント数以外は第1の実施形態とほぼ同等であり、測距動作が異なっている。
【0040】
図10に示すフローチャートを参照して、本実施形態における測距ルーチンについて説明する。
まず、AFエリアセンサ2による積分を行う(ステップS31)。前述した第1の実施形態と同様に、制御部1からAFエリアセンサ2に積分制御信号を出力して、積分動作を開始させ、モニタ信号を参照しながら受光量が適正となるように積分時間を調節して蓄積させる。読み出しクロックCLKに基づき、読み出したセンサデータをA/D変換した後、RAM1cに格納する(ステップS32)。
【0041】
次に、撮影レンズのズーム位置情報に応じて、採用すべき測距ポイントを選択する(ステップS33)。この測距ポイントの選択は、図11に示すように、撮影レンズの焦点距離(ズーム位置)に応じて、複数の採用測距ポイント位置データの中から選択する。ここでズーム位置は、例えば、Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)に分割されている。
【0042】
次に、制御部1は、カメラ姿勢検出部22からの出力に基づき、現在のカメラ姿勢が横に向いた姿勢であるか否かを判定する(ステップS34)。この判定で、カメラが横姿勢の場合には(YES)、図11に示す採用測距ポイント位置データを参照して横位置における測距ポイントを選択する(ステップS35)。一方、カメラが横姿勢ではなく、縦姿勢であった場合においても(NO)、同様に図11に示す縦位置における測距ポイントを選択する(ステップS36)。
そして、それぞれ姿勢位置データを参照した後、採用頻度が多い測距ポイントから順に選択する(ステップS37)。
【0043】
そして、選択された測距ポイントに対して、測距演算を行い(ステップS38)、得られた測距データが所定の条件を満足するか、例えば所定の距離範囲内か否かを判定する(ステップS39)。この判定において、所定の距離範囲内であれば(YES)、その測距データをピント合わせに採用し(ステップS40)、この測距データに基づきフォーカシングレンズを駆動してピント合わせを行う(ステップS41)。一方、上記ステップS39の判定において、測距データが所定離範囲内でなければ(NO)、予め決められた所定の測距ポイントを全て測距したか否かを判別する(ステップS42)。
【0044】
この判別において、所定測距ポイントの全領域について測距が終了していなければ(NO)、上記ステップS37に戻って繰り返し行い、一方、測距が終了している場合は(YES)、求められた測距データから最至近の測距データを採用し(ステップS43)、その最至近の距離データが所定距離より遠いか否か判定する(ステップS44)。所定距離より近い場合は(YES)、この測距データを採用して、上記ステップS41に移行して、ピント合わせを行う。
【0045】
一方、所定距離より遠い場合には(NO)、選択されなかった残りの測距ポイントの測距演算を行う(ステップS45)。得られた全測距ポイントの測距データの中から最至近の距離データを採用して(ステップS46)、上記ステップS41に移行して、ピント合わせを行う。それぞれピント合わせ終了の後、採用した測距ポイント位置データを、ズーム位置情報、カメラ姿勢等の条件とともにEEPROM1eに書き込む(ステップS47)。
【0046】
本実施形態において、撮影レンズの焦点距離がワイド(Z0〜Z1)に設定されており、カメラ姿勢が横位置であったとすると、測距ポイント採用頻度データは、n0a、n0b、…、n0oについて参照する。
そして、この測距ポイント採用頻度データに基づき、最初に最も頻度の高い測距ポイントの測距演算を行う。そして、測距ポイントの測距結果が所定の条件、例えば所定距離範囲内であれば、測距ポイントの測距データを採用する。
しかし測距ポイントの測距結果が所定の条件を満足しない場合は、次に頻度の高い測距ポイントについて測距演算を行い同様に判定する。
【0047】
以上の測距演算および判定動作が、所定領域について終了するまで繰り返される。そして、所定領域について測距が終了すると、全測距ポイントのうちで最も近距離の測距データを採用する。
上記ステップS42における所定領域は、予め決められている優先度の高い測距ポイントのグループである。これらの優先度の高い測距ポイントは、例えば図12(a)に示すように、カメラ姿勢が横位置の場合では、撮影画面の上方部分の測距ポイントa,b,d,eを除いたグループとする。
【0048】
また、カメラ姿勢が縦位置の場合は、図12(b)に示すように、測距ポイントd,e,j,n,o(上下逆の場合は、a,b,f,k,l)を除いたグループとしている。
【0049】
撮影画面の上方は、空や背景等の主要被写体以外の存在確率が高いと考えられるためである。また、測距ポイント数をさらに増加させ、全撮影画面に連続的に配置した場合は、撮影画面上方だけでなく、四隅付近の測距領域にしても優先順位を下げたグループとしてもよい。
【0050】
以上のように、優先順位の高い測距ポイントのグループを設け、また焦点距離情報を考慮したので、広角側で風景を背景にした撮影シーンや望遠側での人物のポートレート撮影にも対応することができる。
【0051】
次に、第3の実施形態について説明する。
【0052】
この実施形態は、図1に示したように、指紋検出部22を設けて、指紋検出による撮影者の判別を行うものである。つまり、撮影の際の構図は、撮影者の好みや癖が反映されるため、撮影を行おうとしている撮影者を判別して、その撮影者の過去のデータに基づいて、測距ポイントの優先順位を決めるものである。例えば、カメラ姿勢を縦位置に構える場合は、撮影者によって、向きが反対になる場合があるので、撮影者の癖を考慮することができる。
【0053】
図13には、図1に示した指紋検出部22の具体的な構成例を示す。
この指紋検出部22は、図14に示すようにカメラのレリーズ釦40の頭部部分に組み込まれている投光素子41及び指紋検出用エリアセンサ42と、エリアセンサ42で得られた画像信号をディジタル変換した指紋画像データ(以下、入力画像データとする)にするA/Dコンバータ43と、登録された指紋画像データ(以下、登録データとする)を記憶する画像メモリ44と、入力画像データと登録画像データの照合等の画像処理を行う画像処理回路45と、撮影者がID番号を入力する操作部となるID入力部46とで構成される。また、これらの構成部位は、制御部1により指令に基づき制御される。
【0054】
図14に示すように、カメラのレリーズ釦40の頭部には、受光レンズ47が填め込まれており、投光素子41からの投光光はシャッタ釦を押さえる指(通常は、右手人さし指)により反射され、その反射光が受光レンズ47を介して、指紋検出用エリアセンサ42により受光される。また、カメラ表示部12では、制御部1に制御される表示回路部13により、入力されたID番号や指紋照合結果等の表示が行われる。
【0055】
また図15には、カメラの外観構成を示す。
このカメラは、カメラ本体51の正面には、撮影レンズ52が配置され、その上方には、測距窓53とストロボ発光部9が配置されている。またカメラ本体51の上面には、レリーズ釦40と、カメラ表示部12と、後述するモード切換スイッチ54と、電源スイッチ55が配置され、そのカメラ本体の裏面上方側には、ファインダの覗き窓56及び、日付設定スイッチ57が配置されている。
【0056】
図16に示すフローチャートを参照して、本実施形態における指紋照合処理ルーチンについて説明する。
電源スイッチ55がオンされるか不図示の電池が装填されると、制御部1は起動して、ROM1bに格納されたシーケンスプログラムを実行する。
まず、カメラ内の各構成部位の初期化が実行され、EEPROM1e内のAF測光等の調整・補正データがRAM1cに展開される(ステップS51)。
次に、モードスイッチ54の操作により、指紋照合処理モードが選択されると、撮影者の指紋を画像メモリ44に登録する登録モードが選択されたか否かを判別する(ステップS52)。
この判別で、登録モードが選択されたならば(YES)、後述する登録処理サブーチンを実行し(ステップS53)、上記ステップS52に戻る。そして、上記ステップS52で登録モードが選択されない(NO)、若しくは登録処理が完了すると、1RSW17がオンされている状態であるか否か判定する(ステップS54)。
【0057】
しかし、1RSW17がオン状態であれば(YES)、後述する指紋照合処理サブルーチンを実行し、その照合結果を照合フラグに記憶する(ステップS55)。しかし、1RSW17がオフ状態であれば(NO)、他のスイッチが操作されたか否かを検出して(ステップS56)、スイッチ操作があれば(YES)、その入力に応じた処理を行う(ステップS57)。例えば、ズームスイッチのアップ、ダウン入力に応じてズームアップ、ダウン処理を行う。その処理後及びスイッチ操作がなかった場合(NO)、上記ステップS54に戻る。
【0058】
次に、上記ステップS55において、指紋照合処理で設定された照合フラグにより照合がOKか否かを判定する(ステップS58)。この判定で、照合OKであれば、前述したように、EEPROM1eに記憶された該当する撮影者の過去のデータを読み出し、制御部1により測距ポイントの優先順位を決め、その順位に従った測距処理を実行してピント合わせを行う(ステップS59)。
【0059】
一方、上記ステップS58の判定で、照合フラグがなく、照合がNGであった場合には(NO)、撮影者に警告を行う(ステップS60)。この警告は、音によって行ってもよいし、ファインダ内にその旨の表示を行ってもよい。そして、前述した撮影者の過去データによる測距ポイントの優先順位が無いため、撮影画面の全測距ポイントによる測距を実行して、最至近距離の測距ポイントからの測距結果でピント合わせを行う(ステップS61)。尚、この例では、照合がNGであった場合に全測距ポイントを測距して最至近距離を選択したが、高速化を求めるのであれば、撮影画面中央の測距ポイントのみを測距するシーケンスでもよい。
【0060】
これらの測距の後、測光及び露出演算処理を行う(ステップS62)。そして、2RSW18がオンされたか否かを判定して(ステップS63)、オンされたならば(YES)、露光し(ステップS64)、フィルムの1駒巻き上げを行った後(ステップS65)、上記ステップS54に戻り、次の撮影に入る。一方、2RSW18がオンされない場合は(NO)、1RSW17がオンされた状態であるか否かを検出して(ステップS66)、オンされていれば(YES)、2RSW18のオンになるのを待機し、オンされていなければ、上記ステップS54に戻る。
【0061】
次に図17に示すフローチャートを参照して、上記ステップS55における指紋照合処理サブルーチンについて説明する。
まず、撮影者がカメラを構え、シャッタ釦40に指がかかったときに投光素子41を発光させる(ステップS71)。投光素子41から投光された光は、シャッタ釦を押さえる指で反射して、その反射光が受光レンズ47を介して、指紋検出用エリアセンサ42に受光される。
【0062】
そして、指紋検出用エリアセンサ42で得られた指紋の入力画像データを画像処理回路45に入力し(ステップS72)、画像処理(特徴抽出、指紋方向検出処理等)を施す(ステップS73)。
【0063】
次に、画像メモリ44に記憶されている登録画像データを画像処理回路45に読み込み(ステップS74)、ここで入力画像データと登録画像データとを照合する(ステップS75)。この指紋照合により、入力画像データと一致する登録画像データがあるか否かを判定し(ステップS76)、一致する登録画像データがある場合は(YES)、照合フラグがセットされる(ステップS77)。しかし、該当する登録画像データがなかった場合には(NO)、照合不可として照合フラグをクリアする。
【0064】
次に図18に示すフローチャートを参照して、登録処理サブルーチンについて説明する。
まず、登録モードが選択された場合、ID入力部46の操作により、ID番号が入力されるのを待機する(ステップS81)。そしてID番号が入力されたならば(YES)、入力されたID番号を記憶する(ステップS82)。
【0065】
そして、撮影者の指がシャッタ釦40にかかっていることを1RSWがオンされたか否かで判定する(ステップS83)。この判定で、1RSW17がオンしたならば(YES)、投光素子41を発光して(ステップS84)、シャッタ釦を押さえる指で反射した反射光を指紋検出用エリアセンサ42で受光し、指紋画像(入力画像データ)として画像処理回路45に入力する(ステップS85)。
【0066】
画像処理回路45では、画像処理(特徴抽出、指紋方向検出等)を行い(ステップS86)、処理された入力画像データは、登録画像データとして、上記ID番号と関連づけて画像メモリ44に記憶される(ステップS87)。この記憶処理が終了すると、カメラ表示部12に、登録完了を示す旨のマークや文字等が表示され(ステップS88)、メインルーチンにリターンする。
【0067】
次に、図19に示すフローチャートを参照して、第4の実施形態における測距について説明する。
本実施形態は、図9に示すように第1の実施形態に比べて、測距ポイントが多く配置された例であって、ズーム位置に応じた測距ポイント採用頻度データを有している。
【0068】
まず、AFエリアセンサ2に積分制御信号を出力して、積分動作を行わせる(ステップS91)。そして、AFエリアセンサ2から読み出しクロックCLKに従って、センサデータ(画素データ)をA/Dコンバータ1dに出力させて、A/D変換して読み出し、RAM1cに格納する(ステップS92)。
次に、前述した様に、シャッタ釦40を押さえた撮影者の指により指紋照合されたID番号に基づいて、図20に示すような測距ポイント採用頻度データテーブルから該当するID番号の項を選択する(ステップS93)。
【0069】
そしてカメラ側から取り入れたズーム位置情報に応じて、ID番号による項からズーム位置の項を選択する(ステップS94)。さらに、カメラ姿勢検出部122の出力より、カメラの姿勢が横位置か否かを判定する(ステップS95)。この姿勢判定で、横位置であれば(YES)、先に選択されたズーム位置の項における横位置データを選択する(ステップS96)。一方、カメラが縦位置であれば(NO)、同様にズーム位置の項における縦位置データを選択する(ステップS97)。
【0070】
そして、選択された測距ポイント採用頻度データテーブルの項において、採用頻度が多い測距ポイントから順に選択する(ステップS98)。それらの測距ポイントについて順次、測距演算を行う(ステップS99)。
この測距による結果が、ID番号、ズーム位置、カメラ姿勢に応じて設定されている所定の距離範囲内であるか判定する(ステップS100)。この判定で、所定距離の範囲内であれば(YES)、その測距データを採用して(ステップS101)、フォーカシングレンズを駆動してピント合わせを行う(ステップS102)。
【0071】
一方、上記ステップS100において、測距結果が所定の距離範囲内でない場合は(NO)、先に選択した所定の測距ポイントを全て測距したか否か判別する(ステップS103)。全測距ポイントの測距が終了していない場合は(NO)、上記ステップS98に戻り、残りの測距ポイントに対して測距を継続して行う。次に、選択された全測距ポイントから得られた測距データ間の差(最大値と最小値の差)が、所定の範囲内であるか否かを判定する(ステップS104)。
【0072】
この判定で、選択された測距ポイントの測距データの差が所定の範囲内ならば(YES)、上記複数の測距データの平均値を算出して採用し、上記ステップS102に移行して、ピント合わせを行う(ステップS105)。しかし、選択された測距ポイントの測距データの差が所定範囲を超えていた場合は(NO)、測距終了の測距データより最至近の測距データを選択する(ステップS106)。そして、この最至近測距データが所定距離より近いか否かを判定する(ステップS107)。この判定で、所定距離より近い場合は(YES)、この測距データを選択して、上記ステップS102に移行し、ピント合わせを行う。しかし、最至近測距データが所定距離以遠の場合は(NO)、選択されずに残っている測距ポイントについて測距演算を行う(ステップS108)。
【0073】
この後、全測距ポイントの測距データのうちから最至近のデータを採用して(ステップS109)、上記ステップS102に移行し、ピント合わせを行う。 次に、ピント合わせに採用した測距ポイント位置データを、ID番号、ズーム位置情報、カメラ姿勢等の条件とともに、EEPROM1eに書き込む(ステップS110)。
【0074】
また、図20に示した測距ポイント採用頻度データテーブルは、撮影者毎に異なるID番号で大きく分類される。それぞれID番号が付された項は、撮影レンズの焦点距離(ズーム位置)例えば、Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)で分類され、さらにカメラの姿勢(縦、横)で分類されている。それぞれのカメラ姿勢の項は、測距ポイントにおけるデータ列からなる。これらの分類された項から、ID番号、ズーム位置情報、カメラ姿勢に応じて、該当するデータ列を選択して参照する。
【0075】
この図20に示した測距ポイント採用頻度データ表の例では、ID番号No.1〜No.5、焦点距離領域Z0(Wide)〜Z1、Z1〜Z2、…、ZL-1〜ZL(Tele)、カメラ姿勢が横位置・縦位置とに分けらている。例えば、ID番号がNo.1の撮影者が撮影レンズの焦点距離がワイド[Z0(Wide)]にして、カメラを横に構えていた場合には、測距ポイント採用頻度データとして、n10a、n10b、…、n10oが選択され参照される。
【0076】
そしてこの測距ポイント採用頻度データデーブルに基づき、以下のAF処理を行う。
【0077】
最初に最も頻度の高い測距ポイントについて測距演算を行う。そして、測距ポイントの測距結果が、ID番号、ズーム位置、カメラ姿勢に応じて設定されている所定の距離範囲d内であるか判定する。この所定距離範囲dは、特定のID番号、ズーム位置、カメラ姿勢での測距ポイント毎に有する判定値であり、図21に示すグラフにより決められている。
【0078】
具体的に説明すると、図9に示した測距ポイントcについて、ID番号No.1、ズーム位置Z0、カメラ横位置の場合、測距ポイント採用頻度データは、n10cとなる。図21は、このn10cを横軸(距離1/L)、縦軸(頻度)でグラフ化したものである。
【0079】
そして、頻度の高い部分に対応する距離範囲を所定距離範囲dとする。所定距離範囲d内であれば、測距ポイントの測距データを採用する。測距ポイントの測距結果が所定距離範囲以内でない場合は、次に頻度の高い測距ポイントについて測距演算を行い、同様に判定する。
【0080】
このような測距演算及び判定動作が、所定エリアについて終了するまで繰り返される。そして、所定エリアについて測距が終了すると、所定エリアの測距データが所定差以内、つまり同一被写体であるか、ほぼ同一距離の被写体であると判定できる場合は、それらの平均値を採用する。
【0081】
前述した図19のステップS103における所定エリアは、第2の実施形態と同様に予め決められている優先度の高い測距ポイントのグループである、若しくは、この所定エリアは図23に示すように、同一被写体に対応する隣接する複数の測距ポイントであってもよい。
【0082】
このように実際に撮影する撮影者に対応する過去の測距ポイント選択データを参照するので、複数の人間が使用する場合に撮影者毎のデータが取得できず、混在して、測距ポイント選択の的中率が低下するのを防止することができる。
【0083】
また撮影者が、図22に示すような構図の端の方に主要被写体が存在する特定の撮影画面を好んで撮影するような癖を有する場合に、それに合った測距を行うことができる。
【0084】
尚、前述した実施形態では、撮影者を特定するために指紋照合という方法を用いたが、これに限定されるものではなく、以下の方法を用いても実現することができる。
【0085】
(1)撮影者がカメラに設けられた操作釦により、パスワードを入力して判別する。つまり、ID番号の入力と共に撮影者毎に固有に定められたパスワードを入力して判別する。
【0086】
(2)視線検出機能を搭載するカメラにおいて、視線検出におけるキャリブレーションデータに対応の入力を流用する。
【0087】
また、測距ポイント選択データ(EEPROM1e内)は、工場出荷時にはクリアされており、撮影者がIDを登録してからデータ蓄積が開始される。
【0088】
従って、最初のデータ蓄積量が少ない期間は、ほぼ全測距ポイントについて測距することになる。
【0089】
この場合、データ蓄積を開始してからしばらくの期間は、測距時間が長くなってしまう問題がある。
【0090】
このような問題を解決するために、工場出荷時にはEEPROM1e内に統計的調査による初期データを書き込む。そして撮影者がカメラを使うに従って、測距ポイント選択データは、初期データに対して加算されて蓄積されていく。
【0091】
この場合、EEPROM1e内の測距ポイント選択データは、頻度の代わりに頻度の全体数に対する比率を使用する。たとえば、図20において、ID番号はNo.1、ズーム位置はZ0、力メラ横位置の時、測距ポイントaのデータd10aとして、
d10a=n10a/(n10a+n10b+…+n10o)
を計算してメモリする。
【0092】
以上にようにすれば、測距ポイント選択データ(比率)は、撮影回数の増加に従い初期データに対して加算されて蓄積されていくことになる。このようにカメラを使いはじめた初期においても測距時間が長くなることはない。
【0093】
以上説明した各実施形態によれば、主要被写体の存在確率が高い測距ポイントから順に測距し採用するので、全ての測距ポイントについて測距演算を行い選択する場合に比較して、測距演算によるタイムラグは大幅に減少する。
【0094】
通常の測距動作における支配的なタイムラグは測距演算であるので、タイムラグ削減の効果は大きい。
【0095】
また、演算速度が高速だが高価なハードウエアを使用しないので、兼価なカメラ等の装置に採用することができる。
【0096】
次に、図24には本発明の測距装置を適用した一眼レフレックスカメラの断面構成を示す。
【0097】
撮影レンズ62を通過した被写体からの光束はメインミラー63により反射又は透過される。このメインミラー63で反射された光束は、ファインダ64に導かれ、メインミラー63を透過した光束は、サブミラー65で反射されてカメラボディ60の下部に設けられた焦点検出部61に導かれる。
【0098】
この焦点検出部61は位相差検出方式により焦点を検出するものであり、撮影レンズ62を通過した光束を絞り込む視野マスク(Sマスク)67と、赤外カットフィルタ68と、光束を集めるためのコンデンサレンズ(Cレンズ)69と、光束を全反射する全反射ミラー70と、光束を制限する瞳マスク71と、光束をCMOSエリアセンサ73上に再結像させる再結合レンズ(Sレンズ)72とから構成される。
【0099】
図25は、上記した焦点検出部61の斜視図であり、瞳マスク71の後方には被写体からの光束を通すためのSレンズ72が設けられている。
【0100】
このようにして、AFエリアセンサ73上に分割された2像が再結合され、AFエリアセンサ73からセンサデータに変換されて出力される。そして、マイコンによりA/D変換された後、複数の測距ポイントについて、公知の焦点検出演算がなされる。
【0101】
次に図26には、第5の実施形態として、スーパーコンビネーションAFと称されるオートフォーカス技術による測距部の概略的な構成を示し、この測距部を搭載したカメラについて説明する。
【0102】
図26(a)は、被写体81をプリ発光により被写体位置を検出する方式の測距を行う構成例を示している。
【0103】
まず、発光制御回路83の制御によりストロボ84から補助光を被写体81に投光し、その反射信号光は、2つの受光レンズ85a,85bへ入射して、それぞれ2つのエリアセンサ86a,86bに入射する。
【0104】
これらのエリアセンサ86a,86bは、被写体像を受像して光電変換し、それらの出力はA/D変換回路87でA/D変換されて、各画素のディジタル値が演算制御回路(CPU)88に入力される。
【0105】
また、これらのエリアセンサ86a,86bには、定常光除去回路89が接続されており、演算制御回路88の制御により、撮影画面から定常的に入射する直流的な光の信号は除去され、ストロボ84からのパルス光(補助光)のみが出力信号として得られるようになっている。
【0106】
従って、定常光除去回路89を作動させた状態で、反射信号光をエリアセンサ86a,86b上に受光させると、その受光面には、図26(b)に示すような黒の部分からなる像86a(86b)を結ぶことになる。このようなエリアセンサ上に結像された像のパターンの分析は、演算制御回路88内のパターン制御部91によって行い、例えば、像パターンが人間の形であると判定されれば、これを主要被写体と考えることができる。この像のパターンの分析は、パターン制御部91に組み込まれたソフトウエアによって実現される。また演算制御回88には、パターンされた音声によりユーザに知らせる撮影に関する情報やカメラの状態を音声発生部90が接続されている。
【0107】
図27に示すフローチャートを参照して、上記測距部による測距について説明する。
【0108】
まず、測距を実施するに先立って、投光制御回路83の制御によりストロボ84をプリ発光させて、被写体81に補助光を投光し、その反射信号光をエリアセンサ86a,86bに入射する。その時、定常光除去回路89を作動させて、エリアセンサ86a,86bに結像した反射信号光から定常光を除去して反射信号光の像信号のみを取り出す(ステップS111)。
【0109】
そして、A/D変換回路87でA/D変換された像信号を演算制御回路88に入力して、ソフトウエアによってエリアセンサ86a,86b上に結像された像パターンの分析を行う(ステップS112)。
【0110】
この分析された像パターンが人物の形状等であり、主要被写体か否かを判定する(ステップS113)。この判定で、像パターンが主要被写体と判定できなかった、即ち主要被写体の位置が特定できなかった場合には(NO)、第1乃至第3の実施形態の被写体の存在確率の高い画面内の領域を重点的に測距する(ステップS114)。
【0111】
そして演算制御回路88が予め記憶する発音信号パターンの中から、主要被写体の位置や、測距を行い採用した測距ポイントの順番等を示すパターンを選択して、音声発生部90から発音パターン1(音声)によりユーザに知らせる(ステップS115)。
【0112】
一方、上記ステップS113の判定で、像パターンが主要被写体と判定された場合(YES)、像パターンを形成する像信号(光信号)の強弱及び十分なコントラストか否かにより、測距をアクティブ方式で行うかパッシブ方式で行うかを判別(ステップS116)。
【0113】
この判定で、像信号(光信号)により充分なコントラストが得られない場合には(YES)、アクティブ方式による測距を選択する。従って、再度、ストロボ84から測距用光を被写体81に照射して、定常光除去回路89を作動させて、エリアセンサ86a,86bに結像した反射信号光から定常光を除去して反射信号光の像信号のみを取り出す(ステップS117)。そして、プリ発光により求められた主要被写体位置に対して、重点的にアクティブ方式の測距を行なう(ステップS118)。
【0114】
そして、記憶された発音パターンの中から、主要被写体の位置が特定され、及びアクティブ方式の測距を選択して、音声発生部90から発音パターン3(音声)によりユーザに知らせて(ステップS119)、リターンする。
【0115】
一方、上記ステップS116の判定で、像信号が弱いと判断された場合には(NO)、すでに求められた主要被写体位置の像信号を重点的に用いたパッシブ方式による測距を行なう(ステップS120)。
【0116】
そして、発音パターンの中から、主要被写体の位置が特定され、及びアクティブ方式の測距を選択して、音声発生部90から発音パターン2(音声)によりユーザに知らせて(ステップS121)、リターンする。
【0117】
よって本実施形態によれば、これらの測距方式、または主要被写体の判別の可否に従って、制御処理部1が発音パターン(音声)を選択すれば、設定されている撮影条件等がユーザにわかりやすく安心感がある。このスーパーコンビネーションAFの特徴をアピールしながら安心感のある測距ができるカメラが提供できる。
【0118】
尚、このスーパーコンビネーションAFは、アクティブ方式とパッシブ方式で単にハイブリッド的に組み合わせたのではなく、2つの方式を用いて主要被写体検知まで行っていため称されている。
【0119】
以上述べたように、過去における撮影画面内の主要被写体の位置と撮影頻度の関係を記憶しておき、これに基づいて測距ポイントの選択処理を行うので、タイムラグの少なく正確なピント合わせが可能な使い勝手のよい測距装置を提供することが可能となる。
【0120】
以上の実施形態について説明したが、本明細書には以下のような発明も含まれている。
【0121】
(1)複数領域の測距を行う測距手段と、
この測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、
カメラの動作条件を判別する動作条件判別手段と、
カメラの操作者を判別する操作者判別手段と、
上記記憶手段による出力結果、上記動作条件判別手段による判別結果及び上記操作者判別手段による判別結果に基づいて、上記測距手段が測距を行う領域の優先順位を決定する優先順位決定手段と、
を具備することを特徴とするカメラ。
【0122】
(2)上記動作条件判別手段は、カメラの姿勢と撮影光学系の焦点の少なくとも一方を判別することを特徴とする上記(1)項に記載のカメラ。
【0123】
(3)上記操作者判別手段は、指紋により操作者を判別することを特徴とする上記(1)項に記載のカメラ。
【0124】
(4)上記操作者判別手段は、レリーズ釦に設けられていることを特徴とする上記(1)項に記載のカメラ。
【0125】
【発明の効果】
以上詳述したように本発明によれば、簡単な操作で、広範囲な測距領域においてタイムラグを増大させることなく、主要被写体にピント合わせできる測距装置を搭載するカメラを提供することができる。
【図面の簡単な説明】
【図1】本発明のカメラに係る第1の実施形態に係るカメラの概略的な構成例を示す図である。
【図2】図1に示したAFエリアセンサの内部構成例を示す図である。
【図3】撮影におけるメインルーチンについて説明するためのフローチャートである。
【図4】外光パッシブ方式による測距光学系の概念的な構成を示す図である。
【図5】第1の実施形態における撮影画面配置された測距ポイントを示す図である。
【図6】第1の実施形態における測距ルーチンについて説明するためのフローチャートである。
【図7】第1の実施形態に用いられる測距ポイント採用頻度データ例を示す図である。
【図8】撮影画面内の測距ポイントの配置例を示す図である。
【図9】第2の実施形態に係るカメラにおける撮影画面に配置された測距ポイント例を示す図である。
【図10】第2の実施形態における測距ルーチンについて説明するためのフローチャートである。
【図11】撮影者毎のカメラ姿勢と測距ポイントとの関係を示す図である。
【図12】カメラ姿勢の縦横位置における測距ポイントの配置例を示す図である。
【図13】第3の実施形態に係るカメラに搭載する指紋検出部の具体的な構成例を示す図である。
【図14】指紋検出部が組み込まれたカメラのレリーズ釦の構成例を示す図である。
【図15】第3の実施形態に係るカメラの外観構成を示す図である。
【図16】第3の実施形態における指紋照合処理ルーチンについて説明するためのフローチャートである。
【図17】指紋照合処理サブルーチンについて説明するためのフローチャートである。
【図18】登録処理サブルーチンについて説明するためのフローチャートである。
【図19】次に、図19に示すフローチャートを参照して、第3の実施形態における測距について説明する。
【図20】測距ポイント採用頻度データ表の一例を示す図である。
【図21】測距ポイント採用頻度データにおけるのn10cを横軸(距離1/L)、縦軸(頻度)でグラフ化した図である。
【図22】構図の端の方に主要被写体が存在する撮影画面である。
【図23】撮影画面において、被写体を複数の測距ポイントからなるエリアで測距を行う例について示す図である。
【図24】本発明の測距装置を適用した一眼レフレックスカメラの断面構成を示す図である。
【図25】図24に示した焦点検出部の斜視図である。
【図26】スーパーコンビネーション・オートフォーカス技術を用いた測距部について説明するための図である。
【図27】スーパーコンビネーション・オートフォーカス技術について説明するためのフローチャートである。
【符号の説明】
1…制御部(マイクロコンピュータ)
1a…中央処理装置(CPU)
1b…ROM
1c…RAM
1d…A/Dコンバータ
1e…EEPROM
2…AFエリアセンサ
2a…受光素子群
2b…受光信号処理回路
2c…定常光除去部
3…フォーカスレンズ駆動部
4…フォーカスレンズ
5…フォーカスレンズエンコーダ
6…測光用受光素子
7…測光部
8…シャッタ駆動部
9…ストロボ発光部
10…ストロボ回路部
11…ファインダ表示部
12…カメラ表示部
13…表示回路部
14…ズームレンズ
15…ズームレンズ駆動部
16…フィルム給送部
17…ファーストレリーズスイッチ(1RSW)
18…セカンドレリーズスイッチ(2RSW)
19…ズームアップスイッチ(ZUSW)
20…ズームダウンスイッチ(ZDSW)
21…姿勢検出部
22…指紋検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distance measuring apparatus that performs distance measurement on a plurality of distance measuring points and focuses on a main subject.
[0002]
[Prior art]
In recent years, in a distance measuring device mounted on a popular type of camera, in addition to a spot distance measuring function for measuring an arbitrary small area ranging area (hereinafter referred to as a distance measuring point) arranged at the center of a shooting screen. A multi-point distance measuring function is provided that allows a large number of distance measuring points to be arranged in the shooting screen, each of which measures the distance, and can be focused regardless of the position of the subject on the screen.
[0003]
This multi-point distance measuring device is provided with distance measuring areas, for example, at the center, left and right, up and down, etc. in the shooting screen, and each of them is set as a distance measuring point. The most suitable distance measuring point is selected and the focus is adjusted based on the distance data obtained at the distance measuring point.
[0004]
For example, in Japanese Patent Laid-Open No. 1-198715, a plurality of distance measuring points are selected and stored in memory, and distance measurement is performed using the distance measuring points read from the memory when performing distance measurement. ing.
As a result, even when a plurality of distance measuring points are arranged, when performing distance measurement, only the selected distance measuring points are subjected to calculation processing, so that distance measurement is speeded up.
[0005]
Further, in the focus detection apparatus disclosed in Japanese Patent Laid-Open No. 10-104502, a maximum value detection circuit that performs integration control independently for each distance measurement point is arranged at a plurality of distance measurement points, and all distance measurement points are arranged. The distance measurement data used for focusing is selected from the distance data obtained from the maximum accumulated charge amount of the light receiving element by a predetermined method such as closest distance selection.
In this focus detection device, the amount of charge integrated by the light receiving element as each distance measuring point is managed independently for each light receiving element, so that the distance is determined by the appropriate amount of charge and the distance measurement accuracy is improved. .
[0006]
[Problems to be solved by the invention]
However, in the distance measuring apparatus described in Japanese Patent Laid-Open No. 1-198715, a manual operation is used to select from a plurality of distance measuring points, so that the selection operation is troublesome in the actual shooting scene.
[0007]
In the focus detection apparatus disclosed in Japanese Patent Laid-Open No. 10-104502, if there are many distance measurement points, the distance measurement accuracy is improved, but the calculation process is complicated and takes time. For this reason, even if the shutter button is pressed, the time lag that the shutter cannot be released immediately increases, and the usability of the camera is deteriorated. In order to improve this, if an attempt is made to cope with a microcomputer capable of high-speed processing with a reduced time lag, this microcomputer is expensive in cost and cannot be mounted on a popular type of expensive camera. .
SUMMARY OF THE INVENTION An object of the present invention is to provide a camera equipped with a distance measuring device that can focus on a main subject without increasing the time lag in a wide range of distance measurement with a simple operation.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides distance measuring means for measuring a plurality of areas, and storage means for storing the frequency of selection of each distance measurement area in the past distance measurement operation by the distance measurement means. The distance measuring unit based on the output results of the operator discriminating means for discriminating the operator, the operating condition discriminating means for discriminating the operating condition of the camera, the storage means, the operator discriminating means and the operating condition discriminating means. The priority of the distance measurement area where the means measures Priority is given to ranging areas that are frequently selected by the identified operator under the identified operating conditions. A priority order determining means for determining, and a distance measuring area output from the priority order determining means, a predetermined distance range output means for outputting a predetermined distance range based on output results of the operator determining means and the operating condition determining means; And the distance measuring means performs distance measurement based on the output of the priority order determining means, determines whether the distance measurement result is within the predetermined distance range, and if within the predetermined range, the distance measurement means Provide a camera that adopts the results.
[0009]
The distance measuring device mounted on the camera configured as described above stores data related to the distance measuring area (ranging point) selected in the past distance measuring operation for each photographer, Based on the data relating to the corresponding distance measurement area, the priority order for distance measurement is determined from the plurality of distance measurement points. By measuring the subject according to this priority order and focusing on the result of the distance measurement, the focal length (image size) increases in descending order of the main subject's existence probability at a plurality of distance measurement points or groups on the shooting screen. Therefore, the time lag due to the distance measurement calculation is greatly reduced as compared with the case where the distance measurement calculation is performed and selected for all the distance measurement points.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 illustrates a schematic configuration example of a camera as a first embodiment of the camera of the present invention.
[0011]
This camera includes a
[0012]
The
[0013]
The
[0014]
The
[0015]
The
[0016]
FIG. 2 is a diagram showing an internal configuration example in which the
The
[0017]
The fixed pattern
[0018]
The
[0019]
The above-mentioned 1RSW17 and 2RSW18 are two-stage switches linked to the release button, and the
The zoom
[0020]
A main routine in photographing will be described with reference to the flowchart shown in FIG.
When a power switch (not shown) is turned on or a battery is inserted, the
First, after initializing each block in the camera, adjustment and correction data relating to autofocus (AF), photometry, etc. stored in the EEPROM 1e are developed in the
[0021]
Next, it is determined whether or not the
If another switch is operated (YES), processing corresponding to the switch input, for example, if the ZUSW 19 or
[0022]
If the
Thereafter, it is determined whether or not the
[0023]
FIGS. 4A and 4B show and explain the conceptual configuration of a distance measuring optical system based on the external light passive method.
In this configuration, the
[0024]
These
L = (B · f) / x
The distance measurement calculation is performed by the
[0025]
FIG. 5 is a diagram illustrating a relationship of a distance measurement area (a distance measurement point) with respect to a shooting screen in the first embodiment.
[0026]
In this embodiment, since the external light ranging method is adopted, the area where the distance measuring points are arranged does not follow the area of the zoomed-up or zoomed-down shooting screen. This occurs because the focal length (viewing angle of view) changes as the shooting screen zooms up or down, but the area of the distance measurement point is fixed.
[0027]
In other words, as shown in FIG. 5, the distance measuring points are usually arranged so as to correspond to the zoomed-down wide-angle shooting screen. Therefore, in the case of a zoomed-up telephoto shooting screen, since the distance measurement points maintain the width by the arrangement, there is a possibility that the object outside the shooting screen is measured. For this reason, it is necessary to limit the distance measurement points used for distance measurement according to the focal length information (zoom information) of the photographing optical system.
[0028]
Correction data for selecting a distance measurement point having a width corresponding to the change in focal length is stored in advance in the EEPROM 1e as distance measurement point correction data, and is expanded in the RAM 1d as the
Ranging calculation is performed based on the sensor data from the selected ranging point.
[0029]
Further, the
[0030]
In this way, the influence of the subject existing outside the shooting screen is not affected. Also, when reading sensor data, the distance measuring point correction data corresponding to the shooting screen is referred to and unnecessary sensor data outside the shooting screen is read and not stored in the
[0031]
Next, the distance measurement routine in this embodiment will be described with reference to the flowchart shown in FIG.
First, integration by the
[0032]
Thereafter, the readout clock CLK is output to the
[0033]
Next, the
[0034]
If it is determined in this determination that the camera is in the horizontal posture (YES), the horizontal position data as shown in FIG. 7 developed from the EEPROM 1e to the
[0035]
Then, a distance calculation is performed on the selected distance measurement point (step S17), and it is determined whether or not the obtained distance measurement data satisfies a predetermined condition, for example, within a predetermined distance range ( Step S18). In this determination, when a predetermined condition is satisfied (YES), the distance measurement data is adopted for focusing (step S19), and the focusing lens is driven based on the distance measurement data to perform focusing (step S20). ). On the other hand, if it is determined in step S18 that the distance measurement data does not satisfy a predetermined condition (NO), it is determined whether or not all predetermined predetermined distance measurement points have been measured (step S18). S21).
[0036]
In this determination, if the distance measurement has not been completed for all the predetermined distance measurement points (NO), the process returns to step S16. If one of the distance measurement points has been completed (YES), the determination is made from the obtained distance measurement data. The closest distance measurement data is adopted (step S22), the process proceeds to step S20, and the focusing lens is driven to perform focusing.
After this focusing, the adopted distance measuring point data is written in the EEPROM 1e together with conditions such as the camera posture (step S23), and the process returns to the main routine.
[0037]
FIG. 8 shows an example of the arrangement of distance measuring points in the shooting screen. In this arrangement example, a distance measuring point E is arranged at the center of the photographing screen, and a total of nine distance measuring points A to D and F to I are arranged on the top, bottom, left and right thereof.
[0038]
FIG. 7 is an example of distance measurement point employment frequency data indicating the frequency of distance measurement points employed in the past by a certain photographer in the present embodiment.
For example, when the camera posture is the horizontal position, the distance measurement calculation is first performed on the distance measurement point E having the highest frequency. If the distance measurement result of the distance measurement point E is within a predetermined condition, for example, within a predetermined distance range, the distance measurement data of the distance measurement point E is adopted. If the distance measurement result at distance measurement point E does not satisfy the predetermined condition, distance measurement calculation is performed for distance measurement point D having the next highest frequency, and determination is repeated in the same manner.
As described above, the distance measurement calculation and determination operation are repeated until all the distance measurement points are completed, and when the distance measurement for all areas is completed, the distance measurement data of the shortest distance among all distance measurement points is adopted. To focus.
[0039]
Next, a second embodiment according to the camera of the present invention will be described.
As shown in FIG. 9, the present embodiment is an example in which the number of distance measuring points is increased as compared with the first embodiment. It also has distance measurement point adoption frequency data corresponding to the zoom position. The configuration of this embodiment is almost the same as that of the first embodiment except for the number of distance measurement points, and the distance measurement operation is different.
[0040]
With reference to the flowchart shown in FIG. 10, the ranging routine in this embodiment will be described.
First, integration by the
[0041]
Next, a distance measuring point to be adopted is selected according to the zoom position information of the photographing lens (step S33). As shown in FIG. 11, the distance measuring point is selected from a plurality of adopted distance measuring point position data according to the focal length (zoom position) of the photographing lens. Here, the zoom position is divided into, for example, Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele).
[0042]
Next, the
Then, after referring to the posture position data, the distance measuring points with the highest adoption frequency are selected in order (step S37).
[0043]
Then, a distance calculation is performed on the selected distance measurement point (step S38), and it is determined whether or not the obtained distance measurement data satisfies a predetermined condition, for example, within a predetermined distance range ( Step S39). In this determination, if the distance is within a predetermined distance range (YES), the distance measurement data is adopted for focusing (step S40), and the focusing lens is driven based on the distance measurement data to perform focusing (step S41). ). On the other hand, if the distance measurement data is not within the predetermined separation range in the determination in step S39 (NO), it is determined whether or not all the predetermined distance measurement points determined in advance are measured (step S42).
[0044]
In this determination, if distance measurement has not been completed for the entire area of the predetermined distance measurement point (NO), the process returns to step S37 and is repeated. On the other hand, if distance measurement has been completed (YES), it is obtained. The closest distance measurement data is adopted from the distance measurement data (step S43), and it is determined whether or not the closest distance data is longer than a predetermined distance (step S44). When the distance is shorter than the predetermined distance (YES), the distance measurement data is adopted, and the process proceeds to step S41 to perform focusing.
[0045]
On the other hand, if the distance is longer than the predetermined distance (NO), the distance measurement calculation is performed on the remaining distance measurement points that are not selected (step S45). The closest distance data is adopted from the distance measurement data of all the distance measurement points obtained (step S46), and the process proceeds to step S41 to focus. After completion of focusing, the adopted distance measuring point position data is written in the EEPROM 1e together with conditions such as zoom position information and camera posture (step S47).
[0046]
In this embodiment, if the focal length of the photographing lens is set to wide (Z0 to Z1) and the camera posture is in the horizontal position, the distance measurement point adoption frequency data refers to n0a, n0b,. To do.
Then, based on the distance measurement point adoption frequency data, the distance measurement calculation of the distance measurement point with the highest frequency is first performed. If the distance measurement result of the distance measurement point is within a predetermined condition, for example, within a predetermined distance range, the distance measurement data of the distance measurement point is adopted.
However, when the distance measurement result of the distance measurement point does not satisfy the predetermined condition, the distance calculation is performed for the next most frequent distance measurement point in the same manner.
[0047]
The above ranging calculation and determination operation is repeated until the predetermined area is completed. When the distance measurement for the predetermined area is completed, the distance measurement data closest to all the distance measurement points is adopted.
The predetermined area in step S42 is a group of distance measuring points having a predetermined high priority. For example, as shown in FIG. 12A, these high-priority ranging points exclude the ranging points a, b, d, and e in the upper part of the shooting screen when the camera posture is in the horizontal position. Group.
[0048]
When the camera posture is the vertical position, as shown in FIG. 12B, ranging points d, e, j, n, o (a, b, f, k, l in the case of upside down) The group is excluded.
[0049]
This is because the upper portion of the shooting screen is considered to have a high probability of existence other than the main subject such as the sky and the background. Further, when the number of distance measuring points is further increased and continuously arranged on all the photographing screens, the priority order may be reduced not only in the upper portion of the photographing screen but also in the distance measuring regions near the four corners.
[0050]
As described above, a group of high-priority ranging points is provided and focal length information is taken into consideration, so it can be used for shooting scenes with landscapes on the wide-angle side and portraits of people on the telephoto side. be able to.
[0051]
Next, a third embodiment will be described.
[0052]
In this embodiment, as shown in FIG. 1, a
[0053]
FIG. 13 shows a specific configuration example of the
As shown in FIG. 14, the
[0054]
As shown in FIG. 14, a
[0055]
FIG. 15 shows an external configuration of the camera.
In this camera, a photographing
[0056]
With reference to the flowchart shown in FIG. 16, the fingerprint collation process routine in this embodiment is demonstrated.
When the
First, each component in the camera is initialized, and adjustment / correction data such as AF photometry in the EEPROM 1e is developed in the
Next, when the fingerprint collation processing mode is selected by operating the
If the registration mode is selected in this determination (YES), a registration process subroutine described later is executed (step S53), and the process returns to step S52. Then, when the registration mode is not selected in the above step S52 (NO), or when the registration process is completed, it is determined whether or not the
[0057]
However, if
[0058]
Next, in step S55, it is determined whether or not the collation is OK based on the collation flag set in the fingerprint collation process (step S58). In this determination, if the collation is OK, as described above, the past data of the corresponding photographer stored in the EEPROM 1e is read, the priority order of the distance measuring points is determined by the
[0059]
On the other hand, if it is determined in step S58 that there is no collation flag and the collation is NG (NO), a warning is given to the photographer (step S60). This warning may be given by sound, or a message to that effect may be displayed in the finder. Since there is no prioritization of the distance measurement points based on the photographer's past data as described above, distance measurement is performed using all distance measurement points on the shooting screen, and focusing is performed using the distance measurement results from the closest distance measurement points. Is performed (step S61). In this example, when the collation is NG, all the distance measurement points are measured and the closest distance is selected. However, if high speed is desired, only the distance measurement point at the center of the shooting screen is measured. It may be a sequence to
[0060]
After these distance measurements, photometry and exposure calculation processing is performed (step S62). Then, it is determined whether or not the
[0061]
Next, the fingerprint collation processing subroutine in step S55 will be described with reference to the flowchart shown in FIG.
First, the photographer holds the camera and causes the
[0062]
The fingerprint input image data obtained by the fingerprint
[0063]
Next, the registered image data stored in the
[0064]
Next, the registration processing subroutine will be described with reference to the flowchart shown in FIG.
First, when the registration mode is selected, the operation waits for an ID number to be input by operating the ID input unit 46 (step S81). If the ID number is input (YES), the input ID number is stored (step S82).
[0065]
Then, it is determined whether or not the 1RSW is turned on that the photographer's finger is on the shutter button 40 (step S83). If
[0066]
The
[0067]
Next, distance measurement in the fourth embodiment will be described with reference to the flowchart shown in FIG.
As shown in FIG. 9, the present embodiment is an example in which more distance measurement points are arranged than the first embodiment, and has distance measurement point adoption frequency data corresponding to the zoom position.
[0068]
First, an integration control signal is output to the
Next, as described above, based on the ID number collated with the finger of the photographer who pressed the
[0069]
Then, in accordance with the zoom position information taken from the camera side, a zoom position term is selected from terms based on the ID number (step S94). Further, it is determined from the output of the camera posture detection unit 122 whether or not the camera posture is a horizontal position (step S95). If the posture is determined to be a horizontal position (YES), the horizontal position data in the previously selected zoom position is selected (step S96). On the other hand, if the camera is in the vertical position (NO), the vertical position data in the zoom position term is similarly selected (step S97).
[0070]
Then, in the section of the selected distance measurement point adoption frequency data table, the distance measurement points with the highest adoption frequency are selected in order (step S98). A distance measurement calculation is sequentially performed for these distance measurement points (step S99).
It is determined whether the result of this distance measurement is within a predetermined distance range set according to the ID number, zoom position, and camera posture (step S100). If it is determined that the distance is within the predetermined distance range (YES), the distance measurement data is adopted (step S101), and the focusing lens is driven to perform focusing (step S102).
[0071]
On the other hand, if the distance measurement result is not within the predetermined distance range in step S100 (NO), it is determined whether or not all the predetermined distance measurement points previously selected have been measured (step S103). If the distance measurement has not been completed for all distance measurement points (NO), the process returns to step S98, and distance measurement is continuously performed on the remaining distance measurement points. Next, it is determined whether or not the difference between the distance measurement data obtained from all the selected distance measurement points (the difference between the maximum value and the minimum value) is within a predetermined range (step S104).
[0072]
If the difference between the distance measurement data of the selected distance measurement points is within a predetermined range in this determination (YES), the average value of the plurality of distance measurement data is calculated and adopted, and the process proceeds to step S102. Then, focusing is performed (step S105). However, if the difference between the distance measurement data of the selected distance measurement points exceeds the predetermined range (NO), the closest distance measurement data is selected from the distance measurement data that has been measured (step S106). Then, it is determined whether or not the nearest distance measurement data is closer than a predetermined distance (step S107). If it is determined that the distance is closer than the predetermined distance (YES), the distance measurement data is selected, the process proceeds to step S102, and focusing is performed. However, if the closest distance measurement data is more than the predetermined distance (NO), the distance measurement calculation is performed for the distance measurement points that remain without being selected (step S108).
[0073]
Thereafter, the closest data is adopted from the distance measurement data of all the distance measurement points (step S109), and the process proceeds to step S102 to focus. Next, the distance measurement point position data adopted for focusing is written in the EEPROM 1e together with conditions such as the ID number, zoom position information, and camera posture (step S110).
[0074]
Further, the distance measurement point adoption frequency data table shown in FIG. 20 is largely classified by different ID numbers for each photographer. Each item with an ID number is classified by the focal length (zoom position) of the taking lens, for example, Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele). (Vertical and horizontal). Each term of camera posture consists of a data string at a distance measuring point. From these classified items, the corresponding data string is selected and referred to according to the ID number, zoom position information, and camera posture.
[0075]
In the example of the distance measurement point employment frequency data table shown in FIG. 1-No. 5, focal length regions Z0 (Wide) to Z1, Z1 to Z2,..., ZL-1 to ZL (Tele), and the camera posture is divided into a horizontal position and a vertical position. For example, if the ID number is No. When the
[0076]
Then, the following AF processing is performed based on the distance measurement point adoption frequency data table.
[0077]
First, ranging calculation is performed for the most frequently used ranging point. Then, it is determined whether the distance measurement result of the distance measurement point is within a predetermined distance range d set according to the ID number, zoom position, and camera posture. The predetermined distance range d is a determination value for each distance measurement point in a specific ID number, zoom position, and camera posture, and is determined by the graph shown in FIG.
[0078]
More specifically, for the distance measuring point c shown in FIG. In the case of 1, zoom position Z0, and camera horizontal position, the distance measurement point adoption frequency data is n10c. FIG. 21 is a graph of n10c on the horizontal axis (
[0079]
A distance range corresponding to a frequently-occurring portion is set as a predetermined distance range d. If it is within the predetermined distance range d, the distance measurement data of the distance measurement point is adopted. If the distance measurement result of the distance measurement point is not within the predetermined distance range, the distance calculation is performed for the next most frequent distance measurement point and the determination is made in the same manner.
[0080]
Such distance measurement calculation and determination operations are repeated until the predetermined area is completed. When the distance measurement for the predetermined area is completed, if the distance measurement data of the predetermined area is within a predetermined difference, that is, it can be determined that the subject is the same subject or a subject of almost the same distance, the average value thereof is adopted.
[0081]
The predetermined area in step S103 of FIG. 19 described above is a group of distance measuring points having a high priority determined in advance as in the second embodiment, or the predetermined area is as shown in FIG. A plurality of adjacent distance measuring points corresponding to the same subject may be used.
[0082]
In this way, since the past distance measurement point selection data corresponding to the photographer who actually shoots is referenced, data for each photographer cannot be obtained when multiple people use it, and the distance measurement point selection is mixed. It is possible to prevent a reduction in the hit rate.
[0083]
Further, when the photographer has a habit of photographing a specific photographing screen in which the main subject is present at the end of the composition as shown in FIG. 22, distance measurement can be performed accordingly.
[0084]
In the above-described embodiment, a method called fingerprint collation is used to specify the photographer. However, the method is not limited to this, and can be realized using the following method.
[0085]
(1) A photographer inputs a password using an operation button provided on the camera, and makes a determination. That is, it is determined by inputting the ID number and a password uniquely determined for each photographer.
[0086]
(2) In a camera equipped with a gaze detection function, input corresponding to calibration data in gaze detection is used.
[0087]
The distance measurement point selection data (in the EEPROM 1e) is cleared at the time of shipment from the factory, and data accumulation is started after the photographer registers the ID.
[0088]
Accordingly, during the period when the initial data accumulation amount is small, the distance is measured for almost all distance measuring points.
[0089]
In this case, there is a problem that the distance measurement time becomes long for a while after starting the data accumulation.
[0090]
In order to solve such a problem, initial data is written in the EEPROM 1e at the time of shipment from the factory. As the photographer uses the camera, the distance measurement point selection data is added to the initial data and accumulated.
[0091]
In this case, the distance measurement point selection data in the EEPROM 1e uses a ratio of the frequency to the total number instead of the frequency. For example, in FIG. 1. When the zoom position is Z0 and the horizontal position of the power lens, as the data d10a of the distance measurement point a,
d10a = n10a / (n10a + n10b +... + n10o)
Calculate and memory.
[0092]
As described above, the distance measurement point selection data (ratio) is added to the initial data and accumulated as the number of shootings increases. As described above, the distance measurement time does not become long even when the camera is first used.
[0093]
According to each embodiment described above, distance measurement is performed in order from a distance measurement point with a high probability of existence of the main subject. Therefore, distance measurement is performed as compared with a case where distance calculation is performed and selected for all distance measurement points. The time lag due to computation is greatly reduced.
[0094]
Since the dominant time lag in the normal distance measurement operation is a distance measurement calculation, the effect of time lag reduction is great.
[0095]
In addition, since it does not use expensive hardware with a high calculation speed, it can be employed in a device such as a cost-effective camera.
[0096]
Next, FIG. 24 shows a cross-sectional configuration of a single-lens reflex camera to which the distance measuring apparatus of the present invention is applied.
[0097]
The light beam from the subject that has passed through the photographing
[0098]
The
[0099]
FIG. 25 is a perspective view of the
[0100]
In this way, the two images divided on the
[0101]
Next, FIG. 26 shows, as a fifth embodiment, a schematic configuration of a distance measuring unit based on an autofocus technique called super combination AF, and a camera equipped with this distance measuring unit will be described.
[0102]
FIG. 26A shows a configuration example in which distance measurement is performed by detecting a subject position of the subject 81 by pre-emission.
[0103]
First, auxiliary light is projected from the
[0104]
These
[0105]
These
[0106]
Accordingly, when the reflected signal light is received on the
[0107]
With reference to the flowchart shown in FIG. 27, distance measurement by the distance measurement unit will be described.
[0108]
First, prior to the distance measurement, the
[0109]
Then, the image signal A / D converted by the A /
[0110]
It is determined whether or not the analyzed image pattern is the shape of a person or the like and is a main subject (step S113). In this determination, if the image pattern cannot be determined as the main subject, that is, the position of the main subject cannot be specified (NO), the first to third embodiments have a high subject existence probability in the screen. Distance measurement is focused on the area (step S114).
[0111]
Then, a pattern indicating the position of the main subject, the order of the distance measurement points adopted by the distance measurement, etc. is selected from the sound generation signal patterns stored in advance by the
[0112]
On the other hand, if it is determined in step S113 that the image pattern is the main subject (YES), the distance measurement is performed based on whether the image signal (optical signal) forming the image pattern is strong and has sufficient contrast. It is discriminated whether it is performed by the passive method (step S116).
[0113]
In this determination, when sufficient contrast cannot be obtained by the image signal (optical signal) (YES), distance measurement by the active method is selected. Therefore, the
[0114]
Then, the position of the main subject is specified from the stored pronunciation patterns, and active-type distance measurement is selected, and the
[0115]
On the other hand, if it is determined in step S116 that the image signal is weak (NO), a passive distance measurement using the image signal of the main subject position that has already been obtained is performed (step S120). ).
[0116]
Then, the position of the main subject is specified from the sound generation pattern, and the active type distance measurement is selected, and the
[0117]
Therefore, according to the present embodiment, if the
[0118]
Note that this super combination AF is referred to because the main subject detection is performed using two methods instead of simply combining the active method and the passive method in a hybrid manner.
[0119]
As described above, the relationship between the position of the main subject in the shooting screen and the shooting frequency in the past is stored, and distance measurement point selection processing is performed based on this relationship, enabling accurate focusing with little time lag It is possible to provide a range-finding device that is easy to use.
[0120]
Although the above embodiments have been described, the present invention includes the following inventions.
[0121]
(1) ranging means for measuring a plurality of areas;
In the past distance measuring operation by the distance measuring means, storage means for storing the frequency with which each distance measurement area is selected;
Operating condition determining means for determining the operating condition of the camera;
Operator discriminating means for discriminating the operator of the camera;
Priority order determining means for determining the priority order of the areas in which the distance measuring means performs distance measurement based on the output result by the storage means, the determination result by the operating condition determining means and the determination result by the operator determining means;
A camera comprising:
[0122]
(2) The camera according to item (1), wherein the operating condition determining means determines at least one of a posture of the camera and a focus of the photographing optical system.
[0123]
(3) The camera according to (1), wherein the operator discriminating unit discriminates an operator by a fingerprint.
[0124]
(4) The camera according to item (1), wherein the operator discrimination means is provided on a release button.
[0125]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a camera equipped with a distance measuring device that can focus on a main subject with a simple operation and without increasing a time lag in a wide distance measuring area.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration example of a camera according to a first embodiment of the camera of the present invention.
FIG. 2 is a diagram illustrating an internal configuration example of an AF area sensor illustrated in FIG. 1;
FIG. 3 is a flowchart for explaining a main routine in photographing.
FIG. 4 is a diagram illustrating a conceptual configuration of a distance measuring optical system using an external light passive method.
FIG. 5 is a diagram illustrating distance measuring points arranged on a shooting screen in the first embodiment.
FIG. 6 is a flowchart for explaining a distance measurement routine in the first embodiment;
FIG. 7 is a diagram showing an example of distance measurement point adoption frequency data used in the first embodiment.
FIG. 8 is a diagram illustrating an example of arrangement of distance measuring points in a shooting screen.
FIG. 9 is a diagram illustrating an example of distance measurement points arranged on a shooting screen in the camera according to the second embodiment.
FIG. 10 is a flowchart for explaining a distance measurement routine in the second embodiment;
FIG. 11 is a diagram illustrating a relationship between a camera posture and a distance measurement point for each photographer.
FIG. 12 is a diagram showing an example of the arrangement of distance measuring points at the vertical and horizontal positions of the camera posture.
FIG. 13 is a diagram illustrating a specific configuration example of a fingerprint detection unit mounted on a camera according to a third embodiment.
FIG. 14 is a diagram illustrating a configuration example of a release button of a camera in which a fingerprint detection unit is incorporated.
FIG. 15 is a diagram illustrating an external configuration of a camera according to a third embodiment.
FIG. 16 is a flowchart for explaining a fingerprint collation processing routine in the third embodiment;
FIG. 17 is a flowchart for explaining a fingerprint collation processing subroutine;
FIG. 18 is a flowchart for explaining a registration processing subroutine;
Next, distance measurement according to the third embodiment will be described with reference to the flowchart shown in FIG.
FIG. 20 is a diagram showing an example of a distance measurement point employment frequency data table.
FIG. 21 is a diagram in which n10c in distance measurement point employment frequency data is graphed on the horizontal axis (
FIG. 22 is a shooting screen in which a main subject is present toward the end of the composition.
FIG. 23 is a diagram illustrating an example in which distance measurement is performed on an object in an area including a plurality of distance measurement points on a shooting screen.
FIG. 24 is a diagram showing a cross-sectional configuration of a single-lens reflex camera to which the distance measuring apparatus of the present invention is applied.
25 is a perspective view of the focus detection unit shown in FIG. 24. FIG.
FIG. 26 is a diagram for explaining a distance measuring unit using a super combination autofocus technique;
FIG. 27 is a flowchart for explaining a super combination autofocus technique;
[Explanation of symbols]
1. Control unit (microcomputer)
1a: Central processing unit (CPU)
1b ... ROM
1c ... RAM
1d ... A / D converter
1e… EEPROM
2… AF area sensor
2a: Light receiving element group
2b: Light reception signal processing circuit
2c ... Stationary light removal unit
3. Focus lens drive unit
4. Focus lens
5. Focus lens encoder
6 ... Light-receiving element for photometry
7 ... Metering section
8 ... Shutter drive unit
9: Strobe flash
10. Strobe circuit section
11 ... Finder display
12 ... Camera display section
13 ... Display circuit section
14 ... Zoom lens
15 ... Zoom lens drive unit
16 ... Film feeding section
17 ... First release switch (1RSW)
18 ... Second release switch (2RSW)
19 ... Zoom-up switch (ZUSW)
20 ... Zoom down switch (ZDSW)
21 ... Attitude detection unit
22: Fingerprint detector
Claims (3)
上記測距手段による過去の測距動作において、各測距領域が選択された頻度を記憶する記憶手段と、
操作者を判別する操作者判別手段と、
カメラの動作条件を判別する動作条件判別手段と、
上記記憶手段と上記操作者判別手段と上記動作条件判別手段との出力結果に基づき、上記測距手段が測距を行う測距領域の優先順位を、判別された動作条件のもとで判別された操作者により選択された頻度が多い測距領域を優先するように決定する優先順位決定手段と、
上記優先順位決定手段が出力する測距領域に関して、上記操作者判別手段と上記動作条件判別手段の出力結果に基づき、所定距離範囲を出力する所定距離範囲出力手段と、
を具備し、
上記測距手段は、上記優先順位決定手段の出力に基づき測距を行い、測距結果が上記所定距離範囲か否かを判定し、所定範囲内であれば、上記測距結果を採用することを特徴とするカメラ。Ranging means for measuring a plurality of areas;
In the past distance measurement operation by the distance measurement means, storage means for storing the frequency with which each distance measurement area was selected;
An operator discriminating means for discriminating an operator;
Operating condition determining means for determining the operating condition of the camera;
Based on the output results of the storage means, the operator discrimination means, and the operation condition discrimination means, the priority of the distance measurement areas to be measured by the distance measurement means is determined based on the determined operation conditions. Priority order determining means for deciding to prioritize a distance measurement area frequently selected by an operator ;
A predetermined distance range output means for outputting a predetermined distance range based on the output results of the operator determination means and the operation condition determination means with respect to the distance measurement area output by the priority order determination means;
Comprising
The distance measuring means performs distance measurement based on the output of the priority order determining means, determines whether or not the distance measurement result is within the predetermined distance range, and adopts the distance measurement result if within the predetermined range. Camera characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28688999A JP4445612B2 (en) | 1999-10-07 | 1999-10-07 | camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28688999A JP4445612B2 (en) | 1999-10-07 | 1999-10-07 | camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001108890A JP2001108890A (en) | 2001-04-20 |
JP4445612B2 true JP4445612B2 (en) | 2010-04-07 |
Family
ID=17710324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28688999A Expired - Fee Related JP4445612B2 (en) | 1999-10-07 | 1999-10-07 | camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4445612B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5455514B2 (en) * | 2009-09-09 | 2014-03-26 | キヤノン株式会社 | Electronic device and control method thereof |
JP5925107B2 (en) * | 2012-11-01 | 2016-05-25 | カシオ計算機株式会社 | Camera, camera control program, and camera control method |
-
1999
- 1999-10-07 JP JP28688999A patent/JP4445612B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001108890A (en) | 2001-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8385597B2 (en) | Tracking device and image-capturing apparatus | |
JP5167750B2 (en) | TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD | |
US8488052B2 (en) | Imaging system and method for detecting target object | |
JP2009192774A (en) | Focus adjustment device and imaging device | |
JP2009109839A (en) | Image tracking device and imaging device | |
JP4398017B2 (en) | Ranging device | |
JP5056168B2 (en) | Focus adjustment device and imaging device | |
JP2001091819A (en) | Range-finding device for camera | |
JP2004157456A (en) | Camera and range-finding method of camera | |
JP2007024941A (en) | Focus detecting apparatus, focusing apparatus and imaging apparatus | |
JP2004191674A (en) | Automatic focusing device and photographing device | |
JP4445612B2 (en) | camera | |
JP5359150B2 (en) | Imaging device | |
JP2001264621A (en) | Range-finding device | |
JP2012128343A (en) | Camera | |
JP3955201B2 (en) | Auto focus camera | |
JP2000131595A (en) | Camera and focusing device | |
JP2004120582A (en) | Camera | |
JP2000330001A (en) | Range finder | |
JP4647771B2 (en) | Ranging device | |
JP2001174689A (en) | Range-finder | |
JP6699679B2 (en) | Imaging device | |
JP2010113130A (en) | Focus detecting device, imaging apparatus, focus detecting method | |
JP2009258307A (en) | Lens interchangeable type digital camera system | |
JPH1172818A (en) | Multi-point range finder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090616 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100118 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140122 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |