JP3795723B2 - Automatic focusing device, digital camera, portable information input device and focusing position detection method - Google Patents

Automatic focusing device, digital camera, portable information input device and focusing position detection method Download PDF

Info

Publication number
JP3795723B2
JP3795723B2 JP2000064199A JP2000064199A JP3795723B2 JP 3795723 B2 JP3795723 B2 JP 3795723B2 JP 2000064199 A JP2000064199 A JP 2000064199A JP 2000064199 A JP2000064199 A JP 2000064199A JP 3795723 B2 JP3795723 B2 JP 3795723B2
Authority
JP
Japan
Prior art keywords
focus position
detecting
position detection
subject
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000064199A
Other languages
Japanese (ja)
Other versions
JP2001255452A (en
Inventor
憲昭 尾島
純一 篠原
達敏 北島
彰宏 吉田
茂 入沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000064199A priority Critical patent/JP3795723B2/en
Publication of JP2001255452A publication Critical patent/JP2001255452A/en
Application granted granted Critical
Publication of JP3795723B2 publication Critical patent/JP3795723B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、自動合焦装置、デジタルカメラ、および携帯情報入力装置に関し、詳細には、外部AFとCCD−AFで合焦位置の検出を行う自動合焦装置、デジタルカメラ、携帯情報入力装置および合焦位置検出方法に関する。
【0002】
【従来の技術】
従来の電子スチルカメラのAF方式としては、CCDもしくはフォーカスレンズを光軸方向に駆動しながらCCDに蓄積される輝度信号によりピントのピークを見つけるCCD−AF方式か、三角測量方式の自動焦点調節機構が単独で使用されていた。
【0003】
【発明が解決しようとする課題】
しかしながら、上記CCD−AF方式は、図12に示すように、無限遠から最至近まで、CCDまたはフォーカスレンズを駆動して、ピントの山を見つける方式であるため、合焦位置を検出するまでに時間がかかるという問題がある。上述の問題を解決するために、CCD−AF方式では、図13(a)に示すように、粗サンプリングを無限遠から最至近まで行って概略の合焦位置を検出し、つづいて、図13(b)に示すように、概略の合焦位置近傍で細かいサンプリングを行って最終的な合焦位置を検出する方式も提案されている。かかる方式によれば、若干合焦位置の検出時間を短縮できるが、十分とは言えない。
【0004】
た、上述の三角測量方式では、至近距離側での測距のパララックスずれが発生しやすく、また、望遠側での性能が低いなどの問題がある。さらに、撮影者が合焦位置検出手段を指で塞ぐなどのミスにより合焦位置検出手段が遮断されてしまい高精度な合焦位置検出が困難になる場合がある。
【0005】
本発明は、上記に鑑みてなされたものであり、各種の被写体に対して、高精度に合焦位置を検出することが可能な自動合焦装置、デジタルカメラ、携帯情報入力装置および合焦位置検出方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した課題を解決するために、請求項1にかかる発明は、被写体像を所定位置に結像するフォーカスレンズ系を含むレンズ系と、前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、前記撮像手段の出力に基づいて被写体の輝度を検出する被写体輝度検出手段と、前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、前記第1の合焦位置検出手段の実行を指示する第1合焦位置検出実行指示部材と、前記撮像手段とは異なる光電変換手段に入力される光量を検出する光量検出手段と、前記第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出手段が検出した被写体輝度に基づき、前記第1の合焦位置検出手段を動作させるか否かを判断し、前記第1の合焦位置検出手段を動作させると判断した場合であって、前記光量検出手段より光量が不足していると判断した場合は、前記第1の合焦位置検出手段が検出した合焦位置を最終的な合焦位置とし、前記光量検出手段により光量が不足していないと判断した場合は、前記第1合焦位置検出実行指示部材の操作前に前記第2の合焦位置検出手段が検出した合焦位置に基づいて、前記第1の合焦位置検出手段が前記レンズ系を移動させる際の前記レンズの移動開始位置を決定する制御手段と、を備えたものである。
【0009】
また、請求項にかかる発明は、請求項1に記載の自動合焦装置において、前記制御手段は、前記光量検出手段より光量が不足していないと判断した場合は、前記第1の合焦位置検出手段が検出した合焦位置と前記第2の合焦位置検出手段が検出した合焦位置から、最終的な合焦位置を決定する。
【0010】
また、請求項にかかる発明は、請求項1または2に記載の自動合焦装置において、前記第2の合焦位置検出手段は、被写体との距離を複数回検出することにより被写体の動きを検出した場合には、前記第1の合焦位置検出手段を実行せずに、最終的な合焦位置を検出すること、若しくは、移動している被写体の位置を予測して前記第1の合焦位置検出手段の開始位置を演算する。
【0011】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置をデジタルカメラに適用する。
【0012】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を携帯情報入力装置に適用する。
【0013】
また、請求項にかかる発明は、フォーカスレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、撮像手段の出力に基づいて被写体の輝度を検出する被写体輝度検出工程と、前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出工程と、前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出工程と、前記撮像手段とは異なる光電変換手段に入力される光量を検出する光量検出工程と、前記第1の合焦位置検出工程の実行を指示する第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出工程が検出した被写体輝度に基づき、前記第1の合焦位置検出工程を動作させるか否かを判断し、前記第1の合焦位置検出工程を動作させると判断した場合であって、前記光量検出工程より光量が不足していると判断した場合は、前記第1の合焦位置検出工程が検出した合焦位置を最終的な合焦位置とし、前記光量検出工程により光量が不足していないと判断した場合は、前記第1合焦位置検出実行指示部材の操作前に前記第2の合焦位置検出工程が検出した合焦位置に基づいて、前記第1の合焦位置検出工程が前記レンズ系を移動させる際の前記レンズの移動開始位置を決定する制御工程とを含むものである。
【0015】
また、請求項にかかる発明は、請求項に記載の合焦位置検出方法において、前記制御工程は、前記光量検出工程により光量が不足していないと判断した場合は、前記第1の合焦位置検出工程が検出した合焦位置と前記第2の合焦位置検出工程が検出した合焦位置から、最終的な合焦位置を決定する。
【0016】
また、請求項にかかる発明は、請求項6または7に記載の合焦位置検出方法において、前記第2の合焦位置検出手工程は、被写体との距離を複数回検出することにより被写体の動きを検出した場合には、前記第1の合焦位置検出工程を実行せずに、最終的な合焦位置を検出すること、若しくは、移動している被写体の位置を予測して前記第1の合焦位置検出工程の開始位置を演算する。
【0017】
図1は、本発明にかかる自動合焦装置を適用したデジタルカメラの構成図である。同図において、100はデジタルカメラを示しており、デジタルカメラ100は、レンズ系101、絞り・フィルター部等を含むメカ機構102、CCD103、CDS回路104、可変利得増幅器(AGCアンプ)105、A/D変換器106、IPP107、DCT108、コーダー109、MCC110、DRAM111、PCカードインターフェース112、CPU121、表示部122、操作部123、SG(制御信号生成)部126、ストロボ装置127、バッテリ128、DC−DCコンバータ129、EEPROM130、フォーカスドライバ131、パルスモータ132、ズームドライバ133、パルスモータ134、モータドライバ135、外部AFセンサー136を具備して構成されている。また、PCカードインターフェース112を介して着脱可能なPCカード150が接続されている。
【0018】
レンズユニットは、レンズ系101、絞り・フィルター部等を含むメカ機構102からなり、メカ機構102のメカニカルシャッタは2つのフィールドの同時露光を行う。レンズ系101は、例えば、バリフォーカルレンズからなり、フォーカスレンズ系101aとズームレンズ系101bとで構成されている。
【0019】
フォーカスドライバ131は、CPU121から供給される制御信号に従って、パルスモータ132を駆動して、フォーカスレンズ系101aを光軸方向に移動させる。ズームドライバ133は、CPU121から供給される制御信号に従って、パルスモータ134を駆動して、ズームレンズ系101bを光軸方向に移動させる。また、モータドライバ135は、CPU121から供給される制御信号に従ってメカ機構102を駆動し、例えば、絞りの絞り値を設定する。
【0020】
CCD(電荷結合素子)103は、レンズユニットを介して入力した映像を電気信号(アナログ画像データ)に変換する。CDS(相関2重サンプリング)回路104は、CCD型撮像素子に対する低雑音化のための回路である。
【0021】
また、AGCアンプ105は、CDS回路104で相関2重サンプリングされた信号のレベルを補正する。尚、AGCアンプ105のゲインは、CPU121により、CPU121が内蔵するD/A変換器を介して設定データ(コントロール電圧)がAGCアンプ105に設定されることにより設定される。さらにA/D変換器106は、AGCアンプ105を介して入力したCCD103からのアナログ画像データをデジタル画像データに変換する。すなわち、CCD103の出力信号は、CDS回路104およびAGCアンプ105を介し、またA/D変換器106により、最適なサンプリング周波数(例えば、NTSC信号のサブキャリア周波数の整数倍)にてデジタル信号に変換される。
【0022】
また、デジタル信号処理部であるIPP(Image Pre-Processor)107、DCT(Discrete Cosine Transform)108、およびコーダー(Huffman Encoder/Decoder)109は、A/D変換器106から入力したデジタル画像データについて、色差(Cb、Cr)と輝度(Y)に分けて各種処理、補正および画像圧縮/伸長のためのデータ処理を施す。DCT108およびコーダー109は、例えばJPEG準拠の画像圧縮・伸長の一過程である直交変換・逆直交変換、並びに、JPEG準拠の画像圧縮・伸長の一過程であるハフマン符号化・復号化等を行う。
【0023】
さらに、MCC(Memory Card Controller)110は、圧縮処理された画像を一旦蓄えてPCカードインターフェース112を介してPCカード150への記録、或いはPCカード150からの読み出しを行う。
【0024】
CPU121は、ROMに格納されたプログラムに従ってRAMを作業領域として使用して、操作部123からの操作、或いは図示しないリモコン等の外部動作操作に従い、上記デジタルカメラ内部の全動作を制御する。具体的には、CPU121は、撮像動作、自動露出(AE)動作、自動ホワイトバランス(AWB)調整動作や、AF動作等の制御を行う。
【0025】
また、カメラ電源はバッテリ128、例えば、NiCd、ニッケル水素、リチウム電池等から、DC−DCコンバータ129に入力され、当該デジタルカメラ内部に供給される。
【0026】
表示部122は、LCD、LED、EL等で実現されており、撮影したデジタル画像データや、伸長処理された記録画像データ、設定画面等の表示を行う。操作部123は、撮影の指示を行うためのレリーズキー、機能選択およびその他の各種設定を外部から行うためのボタン等を備えている。CPU121は、レリーズキーが半押しされてRL−1がONとなるとAF動作等を実行し、また、レリーズキーが全押しされてRL−2がONとなると撮影動作を実行する。EEPROM130には、CPU121がデジタルカメラの動作を制御する際に使用する調整データ等が書き込まれている。
【0027】
上記したデジタルカメラ100(CPU121)は、被写体を撮像して得られる画像データをPCカード150に記録する記録モードと、PCカード150に記録された画像データを表示する表示モードと、撮像した画像データを表示部122に直接表示するモニタリングモード等を備えている。
【0028】
図2は、上記IPP107の具体的構成の一例を示す図である。IPP107は、図2に示す如く、A/D変換器106から入力したデジタル画像データをR・G・Bの各色成分に分離する色分離部1071と、分離されたR・G・Bの各画像データを補間する信号補間部1072と、R・G・Bの各画像データの黒レベルを調整するペデスタル調整部1073と、R、Bの各画像データの白レベルを調整するホワイトバランス調整部1074と、CPU121により設定されたゲインでR・G・Bの各画像データを補正するデジタルゲイン調整部1075と、R・G・Bの各画像データのγ変換を行うガンマ変換部1076と、RGBの画像データを色差信号(Cb、Cr)と輝度信号(Y)とに分離するマトリクス部1077と、色差信号(Cb、Cr)と輝度信号(Y)とに基づいてビデオ信号を作成し表示部122に出力するビデオ信号処理部1078と、を備えている。
【0029】
更に、IPP107は、ペデスタル調整部1073によるペデスタル調整後の画像データの輝度データ(Y)を検出するY演算部1079と、Y演算部1079で検出した輝度データ(Y)の所定周波数成分のみを通過させるBPF1080と、BPF1080を通過した輝度データ(Y)の積分値をAF評価値としてCPU121に出力するAF評価値回路1081と、Y演算部1079で検出した輝度データ(Y)に応じたデジタルカウント値をAE評価値としてCPU121に出力するAE評価値回路1082と、ホワイトバランス調整部1074による調整後のR・G・Bの各画像データの輝度データ(Y)を検出するY演算部1083と、Y演算部1083で検出した各色の輝度データ(Y)をそれぞれカウントして各色のAWB評価値としてCPU121に出力するAWB評価値回路1084と、CPU121とのインターフェースであるCPUI/F1085と、及びDCT108とのインターフェースであるDCTI/F1086等を備えている。
【0030】
図1の外部AFセンサー136は、パッシブ方式の測距センサーからなり、被写体の距離を測距するためのものである。図3は、外部AFセンサーの概略構成を示す図である。外部AFセンサー136は、レンズ151と、フォトセンサーアレイ152a(左側)、152b(右側)と、演算回路(不図示)を備えている。図3および図4を参照して外部AFセンサー136の測距原理を説明する。図3において、被写体までの距離をd、レンズ151とフォトセンサーアレイ152a(左側)、152b(右側)との距離をf、フォトセンサーアレイ152a(左側)、152b(右側)に入力する光の幅をそれぞれ、X1、X2、光の入射されるフォトセンサーアレイ152a、152b間の距離をBとすると、外部AFセンサー136の前面から被写体までの距離dは、三角測量により、d=B・f/(X1+X2)で算出できる。図4は、左右のフォトセンサーアレイの被写体像を示しており、演算回路は、各フォトセンサーアレイの被写体像の光量を積分し、左右センサーデータのずれを演算することで、被写体の距離dを算出し、CPU121に出力する。
【0031】
本明細書において、外部AFセンサー136を使用して合焦位置を検出する動作を外部AFといい、CCD103を使用して合焦位置を検出する場合をCCD−AF(内部AF)という。CCD−AFでは、フォーカスレンズ101aを移動して、CCD103から出力される画像信号に応じた被写体のコントラストを示すAF評価値をサンプリングし、AF評価値のピーク位置を合焦位置とする山登りサーボ方式を使用する。外部AFとCCD−AFを使用してAFを行うことをハイブリットAFという。
【0032】
つぎに、上記構成のデジタルカメラのAFに関する動作を図5〜図11を参照して説明する。図5〜図8はCPU121の制御により実行されるデジタルカメラのAFに関する動作を説明するためのフローチャートである。
【0033】
図5において、まず、電源が投入されると(ステップS1)、CPU121は、外部AFの実行タイミングであるか否かを判断し(ステップS2)、この判断の結果、外部AFの実行タイミングでない場合には、ステップS4に移行する一方、外部AFの実行タイミングであれば、外部AFによる測距処理を実行して(ステップS3)、外部AFセンサー136は被写体との距離を測距して、ステップS4に移行する。
【0034】
ステップS4では、CPU121は、レリーズキーが半押しされて、RL−1キーがONされたか否かを判断する。RL−1がONでない場合には、ステップS2に戻り、RL−1がONされるまで、外部AFの実行タイミングで、外部AFの測距処理が行われる。他方、ステップS4で、RL−1がONされた場合には、CPU121はIPP107を介して被写体の明るさを示すAE評価値を取得し、AE評価値に基づいてCCD−AFが可能な明るさであるか否かを判断する(ステップS5)。具体的には、AE評価値が所定値(第1の基準値)よりも大きい場合には、CCD−AFが可能な明るさであると判断し、AE評価値が所定値(第1の基準値)以下の場合には、CCD−AFが可能な明るさでないと判断する。そして、CCD−AFが可能な明るさであると判断した場合には、ステップS6に移行する。
【0035】
他方、ステップS5で、CCD−AFが可能な明るさでないと判断した場合には、図6のステップS31に移行して、CPU121は、CCD−AFを実行しないで、外部AFのみの合焦結果に基づいて最終的な合焦位置を決定する(ステップS31〜S33)。具体的には、ステップS31では、外部AFの測距処理を実行する。この外部AFの測距処理では、外部AFセンサー136により、被写体との距離の測定が行われ合焦位置の検出が行われる。そして、CPU121は外部AFが終了したか否かを判断し(ステップS32)、外部AFが終了した場合にはステップS33に移行し、適正な外部AFの測定結果が得られたか否かを判断する。具体的には、CPU121は、外部AFセンサー136に入力される光量に基づいて、被写体が所定値(第2の基準値)よりも暗い、もしくは、コントラストが低いと判断した場合には、外部AFの結果が適正でないと判定する。そして、適正な測定結果が得られたと判断した場合には、図8のステップS19に移行して、外部AFで検出された合焦位置を最終的な合焦位置に決定する。他方、ステップS33で、適正な外部AFの測定結果が得られなかったと判断した場合には、図8のステップS21に移行して、常焦点位置を最終的な合焦位置に決定する。
【0036】
さて、ステップS6では、CPU121は、外部AFの結果が適正か否かを判断する。具体的には、CPU121は、外部AFセンサー136に入力される光量に基づいて、被写体が所定値(第2の基準値)よりも暗い、もしくは、コントラストが低いと判断した場合には、外部AFの結果が適正でないと判定する。外部AFの結果が適正であると判断した場合には、ステップS7に移行する。
【0037】
他方、ステップS6で、外部AFの結果が適正でないと判断した場合には、図7のステップS41に移行して、CPU121は、CCD−AFのみの合焦結果に基づいて最終的な合焦位置を決定する(ステップS41〜S44)。具体的には、ステップS41では、フォーカスレンズ101aの移動可能な全領域でAF評価値のサンプリングを行うべく、CPU121は、フォーカスレンズ101aを全領域でAF評価値のサンプリングを行う場合のCCD−AF開始位置(基準位置)に移動させ、全領域についてCCD−AFを開始させる(ステップS42)。CCD−AFでは、フォーカスレンズ系101aを開始位置から移動させて、全領域でAF評価値を取得し、合焦位置の検出が行われる。そして、CPU121は、CCD−AFが終了したか否かを判断し(ステップS43)、CCD−AFが終了した場合には、ステップS44に移行し、適正なCCD−AFの検出結果が得られたか否かを判断する。ここで、適正な検出結果とは、AF評価値にピークがある場合等をいい、適正でない検出結果とはAF評価値にピークがなく被写体にコントラストがない場合等をいう。適正な検出結果が得られたと判断した場合には、図8のステップS20に移行して、CCD−AFで検出された合焦位置を最終的な合焦位置に決定する。他方、ステップS44で、適正な外部AFの検出結果が得られなかったと判断した場合には、図8のステップS21に移行して、常焦点位置を最終的な合焦位置に決定する。
【0038】
また、図5のステップS5で、CCD−AFが可能な明るさであると判断され、かつ、図5のステップS6で、外部AFの結果が適正であると判断された場合には、CPU121は、CCD−AFと外部AFを略同時に実行して合焦位置の検出を行う。具体的には、まず、図5のステップS7では、CPU121は、ステップS3の外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出し、算出したCCD−AFの開始位置(基準位置)にフォーカスレンズ系101aを移動させる。つづいて、CPU121は、フォーカスレンズ系101aを基準位置に移動した後、外部AFとCCD−AFを略同時にスタートさせる(ステップS8)。外部AFでは、外部AFセンサー136により、被写体との距離の測定が行われ合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、AF評価値を取得し、合焦位置の検出が行われる。
【0039】
その後、CPU121は、外部AFが終了したか否かを判断し(ステップS9)、外部AFが終了した場合には、外部AFの結果が適正か否かを判断する(ステップS10)。具体的には、CPU121は、外部AFセンサー136に入力される光量に基づいて、被写体が所定値(第2の基準値)よりも暗い、もしくは、コントラストが低いと判断した場合には、外部AFの結果が適正でないと判定する。外部AFの結果が適正であると判断した場合には、ステップS11に移行する。他方、外部AFの結果が適正でないと判断した場合には、図7のステップS41に移行して、CPU121は、全域でCCD−AFを実行して、CCD−AFのみの合焦結果に基づいて最終的な合焦位置を決定する。
【0040】
ステップS11では、CPU121は、外部AFの距離測定結果に変化があるか否かを判断する。具体的には、上記ステップS3で検出した被写体距離と、ステップS8で検出した被写体距離とで変化があるか否かを判断する。ここで変化があるということは被写体が移動していることを示している。外部AFの距離測定結果に変化がないと判断した場合にはステップS14に移行する。他方、CPU121は、外部AFの距離測定結果に変化があると判断した場合には、CCD−AFを中断させて、上記ステップS3で検出した被写体距離とステップS8で検出した被写体距離とに基づいて、移動している被写体の位置を予測して、CCD−AFの新たな開始位置(基準位置)を演算し、当該演算した開始位置にフォーカスレンズ系101aを移動させる(ステップS12)。そして、この新たな開始位置の近傍で、CCD−AFを再実行する(ステップS13)。
【0041】
ステップS14では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、図8のステップS15に移行し、適正なCCD−AFの検出結果が得られたか否かを判断する。ここで、適正な検出結果とは、AF評価値にピークがある場合等をいい、適正でない検出結果とはAF評価値にピークがなく被写体にコントラストがない場合等をいう。適正なCCD−AFの結果が得られなかったと判断した場合には、ステップS19に移行して、外部AFで検出された合焦位置を最終的な合焦位置に決定する。他方、ステップS15で適正なCCD−AFの検出結果が得られたと判断した場合には、ステップS16に移行して、CPU121は、CCD−AFで検出された合焦位置に対応する被写体距離と外部AFで検出された被写体距離の差が所定範囲内であるか否かを判断する。この判断の結果、CCD−AFで検出された合焦位置に対応する被写体距離と外部AFで検出された被写体距離の差が所定範囲内にない場合には、ステップS21に移行して、常焦点位置を最終的な合焦位置に決定する。
【0042】
他方、ステップS16で、CCD−AFで検出された合焦位置に対応する被写体距離と外部AFで検出された被写体距離の差が所定範囲内にあると判断した場合には、ステップS17に移行して、CPU121は、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、高輝度被写体があるか否かを判定する。そして、CPU121は、高輝度被写体があると判断した場合には(ステップS18)、ステップS19に移行して、外部AFで検出された合焦位置を最終的な合焦位置に決定する。また、ステップS18で高輝度被写体がないと判断した場合には、CCD−AFで検出された合焦位置を最終的な合焦位置に決定する(ステップS20)。
【0043】
この後、CPU121は、決定した合焦位置にフォーカスレンズ系101aを移動させる。そして、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0044】
図9および図10は、外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。図9に示すように、RL−1のONに先行して、外部AFによる測距処理が実行され、RL−1がONされると、外部AFとCCD−AFを略同時に実行する。
【0045】
図10はCCD−AFの実行を中断して、再実行する場合を説明するためのタイミングチャートを示す。外部AFの距離測定結果に変化がある場合には(上記ステップS11)、実行中のCCD−AF(▲1▼))を中断して、CCD−AFの開始位置(基準位置)を再演算して、当該演算した開始位置にフォーカスレンズ系101aを移動させ(上記ステップS12)、当該再演算した開始位置からCCD−AF(▲2▼)を再実行する(上記ステップS13)。
【0046】
図11はハイブリットAFに関する基本動作を説明するための説明図を示す。同図において、縦軸はコントラスト(AF評価値)、横軸はレンズ位置(至近〜無限)を示している。まず、外部AFにより合焦位置を検出し、ついで、当該検出された合焦位置の近傍で、CCD−AFで細かいサンプリングを行って、合焦位置を検出する。そして、両合焦位置に基づいて最終的な合焦位置を決定する。
【0047】
以上説明したように、本実施の形態においては、被写体の明るさがCCD−AFを実行可能なレベルでないと判断した場合には、CCD−AFを実行しないで、外部AFを優先的に実行して合焦位置を決定することとしたので、暗い被写体についても、高精度な合焦位置の検出が可能となる。
【0048】
また、本実施の形態においては、被写体の明るさがCCD−AFを実行可能なレベルである場合に、外部AFの検出結果が適正でないと判断した場合には、CCD−AFを優先的に全域で実行して合焦位置を決定することとしたので、外部AFセンサー136を何かが遮っている場合でも、正確な合焦位置の検出が可能となる。付言すると、撮影者が外部AFセンサー136を指で塞ぐなどのミスを犯しても、高精度な合焦位置の検出が可能となる。
【0049】
なお、CCD−AFは時間がかかるため、動きのある被写体は比較的苦手である。そこで、上記ステップS3で所定時間間隔で行われる外部AFの測距処理の複数回の距離測定結果に基づいて、被写体の動きを検出し、被写体の動きがある場合には、CCD−AFを実行しないで、外部AFを優先的に実行して合焦位置を決定することしても良い。これにより、動きのある被写体に対しても高精度な合焦位置の検出が可能となる。
【0050】
また、本実施の形態においては、電源のONがなされると、レリーズキーの押下に先行して、すなわち、レリーズキーが押下されない状態においても、所定の間隔で外部AFで測距処理を行い、レリーズキーが押下された場合には、外部AFの測距結果に基づいてCCD−AFを行う場合の基準位置を算出して、当該基準位置の近傍でCCD−AFを行うこととしたので、レリーズキーが押下された後に、外部AFを実行し、その後、外部AFの結果に基づいてCCD−AFを実行する場合に比して、AF時間を短縮することが可能となる。
【0051】
また、本実施の形態では、外部AFセンサーとして、パッシブ方式の測距センサーを使用することとしたので、小型化、低コスト化、処理の簡略化が可能となる。
【0052】
なお、本発明は上記した実施の形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変形して実行可能である。例えば、本実施の形態においては、本発明にかかる自動合焦装置をデジタルカメラに適用した例を説明したが、本発明はこれに限られるものではなく、PDA等の携帯情報入力装置等にも適用可能である。要は、画像を入力する際にAFを行う全ての装置に適用可能である。
【0053】
【発明の効果】
請求項1にかかる自動合焦装置によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、被写体輝度検出手段は撮像手段の出力に基づいて被写体の輝度を検出し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、制御手段は、第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出手段が検出した被写体輝度に基づき、前記第1の合焦位置検出手段を動作させるか否かを判断し、前記第1の合焦位置検出手段を動作させると判断した場合であって、前記光量検出手段より光量が不足していると判断した場合は、前記第1の合焦位置検出手段が検出した合焦位置を最終的な合焦位置とし、光量検出手段により光量が不足していないと判断した場合は、第1合焦位置検出実行指示部材の操作前に第2の合焦位置検出手段が検出した合焦位置に基づいて、第1の合焦位置検出手段がレンズ系を移動させる際のレンズの移動開始位置を決定することとしたので、各種の被写体に対して、高精度な合焦位置の検出が可能となる。また、第2の合焦位置検出手段を何かが遮っている場合でも、正確な合焦位置の検出が可能となる。付言すると、撮影者が第2の合焦位置検出手段を指で塞ぐなどのミスを犯しても、高精度な合焦位置の検出が可能となる。さらに、第1合焦位置検出実行指示部材の操作に先行して第2の合焦位置検出手段が検出した合焦位置に基づいて第1の合焦位置検出手段を行うこととしたので、第1合焦位置検出実行指示部材の操作後に、第2の合焦位置検出手段を実行し、その後、第2の合焦位置検出手段の結果に基づいて第1の合焦位置検出手段を実行する場合に比して、時間を短縮することが可能となる。
【0054】
また、請求項にかかる自動合焦装置によれば、請求項1または2にかかる自動合焦装置において、第2の合焦位置検出手段は、被写体との距離を複数回検出することにより被写体の動きを検出した場合には、第1の合焦位置検出手段を実行せずに、最終的な合焦位置を検出すること、若しくは、移動している被写体の位置を予測して第1の合焦位置検出手段の開始位置を演算することとしたので、請求項1にかかる自動合焦装置に効果に加えて、動きのある被写体に対しても、高精度な合焦位置の検出が可能となる。
【0055】
また、請求項にかかるデジタルカメラによれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、各種の被写体に対して、高精度に合焦位置を検出することが可能なデジタルカメラを提供することができるという効果を奏する。
【0056】
また、請求項にかかる携帯情報入力装置によれば、請求項1〜請求項のいずれか1つにかかる自動合焦装置を適用することとしたので、各種の被写体に対して、高精度に合焦位置を検出することが可能な携帯情報入力装置を提供することができるという効果を奏する。
【0057】
また、請求項にかかる合焦位置検出方法によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、被写体輝度検出工程は撮像手段の出力に基づいて被写体の輝度を検出し、第1の合焦位置検出工程は撮像手段を使用して、レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出工程は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、制御工程は、第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出工程が検出した被写体輝度に基づき、前記第1の合焦位置検出工程を動作させるか否かを判断し、前記第1の合焦位置検出工程を動作させると判断した場合であって、前記光量検出手段より光量が不足していると判断した場合は、前記第1の合焦位置検出工程が検出した合焦位置を最終的な合焦位置とし、前記光量検出工程により光量が不足していないと判断した場合は、前記第1合焦位置検出実行指示部材の操作前に前記第2の合焦位置検出工程が検出した合焦位置に基づいて、前記第1の合焦位置検出工程が前記レンズ系を移動させる際の前記レンズの移動開始位置を決定することとしたので、各種の被写体に対して、高精度な合焦位置の検出が可能となる。また、第2の合焦位置検出手段を何かが遮っている場合でも、正確な合焦位置の検出が可能となる。付言すると、撮影者が第2の合焦位置検出手段を指で塞ぐなどのミスを犯しても、高精度な合焦位置の検出が可能となる。さらに、第1合焦位置検出実行指示部材の操作に先行して第2の合焦位置検出工程が検出した合焦位置に基づいて第1の合焦位置検出工程を行うこととしたので、第1合焦位置検出実行指示部材の操作後に、第2の合焦位置検出工程を実行し、その後、第2の合焦位置検出工程の結果に基づいて第1の合焦位置検出工程を実行する場合に比して、時間を短縮することが可能となる。
【図面の簡単な説明】
【図1】 本実施の形態に係るデジタルカメラの構成図である。
【図2】 図1のIPPの具体的構成の一例を示す図である。
【図3】 図1の外部AFセンサーの概略構成を示す図である。
【図4】 外部AFセンサーの測距原理を説明するための説明図である。
【図5】 AFに関する動作を説明するためのフローチャートである(その1)。
【図6】 AFに関する動作を説明するためのフローチャートである(その2)。
【図7】 AFに関する動作を説明するためのフローチャートである(その3)。
【図8】 AFに関する動作を説明するためのフローチャートである(その4)。
【図9】 外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートである(その1)。
【図10】 外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートである(その2)。
【図11】 ハイブリットAFの基本動作を説明するための説明図である。
【図12】 従来のCCD−AF方式を説明するための説明図である。
【図13】 従来のCCD−AF方式を説明するための説明図である。
【符号の説明】
100 デジタルカメラ
101 レンズ系
101a フォーカスレンズ系
101b ズームレンズ系
102 オートフォーカス等を含むメカ機構
103 CCD(電荷結合素子)
104 CDS(相関2重サンプリング)回路
105 可変利得増幅器(AGCアンプ)
106 A/D変換器
107 IPP(Image Pre-Processor)
108 DCT(Discrete Cosine Transform)
109 コーダー(Huffman Encoder/Decoder)
110 MCC(Memory Card Controller)
111 RAM(内部メモリ)
112 PCカードインターフェース
121 CPU
122 表示部
123 操作部
125 モータドライバ
126 SG部
127 ストロボ
128 バッテリ
129 DC−DCコンバータ
130 EEPROM
131 フォーカスドライバ
132 パルスモータ
133 ズームドライバ
134 パルスモータ
135 モータドライバ
136 外部AFセンサー
150 PCカード
151 レンズ
152 フォトセンサーアレイ
153 演算回路
1071 色分離部
1072 信号補間部
1073 ペデスタル調整部
1074 ホワイトバランス調整部
1075 デジタルゲイン調整部
1076 γ変換部
1077 マトリクス部
1078 ビデオ信号処理部
1079 Y演算部
1080 BPF
1081 AF評価値回路
1082 AE評価値回路
1083 Y演算部
1084 AWB評価値回路
1085 CPUI/F
1086 DCTI/F
1075r、1075g、1075b 乗算器
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an automatic focusing device, a digital camera, and a portable information input device, and more specifically, an automatic focusing device, a digital camera, a portable information input device that detect an in-focus position with an external AF and a CCD-AF, andIn-focus position detection methodAbout.
[0002]
[Prior art]
  As an AF method for a conventional electronic still camera, a CCD-AF method for finding a focus peak by a luminance signal accumulated in the CCD while driving a CCD or a focus lens in the optical axis direction, or a triangulation type automatic focus adjustment mechanism Was used alone.
[0003]
[Problems to be solved by the invention]
  However, as shown in FIG. 12, the CCD-AF system is a system in which the CCD or focus lens is driven from infinity to the nearest position to find the peak of focus, so it takes time to detect the in-focus position. There is a problem that it takes. In order to solve the above-described problem, in the CCD-AF system, as shown in FIG. 13A, rough sampling is performed from infinity to the nearest position to detect the approximate focus position, and then FIG. As shown in b), a method of detecting the final in-focus position by performing fine sampling near the approximate in-focus position has been proposed. According to such a method, the detection time of the in-focus position can be slightly shortened, but it cannot be said to be sufficient.
[0004]
MaIn addition, the above-described triangulation method has a problem that a parallax shift in distance measurement on the close distance side is likely to occur, and performance on the telephoto side is low. further,The focus position detection means may be blocked due to an error such as the photographer blocking the focus position detection means with a finger, and it may be difficult to detect the focus position with high accuracy.
[0005]
  The present invention has been made in view of the above, and for various subjects.HighAutomatic focusing device, digital camera, portable information input device capable of detecting focus position accuratelyIn-focus position detection methodThe purpose is to provide.
[0006]
[Means for Solving the Problems]
  In order to solve the above-described problem, the invention according to claim 1 is configured to capture a subject image input through the lens system including a lens system including a focus lens system that forms a subject image at a predetermined position. An imaging means for outputting image data, a subject brightness detection means for detecting the brightness of a subject based on the output of the imaging means, and the imaging means are used to sample the contrast of the subject by moving the lens system. The first focus position detecting means for detecting the focus position and the photoelectric conversion means different from the imaging means are used to detect the distance to the subject and detect the focus position of the lens system. 2 in-focus position detecting means, a first in-focus position detection execution instructing member for instructing execution of the first in-focus position detecting means, and a light amount input to a photoelectric conversion means different from the imaging means. Light intensity Whether or not to operate the first focus position detection means based on the subject brightness detected by the subject brightness detection means when the exit means and the first focus position detection execution instruction member are operated. If it is determined that the first focus position detection unit is to be operated, and if it is determined that the light amount is insufficient from the light amount detection unit, the first focus position detection unit is The detected focus position is the final focus position.If it is determined by the light quantity detection means that the light quantity is not insufficient, based on the focus position detected by the second focus position detection means before the operation of the first focus position detection execution instructing member. And determining the movement start position of the lens when the first focus position detecting means moves the lens system.And a control means.
[0009]
  Claims2The invention according to claim1In the automatic focusing device described above, when the control unit determines that the light amount is not insufficient from the light amount detection unit, the control unit detects the focus position detected by the first focus position detection unit and the second focus position detection unit. The final focus position is determined from the focus position detected by the focus position detection means.
[0010]
  Claims3The invention according to claim 1 is directed to claim 1.Or 2In the automatic focusing device described in the above,Second focus positionThe detection means isBy detecting the distance to the subject multiple timesDetects subject movementIn this case, the first in-focus position detecting means is not executed, but the final in-focus position is detected, or the position of the moving subject is predicted and the first in-focus position is detected. Calculate the start position of the position detection meansTo do.
[0011]
  Claims4The invention according to claim 1 to claim 13The automatic focusing device according to any one of the above is applied. According to the invention, claims 1 to claim3The automatic focusing device according to any one of the above is applied to a digital camera.
[0012]
  Claims5The invention according to claim 1 to claim 13The automatic focusing device according to any one of the above is applied. According to the invention, claims 1 to claim3The automatic focusing device according to any one of the above is applied to a portable information input device.
[0013]
  Claims6According to the invention, in a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system, a subject brightness detection step of detecting the brightness of the subject based on an output of the image pickup means, and the image pickup means A first focus position detecting step of detecting the focus position by moving the lens system by sampling the contrast of the subject using a photoelectric conversion means different from the imaging means, A second in-focus position detecting step for detecting the in-focus position of the lens system by detecting a distance to the lens system, a light amount detecting step for detecting a light amount input to a photoelectric conversion means different from the imaging means, When the first focus position detection execution instructing member for instructing execution of the first focus position detection step is operated, the first focus is based on the subject brightness detected by the subject brightness detection step. Determines whether to operate the 置検 out step, in a case where it is determined that operating the first focus position detection step, the light quantity detectionProcessIf it is determined that the amount of light is further insufficient, the in-focus position detected by the first in-focus position detection step is set as the final in-focus position.If it is determined by the light amount detection step that the light amount is not insufficient, based on the focus position detected by the second focus position detection step before the operation of the first focus position detection execution instruction member. And determining the movement start position of the lens when the first focus position detection step moves the lens system.And a control process.
[0015]
  Claims7The invention according to claim6Described inIn-focus position detection methodIn the control step, the light quantity detectionIn the processIf it is determined that the amount of light is not insufficient, the final focus is determined from the focus position detected by the first focus position detection step and the focus position detected by the second focus position detection step. Determine the focal position.
[0016]
  Claims8The invention according to claim6 or 7Described inIn-focus position detection methodIn the aboveSecond focus positionThe detection process isBy detecting the distance to the subject multiple timesDetects subject movementIn this case, the first in-focus position detection step is not executed, but the final in-focus position is detected, or the position of the moving subject is predicted to predict the first in-focus position. Calculate the start position of the position detection processTo do.
[0017]
  FIG. 1 is a block diagram of a digital camera to which an automatic focusing device according to the present invention is applied. In the figure, reference numeral 100 denotes a digital camera. The digital camera 100 includes a lens system 101, a mechanical mechanism 102 including an aperture / filter unit, a CCD 103, a CDS circuit 104, a variable gain amplifier (AGC amplifier) 105, an A / A D converter 106, IPP 107, DCT 108, coder 109, MCC 110, DRAM 111, PC card interface 112, CPU 121, display unit 122, operation unit 123, SG (control signal generation) unit 126, strobe device 127, battery 128, DC-DC A converter 129, an EEPROM 130, a focus driver 131, a pulse motor 132, a zoom driver 133, a pulse motor 134, a motor driver 135, and an external AF sensor 136 are provided. A detachable PC card 150 is connected via the PC card interface 112.
[0018]
  The lens unit includes a mechanical mechanism 102 including a lens system 101, an aperture / filter unit, and the like. A mechanical shutter of the mechanical mechanism 102 performs simultaneous exposure of two fields. The lens system 101 is composed of, for example, a varifocal lens, and includes a focus lens system 101a and a zoom lens system 101b.
[0019]
  The focus driver 131 drives the pulse motor 132 according to the control signal supplied from the CPU 121 to move the focus lens system 101a in the optical axis direction. The zoom driver 133 drives the pulse motor 134 according to the control signal supplied from the CPU 121 to move the zoom lens system 101b in the optical axis direction. Further, the motor driver 135 drives the mechanical mechanism 102 in accordance with a control signal supplied from the CPU 121, and sets, for example, an aperture value of the aperture.
[0020]
  A CCD (charge coupled device) 103 converts an image input via the lens unit into an electrical signal (analog image data). A CDS (correlated double sampling) circuit 104 is a circuit for reducing noise in the CCD type image pickup device.
[0021]
  In addition, the AGC amplifier 105 corrects the level of the signal that has been correlated and sampled by the CDS circuit 104. The gain of the AGC amplifier 105 is set by the CPU 121 when setting data (control voltage) is set in the AGC amplifier 105 via a D / A converter built in the CPU 121. Further, the A / D converter 106 converts analog image data from the CCD 103 input via the AGC amplifier 105 into digital image data. That is, the output signal of the CCD 103 is converted into a digital signal through the CDS circuit 104 and the AGC amplifier 105 and by the A / D converter 106 at an optimum sampling frequency (for example, an integer multiple of the subcarrier frequency of the NTSC signal). Is done.
[0022]
  Further, an IPP (Image Pre-Processor) 107, a DCT (Discrete Cosine Transform) 108, and a coder (Huffman Encoder / Decoder) 109, which are digital signal processing units, are provided for digital image data input from the A / D converter 106. Various processing, correction, and data processing for image compression / decompression are performed separately for color differences (Cb, Cr) and luminance (Y). The DCT 108 and the coder 109 perform, for example, orthogonal transformation / inverse orthogonal transformation, which is a JPEG-compliant image compression / decompression process, and Huffman coding / decoding, which is a JPEG-compliant image compression / decompression process.
[0023]
  Further, an MCC (Memory Card Controller) 110 temporarily stores the compressed image and records it on the PC card 150 or reads it from the PC card 150 via the PC card interface 112.
[0024]
  The CPU 121 uses the RAM as a work area according to a program stored in the ROM, and controls all operations inside the digital camera according to an operation from the operation unit 123 or an external operation operation such as a remote controller (not shown). Specifically, the CPU 121 controls an imaging operation, an automatic exposure (AE) operation, an automatic white balance (AWB) adjustment operation, an AF operation, and the like.
[0025]
  Camera power is input from a battery 128, such as NiCd, nickel metal hydride, or a lithium battery, to the DC-DC converter 129 and supplied into the digital camera.
[0026]
  The display unit 122 is implemented by an LCD, LED, EL, or the like, and displays captured digital image data, decompressed recorded image data, a setting screen, and the like. The operation unit 123 includes a release key for instructing shooting, buttons for function selection, and other various settings from the outside. The CPU 121 executes an AF operation or the like when the release key is pressed halfway and RL-1 is turned on, and performs a shooting operation when the release key is fully pressed and RL-2 is turned on. In the EEPROM 130, adjustment data and the like used when the CPU 121 controls the operation of the digital camera are written.
[0027]
  The above-described digital camera 100 (CPU 121) includes a recording mode in which image data obtained by imaging a subject is recorded on the PC card 150, a display mode in which image data recorded on the PC card 150 is displayed, and captured image data. Is provided directly on the display unit 122.
[0028]
  FIG. 2 is a diagram illustrating an example of a specific configuration of the IPP 107. As shown in FIG. 2, the IPP 107 includes a color separation unit 1071 that separates digital image data input from the A / D converter 106 into R, G, and B color components, and separated R, G, and B images. A signal interpolation unit 1072 that interpolates data, a pedestal adjustment unit 1073 that adjusts the black level of each of the R, G, and B image data, and a white balance adjustment unit 1074 that adjusts the white level of each of the R and B image data , A digital gain adjustment unit 1075 that corrects R, G, and B image data with a gain set by the CPU 121, a gamma conversion unit 1076 that performs γ conversion of the R, G, and B image data, and an RGB image A matrix unit 1077 for separating data into color difference signals (Cb, Cr) and luminance signals (Y), and a video signal based on the color difference signals (Cb, Cr) and luminance signals (Y). A video signal processing unit 1078 to be output to the display unit 122, and a.
[0029]
  Further, the IPP 107 passes through only a Y calculating unit 1079 that detects luminance data (Y) of image data after pedestal adjustment by the pedestal adjusting unit 1073, and a predetermined frequency component of the luminance data (Y) detected by the Y calculating unit 1079. The BPF 1080 to be output, the AF evaluation value circuit 1081 that outputs the integrated value of the luminance data (Y) that has passed through the BPF 1080 to the CPU 121 as an AF evaluation value, and the digital count value corresponding to the luminance data (Y) detected by the Y calculation unit 1079 AE evaluation value circuit 1082 that outputs to the CPU 121 as an AE evaluation value, a Y calculation unit 1083 that detects luminance data (Y) of each of the R, G, and B image data after adjustment by the white balance adjustment unit 1074, and Y The luminance data (Y) of each color detected by the calculation unit 1083 is counted, and the AWB of each color is counted. And AWB evaluation value circuit 1084 outputs the CPU 121 as a value, and a CPUI / F1085 is an interface with the CPU 121, and the DCTI / F1086 such an interface with the DCT108.
[0030]
  The external AF sensor 136 in FIG. 1 is composed of a passive distance measuring sensor, and is used to measure the distance of the subject. FIG. 3 is a diagram showing a schematic configuration of the external AF sensor. The external AF sensor 136 includes a lens 151, photosensor arrays 152a (left side) and 152b (right side), and an arithmetic circuit (not shown). The principle of distance measurement of the external AF sensor 136 will be described with reference to FIGS. In FIG. 3, the distance to the subject is d, the distance between the lens 151 and the photo sensor arrays 152a (left side) and 152b (right side) is f, and the width of light input to the photo sensor arrays 152a (left side) and 152b (right side). , X1 and X2, and the distance between the photosensor arrays 152a and 152b on which light is incident is B, the distance d from the front surface of the external AF sensor 136 to the subject is obtained by triangulation by d = B · f / It can be calculated by (X1 + X2). FIG. 4 shows the subject images of the left and right photosensor arrays, and the arithmetic circuit integrates the light amounts of the subject images of the respective photosensor arrays and calculates the deviation of the left and right sensor data, thereby calculating the subject distance d. Calculate and output to the CPU 121.
[0031]
  In this specification, the operation of detecting the in-focus position using the external AF sensor 136 is referred to as external AF, and the case of detecting the in-focus position using the CCD 103 is referred to as CCD-AF (internal AF). In the CCD-AF, the focus lens 101a is moved, the AF evaluation value indicating the contrast of the subject corresponding to the image signal output from the CCD 103 is sampled, and the hill-climbing servo system using the peak position of the AF evaluation value as the in-focus position. Is used. Performing AF using external AF and CCD-AF is called hybrid AF.
[0032]
  Next, operations related to AF of the digital camera having the above-described configuration will be described with reference to FIGS. 5 to 8 are flowcharts for explaining operations related to AF of the digital camera executed under the control of the CPU 121.
[0033]
  In FIG. 5, first, when the power is turned on (step S1), the CPU 121 determines whether or not it is the execution timing of the external AF (step S2). In step S4, if the external AF execution timing is reached, the external AF distance measurement processing is executed (step S3), and the external AF sensor 136 measures the distance to the subject. The process proceeds to S4.
[0034]
  In step S4, the CPU 121 determines whether or not the release key is pressed halfway and the RL-1 key is turned on. If RL-1 is not ON, the process returns to step S2, and ranging processing of external AF is performed at the execution timing of external AF until RL-1 is turned ON. On the other hand, if RL-1 is turned on in step S4, the CPU 121 acquires an AE evaluation value indicating the brightness of the subject via the IPP 107, and the brightness at which CCD-AF is possible based on the AE evaluation value. Is determined (step S5). Specifically, when the AE evaluation value is larger than a predetermined value (first reference value), it is determined that the brightness is possible for the CCD-AF, and the AE evaluation value is a predetermined value (first reference value). Value) or less, it is determined that CCD-AF is not bright enough. If it is determined that the CCD-AF has sufficient brightness, the process proceeds to step S6.
[0035]
  On the other hand, if it is determined in step S5 that the CCD-AF is not bright enough, the process proceeds to step S31 in FIG. 6, and the CPU 121 does not execute the CCD-AF, but only the external AF is in focus. The final in-focus position is determined based on (Steps S31 to S33). Specifically, in step S31, external AF distance measurement processing is executed. In this external AF distance measurement process, the external AF sensor 136 measures the distance to the subject and detects the in-focus position. Then, the CPU 121 determines whether or not the external AF has ended (step S32). If the external AF has ended, the CPU 121 proceeds to step S33 to determine whether or not an appropriate external AF measurement result has been obtained. . Specifically, when the CPU 121 determines that the subject is darker than a predetermined value (second reference value) or has a low contrast based on the amount of light input to the external AF sensor 136, the external AF Is determined to be inappropriate. If it is determined that an appropriate measurement result has been obtained, the process proceeds to step S19 in FIG. 8, and the focus position detected by the external AF is determined as the final focus position. On the other hand, if it is determined in step S33 that an appropriate external AF measurement result has not been obtained, the process proceeds to step S21 in FIG. 8 to determine the normal focus position as the final focus position.
[0036]
  In step S6, the CPU 121 determines whether or not the result of the external AF is appropriate. Specifically, when the CPU 121 determines that the subject is darker than a predetermined value (second reference value) or has a low contrast based on the amount of light input to the external AF sensor 136, the external AF Is determined to be inappropriate. If it is determined that the result of the external AF is appropriate, the process proceeds to step S7.
[0037]
  On the other hand, if it is determined in step S6 that the result of the external AF is not appropriate, the process proceeds to step S41 in FIG. 7, and the CPU 121 determines the final focus position based on the focus result of only the CCD-AF. Is determined (steps S41 to S44). Specifically, in step S41, in order to sample the AF evaluation value in the entire movable area of the focus lens 101a, the CPU 121 performs CCD-AF when sampling the AF evaluation value in the entire area of the focus lens 101a. The position is moved to the start position (reference position), and CCD-AF is started for all areas (step S42). In the CCD-AF, the focus lens system 101a is moved from the start position, AF evaluation values are acquired in all areas, and the focus position is detected. Then, the CPU 121 determines whether or not the CCD-AF has ended (step S43). If the CCD-AF has ended, the CPU 121 proceeds to step S44, and whether an appropriate CCD-AF detection result has been obtained. Judge whether or not. Here, an appropriate detection result means a case where the AF evaluation value has a peak or the like, and an inappropriate detection result means a case where the AF evaluation value has no peak and the subject has no contrast. If it is determined that an appropriate detection result has been obtained, the process proceeds to step S20 in FIG. 8, and the focus position detected by the CCD-AF is determined as the final focus position. On the other hand, if it is determined in step S44 that a proper external AF detection result has not been obtained, the process proceeds to step S21 in FIG. 8 to determine the normal focus position as the final focus position.
[0038]
  If it is determined in step S5 in FIG. 5 that the CCD-AF is bright enough, and if it is determined in step S6 in FIG. 5 that the result of external AF is appropriate, the CPU 121 The in-focus position is detected by executing CCD-AF and external AF substantially simultaneously. Specifically, first, in step S7 in FIG. 5, the CPU 121 calculates the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF in step S3, and calculates the calculated CCD-AF. The focus lens system 101a is moved to the start position (reference position). Subsequently, after moving the focus lens system 101a to the reference position, the CPU 121 starts the external AF and the CCD-AF substantially simultaneously (step S8). In the external AF, the external AF sensor 136 measures the distance to the subject and detects the focus position. In the CCD-AF, the focus lens system 101a is moved in the vicinity of the reference position, the AF evaluation value is acquired, and the focus position is detected.
[0039]
  Thereafter, the CPU 121 determines whether or not the external AF has ended (step S9). If the external AF has ended, the CPU 121 determines whether or not the result of the external AF is appropriate (step S10). Specifically, when the CPU 121 determines that the subject is darker than a predetermined value (second reference value) or has a low contrast based on the amount of light input to the external AF sensor 136, the external AF Is determined to be inappropriate. If it is determined that the result of the external AF is appropriate, the process proceeds to step S11. On the other hand, if it is determined that the result of the external AF is not appropriate, the process proceeds to step S41 in FIG. 7, and the CPU 121 executes CCD-AF over the entire area and based on the focus result of only the CCD-AF. Determine the final in-focus position.
[0040]
  In step S11, the CPU 121 determines whether there is a change in the distance measurement result of the external AF. Specifically, it is determined whether there is a change between the subject distance detected in step S3 and the subject distance detected in step S8. Here, a change indicates that the subject is moving. If it is determined that there is no change in the distance measurement result of the external AF, the process proceeds to step S14. On the other hand, when the CPU 121 determines that there is a change in the distance measurement result of the external AF, the CPU 121 interrupts the CCD-AF and based on the subject distance detected in step S3 and the subject distance detected in step S8. The position of the moving subject is predicted, a new start position (reference position) of the CCD-AF is calculated, and the focus lens system 101a is moved to the calculated start position (step S12). Then, the CCD-AF is re-executed near the new start position (step S13).
[0041]
  In step S14, the CPU 121 determines whether or not the CCD-AF has ended. If the CCD-AF has ended, the CPU 121 proceeds to step S15 in FIG. 8, and an appropriate CCD-AF detection result is obtained. It is determined whether or not. Here, an appropriate detection result means a case where the AF evaluation value has a peak or the like, and an inappropriate detection result means a case where the AF evaluation value has no peak and the subject has no contrast. If it is determined that an appropriate CCD-AF result has not been obtained, the process proceeds to step S19, and the focus position detected by the external AF is determined as the final focus position. On the other hand, if it is determined in step S15 that a proper CCD-AF detection result has been obtained, the process proceeds to step S16, where the CPU 121 determines the subject distance corresponding to the in-focus position detected by the CCD-AF and the external distance. It is determined whether or not the difference in subject distance detected by AF is within a predetermined range. As a result of the determination, if the difference between the subject distance corresponding to the in-focus position detected by the CCD-AF and the subject distance detected by the external AF is not within the predetermined range, the process proceeds to step S21 and the normal focus is performed. The position is determined as the final focus position.
[0042]
  On the other hand, if it is determined in step S16 that the difference between the subject distance corresponding to the in-focus position detected by the CCD-AF and the subject distance detected by the external AF is within a predetermined range, the process proceeds to step S17. The CPU 121 determines whether or not there is a high-luminance subject based on the sampling result of the AF evaluation value of the CCD-AF (the state of the contrast of the subject). When the CPU 121 determines that there is a high-luminance subject (step S18), the CPU 121 proceeds to step S19 and determines the focus position detected by the external AF as the final focus position. If it is determined in step S18 that there is no high-luminance subject, the focus position detected by the CCD-AF is determined as the final focus position (step S20).
[0043]
  Thereafter, the CPU 121 moves the focus lens system 101a to the determined focus position. When the release key is fully pressed and RL-2 is turned on, a shooting operation is performed, and the image data of the subject is captured and recorded in the PC card 150.
[0044]
  9 and 10 are timing charts for explaining the execution timing of the external AF and the CCD-AF. As shown in FIG. 9, the distance measurement process using external AF is executed prior to turning on RL-1, and when RL-1 is turned on, external AF and CCD-AF are executed substantially simultaneously.
[0045]
  FIG. 10 is a timing chart for explaining a case where execution of CCD-AF is interrupted and re-executed. If there is a change in the distance measurement result of the external AF (step S11 above), the currently executed CCD-AF (1) is interrupted, and the start position (reference position) of the CCD-AF is recalculated. Then, the focus lens system 101a is moved to the calculated start position (step S12), and CCD-AF (2) is re-executed from the recalculated start position (step S13).
[0046]
  FIG. 11 is an explanatory diagram for explaining a basic operation regarding the hybrid AF. In the figure, the vertical axis represents the contrast (AF evaluation value), and the horizontal axis represents the lens position (nearest to infinite). First, an in-focus position is detected by external AF, and then a fine sampling is performed by CCD-AF in the vicinity of the detected in-focus position to detect the in-focus position. Then, the final focusing position is determined based on both focusing positions.
[0047]
  As described above, in the present embodiment, when it is determined that the brightness of the subject is not at a level where CCD-AF can be performed, external AF is preferentially performed without performing CCD-AF. To determine the in-focus position.HighAn accurate in-focus position can be detected.
[0048]
  Further, in the present embodiment, when the brightness of the subject is at a level at which CCD-AF can be performed, if it is determined that the detection result of the external AF is not appropriate, the CCD-AF is preferentially applied to the entire area. Therefore, even when something is blocking the external AF sensor 136, it is possible to accurately detect the focus position. In other words, even if the photographer makes a mistake such as closing the external AF sensor 136 with a finger, the focus position can be detected with high accuracy.
[0049]
  In addition, since CCD-AF takes time, a moving subject is relatively weak. Therefore, the movement of the subject is detected based on the distance measurement results of the external AF ranging process performed at predetermined time intervals in step S3, and if there is a movement of the subject, the CCD-AF is executed. Instead, the focus position may be determined by preferentially executing external AF. Thereby, it is possible to detect the in-focus position with high accuracy even for a moving subject.
[0050]
  In the present embodiment, when the power is turned on, the distance measurement process is performed with the external AF at a predetermined interval even before the release key is pressed, that is, even when the release key is not pressed. When the release key is pressed, the reference position for the CCD-AF is calculated based on the distance measurement result of the external AF, and the CCD-AF is performed in the vicinity of the reference position. The AF time can be shortened as compared with the case where external AF is executed after the key is pressed and then CCD-AF is executed based on the result of the external AF.
[0051]
  In the present embodiment, since a passive distance measuring sensor is used as the external AF sensor, it is possible to reduce the size, reduce the cost, and simplify the processing.
[0052]
  Note that the present invention is not limited to the above-described embodiment, and can be appropriately modified and executed without changing the gist of the invention. For example, in the present embodiment, an example in which the automatic focusing device according to the present invention is applied to a digital camera has been described. However, the present invention is not limited to this, and the present invention is also applied to a portable information input device such as a PDA. Applicable. In short, the present invention can be applied to all apparatuses that perform AF when inputting an image.
[0053]
【The invention's effect】
  According to the automatic focusing device of the first aspect, the lens system forms a subject image at a predetermined position, and the imaging unit images the subject image input through the lens system and outputs image data. The luminance detection means detects the luminance of the subject based on the output of the imaging means, and the first focus position detection means uses the imaging means to move the lens system and sample the contrast of the subject to focus the focus position. The second focus position detection means uses a photoelectric conversion means different from the imaging means to detect the distance to the subject to detect the focus position of the lens system, and the control means When the focus position detection execution instructing member is operated, based on the subject brightness detected by the subject brightness detection means, it is determined whether to operate the first focus position detection means, and the first focus position detection means is determined. It is determined that the in-focus position detection means is operated. A case, if it is determined that the light quantity is insufficient from the light quantity detecting means, and the final in-focus position focus position where the first focus position detecting means detectsIf the light amount detection means determines that the light amount is not insufficient, the second focus position detection means detects the first focus position detection execution instruction member before operating the first focus position detection execution member. Determines the lens movement start position when the in-focus position detection means moves the lens system.Therefore, it is possible to detect the in-focus position with high accuracy for various subjects. Even when something is blocking the second focus position detection means, it is possible to accurately detect the focus position. In other words, even if the photographer makes a mistake such as blocking the second focus position detection means with a finger, the focus position can be detected with high accuracy.Furthermore, since the first focus position detection means is performed based on the focus position detected by the second focus position detection means prior to the operation of the first focus position detection execution instruction member, After the operation of the first focus position detection execution instructing member, the second focus position detection means is executed, and thereafter the first focus position detection means is executed based on the result of the second focus position detection means. Compared to the case, the time can be shortened.
[0054]
  Claims3According to the automatic focusing device according to claim 1,Or 2In the automatic focusing device according toSecond focus positionThe detection means isBy detecting the distance to the subject multiple timesDetects subject movementIn such a case, the first focus position detection means is not executed, but the final focus position is detected, or the position of the moving subject is predicted and the first focus position detection is performed. Calculate the starting position of the meansTherefore, in addition to the effect of the automatic focusing device according to the first aspect, it is possible to detect the in-focus position with high accuracy even for a moving subject.
[0055]
  Claims4According to the digital camera according to claim 1, claims 1 to3Since the automatic focusing device according to any one of the above is applied, it is possible to provide a digital camera capable of detecting a focusing position with high accuracy for various subjects. Play.
[0056]
  Claims5According to the portable information input device according to claim 1, claims 1 to3Since the automatic focusing device according to any one of the above is applied, it is possible to provide a portable information input device capable of detecting a focusing position with high accuracy for various subjects. There is an effect.
[0057]
  Claims6TakeIn-focus position detection methodThe lens system forms a subject image at a predetermined position, the imaging unit images the subject image input via the lens system and outputs image data, and the subject luminance detection step is performed by the output of the imaging unit. Based on this, the brightness of the subject is detected, and the first focus position detection step uses the imaging means to move the lens system, sample the contrast of the subject, detect the focus position, and detect the second focus. The position detection step uses a photoelectric conversion means different from the imaging means to detect the distance to the subject and detect the focus position of the lens system, and the control step is operated by the first focus position detection execution instructing member. If it is determined, based on the subject brightness detected by the subject brightness detection step, it is determined whether or not to operate the first focus position detection step, and the first focus position detection step is operated. If it is determined, the light amount detection If it is determined that the amount of the step is insufficient, and the final in-focus position focus position where the first focus position detection step has detectedIf it is determined by the light amount detection step that the light amount is not insufficient, based on the focus position detected by the second focus position detection step before the operation of the first focus position detection execution instruction member. And determining the movement start position of the lens when the first focus position detection step moves the lens system.Therefore, it is possible to detect the in-focus position with high accuracy for various subjects. Even when something is blocking the second focus position detection means, it is possible to accurately detect the focus position. In other words, even if the photographer makes a mistake such as blocking the second focus position detection means with a finger, the focus position can be detected with high accuracy.Further, since the first focus position detection step is performed based on the focus position detected by the second focus position detection step prior to the operation of the first focus position detection execution instructing member, After the operation of the in-focus position detection execution instructing member, the second focus position detection process is executed, and then the first focus position detection process is executed based on the result of the second focus position detection process. Compared to the case, the time can be shortened.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital camera according to an embodiment.
FIG. 2 is a diagram illustrating an example of a specific configuration of the IPP in FIG.
3 is a diagram showing a schematic configuration of the external AF sensor of FIG. 1. FIG.
FIG. 4 is an explanatory diagram for explaining a distance measuring principle of an external AF sensor.
FIG. 5 is a flowchart for explaining an operation related to AF (part 1);
FIG. 6 is a flowchart for explaining an operation related to AF (part 2);
FIG. 7 is a flowchart for explaining an operation related to AF (part 3);
FIG. 8 is a flowchart for explaining an operation related to AF (part 4);
FIG. 9 is a timing chart for explaining the execution timing of external AF and CCD-AF (part 1);
FIG. 10 is a timing chart for explaining the execution timing of external AF and CCD-AF (part 2);
FIG. 11 is an explanatory diagram for explaining a basic operation of the hybrid AF.
FIG. 12 is an explanatory diagram for explaining a conventional CCD-AF system.
FIG. 13 is an explanatory diagram for explaining a conventional CCD-AF system.
[Explanation of symbols]
  100 digital camera
  101 Lens system
  101a Focus lens system
  101b Zoom lens system
  102 Mechanical mechanism including autofocus
  103 CCD (Charge Coupled Device)
  104 CDS (correlated double sampling) circuit
  105 Variable Gain Amplifier (AGC Amplifier)
  106 A / D converter
  107 IPP (Image Pre-Processor)
  108 DCT (Discrete Cosine Transform)
  109 Coder (Huffman Encoder / Decoder)
  110 MCC (Memory Card Controller)
  111 RAM (internal memory)
  112 PC card interface
  121 CPU
  122 Display section
  123 Operation unit
  125 motor driver
  126 SG Department
  127 Strobe
  128 battery
  129 DC-DC converter
  130 EEPROM
  131 Focus driver
  132 Pulse motor
  133 Zoom driver
  134 Pulse motor
  135 Motor driver
  136 External AF sensor
  150 PC card
  151 lens
  152 Photosensor Array
  153 arithmetic circuit
  1071 Color separation unit
  1072 Signal interpolation unit
  1073 Pedestal adjustment unit
  1074 White balance adjustment section
  1075 Digital gain adjustment unit
  1076 γ converter
  1077 Matrix part
  1078 Video signal processor
  1079 Y operation part
  1080 BPF
  1081 AF evaluation value circuit
  1082 AE evaluation value circuit
  1083 Y operation part
  1084 AWB evaluation value circuit
  1085 CPU I / F
  1086 DCTI / F
  1075r, 1075g, 1075b multiplier

Claims (8)

被写体像を所定位置に結像するフォーカスレンズ系を含むレンズ系と、
前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段の出力に基づいて被写体の輝度を検出する被写体輝度検出手段と、
前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、
前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、
前記第1の合焦位置検出手段の実行を指示する第1合焦位置検出実行指示部材と、
前記撮像手段とは異なる光電変換手段に入力される光量を検出する光量検出手段と、
前記第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出手段が検出した被写体輝度に基づき、前記第1の合焦位置検出手段を動作させるか否かを判断し、
前記第1の合焦位置検出手段を動作させると判断した場合であって、前記光量検出手段より光量が不足していると判断した場合は、前記第1の合焦位置検出手段が検出した合焦位置を最終的な合焦位置とし、
前記光量検出手段により光量が不足していないと判断した場合は、前記第1合焦位置検出実行指示部材の操作前に前記第2の合焦位置検出手段が検出した合焦位置に基づいて、前記第1の合焦位置検出手段が前記レンズ系を移動させる際の前記レンズの移動開始位置を決定する制御手段と、
を備えたことを特徴とする自動合焦装置。
A lens system including a focus lens system that forms a subject image at a predetermined position;
Imaging means for imaging a subject image input via the lens system and outputting image data;
Subject brightness detection means for detecting the brightness of the subject based on the output of the imaging means;
A first in-focus position detecting unit that detects the in-focus position by sampling the contrast of the subject by moving the lens system using the imaging unit;
Second focus position detection means for detecting a focus position of the lens system by detecting a distance to a subject using a photoelectric conversion means different from the imaging means;
A first focus position detection execution instructing member for instructing execution of the first focus position detection means;
A light amount detection means for detecting a light amount input to a photoelectric conversion means different from the imaging means;
When the first focus position detection execution instructing member is operated, based on the subject brightness detected by the subject brightness detection means, it is determined whether or not to operate the first focus position detection means;
Even if it is determined that operating the first focus position detecting means, if a more amount of light on the light quantity detecting means is determined to be insufficient, the first focus position detecting means detects Let the focus position be the final focus position ,
When it is determined by the light quantity detection means that the light quantity is not insufficient, based on the focus position detected by the second focus position detection means before the operation of the first focus position detection execution instruction member, Control means for determining a movement start position of the lens when the first focus position detection means moves the lens system ;
An automatic focusing device characterized by comprising:
前記制御手段は、前記光量検出手段より光量が不足していないと判断した場合は、前記第1の合焦位置検出手段が検出した合焦位置と前記第2の合焦位置検出手段が検出した合焦位置から、最終的な合焦位置を決定することを特徴とする請求項1に記載の自動合焦装置。When it is determined that the light amount is not insufficient from the light amount detection unit, the control unit detects the focus position detected by the first focus position detection unit and the second focus position detection unit. from the in-focus position, an automatic focusing device according to claim 1, characterized in that to determine the final focus position. 前記第2の合焦位置検出手段は、被写体との距離を複数回検出することにより被写体の動きを検出した場合には、前記第1の合焦位置検出手段を実行せずに、最終的な合焦位置を検出すること、若しくは、移動している被写体の位置を予測して前記第1の合焦位置検出手段の開始位置を演算することを特徴とする請求項1または2に記載の自動合焦装置。 The second in-focus position detecting means does not execute the first in-focus position detecting means when the movement of the object is detected by detecting the distance to the object a plurality of times , and finally The automatic position according to claim 1 or 2 , wherein a focus position is detected or a start position of the first focus position detection means is calculated by predicting a position of a moving subject. Focusing device. 請求項1〜請求項のいずれか1つに記載の自動合焦装置を適用したことを特徴とするデジタルカメラ。A digital camera to which the automatic focusing device according to any one of claims 1 to 3 is applied. 請求項1〜請求項のいずれか1つに記載の自動合焦装置を適用したことを特徴とする携帯情報入力装置。A portable information input device to which the automatic focusing device according to any one of claims 1 to 3 is applied. フォーカスレンズ系を含むレンズ系の被写体に対する合焦位置を検出する合焦位置検出方法において、
撮像手段の出力に基づいて被写体の輝度を検出する被写体輝度検出工程と、
前記撮像手段を使用して、前記レンズ系を移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出工程と、
前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レン
ズ系の合焦位置を検出する第2の合焦位置検出工程と、
前記撮像手段とは異なる光電変換手段に入力される光量を検出する光量検出工程と、
前記第1の合焦位置検出工程の実行を指示する第1合焦位置検出実行指示部材が操作された場合に、前記被写体輝度検出工程が検出した被写体輝度に基づき、前記第1の合焦位置検出工程を動作させるか否かを判断し、
前記第1の合焦位置検出工程を動作させると判断した場合であって、前記光量検出工程により光量が不足していると判断した場合は、前記第1の合焦位置検出工程が検出した合焦位置を最終的な合焦位置とし、
前記光量検出工程により光量が不足していないと判断した場合は、前記第1合焦位置検 出実行指示部材の操作前に前記第2の合焦位置検出工程が検出した合焦位置に基づいて、前記第1の合焦位置検出工程が前記レンズ系を移動させる際の前記レンズの移動開始位置を決定する制御工程と、
を含むことを特徴とする合焦位置検出方法。
In a focus position detection method for detecting a focus position with respect to a subject of a lens system including a focus lens system,
A subject brightness detection step for detecting the brightness of the subject based on the output of the imaging means;
A first in-focus position detecting step of detecting the in-focus position by sampling the contrast of the subject by moving the lens system using the imaging means;
A second focus position detecting step of detecting a focus position of the lens system by detecting a distance to a subject using a photoelectric conversion means different from the imaging means;
A light amount detection step of detecting a light amount input to a photoelectric conversion means different from the imaging means;
When the first focus position detection execution instructing member for instructing execution of the first focus position detection step is operated, the first focus position is based on the subject brightness detected by the subject brightness detection step. Determine whether to activate the detection process,
Even if it is determined that operating the first focus position detection step, if a more amount of light on the light quantity detecting step is determined to be insufficient, the first focus position detection step has detected Let the focus position be the final focus position ,
Wherein if it is determined that the light amount is not insufficient by the amount of light detecting step, based on the second focus position detection process focus detected position before operation of the first focus position detection execution instruction member A control step of determining a movement start position of the lens when the first focus position detection step moves the lens system ;
In-focus position detection method characterized by including.
前記制御工程は、前記光量検出工程により光量が不足していないと判断した場合は、前記第1の合焦位置検出工程が検出した合焦位置と前記第2の合焦位置検出工程が検出した合焦位置から、最終的な合焦位置を決定することを特徴とする請求項に記載の合焦位置検出方法Wherein the control step, if a more amount of light on the light quantity detecting step is determined not to be missing, the first focus position detection process and the focus position detecting the second focus position detection step detects The in- focus position detection method according to claim 6 , wherein a final in-focus position is determined from the in- focus position . 前記第2の合焦位置検出手工程は、被写体との距離を複数回検出することにより被写体の動きを検出した場合には、前記第1の合焦位置検出工程を実行せずに、最終的な合焦位置を検出すること、若しくは、移動している被写体の位置を予測して前記第1の合焦位置検出工程の開始位置を演算することを特徴とする請求項6または7に記載の合焦位置検出方法In the second focus position detection step, when the movement of the subject is detected by detecting the distance to the subject a plurality of times , the final focus position detection step is not performed and the final focus position detection step is performed. a detecting a focus position, or, according to claim 6 or 7, characterized in that to predict the location of an object that is moving for calculating a start position of the first focus position detection step In-focus position detection method .
JP2000064199A 2000-03-08 2000-03-08 Automatic focusing device, digital camera, portable information input device and focusing position detection method Expired - Fee Related JP3795723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000064199A JP3795723B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, portable information input device and focusing position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000064199A JP3795723B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, portable information input device and focusing position detection method

Publications (2)

Publication Number Publication Date
JP2001255452A JP2001255452A (en) 2001-09-21
JP3795723B2 true JP3795723B2 (en) 2006-07-12

Family

ID=18583932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000064199A Expired - Fee Related JP3795723B2 (en) 2000-03-08 2000-03-08 Automatic focusing device, digital camera, portable information input device and focusing position detection method

Country Status (1)

Country Link
JP (1) JP3795723B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4540800B2 (en) * 2000-05-23 2010-09-08 オリンパス株式会社 Ranging device
JP2006053545A (en) * 2004-07-12 2006-02-23 Canon Inc Optical apparatus
US7469098B2 (en) * 2004-07-12 2008-12-23 Canon Kabushiki Kaisha Optical apparatus
JP5374953B2 (en) 2008-07-30 2013-12-25 セイコーエプソン株式会社 Projector and projector control method
JP5541671B2 (en) * 2009-11-20 2014-07-09 キヤノン株式会社 Imaging apparatus and focus control method

Also Published As

Publication number Publication date
JP2001255452A (en) 2001-09-21

Similar Documents

Publication Publication Date Title
US7764321B2 (en) Distance measuring apparatus and method
US7995852B2 (en) Imaging device and imaging method
JP4198449B2 (en) Digital camera
US6430368B1 (en) Autofocus apparatus
US20050001924A1 (en) Image capturing apparatus
JP3820076B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
JPH11215426A (en) Automatic focusing system
JP4250198B2 (en) Digital camera
JP3761383B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
US7710492B2 (en) Imaging device and imaging method for performing automatic focus detection
JP2009098167A (en) Imaging device and program of the same
JP2001221945A (en) Automatic focusing device
JP2007225897A (en) Focusing position determination device and method
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
JP4555255B2 (en) Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP3795723B2 (en) Automatic focusing device, digital camera, portable information input device and focusing position detection method
JP4907956B2 (en) Imaging device
JP4612512B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP2004085964A (en) Automatic focusing device, digital camera, and portable information input device
JP2009272799A (en) Imaging device and program
JP2005215495A (en) Image photographing device
JP5418553B2 (en) Imaging apparatus and imaging method using the same
JP2004151183A (en) Automatic focusing device, digital camera and portable information terminal equipment equipped with the automatic focusing device
JP3914367B2 (en) Automatic focusing device, digital camera, and portable information input device
JP4343192B2 (en) Automatic focusing device, digital camera, and portable information input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060413

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100421

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100421

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110421

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120421

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130421

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140421

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees